Zertifizierte CME-Fortbildung für Ärztinnen und Ärzte. CME-Punkte sammeln. Kostenfrei. service@arztcme.de

MedicalLearning – Blog zur Zukunft der medizinischen Information

BÄK und KI

17. November 2023

Im Oktober dieses Jahres veranstaltete die Bundesärztekammer (BÄK) in Berlin ein interdisziplinäres Treffen zur Diskussion über künstliche Intelligenz (KI). Präsident Klaus Reinhardt betonte, dass der gewählte Titel absichtlich gewählt wurde, da ärztliche Fähigkeiten und KI keine gegensätzlichen Konzepte seien. Die Frage, was KI eigentlich ist, stellte sich jedoch als umstritten heraus. Es wurde klar, dass die ärztliche Verantwortung im Umgang mit KI neu überdacht werden muss.

Ein bedeutender Trend, den Bundesgesundheitsminister Karl Lauterbach ansprach, waren Deep Learning und generative KI. Als Beispiel für Deep Learning erwähnte er AlphaFold, ein künstliches neuronales Netzwerk, das die dreidimensionale Struktur von Proteinen präzise anhand ihrer Aminosäuresequenzen vorhersagen kann. In der Onkologie wird die AlphaFold-Datenbank bereits intensiv für die Arzneimittelentwicklung genutzt. Generative KI, die auf Sprachmodellen basiert, ermöglicht die Erzeugung von Inhalten wie Behandlungsvorschlägen aus Textzusammenfassungen. Lauterbach hob hervor, dass dies Anzeichen für echte Intelligenz seien. Aktuelle Entwicklungen in den USA setzen Europa unter Druck, da dort Unternehmen wie Nuance Communications, Epic Systems und GPT4 eine neue Plattform entwickeln und ein Monopol aufzubauen scheinen. Die Frage lautet: Sollten wir mitmachen oder unsere eigenen Modelle entwickeln?

Der Philosoph Julian Nida-Rümelin widersprach Lauterbachs Definition von KI vehement. Generative Sprachmodelle seien zwar Sprachproduktionssysteme, aber keine echte Intelligenz. Er betonte, dass der Einsatz solcher Werkzeuge dennoch hilfreich sein könne, aber in der Medizin stehe die Beziehung zwischen Patient und Arzt im Mittelpunkt. Nida-Rümelin zog einen historischen Bogen von der Kybernetik von Norbert Wiener über den Turing-Test bis zur digitalen Transformation und betonte die Wichtigkeit, sich vor Prognosen zu hüten.

Ulrike I. Attenberger, Leiterin des KI.NRW-Flaggschiffprojekts „Innovative Secure Medical Campus“ am Universitätsklinikum Bonn, präsentierte praktische Beispiele. Sie betonte die Notwendigkeit, den konkreten Nutzen von KI im Auge zu behalten. Ein Problem ist die Generierung valider Evidenz, da nur bei wenigen KI-Analysetools nachgewiesen werden konnte, dass sie die Effizienz steigern oder einen signifikanten klinischen Nutzen haben.

Attenberger wies darauf hin, dass KI eng mit Digitalisierung und Tele-Robotik verbunden ist. Chirurgische Eingriffe können über große Entfernungen hinweg durchgeführt werden, was angesichts des Fachkräftemangels in abgelegenen Gebieten von Bedeutung ist. Dies wirft ethische Fragen auf, insbesondere wenn die KI von Ärzten abweicht. Wer trägt die Verantwortung?

Eva Winkler, Vorsitzende der Zentralen Ethikkommission bei der BÄK, griff diese Frage auf und zeigte, wie leicht das Vertrauen in KI-Systeme in die Irre geführt werden kann. Sie betonte, dass die ärztliche Letztentscheidung entscheidend ist, aber die Verantwortung auf mehreren Ebenen liegt, einschließlich der Ärzte, der Institutionen und der Gesetzgeber.

 

Weitere Beiträge …