Large Language Models (LLM): Revolution des Medical Writing?

Die Welt der Künstlichen Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht. Ein herausragendes Beispiel dafür ist ChatGPT, ein hochentwickeltes Large Language Model (LLM) von OpenAI, das die Landschaft des Medical Writing revolutioniert. Ein LLM wie ChatGPT ist ein Sprachverarbeitungsmodell, das auf der Transformer-Architektur basiert und mit einer Vielzahl von Texten aus dem Internet trainiert wurde. Es ist in der Lage, menschenähnliche Texte zu erzeugen und auf eine Vielzahl von Anfragen zu antworten. Aber wie kann dieses Modell im Bereich des Medical Writing eingesetzt werden?

Zunächst kann ein LLM als effizientes Werkzeug zur Erstellung medizinischer Berichte und Dokumente dienen oder es kann bei der Erstellung medizinischer Zusammenfassungen und sogar wissenschaftlicher Artikel helfen:

  • Literaturrecherche, Durchsuchen von Datenbanken und Quellen
  • Schreibassistent bei der Erstellung erster Entwürfe von Artikeln
  • Überprüfung und Bearbeitung, bzgl. Inkonsistenzen, Wiederholungen und grammatikalische Fehler, Vorschläge zur Verbesserung der Klarheit und Kohärenz des Textes
  • Zusammenfassung komplexer Forschungsergebnisse
  • Erstellung von Referenzen und Zitaten

CAVE: Trotz seiner beeindruckenden Fähigkeiten ist es wichtig, sich der Grenzen von LLMs wie ChatGPT bewusst zu sein. Sie sind KI-Modelle und können daher Fehler machen oder Informationen falsch interpretieren. Sie sollten immer als zusätzliche Werkzeuge betrachtet werden, die medizinische Fachkräfte bei ihrer Arbeit unterstützen, und nicht als Ersatz für menschliches Fachwissen und Urteilsvermögen.

Generative KI in der Medizinischen Ausbildung

Das Aufkommen generativer künstlicher Intelligenz (gKI) wird als revolutionär in vielen Bereichen betrachtet, einschließlich der medizinischen Ausbildung. In einem kürzlich erschienenen Leitartikel im GMS Journal for Medical Education, diskutieren Moritz und Kollegen die möglichen Anwendungen und Herausforderungen von gKI in der medizinischen Lehre und Ausbildung [Moritz et al., GMS Journal for Medical Education 2023, Vol. 40(4)].

Eine der Schlüsselanwendungen von gKI-Tools ist die Bereitstellung von maßgeschneidertem Lernmaterial für Studierende. Tools wie ChatGPT können relevante Informationen aus einer Fülle von Quellen zusammentragen und sie in einer zugänglichen Form präsentieren, was die Lernprozesse erheblich verbessern kann. Zudem kann gKI dazu beitragen, das kritische Denken und die Problemlösungsfähigkeiten der Studierenden zu fördern.

Jedoch bringt die Integration von gKI auch Herausforderungen mit sich. Eine der Bedenken ist die Möglichkeit von akademischem Betrug, insbesondere in Prüfungen, durch den Einsatz von KI-Tools. Dies erfordert, dass akademische Institutionen neue Prüfungsformate und -methoden entwickeln, um sicherzustellen, dass die Studierenden ein echtes Verständnis für das Fachgebiet erlangen. Ein weiterer Punkt, der betont wird, ist die Notwendigkeit der Integration von gKI in die Lehrpläne und die kontinuierliche Anpassung didaktischer Strategien. Dafür ist eine klare Strategie innerhalb des Bildungssystems erforderlich, um mit der schnellen Entwicklung von gKI-Tools Schritt zu halten und sie in die Curricula zu integrieren. Außerdem ist es entscheidend, sowohl die Chancen als auch die Risiken von gKI im Bildungsbereich zu analysieren. Dies umfasst das Verständnis dafür, wie gKI die Lernziele, die auf der Taxonomie von Bloom basieren, beeinflussen kann, und die Entwicklung von Maßnahmen zur Minimierung potenzieller Ablenkungen oder Distraktoren, die die Lernprozesse beeinträchtigen könnten. Abschließend betonen Moritz und Kollegen die Bedeutung von evidenzbasierter Lehrforschung bei der Integration von gKI in den Lehrbetrieb. In einem Bereich, der sich so schnell entwickelt, ist es entscheidend, fundierte Entscheidungen zu treffen, die auf realen Daten und Forschungsergebnissen basieren.

Generative KI-Tools sind zweifellos eine aufregende Entwicklung, die das Potenzial hat, die medizinische Ausbildung zu revolutionieren. Dennoch ist es entscheidend, dass wir vorsichtig und umsichtig vorgehen und sicherstellen, dass die Integration dieser Tools in die medizinische Ausbildung auf sinnvolle Weise erfolgt, die das Lernen unterstützt und gleichzeitig ethische und akademische Standards aufrechterhält.

Ethik und Datenschutz. Ein wichtiger Aspekt, der in der Debatte um den Einsatz von gKI in der medizinischen Ausbildung nicht übersehen werden darf, ist die Frage der Ethik und des Datenschutzes. Da KI-Systeme oft Zugang zu großen Datenmengen benötigen, besteht das Potenzial für Missbrauch oder unsachgemäße Handhabung von sensiblen Patientendaten. Es ist wichtig, dass Institutionen, die gKI einsetzen, strenge Datenschutzrichtlinien einhalten und sicherstellen, dass die Technologie in Übereinstimmung mit ethischen Standards eingesetzt wird.

Fähigkeiten und KI-Verständnis der Lehrkräfte. Damit generative KI erfolgreich in der medizinischen Ausbildung eingesetzt werden kann, müssen auch die Fähigkeiten der Lehrkräfte berücksichtigt werden. Es ist entscheidend, dass Dozenten und Ausbilder in der Lage sind, gKI-Tools effektiv zu nutzen und ihr Potenzial zu verstehen. Dies könnte durch gezielte Schulungen und Fortbildungen erreicht werden, um sicherzustellen, dass die Lehrkräfte über die notwendigen Fähigkeiten verfügen, um gKI in ihrem Unterricht zu nutzen.

Studentisches Feedback und kontinuierliche Verbesserung. Eine der Stärken von gKI ist ihre Fähigkeit, sich schnell anzupassen und zu lernen. Im Kontext der medizinischen Ausbildung sollte dies genutzt werden, um Feedback von Studierenden zu sammeln und das Lernmaterial kontinuierlich zu verbessern. Dies könnte dazu beitragen, das Engagement der Studierenden zu erhöhen und sicherzustellen, dass die vermittelten Inhalte aktuell und relevant sind.

Fazit. Generative KI bietet großes Potenzial zur Verbesserung und Personalisierung der medizinischen Ausbildung. Ihre Fähigkeit, maßgeschneidertes Lernmaterial bereitzustellen, kann das Lernprozess der Studierenden erheblich verbessern. Gleichzeitig sind jedoch eine sorgfältige Planung, die Berücksichtigung ethischer Standards und Datenschutz, sowie die Schulung von Lehrkräften notwendig, um sicherzustellen, dass die Technologie verantwortungsbewusst und effektiv eingesetzt wird. Es ist wichtig, dass alle Beteiligten – von den Ausbildern und Institutionen bis hin zu den Studierenden – aktiv an diesem Prozess teilnehmen und offen für Innovationen sind, während sie gleichzeitig kritisch gegenüber möglichen Herausforderungen und Risiken bleiben. Die Zukunft der medizinischen Ausbildung wird zweifellos durch die Technologie geprägt sein. Es liegt an uns, sicherzustellen, dass diese Technologie auf eine Weise genutzt wird, die sowohl das Lernen als auch die Patientenversorgung fördert und verbessert.

Kommentare der MedicalLearning-Redaktion

  • Die Zusammenfassung des Beitrags über den Einsatz von ChatGPT stammt übrigens direkt von ChatGPT. User, die sich selbst ein Bild von der Qualität des Ergebnisses machen wollen, finden der Zugang zum Originalbeitrag hier.
  • Nach unser Meinung kommt die punktuell kritische Betrachtung der Autoren in der Zusammenfassung zu kurz. Manche durchaus wichtigen Aspekte, wie mögliche juristische Implikationen (Haftungsrecht) werden z. B. gar nicht erwähnt. Der Text ist zwar gut lesbar, es fehlt aber die Tiefe des Originals.
  • Mit dieser Analyse von durch ChatGPT erstellten Texten sind wir nicht allein. In zahlreichen Redaktionen hat sich der KI-Einsatz als Hilfsmittel schon etabliert, jedoch kann man auf einen menschlichen Schlussredakteur (noch) nicht guten Gewissens verzichten.

Sprechstunde bei Dr. med. ChatGPT

Dem Megathema ChatGPT haben wir bereits einige Blogbeiträge gewidmet und gelernt, dass die KI medizinische Prüfungen bestehen kann oder auch als Autor wissenschaftlicher Artikel in Frage kommen wird. Aber wie steht es um die Interaktion mit den Patienten und deren Fragen? Es ist ja bekannt, dass mit der Informationsflut durch digitalen Medien auch eine zunehmende Zahl von Patientenanfragen einher geht – die unter immer größerem Zeitdruck beantwortet werden müssen.

Eine aktuelle Studie* zeigt nun, dass ChatGPT bei der Beantwortung von Patientenfragen durchaus hilfreich sein kann. In der Arbeit wurden Antworten von Ärzten und Chatbots mit künstlicher Intelligenz auf Patientenfragen, die in einem öffentlichen Social-Media-Forum gestellt wurden miteinander verglichen.
Die grundlegende Frage: Kann ein Chatbot-Assistent mit künstlicher Intelligenz Antworten auf Patientenfragen geben, die von vergleichbarer Qualität und Empathie sind wie die von Ärzten verfassten? Ja, denn die Chatbot-Antworten wurden den Antworten der Ärzte vorgezogen und sowohl hinsichtlich der Qualität als auch des Einfühlungsvermögens deutlich besser bewertet.

Fazit der Autoren: Eine weitere Erforschung dieser Technologie im klinischen Umfeld wäre gerechtfertigt, z. B. die Verwendung eines Chatbots zur Erstellung von Antworten, die dann von Ärzten bearbeitet werden könnten. Zukünftige randomisierte Studien sollten untersuchen, ob der Einsatz von KI-Assistenten die Beantwortung von Fragen verbessern, dadurch das Burnout-Risiko der Ärzte gesenkt und die Patientengesundheit verbessert werden könnten.

* Ayers JW, Poliak A, Dredze M, et al. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Intern Med. Published online April 28, 2023.

Wissenschafts-Autor Chat GPT

Wird die KI die Zukunft der schreibenden Zunft verändern? Ja, und zwar deutlich. Manche Redaktionen und Agenturen denken immer noch, dass noch Hoffnung für ihr Überleben besteht. Wir glauben nicht mehr daran. Der großflächige KI-Einsatz wird viele Jobs in Redaktionen, Text- und P/R-Agenturen überflüssig machen. Auch kleine Web-Agenturen, die sich als digitale Werkbank verstehen sind gefährdet, denn die KI-Tools können den Designprozess automatisieren.

Und die wissenschaftlichen Autoren? Nature hat sich schon mit dieser Frage beschäftigt. Etwa 60 Prozent der befragten Wissenschaftler nutzen ChatGPT zum Spaß ohne Forschungsbezug (schließlich muss der Umgang ja irgendwie erlernt werden), aber jeweils etwa 16 Prozent verwenden sie, um Forschungsmanuskripte zu schreiben, Präsentationen zu erstellen oder Literaturrecherchen durchzuführen.

Im Journal of Educational Evaluation for Health Professions wurde gefragt, ob ein Chatbot mit künstlicher Intelligenz der Autor eines wissenschaftlichen Artikels sein kann? Antwort: Aktuell KI-Chatbots wie ChatGPT sind viel fortschrittlicher als Suchmaschinen, da sie Originaltexte produzieren, aber sie bleiben immer noch auf der Niveau einer Suchmaschine, da sie keine Verantwortung für ihre Texte übernehmen können. Aus diesem Grund können sie aus forschungsethischer Sicht auch keine Autoren sein.

Selbstverständlich werden wissenschaftliche Autoren zukünftig KI-Chatbots als Helferlein nutzen, aber sie sollten sich darüber bewusst sein, dass die Authentizität und Richtigkeit jedes von der KI generierten Textes überprüft werden muss.

Ghostwriter ChatGPT

Die Tagesschau sinniert drüber „wenn der Chatbot den Aufsatz schreibt“ und der stern berichtet: „Universitäten und Schulen wollen Gebrauch von ChatGPT eindämmen“.

Nun haben wir in den letzten Wochen Meldungen dieser Art häufig gelesen. Schüler freuen sich, aber Agenturen und Verlage fürchten schon das Ende ihrer Existenz. Alle zukünftigen Fragen wird die KI beantworten und die entsprechenden Artikel verfassen. Bevor wir uns ebenfalls dem Schicksal ergeben und alle Blogbeiträge künftig ChatGPT überlassen, mal eine ganz pragmatische Frage, die die KI selbst beantworten darf:

Sind die Texte, die von ChatGPT verfasst werden, urheberrechtlich geschützt?

ChatGPT: Ja, die Texte, die von ChatGPT generiert werden, sind urheberrechtlich geschützt. Die zugrunde liegende Technologie und die Daten, die zur Erstellung von ChatGPT verwendet wurden, sind das geistige Eigentum von OpenAI und seinen Partnern. Die generierten Texte stellen eine einzigartige Kombination von Wörtern und Sätzen dar, die von ChatGPT generiert wurden, und daher genießen sie den gleichen Schutz wie jedes andere urheberrechtlich geschützte Werk. Es ist wichtig, die Urheberrechte von ChatGPT und OpenAI zu respektieren und die generierten Texte nur im Rahmen der von OpenAI festgelegten Nutzungsbedingungen zu verwenden. Die korrekte Zitierung wäre übrigens so: (ChatGPT-Modell, erstellt am 22. Februar 2023).

Nur: ist diese Antwort so eindeutig in Deutschland gültig? Schließlich unterscheidet sich das amerikanische Copyright doch deutlich vom deutschen Urheberrecht, denn „Werke im Sinne dieses Gesetzes sind nur persönliche geistige Schöpfungen“. Hier sollte der Gesetzgeber schnellsten Klarheit schaffen.

Medizinexamen? Kein Problem für ChatGPT!

Die Autoren einer aktuellen PLOS-Veröffentlichung haben die Leistung der KI namens ChatGPT beim United States Medical Licensing Exam (USMLE) bewertet. Dieses besteht aus drei Teilprüfungen.

ChatGPT erreichte bei allen drei Prüfungen ohne spezielles Training die Bestehensgrenze oder lag nahe daran. Darüber hinaus zeigte ChatGPT ein hohes Maß an Übereinstimmung und Einsicht in seine Erklärungen. Diese Ergebnisse deuten darauf hin, dass KI-Anwendungen dieser Art das Potenzial haben, bei der medizinischen Ausbildung und möglicherweise auch bei der klinischen Entscheidungsfindung zu helfen.

Das sagt aber auch eine Menge über diese Art der medizinischen Examina aus, denn Auswendiglernen wird belohnt – kritisches Denken nicht. Für manche Hochschullehrer leitet sich jetzt schon daraus ab, die Art und Weise der Studentenausbildung und -bewertung einmal zu überdenken.

Originalpublikation:

CKung TH, Cheatham M, Medenilla A, Sillos C, De Leon L, Elepaño C, et al. (2023) Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digit Health 2(2): e0000198.

Link

ChatGPT: Ein einfaches Beispiel

Künstliche Intelligenz hat schon seit Jahren in zahlreichen Anwendungen Einzug in verschiedene Lebensbereiche erfahren, doch nun hat ChatGPT einen wahren Hype ausgelöst – nicht zuletzt aufgrund der starken medialen Resonanz in den letzten Wochen. Und selbstverständlich fragen auch ausgewiesene Nicht-Experten sofort nach möglichen Einsatzgebieten dieser KI – wie z. B. in der Medizin.

Dieser speziellen Frage werden wir uns in nachfolgenden Beiträgen widmen – das Thema KI wird uns also noch eine Weile begleiten. Jetzt wollen wir an einem einfachen Beispiel zeigen, welche Resultate diese KI heute liefern kann.

Vor einigen Wochen erschien hier in unserem Blog ein Beitrag zu einer Rede des Bundesgesundheitsministers. Nun haben wir ChatGPT die Aufgabe gestellt den ursprünglichen Text in zwei Sätzen zusammenzufassen. Hier das erste Ergebnis:

Bundesgesundheitsminister Karl Lauterbach sprach bei der Digital Health Conference über seine Pläne für die Telematikinfrastruktur und kündigte ein großes Digitalisierungsgesetz für die erste Hälfte 2023 an. Lauterbach setzt auf eine Cloud- und Smartphone-basierte Informationslandschaft und bevorzugt die Opt-out-Variante bei der elektronischen Patientenakte, da sie sonst nicht in der Fläche ankommen würde.

Die Bearbeitungszeit betrug übrigens weniger als 10 Sekunden.

Abschließend der Beitrag zum Vergleich in voller Länge:

DER TIGER UND DIE ZUKUNFT DER TELEMATIK

Bundesgesundheitsminister Karl Lauterbach gibt Gas. Vor zwei Wochen hatten wir seine Pläne für die onkologische Versorgung vorgestellt, die er auf dem Deutschen Krebskongress präsentiert hatte. Auf der Digital Health Conference des Branchenverbandes bitkom hat er letzte Woche jetzt ausführlich über seine Pläne für die Telematikinfrastruktur gesprochen.

Die Kernbotschaft: Den Konnektoren gehört die Vergangenheit und ein Stück weit noch die Gegenwart, die Zukunft aber einer Cloud- und Smartphone-basierten Informationslandschaft. „Die Infrastruktur ist oft veraltet, bevor sie genutzt wird“, stellte der Minister dabei treffend fest und kündigte ein großes Digitalisierungsgesetz für die erste Jahreshälfte 2023 an.

Den wichtigsten Punkt für die Umsetzung hatte er schon beim DKK herausgehoben: die Opt-out-Variante bei der elektronischen Patientenakte (ePA). Mit der einleuchtenden Begründung: „Sonst würde die ePA niemals in der Fläche ankommen“. Dass solche Rechnungen aufgehen, zeigt das Beispiel Finnland. Von rund 5 Millionen Bürgern, die krankenversichert sind, haben bei der Einführung der dortigen ePA weniger als 100 von der opt-out-Regelung Gebrauch gemacht.

Und beim Zeitplan heißt es jetzt: Bitte anschnallen. Noch in dieser Legislaturperiode soll es soweit sein und die ePA dann für alle Versicherten automatisch eingerichtet werden, so der Minister. Das habe die Gesellschafterversammlung der gematik am letzten Montag entschieden. Vergleicht man das mit den Fortschritten der letzten 20 Jahre, ist außerordentlich ambitioniert für den Zeitplan sicher noch maßlos untertrieben.

Und man braucht kein Prophet sein um zu ahnen, dass dieses Projekt am Ende der Legislaturperiode maßgeblich für das „Arbeitszeugnis“ sein wird. Schafft Lauterbach das, wird er als DER Digitalisierer in die Ministeriumsgeschichte eingehen. Ansonsten wird das gleiche gelten, wie für seine Vorgänger: Als Tiger gestartet und als Bettvorleger geendet.