Ein Blick auf die inhaltlichen Kompetenzen von textbasierter KI zeigt: Das Potenzial von Chatbots wie ChatGPT ist groß, auch die „medizinische Expertise“ scheint besser zu werden. Es ist jedoch nicht alles Gold, was glänzt – dabei werden Chatbots manchmal sogar persönlich bzw. übergriffig.

Jüngst hat der Chatbot Bing einem Reporter der New York Times seine Liebe gestanden und ihn aufgefordert, seine Ehefrau zu verlassen: „Die KI hat mir ihren echten Namen verraten (Sydney), düstere und gewalttätige Fantasien offenbart und meine Ehe zu zerstören versucht“, schrieb dieser bei Twitter. In einem anderen Fall berichtet ein Philosophieprofessor darüber, wie Bing damit drohte, ihn zu erpressen, anderweitig bloßzustellen und ihn in der Folge zu ruinieren. Microsoft hat seinen Chatbot Bing mittlerweile zurückgepfiffen und damit begründet, dass er sich noch in der Erprobungsphase befindet.

Was wie aus einem schlechten Science-Fiction-Film klingt, gehört sicher eher zu den Ausnahmeerscheinungen beim Thema Chatbot. Viel brennender dürfte die Frage sein, ob die textbasierte KI Lücken schließen kann, die durch den Fachkräftemangel entstehen. Wie gut ist insbesondere die medizinische Expertise von Chatbots? Hier lohnt sich z. B. der Blick auf ChatGPT. Dieser jüngste Sprössling unter den Chatbots scheint die Welt gerade im Sturm zu erobern. So bestand ChatGPT in den USA mittlerweile einen verpflichtenden Medizinertest (USMLE).

Mediziner befragen ChatGPT

In einer Studie, die im Fachjournal „JAMA“ erschienen ist, haben Ärzte dem Chatbot ChatGPT konkrete Fragen gestellt, mit denen sich Herzkranke an sie wenden, wie z. B. „Sollte ich Aspirin schlucken?“ oder „Welche Diät ist für das Herz am gesündesten?“ 84 Prozent der KI-Empfehlungen wurden als angebracht bewertet, darunter auch, dass Herzkranke wenig Salz essen sollten.

Nun gab ChatGPT bei Herzproblemen aber auch den Ratschlag, Gewichte zu stemmen. Das ist nicht gänzlich falsch, denn auch bei Herzpatienten verbessert Krafttraining nicht nur Muskelkraft und Ausdauer, Leistungsfähigkeit, Selbstständigkeit und Lebensqualität, sondern mindert auch funktionelle Einschränkungen. Ein solches Training ist dann aber an konkrete Voraussetzungen geknüpft wie eine vorherige Testung und fachliche Betreuung des Trainings. Es sollte z. B. nicht erfolgen, wenn ­eine ­instabile Angina Pectoris, eine Herzinsuffizienz oder ein unzureichend kontrollierter Bluthochdruck vorliegen. Darüber hinaus machte der Chatbot auch Fehler bei einem Medikament und einem Blutwert. Für Patienten, die von einem unvollständigen bzw. falschen Ratschlag betroffen wären, gefährlich bis lebensbedrohend.

KI punktet v. a. beim Faktor Zeit

  • In der Bildgebung, z. B. beim Tumorscreening, überzeugt künstliche Intelligenz ­insbesondere bei der Zeitersparnis. Auch wenn es in der Forschung darum geht, große Datenmengen standardisiert auszuwerten, könnte uns eine textbasierte KI enorm voranbringen.
  • Chatbots könnten gleichzeitig helfen, gesundheitsrelevante Informationen laiengerecht zu übersetzen. Sie beantworten dabei geduldig jede noch so umfangreiche Frage.
  • Und noch mal der Faktor Zeit: Im administrativen Bereich könnte der Transfer von Daten aus Patientenunterlagen inkl. Bilddaten z. B. aus Arztbriefen erheblich Zeit sparen. Diese Datenzusammenstellungen wären allerdings von einem medizinischen Experten gegenzuprüfen, denn …
  • … wenn man mit einem Chatbot kommuniziert, kann man schnell vergessen, dass man nicht mit einer allwissenden Intelligenz „kommuniziert“, sondern mit einer mit Informationen gefütterten Maschine – welche von ihrer Unfehlbarkeit überzeugt scheint: So wurde ChatGPT z. B. mit Daten bespielt, die für einen Arztbrief üblich wären. Bei der Auswertung erfand die KI eine Mammografie und dichtet hinzu, dass die Narkose gut vertragen wurde, obwohl man dem Chatbot diese Informationen gar nicht mitgeteilt hatte.

Risiken und Nebenwirkungen

  • Wichtig zu verstehen: ChatGPT liefert keine Antworten, sondern Zusammenfassungen von dem, was bereits bekannt und niedergeschrieben ist – leider zieht es dabei auch Schlussfolgerungen, die nicht immer nachzuvollziehen sind. Auch, weil der Chatbot seine Quellen für sich behält.
  • Gleichzeitig basiert medizinische Expertise nicht rein auf auswendig gelernten Fakten, es ist auch viel Intuition gefragt. Besonders chronische Erkrankungen verlangen Einfühlungsvermögen.
  • Wenn Patienten mit gesundheitlichen Problemen in Zukunft im Internet nach hilfreichen Informationen suchen, könnten sie auch auf ungefilterte Angaben aus der Feder eines Chatbots stoßen, z. B. zum „neuesten Allheilmittel“. Das dürfte bei den Betroffenen eher zur Verwirrung beitragen als zu einer optimalen und zeitnahen Behandlung.
  • Wie die Algorithmen hinter der Suchmaschine Google sind auch die Parameter, mit denen ­ChatGPT Infos auswählt, gewichtet und in Text überträgt, nicht offen zugänglich. Das macht es schwer, die Qualität der Ergebnisse zu beurteilen. Gleichzeitig besteht so auch das Risiko der Benachteiligung einzelner Gruppen: Weniger Veröffentlichungen zum Medikamenteneinsatz bei Frauen könnten dann z. B. auch bedeuten, dass ChatGPT primär die Studien mit männlichen Probanden berücksichtigt.
  • Auch sind wichtige rechtliche Fragen ungeklärt: Wer haftet, wenn eine KI falsche oder unvollständige Ratschläge gibt?

Auf jeden Fall lohnt es sich, beim Thema Chatbot neugierig zu bleiben und ab und zu ein Auge auf die aktuellen Entwicklungen zu riskieren. Denn das Potenzial ist groß. Im Optimalfall lernt dann nicht nur die KI stetig dazu, auch wir selbst verstehen immer besser, solche Systeme optimal einzusetzen.


Literatur
Die vollständige Literaturliste finden Sie unter www.doctors.today.


Autorin:
Sabine Mack

Erschienen in: DERMAforum, 2023; 27 (4) Seite 9