Unser Gesundheitssystem befindet sich im Wandel. Jüngste Entwicklungen im Bereich der künstlichen Intelligenz (KI) zeigen vielversprechende Möglichkeiten zur Optimierung von Abläufen im ärztlichen Alltag und zur Verbesserung der Lebensqualität von Patient:innen auf. Der Einsatz von KI-basierten Technologien stellt uns aber auch vor diverse praktische und ethische Herausforderungen.

Die künstliche Intelligenz (KI) beschreibt ein Teilgebiet der Informatik, das sich mit der automatisierten Lösung komplexer Aufgaben befasst. Damit sind Aufgaben gemeint, für deren Lösung in der Regel intelligentes Verhalten, wie es von einem Menschen erwartet werden kann, erforderlich ist. Dabei besitzt die KI gegenüber dem Menschen wesentliche Vorteile. Sie ist ungeteilt aufmerksam, kann theoretisch beliebig große Mengen an Daten verarbeiten und rund um die Uhr operieren, ohne dabei zu ermüden. Es ist daher nicht überraschend, dass die KI mittlerweile viele Aufgaben schneller und genauer lösen kann als der Mensch.

Maschinelles Lernen

Unter maschinellem Lernen versteht man ein Teilgebiet der KI. Dabei werden Lernmodelle eingesetzt, um Wissen aus Erfahrung zu generieren, was beispielsweise für die automatisierte Erkennung von Erkrankungen eingesetzt werden kann. Beim überwachten Lernen wird die KI zunächst mit bekannten Daten trainiert, also z.B. auf Daten von Patient:innen mit einer bestimmten Erkrankung sowie auf Daten von gesunden Personen. Basierend auf den in diesen Trainingsdaten erkannten Mustern, ist die KI dann dazu in der Lage, zu verallgemeinern und neue, unbekannte Daten zu klassifizieren, also z. B. eine Aussage darüber zu treffen, ob die Daten einer Person eher der Gruppe der Patient:innen mit einer bestimmten Erkrankung oder der Gruppe der gesunden Personen zugeordnet werden können. Das heute wohl am häufigsten eingesetzte Lernmodell ist das künstliche neuronale Netzwerk, das einem biologischen Gehirn nachempfunden ist und auf einem hierarchisch strukturierten Informationsfluss durch ein Netzwerk an künstlich angelegten Neuronen beruht.

Möglichkeiten der KI zur Patientenversorgung

Aktuelle Forschungsbestrebungen konzentrieren sich darauf, die technischen Fortschritte der letzten Jahre sinnvoll für das Gesundheitssystem nutzbar zu machen, und reichen etwa von der automatischen Erkennung von Speiseröhren-Tumoren in endoskopischen Aufnahmen [1], der Klassifikation von kolorektalen Polypen basierend auf Aufnahmen des Narrow Band Imaging [2] und der automatischen Erkennung von Hautkrebs in dermato-
skopischen Aufnahmen [3] über die videobasierte Kategorisierung frühkindlicher Spontanmotorik [4], die Klassifizierung von Schnarchgeräuschen [5] und die Erkennung einer Depression anhand der Stimme [6] bis hin zur Entwicklung von KI-basierten Medizinprodukten [7] und Diagnosehilfe-Apps [8].

Merke: KI hat das Potenzial, einfach, überall, jederzeit, schnell, nicht-invasiv, umweltschonend und kostengünstig zu detektieren, ob bei einer Person mit hoher Wahrscheinlichkeit eine bestimmte Erkrankung vorliegt.

Einsatzmöglichkeiten der KI zur Patientenversorgung lassen sich im Wesentlichen in Ansätze zur Erkennung von Erkrankungen, zur Therapie von Patient:innen, zur Verlaufskontrolle und zur Krankheitsprävention einteilen.

KI zur (Früh-)Erkennung von Erkrankungen

Die im ambulanten Setting erhobenen Patientendaten können von der KI umgehend analysiert werden und der Ärzt:in das Vorliegen einer bestimmten Erkrankung rückmelden. Dabei wird versucht, Daten von Patient:innen mit einer bestimmten Erkrankung automatisch von Daten von gesunden Kontrollpersonen und ggf. von Daten von Patient:innen mit anderen Erkrankungen zu unterscheiden. Neben den schon etwas länger beforschten bild-/videobasierten Anwendungen konnten in den letzten Jahren auch vielversprechende Ergebnisse für die Erkennung zahlreicher Erkrankungen basierend auf Sprach-/Stimmaufnahmen erzielt werden. Darunter fallen psychiatrische Erkrankungen, wie Angststörung [10] oder bipolare Störung [11], Entwicklungsstörungen, wie das Rett-Syndrom [12] oder die Autismus-Spektrum-Störung [13], und neurodegenerative Erkrankungen, wie Morbus Alzheimer [14] oder Parkinson [15]. Einen brandaktuellen Forschungstrend stellt die automatische Erkennung einer COVID-19-Infektion anhand von beispielsweise mittels Smartphone erhobenen Sprach-, Stimm-, Atem- oder Hustenaufnahmen dar [16].

Merke: Husten, Atemgeräusche, Stimme und eine Vielzahl weiterer Signale können von KI-Instrumenten verarbeitet und dabei automatisiert mit bestehenden Daten von gesunden und kranken Personen verglichen werden.

KI zur Therapie von Patient:innen

Die Anwendungsfelder von KI in der Behandlung und Versorgung von Patient:innen wachsen schnell. Seit Ende 2019 können Ärzt:innen in Deutschland sog. digitale Gesundheitsanwendungen (DiGA) verschreiben, die zunehmend auch KI-basiert sind. Weitere Beispiele für den Einsatz von KI-Technologie in der Patientenversorgung sind automatische Insulinabgabesysteme für Patient:innen mit Typ-1-Diabetes [7] sowie Sicherheitsaccessoires für ältere Personen, die beispielsweise automatisiert Stürze erkennen und Träger:innen vor Verletzungen schützen (https://www.tangobelt.com). Darüber hinaus werden Kinder mit Autismus-Spektrum-Störung im Rahmen von Roboter-unterstützter Intervention künftig immer mehr von KI-Technologie profitieren.

KI zur Verlaufskontrolle

In longitudinalen Anwendungsdesigns kann KI dazu verwendet werden, für eine Patient:in spezifische Charakteristika zu lernen und in weiterer Folge automatisch zu erkennen, ob sich diese zwischen einzelnen Untersuchungsterminen verändert haben. Davon können besonders Patient:innen mit chronischen Erkrankungen, wie Allergien, Asthma, Diabetes mellitus, Depression oder neuromuskulären Erkrankungen, profitieren. Ein Beispiel ist die App Propeller Health (https://www.propellerhealth.com), die Patient:innen mit Asthma dabei hilft, mögliche Faktoren zu identifizieren, die einen negativen Einfluss auf ihre Erkrankung haben, um in weiterer Folge ihre Lebensqualität zu verbessern. KI-Technologie kann auch für die automatisierte, personalisierte Überwachung des Fortschreitens von neurodegenerativen Erkrankungen eingesetzt werden, also z. B. bei Patient:innen mit Depression, mit Multipler Sklerose oder mit Epilepsie. Longitudinale KI-Ansätze eignen sich aber auch für die automatische Evaluierung eines Therapieerfolgs, wie beispielsweise im Rahmen einer logopädischen Therapie nach Schlaganfällen.

KI zur Prävention

Mittels KI können gesundheitsrelevante Parameter, wie Stimmparameter oder andere physiologische Parameter, in regelmäßigen Abständen im Rahmen von Vorsorgeuntersuchungen mit einem Normmodell abgeglichen werden, das basierend auf großen Mengen an altersspezifischen Daten gesunder Personen trainiert wurde. Darüber hinaus besteht die Möglichkeit, gesunde Personen beispielsweise mit modifizierten Fitnessarmbändern oder speziellen Smartphone-Apps zur kontinuierlichen Aufzeichnung und Analyse von gesundheitsrelevanten Parametern auszustatten. Auf diese Weise könnte eine potenzielle Erkrankung vollautomatisiert frühestmöglich erkannt und eine diagnostische Kaskade eingeleitet werden.

Herausforderungen der KI in der Patientenversorgung

Bei all den vielversprechenden Möglichkeiten der KI zur ambulanten Patientenversorgung gilt es jedoch für einen verbreiteten Einsatz im ärztlichen Alltag einige Hürden zu überwinden. So steht und fällt die Generalisierbarkeit eines KI-Modells mit der Menge und Variabilität der verfügbaren Trainingsdaten. Stehen dem KI-Modell beispielsweise nur Daten von sehr wenigen Personen, die zudem hinsichtlich Alter und Geschlecht noch eine Schiefverteilung aufweisen, zum Training zur Verfügung, so kann das Modell später keine zuverlässigen Aussagen über die Gesamtbevölkerung treffen. Da es sich bei den Daten, die einem KI-Ansatz zur Patientenversorgung zugrunde liegen, in der Regel um sensible Gesundheitsdaten handelt, muss sowohl bei der Datenerhebung als auch bei der Datenverarbeitung und langfristigen Speicherung Datensicherheit gewährleistet sein.

Eine weitere Herausforderung der KI liegt in der Erklärbarkeit der generierten Ausgabewerte. Wenngleich sich beispielsweise mit tiefen neuronalen Netzwerken auch bemerkenswerte Aus- bzw. Vorhersagen treffen lassen, so ist es für den Menschen nicht erfassbar, was genau im Inneren des Netzwerks vor sich geht bzw. wie genau die KI zu ihrem Ergebnis kommt. Speziell für Anwendungen im Gesundheitsbereich ist aber ein gewisses Maß an Transparenz auf dem Weg der ärztlichen Entscheidungsfindung unerlässlich. Unter dem Begriff eXplainable Artificial Intelligence (XAI) versteht man ein vergleichsweise junges Teilgebiet der KI, das sich die Erarbeitung von Methoden zur Verbesserung der Erklärbarkeit von KI-Systemen zum Ziel gesetzt hat.KI-Systeme beruhen in der Regel auf Wahrscheinlichkeitsmodellen. Das bedeutet, dass Falschaussagen in der Natur eines jeden KI-Systems liegen. Dies muss der Ärzt:in sowie auch der Patient:in bewusst sein. Vor einem potenziellen Einsatz eines KI-Systems im realen Kontext ist jedenfalls eine reliable Abschätzung der Leistungsfähigkeit des Systems bzw. der zu erwartenden Irrtumswahrscheinlichkeit notwendig. Zu diesem Zweck wird das KI-Modell meist nur mit einem Teil der zur Verfügung stehenden Daten trainiert, sodass die verbleibenden Daten zum Optimieren und Testen des Modells verwendet werden können.

Akzeptanz

Was den praktischen Einsatz von KI-Systemen für die Patientenversorgung anbelangt, so sorgt die Kombination aus datenschutzrechtlichen Bedenken, mangelndem Einblick in die Funktionsweise und dem Wissen, "dass sich die Maschine irren kann", aktuell noch für eine gewisse Skepsis bei Gesundheitspersonal und Patient:innen. Aktuelle Forschungsprojekte stellen diese Thematiken immer mehr in den Fokus ihrer Arbeit und sind darauf bedacht, die Vorteile von KI im Gesundheitsbereich anschaulich und verständlich zu vermitteln.

Zukunft der KI in der ambulanten Patientenversorgung

Wie in Abb. 1 gezeigt, könnten Untersuchungen im hausärztlichen Setting in vielen Fällen künftig mit einem Mikrofon durchgeführt werden. Nach dem Einsprechen weniger Referenzsätze, dem Produzieren gehaltener Vokale sowie bestimmter Lautabfolgen und nach mehrmaligem Husten könnte der Ärzt:in unmittelbar das potenzielle Vorliegen einer Erkrankung angezeigt werden. Essenziell an dieser Stelle ist, dass das KI-System als Instrument zu betrachten ist – ein Instrument, das der Ärzt:in neben anderen konventionellen Instrumenten zur Verfügung steht. Die endgültige Diagnose stellt nicht die KI, sondern die Ärzt:in nach Abwägen aller einbezogenen Informationskanäle.

Beachte: KI-Instrumente können Ärzt:innen bei Diagnose- und Therapieentscheidungen unterstützen. Ersetzen können sie Ärzt:innen aber nicht.

Schließlich wird die zunehmende Einbeziehung von KI im Gesundheitsbereich langfristig nicht dazu führen, dass Ärzt:innen durch Maschinen ersetzt werden, wohl aber wird sich das Berufsbild einer Ärzt:in verändern. Ärzt:innen sollten in Zukunft dazu in der Lage sein, KI-Instrumente zu bedienen und die gewonnenen Ergebnisse richtig zu deuten. Hierzu wird es wichtig sein, angehenden Ärzt:innen bereits in ihrer Ausbildung KI-Grundlagen zu vermitteln.

Beachte: Die Anforderungen an Ärzt:innen werden sich langfristig verändern. Bereits in ihrer Ausbildung sollten angehende Ärzt:innen mit Grundkonzepten des maschinellen Lernens vertraut gemacht werden, sodass sie später bei der Anwendung von KI-Instrumenten in der täglichen Praxis Stärken und Schwächen dieser Technologie verstehen und von der KI generierte Ergebnisse bestmöglich interpretieren können. Ebenso sollte in der Ausbildung künftig noch stärker Wert auf die persönliche Arzt-Patienten-Interaktion gelegt werden. KI-Instrumente könnten es nämlich durch das Übernehmen oder Optimieren von einst aufwendigen Untersuchungsverfahren ermöglichen, dass Ärzt:innen in der täglichen Praxis mehr Zeit für den empathischen Austausch mit ihren Patient:innen aufwenden können. Dies ist von großer Bedeutung, da positive Auswirkungen von empathischer patientenzentrierter Kommunikation auf biologische Mechanismen im Körper von Patient:innen und deren subjektiv empfundenes Wohlbefinden bereits vielfach in der Literatur beschrieben wurden [18].


Literatur:
[1] Iwagami H, Ishihara R, Aoyama K, Fukuda H, Shimamoto Y, Kono M, Nakahira H, Matsuura N, Shichijo S, Kanesaka T, Kanzaki H, Ishii T, Nakatani Y, Tada T. Artificial intelligence for the detection of esophageal and esophagogastric junctional adenocarcinoma. J Gastroenterol Hepatol 2021; 36(1):131-136.
[2] Jin EH, Lee D, Bae JH, Kang HY, Kwak MS, Seo JY, Yang JI, Yang SY, Lim SH, Yim JY, Lim JH, Chung GE, Chung SJ, Choi JM, Han YM, Kang SJ, Lee J, Chan Kim H, Kim JS. Improved accuracy in optical diagnosis of colorectal polyps using convolutional neural networks with visual explanations. Gastroenterology 2020; 158(8):2169-2179.e8.
[3] Maron RC, Schlager JG, Haggenmüller S, von Kalle C, Utikal JS, Meier F, Gellrich FF, Hobelsberger S, Hauschild A, French L, Heinzerling L, Schlaak M, Ghoreschi K, Hilke FJ, Poch G, Heppt MV, Berking C, Haferkamp S, Sondermann W, Schadendorf D, Schilling B, Goebeler M, Krieghoff-Henning E, Hekler A, Fröhling S, Lipka DB, Kather JN, Brinker TJ. A benchmark for neural network robustness in skin cancer classification. Eur J Cancer 2021; 155:191-199.
[4] Silva N, Zhang D, Kulvicius T, Gail A, Barreiros C, Lindstaedt S, Kraft M, Bölte S, Poustka L, Nielsen-Saines K, Wörgötter F, Einspieler C, Marschik PB. The future of General Movement Assessment: The role of computer vision and machine learning – A scoping review. Res Dev Disabil 2021; 110:103854.
[5] Qian K, Janott C, Schmitt M, Zhang Z, Heiser C, Hemmert W, Yamamoto Y, Schuller BW. Can machine learning assist locating the excitation of snore sound? A review. IEEE J Biomed Health Inform 2021; 25(4):1233-1246.
[6] Zhao Z, Bao Z, Zhang Z, Deng J, Cummins N, Wang H, Tao J, Schuller B. Automatic assessment of depression from speech via a hierarchical attention transfer network and attention autoencoders. IEEE J Sel Top Signal Process 2020; 14(2):423-434.
[7] Amadou C, Franc S, Benhamou PY, Lablanche S, Huneker E, Charpentier G, Penfornis A; Diabeloop Consortium. Diabeloop DBLG1 closed-loop system enables patients with type 1 diabetes to significantly improve their glycemic control in real-life situations without serious adverse events: 6-month follow-up. Diabetes Care 2021; 44(3):844-846.
[8] Gilbert S, Mehl A, Baluch A, Cawley C, Challiner J, Fraser H, Millen E, Montazeri M, Multmeier J, Pick F, Richter C, Türk E, Upadhyay S, Virani V, Vona N, Wicks P, Novorol C. How accurate are digital symptom assessment apps for suggesting conditions and urgency advice? A clinical vignettes comparison to GPs. BMJ Open 2020; 10(12):e040269.
[9] Owoyemi A, Owoyemi J, Osiyemi A, Boyd A. Artificial intelligence for healthcare in Africa. Front Digit Health 2020; 2:6.
[10] Baird A, Cummins N, Schnieder S, Krajewski J, Schuller BW. An evaluation of the effect of anxiety on speech – Computational prediction of anxiety from sustained vowels. In: Proceedings of the 21st Annual Conference of the International Speech Communication Association, INTERSPEECH 2020. Shanghai, China, 4951-4955.
[11] Ren Z, Han J, Cummins N, Kong Q, Plumbley MD, Schuller BW. Multi-instance learning for bipolar disorder diagnosis using weakly labelled speech data. In: Proceedings of the 9th International Conference on Digital Public Health, DPH2019. Marseille, France, 79-83.
[12] Pokorny FB, Marschik PB, Einspieler C, Schuller BW. Does she speak RTT? Towards an earlier identification of Rett syndrome through intelligent pre-linguistic vocalisation analysis. In: Proceedings of the 17th Annual Conference of the International Speech Communication Association, INTERSPEECH 2016. San Francisco, USA, 1953-1957.
[13] Pokorny FB, Schuller BW, Marschik PB, Brueckner R, Nyström P, Cummins N, Bölte S, Einspieler C, Falck-Ytter T. Earlier identification of children with autism spectrum disorder: An automatic vocalisation-based approach. In: Proceedings of the 18th Annual Conference of the International Speech Communication Association, INTERSPEECH 2017. Stockholm, Sweden, 309-313.
[14] Cummins N, Pan Y, Ren Z, Fritsch J, Nallanthighal VS, Christensen H, Blackburn D, Schuller BW, Magimai-Doss M, Strik H, Härmä A. A comparison of acoustic and linguistics methodologies for Alzheimer’s dementia recognition. In: Proceedings of the 21st Annual Conference of the International Speech Communication Association, INTERSPEECH 2020. Shanghai, China, 2182-2186.
[15] Narendra NP, Schuller B, Alku P. The detection of Parkinson‘s Disease from speech using voice source information. IEEE/ACM Trans Audio Speech Lang Process 2021; 29:1925-1936.
[16] Schuller BW, Batliner A, Bergler C, Mascolo C, Han J, Lefter I, Kaya H, Amiriparian S, Baird A, Stappen L, Ottl S, Gerczuk M, Tzirakis P, Brown C, Chauhan J, Grammenos A, Hasthanasombat A, Spathis D, Xia T, Cicuta P, Rothkrantz LJM, Zwerts JA, Treep J, Kaandorp CS. The INTERSPEECH 2021 Computational Paralinguistics Challenge: COVID-19 Cough, COVID-19 Speech, Escalation & Primates. In: Proceedings of the 22nd Annual Conference of the International Speech Communication Association, INTERSPEECH 2021. Brno, Czechia, 431-435.
[17] Bartl-Pokorny KD, Pokorny FB, Batliner A, Amiriparian S, Semertzidou A, Eyben F, Kramer E, Schmidt F, Schönweiler R, Wehler M, Schuller BW. The voice of COVID-19: Acoustic correlates of infection in sustained vowels. J Acoust Soc Am 2021; 149(6):4377.
[18] Decety J. Empathy in medicine: What it is, and how much we really need it. Am J Med 2020; 133(5):561-566.



Autor:innen
Florian Pokorny [1,2], Katrin Bartl-Pokorny [1,2], Gunter Vogrinec [2], Björn Schuller [1,3]
[1] EIHW – Lehrstuhl für Embedded Intelligence for Health Care and Wellbeing, Universität Augsburg, Eichleitnerstraße 30, 86159 Augsburg, Deutschland
[2] iDN – interdisciplinary Developmental Neuroscience, Klinische Abteilung für Phoniatrie, Medizinische Universität Graz, Auenbruggerplatz 26, 8036 Graz, Österreich
[3] GLAM – Group on Language, Audio, & Music, Department of Computing, Imperial College London, 180 Queens‘ Gate, Huxley Building, London SW7 2AZ, Vereinigtes Königreich
EIHW – Lehrstuhl für Embedded Intelligence for Health Care and Wellbeing, Universität Augsburg

Florian Pokorny: Elektrotechnik/Audiotechnik
+43 (0) 316 385 30686, florian.pokorny@uni-a.de
Katrin Bartl-Pokorny: Klinische Linguistik
+43 (0) 316 385 30686, katrin.bartlpokorny@uni-a.de
Gunter Vogrinec: Informationstechnik
+43 (0) 316 385 30687, gunter.vogrinec@medunigraz.at
Björn Schuller: Elektrotechnik/Medizininformatik
+49 (0) 821 598 2910, bjoern.schuller@uni-a.de
Interessenkonflikte: Die Autor:innen haben keine deklariert

Erschienen in: doctors|today, 2022; 2 (11) Seite 65-68