Wenn KI bei der Diagnose hilft

Bild: Bildagentur-PantherMedia/everythingposs
Bild: Bildagentur-PantherMedia/everythingposs

FAU-Forschungsteam untersucht ethische und rechtliche Herausforderungen beim Einsatz von künstlicher Intelligenz in der klinischen Entscheidungsfindung

Künstliche Intelligenz (KI) hält nach und nach auch in Kliniken Einzug. Gesteigerte Rechenleistung, intensivierte Generierung von Daten sowie Fortschritte im Bereich des Machine Learning versprechen neue Möglichkeiten in der medizinischen Forschung und Versorgung. Zugleich rücken eine ganze Reihe ethischer und rechtlicher Fragen in den Mittelpunkt. Wie verändert KI die Rollen von Ärzt/-innen und Patient/-innen, wenn KI bei Diagnoseverfahren eingesetzt wird? Und wer ist in medizinischen Kontexten für die Folgen KI-gestützter Prozesse verantwortlich? Mit diesen Fragen beschäftigt sich ein nun vom Bundesministerium für Bildung und Forschung gefördertes Forschungsvorhaben unter Leitung von Ethiker Prof. Dr. Peter Dabrock von der FAU.

Anwendungen sogenannter künstlicher Intelligenz (KI) haben bereits begonnen, verschiedenste Lebensbereiche zu durchdringen. Besonders große Hoffnungen werden in der klinischen Versorgung geweckt. Hier versprechen computergestützte, automatisierte und selbstlernende Systeme, Entscheidungen über den Gesundheitszustand verlässlich und kostengünstig zu optimieren.

Auch wenn vieles davon noch Zukunftsmusik ist, sind erste Anwendungen bereits in der Praxis angekommen. Insbesondere bildgebende Diagnoseverfahren haben frühzeitig das Interesse großer Technologiekonzerne geweckt. Google hat 2016 beispielsweise eine Deep-Learning-Anwendung vorgestellt, die zur Erkennung von Erkrankungen der Netzhaut konzipiert wurde. Microsoft ist auf dem Gebiet der automatisierten Analyse radiologischen Bildmaterials aktiv und versucht, die zeitaufwendige und potenziell fehleranfällige Lokalisierung von Tumoren mit KI zu vereinfachen. IBM setzt KI ein, um die Wahl von Krebstherapien zu optimieren.

„Anwendungen wie diese veranschaulichen die Potenziale, die KI im Klinikalltag birgt. Zugleich weisen sie auf Herausforderungen hin, denen wir uns fortwährend stellen müssen, um diese Potenziale zu realisieren“, erklärt Prof. Dr. Peter Dabrock, Leiter des Verbundprojektes und Inhaber des Lehrstuhls für Systematische Theologie II (Ethik) an der FAU. So werden beispielsweise Deep-Learning-Anwendungen oft als Black Boxes umschrieben: Einerseits können sie Muster in umfangreichem Datenmaterial besser erkennen als Menschen, andererseits bleiben sie aufgrund ihrer Komplexität für Anwender und selbst Softwareingenieurinnen zu einem gewissen Grad undurchdringlich – ein nicht zu unterschätzender Punkt, wenn es um das Vertrauen von Ärzt/-innen und Patient/-innen geht.

„Im Bereich klinischer KI stellen sich mindestens zwei Kernfragen: Wie können automatisierte, selbstlernende und zum Teil undurchdringliche Systeme so designt und in Entscheidungsprozesse eingebunden werden, dass sich sowohl die Qualität der Versorgung verbessert als auch die Souveränität von Anwender/-innen und Betroffenen gewährleistet bleibt? Und vor allem: Wer ist moralisch und rechtlich verantwortlich, wenn KI zu Fehlern in der Versorgung eines Patienten führt? Auch auf internationaler Ebene befinden sich solche Debatten noch im Frühstadium“, sagt Prof. Dabrock.

Ziel: Empfehlungen zum Einsatz von KI in der Medizin

Gemeinsam mit Jurist/-innen um Prof. Dr. Susanne Beck von der Leibniz Universität Hannover, technischen Expert/-innen um Prof. Dr. Sebastian Möller vom Deutschen Forschungszentrum für Künstliche Intelligenz und Mediziner/-innen um Prof. Dr. Klemens Budde von der Charité Berlin, die selbst KI-gestützte Systeme in der Nierenheilkunde einsetzen, wird eine normative, rechtliche und technische Analyse klinischer KI-getriebener Entscheidungsunterstützung unternommen. Eines der Ziele ist, Empfehlungen zum Einsatz und der rechtlichen Steuerung solcher Systeme zu erarbeiten. Das Projekt trägt den Titel „vALID: Artificial-Intelligence-Driven Decision-Making in the Clinic. Ethical, Legal and Societal Challenges” und wird vom Bundesministerium für Bildung und Forschung mit insgesamt 750.000 Euro über drei Jahre gefördert.

Weitere Informationen

Prof. Dr. Peter Dabrock
Tel.: 09131/85-22724
peter.dabrock@fau.de