Lebenslinie (LL): Der Einsatz von VR, KI oder auch ChatGPT1 in der Medizin kann vorteilhaft sein und kann „Grenzen verschieben“, womöglich Horizonte erweitern. Aber keine Wirkung ohne Nebenwirkung. Wo lauern die Gefahren, wo sind die Grenzen für die Grenzerweiterung?
Professor Giovanni Maio: (GM): „Der Einsatz der KI in der Medizin ist nicht per se ein Problem. Im Gegenteil gehört es zur Sorgfalt dazu, alle Möglichkeiten auszuschöpfen, um Diagnosen, Therapien und Prognosen sicherer zu machen. Hierfür kann der Rückgriff auf Daten der KI sehr hilfreich sein. Das Problem beginnt erst dort, wo die KI nicht mehr als Hilfsmittel für eine bessere ärztliche Entscheidungsfindung genommen wird, sondern vielmehr als deren Ersatz gilt.“
LL: Wo muss man Ihrer Meinung nach dem Machbaren Grenzen setzen?
GM: „Die Grenze der KI ist dort auszumachen, wo man den Reduktionismus, der über die Sammlung von Daten implementiert wird, nicht mehr sieht, sondern meint, man würde über die Daten schon alles wissen. Die KI hantiert mit vielen Daten, aber zwischen der Wirklichkeit und diesen Daten besteht eine Kluft. Und dieser muss man sich bewusst bleiben, denn sonst berechnet die KI Lösungen, die an den Problemen der Menschen komplett vorbeigehen. Denn ihre Probleme sind nicht in Daten zu erfassen, sondern im Gespräch, im Zuhören, im Verstehen, im Zwischenmenschlichen zu begreifen.“
LL: Eine Studie der Universität Oxford sieht in der KI eine existenzielle Bedrohung für die Menschheit. Wie ist Ihre Meinung dazu?
GM: „Ich halte nichts von Superlativen, weder im Positiven noch im Negativen. Genauso wenig wie die KI alle Probleme lösen wird, wird sie auch den Niedergang unserer Kultur bedeuten. Beide Szenarien sind unseriös. Wenn man die KI als Bedrohung etikettiert, so hat man übersehen, dass die KI lediglich eine Technik darstellt, und es kommt ganz auf uns an, wie wir mit ihr umgehen. Wir müssen uns darüber verständigen, wie man einen besonnenen Umgang mit dieser Technik finden kann, und aus meiner Sicht besteht dieser darin, dass wir die KI nicht alleine entscheiden lassen dürfen, sondern wir müssen überall eine Plausibilitätsprüfung vornehmen und uns davon fernhalten, automatisierte Entscheidungen für normal anzusehen. Entscheidungen müssen reflektiert sein, sie müssen den Einzelfall in den Blick nehmen und sie müssen verstehensbasiert ausfallen. Wir brauchen eine menschliche Kontrolle der KI und das Bewusstsein, dass es gerade in der Medizin ein Recht auf eine menschliche Entscheidungshoheit gibt.“
LL: Wie kann man Manipulationen durch KI Einhalt gebieten und so ein „Eigenleben“ derselben ausschließen?
GM: „Wir brauchen eine stärkere Anstrengung, die Entscheidungswege der KI über ihre Algorithmisierung transparenter zu machen. Solange die Algorithmen nicht nachvollziehbar sind und wir es mit einer Black Box zu tun haben, bleibt alles intransparent und extrem störanfällig. Wir sind es den Patientinnen und Patienten schuldig, genau erklären zu können, warum so und nicht anders entschieden worden ist. Da dürfen wir keine Intransparenz zulassen, und so müssen die algorithmischen Entscheidungswege einfach durchsichtig werden. Hierin muss man viel mehr investieren, im Sinne der Autonomie der Patientinnen und Patienten – aber auch der Autonomie der Ärztinnen und Ärzte.“
LL: Wie sieht ein ethisch verantwortlicher Umgang mit KI in der Medizin aus?
GM: „Ärztinnen und Ärzte werden dazu ausgebildet, den ganzen Menschen zu sehen, sich für seinen Befund genauso zu interessieren wie für sein Befinden, und sie lernen, die KI dort einzusetzen, wo mit ihr mehr Sicherheit und Klarheit hergestellt werden kann. Am Ende muss es aber immer die Ärztin oder der Arzt sein, die oder der die Daten der KI einem Plausibilitätscheck unterziehen. Ein verantwortlicher Umgang hieße, dass alle Patientinnen und Patienten wissen, Ärztinnen und Ärzte nutzen das Potenzial der Künstlichen Intelligenz, aber sie fühlen sich persönlich verantwortlich für die Entscheidungen und sind bereit, sich verantwortungsbewusst um ihre Patientinnen und Patienten zu kümmern. Die KI kann den Ärztinnen und Ärzten bestimmte Dinge abnehmen und Teilfunktionen übernehmen. Die ärztliche Entscheidung selbst erfordert aber mehr als KI; sie erfordert ärztliches Beurteilungsvermögen – und dieses wird durch die KI nicht obsolet, sondern wichtiger denn je.“
Das Interview mit Medizinethiker Prof. Giovanni Maio führte Lebenslinie-Chefredakteurin Susanna Khoury
Quelle: 1VR =Virtuelle Realität; KI = Künstliche Intelligenz und ChatGPT = ist ein Chatbot, der künstliche Intelligenz nutzt, um menschliche Sprache zu verstehen und so eine der menschlichen Sprache ähnelnde Antwort zu erzeugen.
Buchtipp: Giovanni Maio: Ethik der Verletzlichkeit, Herder Verlag, Freiburg 2024, ISBN 978-3-451-60132-3, Preis: 18 Euro, www.herder.de