Stay in touch
Prime news from our network.
Stay in touch
Prime news from our network.
Herr Professor Budde, wie fit ist ein System wie ChatGPT in medizinischen Fragen?
ChatGPT ist ein Transformer-Sprachmodell. Solche Systeme können grundsätzlich auch in medizinischen Fragen Auskunft geben. Das funktioniert aber nur, wenn sie dafür entwickelt oder daran angepasst wurden. Für den konkreten Fall ChatGPT war zu lesen, dass es eine medizinische Prüfung bestanden habe. Das heißt aber noch lange nicht, dass es im medizinischen Umfeld eingesetzt werden kann. Denn dieses Sprachmodell kann vor allem eins: sehr flüssig formulieren. Das ist ein deutlicher Fortschritt im Bereich der künstlichen Intelligenz, das muss man würdigen. Aber so ein Sprachmodell kann eben auch mit seinen schönen Formulierungen die Illusion von Wissen und Intelligenz entstehen lassen, auch wenn es gerade nur halluziniert. Dann ist es sogar gefährlich, falls sich jemand bei medizinischen Fragen darauf verlässt. Man muss sich also immer die Begrenzungen solcher Systeme vor Augen führen.
Wie nützlich könnten Transformer-Sprachmodelle für medizinische Anwendungen sein?
Transformer-Sprachmodelle bieten interessante Möglichkeiten. Sie könnten zum Beispiel helfen, Arztbriefe zu formulieren, und Mediziner damit von Routinetätigkeiten entlasten. Das wäre eine Anwendung, die nicht direkt am Patienten stattfindet und damit geringere rechtliche Hürden zu überwinden hat. Dennoch wäre auch das eine Herausforderung für ein Sprachmodell. Es braucht dafür als Basis einen Textkorpus in deutscher Sprache, der mit medizinischen Fachbegriffen umgehen kann und auch Abkürzungen richtig versteht. Diese können je nach Abteilung unterschiedliche Bedeutungen haben. So steht HWI in der Kardiologie für einen Hinterwandinfarkt, während in der Nephrologie damit ein Harnwegsinfekt gemeint ist. Eine weitere Hürde ist, dass medizinische Diagnosen oft verneinend formuliert sind. Untersuchungen sollen Vermutungen ausschließen, wie zum Beispiel einen Herzinfarkt. Diese Feinheiten muss das Sprachmodell erkennen und nicht nur den Begriff „Herzinfarkt“ mit dem Patienten verbinden, der eben keinen solchen hatte.
Gibt es schon entsprechende Ansätze?
Ja, daran arbeiten mehrere Institutionen, auch in Deutschland. Mehrere Mitglieder der Plattform Lernende Systeme, darunter das Deutsche Forschungszentrum für Künstliche Intelligenz und wir von der Charité, arbeiten dazu seit fünf Jahren zusammen. Dabei geht es um einen deutschen Textkorpus, der die Basis für Arztbriefe sein kann. Für das Training eines Systems werden aber immer große Datenmengen gebraucht. Die erforderlichen Daten gibt es, man muss sie aber noch zusammenführen. Und gemäß der Datenschutzvorgaben ist auch das Anonymisieren erforderlich. Das klingt zwar nach einer Kleinigkeit. Aber im medizinischen Kontext muss man sich darüber klar sein, dass auch das Anonymisieren zum Verlust von Inhalten führen kann. Für das Training einer KI ist das unter Umständen problematisch.
Wie nützlich könnten Transformer-Sprachmodelle für medizinische Anwendungen sein?
Transformer-Sprachmodelle bieten interessante Möglichkeiten. Sie könnten zum Beispiel helfen, Arztbriefe zu formulieren, und Mediziner damit von Routinetätigkeiten entlasten. Das wäre eine Anwendung, die nicht direkt am Patienten stattfindet und damit geringere rechtliche Hürden zu überwinden hat. Dennoch wäre auch das eine Herausforderung für ein Sprachmodell. Es braucht dafür als Basis einen Textkorpus in deutscher Sprache, der mit medizinischen Fachbegriffen umgehen kann und auch Abkürzungen richtig versteht. Diese können je nach Abteilung unterschiedliche Bedeutungen haben. So steht HWI in der Kardiologie für einen Hinterwandinfarkt, während in der Nephrologie damit ein Harnwegsinfekt gemeint ist. Eine weitere Hürde ist, dass medizinische Diagnosen oft verneinend formuliert sind. Untersuchungen sollen Vermutungen ausschließen, wie zum Beispiel einen Herzinfarkt. Diese Feinheiten muss das Sprachmodell erkennen und nicht nur den Begriff „Herzinfarkt“ mit dem Patienten verbinden, der eben keinen solchen hatte.
Gibt es schon entsprechende Ansätze?
Ja, daran arbeiten mehrere Institutionen, auch in Deutschland. Mehrere Mitglieder der Plattform Lernende Systeme, darunter das Deutsche Forschungszentrum für Künstliche Intelligenz und wir von der Charité, arbeiten dazu seit fünf Jahren zusammen. Dabei geht es um einen deutschen Textkorpus, der die Basis für Arztbriefe sein kann. Für das Training eines Systems werden aber immer große Datenmengen gebraucht. Die erforderlichen Daten gibt es, man muss sie aber noch zusammenführen. Und gemäß der Datenschutzvorgaben ist auch das Anonymisieren erforderlich. Das klingt zwar nach einer Kleinigkeit. Aber im medizinischen Kontext muss man sich darüber klar sein, dass auch das Anonymisieren zum Verlust von Inhalten führen kann. Für das Training einer KI ist das unter Umständen problematisch.
Wie schaffen es neue Lösungen, die Künstliche Intelligenz nutzen, ins Gesundheitswesen?
Man muss Anwendungsfälle schaffen, um die Qualität der Ergebnisse zu bewerten. Auf dieser Grundlage kann dann eine Zertifizierung als Medizinprodukt folgen – denn das wäre ein Chat-Bot im Kontakt mit Patienten. Darüber hinaus muss für die Fachkräfte der Kontext erkennbar sein, in dem ein System genutzt werden kann und darf. Dafür wäre ein Art Beipackzettel sinnvoll. Darin sollte stehen, was das System sicher kann, wo es Schwächen hat oder was gar nicht geht. Eine KI, die zum Beispiel mit großen Datenmengen von US-amerikanischen Veteranen trainiert wurde, hat fast ausschließlich Daten von Männern verarbeitet. Über Frauen wird sie vermutlich wenig verlässliche Auskünfte geben können. Das muss der Arzt wissen, der so ein Assistenzsystem nutzen will. Und auch Haftungsfragen sind noch zu klären.
Welche Erfahrungen machen Sie mit KI in der Nephrologie?
Es gibt bisher kaum zugelassene Systeme mit KI. Aber für die Forschung zum Beispiel in Universitätskliniken spielt KI schon eine große Rolle.
Was wäre wünschenswert, wie könnte man KI in der Medizin sinnvoll einsetzen?
KI-Lösungen, die über Sprachmodelle die Effizienz steigern, sind willkommen. Ob das nun Arztbriefe, das Beantworten von Patientenfragen, das Recherchieren in der Fachliteratur oder die Umwandlung von Text in Sprache ist, damit zum Beispiel ein sehbehinderter Patient zu bestimmten Informationen Zugang hat. Auch Übersetzungen wären hilfreich, um den Austausch mit Patienten zu erleichtern, die andere Sprachen sprechen als der Arzt.
Wie könnte KI künftig im Zusammenhang mit Medizinprodukten aussehen?
Ein Medizingerät gibt heute bei Bedarf Alarme aus. Diese betreffen zum Teil den Techniker, wenn im Gerät etwas falsch läuft. Oder es geht um Messwerte, die den Zustand eines Patienten betreffen. In beiden Fällen könnte eine integrierte KI Vorschläge dazu machen, wie zum Beispiel ein Defekt am besten zu beheben ist, in dem sie ähnlich formulierte Fehlermeldungen vergleicht und interpretiert. Mit regelbasierten Lösungen geht das schon, aber eine Weiterentwicklung wäre vielleicht möglich. Bei einem Beatmungsgerät als Beispiel für die Vision von einem intelligenten System könnte dieses Vorschläge dazu machen, wie die Parameter für die Therapie zu wählen sind oder sogar Reports ausgeben. Aber, wie schon erwähnt: So ein System muss zu 100 Prozent auf Faktenbasis arbeiten und sich idealerweise sogar auf konkrete Stellen in der Fachliteratur beziehen. Halluzinieren darf es auf keinen Fall.
KI und ChatGPT sind derzeit in der Hype-Phase. Wie lange wird es dauern, bis KI in der Medizin so alltäglich ist wie heute ein Smartphone?
Ein paar Jahre wird es bis dahin schon noch dauern. ChatGPT ist ja nur ein Anfang, ein erster erfolgreicher Schritt in der Entwicklung der Transformer-Sprachmodelle. Ich bin mir sicher, dass die Technologie in der Medizin ankommt und dass bis dahin kein Jahrzehnt vergehen wird. Die Sicherheit muss aber gewährleistet sein. Dann steht dem Einsatz – auch in Deutschland – nichts im Weg.