"ChatGPT und KI können nur so gut sein wie die Daten, die wir ihnen bieten"
Interview Im Rückblick zum Potsdamer KI-Trialog-Workshop, wo sie die Keynote gehalten hatte, sprachen wir noch einmal mit Prof. Dr. Bettina Pfleiderer über Erkenntnisse und Folgerungen.
Es gelang rasch, die Aufmerksamkeit der (man muss es sagen – vorwiegend weiblichen) Teilnehmer/innen in Potsdam und an den Bildschirmen zu gewinnen. Weil es der richtige Zeitpunkt für solch einen Diskurs ist?
Prof. Pfleiderer: Das scheint in der Tat so zu sein! Dass der Wissenschaftsrat nur wenige Tage nach unserer Veranstaltung die Geschlechterforschung für alle Bereiche der Gesellschaft und insbesondere auch in der Medizin als immens wichtig und notwendig bezeichnet hat, war noch das I-Tüpfelchen! Jetzt kommt es darauf an, die Erkenntnisse aus unserer Diskussion und vielen weiteren, die ganz sicher folgen müssen, umzusetzen. In der Medizin, der Gesundheitsversorgung, der Gesundheitswirtschaft und darüber hinaus.
Es ist uns sicher allen so gegangen: Je mehr man sich mit dem Thema KI befasst, umso mehr Fragen, die zu lösen notwendig sind, ergeben sich …
Prof. Pfleiderer: Das kann ich bestätigen; als Vorbereitung für die Tagung habe ich nämlich einen mehrtägigen Dialog mit ChatGPT in Bezug auf geschlechtersensible Medizin aufgenommen … Meine Fragen und die erhaltenen Antworten zeigten deutlich, dass ChatGPT keinen Unterschied sah zwischen geschlechtsspezifischer und geschlechtersensibler Medizin, dass diese Begriffe explizit frauenspezifischen Erkrankungen zugeordnet und dass unzutreffende und falsche Literaturhinweise gegeben wurden. Bei entsprechender Nachfrage und Kritik entschuldigte sich ChatGPT stets wortreich, ohne dabei korrektere Literaturangaben zu liefern.
Das ist dann für mich eines der Hauptprobleme, das übrigens in den meisten Vorträgen benannt wurde: ChatGPT und KI können nur so gut sein wie die Daten, die wir ihnen bieten.
Wie kommt man aus dieser Situation heraus?
Prof. Pfleiderer: Indem man bessere Daten produziert, zur Verfügung stellt, implementiert. Ich weiß, das hört sich einfacher an als es ist. Zum einen brauchen wir neue Kooperationen zwischen den Expert/innen – der geschlechtersensiblen Medizin, Entwickler/innen und Anwender/innen. Wir brauchen Daten, die von diversen Teams fachübergreifend erhoben und angewendet werden. Das bedarf einiger Anstrengungen auf allen Seiten! Im Übrigen, das will ich nicht unerwähnt lassen, müssen Datenschutz und Datenweitergabe auf ihre Sinnhaftigkeit geprüft werden. Was zum Beispiel auch heißt, dass Krankenkassen nicht wie Smaug – „Herr der Ringe“ - auf dem Datenschatz hocken sollten!
Mit besserer Datenbasis könnte die KI ihren idealen Einsatz darin finden, alle Einflussfaktoren auf unsere Gesundheit in all ihrer Komplexität zu erfassen und auszuwerten: die biologischen, psycho-sozialen und sozio-ökonomischen, kurz alle individuellen Aspekte von Lebenswelten des Einzelnen und von Gruppen. Das kann kein noch so ausgeklügelter Fragebogen leisten!
Im Ergebnis: Auf den Patienten, die Patientin zugeschnittene Diagnostik und Therapie, die optimale Arzneimittelgabe. Und das betrifft „nur“ Gesundheit und Krankheit. Die Chancen gehen weit darüber hinaus.
Sie fanden den Dialog mit ChatGPT auch aus einem weiteren Grund sehr interessant …
Prof. Pfleiderer: … weil er aus meiner Sicht sehr erklärend, höflich, nicht ungeduldig mit meinen Nachfragen und zudem empathisch schien, was auch aus Studien mit Patienten hervorging! Vielleicht können wir Profis auch davon lernen?
Prof. Pfleiderer: Das scheint in der Tat so zu sein! Dass der Wissenschaftsrat nur wenige Tage nach unserer Veranstaltung die Geschlechterforschung für alle Bereiche der Gesellschaft und insbesondere auch in der Medizin als immens wichtig und notwendig bezeichnet hat, war noch das I-Tüpfelchen! Jetzt kommt es darauf an, die Erkenntnisse aus unserer Diskussion und vielen weiteren, die ganz sicher folgen müssen, umzusetzen. In der Medizin, der Gesundheitsversorgung, der Gesundheitswirtschaft und darüber hinaus.
Es ist uns sicher allen so gegangen: Je mehr man sich mit dem Thema KI befasst, umso mehr Fragen, die zu lösen notwendig sind, ergeben sich …
Prof. Pfleiderer: Das kann ich bestätigen; als Vorbereitung für die Tagung habe ich nämlich einen mehrtägigen Dialog mit ChatGPT in Bezug auf geschlechtersensible Medizin aufgenommen … Meine Fragen und die erhaltenen Antworten zeigten deutlich, dass ChatGPT keinen Unterschied sah zwischen geschlechtsspezifischer und geschlechtersensibler Medizin, dass diese Begriffe explizit frauenspezifischen Erkrankungen zugeordnet und dass unzutreffende und falsche Literaturhinweise gegeben wurden. Bei entsprechender Nachfrage und Kritik entschuldigte sich ChatGPT stets wortreich, ohne dabei korrektere Literaturangaben zu liefern.
Das ist dann für mich eines der Hauptprobleme, das übrigens in den meisten Vorträgen benannt wurde: ChatGPT und KI können nur so gut sein wie die Daten, die wir ihnen bieten.
Wie kommt man aus dieser Situation heraus?
Prof. Pfleiderer: Indem man bessere Daten produziert, zur Verfügung stellt, implementiert. Ich weiß, das hört sich einfacher an als es ist. Zum einen brauchen wir neue Kooperationen zwischen den Expert/innen – der geschlechtersensiblen Medizin, Entwickler/innen und Anwender/innen. Wir brauchen Daten, die von diversen Teams fachübergreifend erhoben und angewendet werden. Das bedarf einiger Anstrengungen auf allen Seiten! Im Übrigen, das will ich nicht unerwähnt lassen, müssen Datenschutz und Datenweitergabe auf ihre Sinnhaftigkeit geprüft werden. Was zum Beispiel auch heißt, dass Krankenkassen nicht wie Smaug – „Herr der Ringe“ - auf dem Datenschatz hocken sollten!
Mit besserer Datenbasis könnte die KI ihren idealen Einsatz darin finden, alle Einflussfaktoren auf unsere Gesundheit in all ihrer Komplexität zu erfassen und auszuwerten: die biologischen, psycho-sozialen und sozio-ökonomischen, kurz alle individuellen Aspekte von Lebenswelten des Einzelnen und von Gruppen. Das kann kein noch so ausgeklügelter Fragebogen leisten!
Im Ergebnis: Auf den Patienten, die Patientin zugeschnittene Diagnostik und Therapie, die optimale Arzneimittelgabe. Und das betrifft „nur“ Gesundheit und Krankheit. Die Chancen gehen weit darüber hinaus.
Sie fanden den Dialog mit ChatGPT auch aus einem weiteren Grund sehr interessant …
Prof. Pfleiderer: … weil er aus meiner Sicht sehr erklärend, höflich, nicht ungeduldig mit meinen Nachfragen und zudem empathisch schien, was auch aus Studien mit Patienten hervorging! Vielleicht können wir Profis auch davon lernen?