Künstliche Intelligenz (KI) hat das Potenzial, den Umgang von Leistungserbringern und Patient:innen mit Informationen von Grund auf zu verändern. Wenn es um klinische Informationen und die Interpretation medizinischer Daten geht, die direkte Auswirkungen auf die Behandlung haben können, muss die Gesundheitsbranche jedoch das Potenzial der KI gegen die ihr innewohnenden Risiken abwägen.
Um die klinisch generative KI (GenAI) auf der Basis großer Sprachmodelle (large language model, LLM) voranzutreiben und ihr Versprechen einzulösen, enorme Mengen an medizinischen Daten zu interpretieren und schnell Erkenntnisse zu liefern, müssen sowohl die Lösungsentwickler als auch die Anwendungspartner die entscheidende Bedeutung der Vertrauenswürdigkeit bei KI-gesteuerten Gesundheitslösungen in den Mittelpunkt stellen. Vertrauen lässt sich nur auf einer soliden Grundlage von fachlicher Kontrolle und Verantwortungsbewusstsein aufbauen.
Es steht viel auf dem Spiel für verantwortungsvolle KI im Gesundheitswesen
Wir wissen, dass klinische KI mitunter Anfragen falsch interpretiert oder Antworten erfindet. Sie erinnert Nutzer:innen oft in Haftungsausschlüssen daran, dass sie sich noch im Lernmodus befindet. „Es wird eine Weile dauern, bis diese Modelle zuverlässiger werden, aber ich glaube fest an die Kraft der Innovation und der Skalierung von Technologien, um solche Hürden zu überwinden“, sagt hierzu Manish Vazirani, Vice President of Clinical Effectiveness Product Software Engineering bei Wolters Kluwer Health.
Bei der Suche nach klinischen LLM-Tools für ihre Organisationen rät Vazirani Führungskräften im Gesundheitswesen, nach KI-gesteuerten Lösungen zur klinischen Entscheidungsunterstützung Ausschau zu halten, die auf denselben strengen Standards beruhen wie herkömmliche, von Expert:innen kuratierte Quellen. Durch eine solide klinische Überprüfung und evidenzbasierte Inhalte entwickeln Anbieter anerkannter Ressourcen zur klinischen Entscheidungsunterstützung wie UpToDate® zuverlässige medizinische Informationen. Vazirani erklärt, dass klinische, LLM-gestützte GenAI einen gleichwertigen Standard anstreben muss – nicht, indem sie traditionelles Fachwissen ersetzt, sondern indem sie es um Geschwindigkeit und Skalierbarkeit ergänzt. KI bietet diese durch Verwendung eines Modells, das auf denselben sorgfältig kuratierten und definierten Experteninhalten trainiert wurde, um relevante Antworten zu identifizieren.
Wenn klinische GenAI-Lösungen unkontrolliert arbeiten, können Verzerrungen (Bias) und unvollständige Daten ihre Antworten beeinflussen. Dies führt zu einem Verschwimmen von vertrauenswürdigen und fehlerhaften Informationen. Die Wahrscheinlichkeit fehlerhafter Informationen steigt, wenn klinische LLM-gestützte GenAI ohne angemessene Kontrolle arbeiten und ihre Antworten anfällig für Verzerrungen und unvollständige Daten sind. Aus diesem Grund betont Vazirani, wie wichtig es ist, dass die Entwickler fortlaufende interne Überprüfungen durchführen, die von Fachleuten aus der Klinik unterstützt oder geleitet werden, um zu gewährleisten, dass der von GenAI generierte Inhalt fachlich korrekt ist.
Eine verantwortungsbewusste KI-Lösung stellt Informatiker und klinische Expert:innen vor ein „einzigartiges Dilemma“, erklärt Vazirani. „Wir versuchen, uns auf eine verantwortungsbewusste Entwicklung und nicht auf Geschwindigkeit zu konzentrieren, um die Balance für Praxistauglichkeit zu finden. Und wir müssen zusätzliche Anforderungen berücksichtigen, die Ethik und Fairness einbeziehen.“