Im Rahmen des Berichts «Grosse Sprachmodelle verstehen» gibt der Berufsverband der Ärzteschaft in der Schweiz FMH acht neue Empfehlungen für Ärztinnen und Ärzte zum Umgang mit Künstlicher Intelligenz KI im ärztlichen Alltag. Ziel ist es, Ärztinnen und Ärzten eine praxisnahe Orientierung zu bieten und zentrale Herausforderungen wie Datenschutz, Transparenz und Verantwortung einzuordnen. Der Bericht ergänzt das Grundlagenpapier «Künstliche Intelligenz im ärztlichen Alltag – Einsatzgebiet in der Medizin: Nutzen, Herausforderungen und Forderungen der FMH» von 2022 und soll zur Diskussion über den sicheren und sinnvollen Einsatz von KI im ärztlichen Alltag beitragen. Lesen Sie die acht neuen Empfehlungen.
- Datenschutzkonforme und lokale Systeme bevorzugen
Ärztinnen und Ärzte sollen lokal gehostete oder kontrollierte Modelle verwenden. Im medizinischen Kontext ist die Nutzung von offen oder kommerziell zugänglichen Schnittstellen, sogenannte APIs, zum Beispiel bei ChatGPT nur dann zulässig, wenn explizit sichergestellt ist, dass keine datenschutzrelevanten Informationen abfliessen. Unabhängig von der technischen Infrastruktur gilt: Informationen und Daten, die nicht veröffentlicht werden dürfen, gehören nicht in ein KI-Sprachmodell. Die Eingabe sensibler Informationen, insbesondere Patientendaten, darf nur erfolgen, wenn technische und rechtliche Garantien eine ausschliesslich lokale oder kontrollierte Verarbeitung sicherstellen. Und: Die Modelle müssen den Vorgaben des Schweizer Datenschutzgesetzes DSG entsprechen. - Kritische Ergebnisprüfung als Ausdruck ärztlicher Verantwortung
Jede Antwort eines KI-Sprachmodelles muss von Ärztinnen und Ärzten kritisch hinterfragt, fachlich überprüft und falls notwendig korrigiert oder verworfen werden. Antworten von KI-Sprachmodellen stellen keine geprüften Fachinformationen dar. Auch wenn die Sprache und Formulierungen professionell erscheint, basieren sie auf statistischen Wahrscheinlichkeiten, nicht auf gesichertem Wissen. KI-Sprachmodelle dürfen die ärztliche Entscheidungsfindung unterstützen, aber nie ersetzen. Die Verantwortung für Diagnose, Therapie und Kommunikation bleibt beim behandelnden Arzt beziehungsweise der behandelnden Ärztin. - Einsatz nur bei bestehender Fachkompetenz
Grosse KI-Sprachmodelle neigen dazu, Inhalte zu halluzinieren: Das bedeutet, dass sie Inhalte erzeugen und erfinden können, welche nicht auf echten Daten oder Fakten basieren. Dies trifft insbesondere bei unscharfen oder mehrdeutigen Eingaben zu. Ärztinnen und Ärzte sollten KI-Sprachmodelle daher nur in Bereichen einsetzen, in denen sie inhaltlich befähigt sind, Fehler zu identifizieren, Aussagen korrekt einzuordnen und die Qualität der Antwort fachlich zu beurteilen. Sprachmodelle können Ärztinnen und Ärzte administrativ entlasten: Zum Beispiel bei der Strukturierung von Freitext, bei der Erstellung von Rohentwürfen oder als Kodierungsunterstützung. - Prompt-Design gezielt einsetzen
Der Inhalt der Anfrage an die Künstlichen Intelligenz KI, der «Prompt», bestimmt die Qualität der Antwort wesentlich mit. Ärztinnen und Ärzte sollen präzise, kontextbezogene Anweisungen, «Prompts», verwenden, denn diese führen zu besseren Resultaten als allgemeine Fragen. - Einsatz von Künstlicher Intelligenz KI dokumentieren und transparent halten
Wenn Ärztinnen und Ärzte Künstliche Intelligenz KI im professionellen Kontext verwenden, ist eine Dokumentation erforderlich: Welche Aufgaben wurden mit dem KI-Modell ausgeführt? Welche Rolle spielte es im Entscheidungsprozess? Diese Nachvollziehbarkeit ist essenziell, sowohl für Patientinnen und Patienten als auch für rechtliche Fragestellungen. Grundsätzlich haben Patientinnen und Patienten im Rahmen ihres Selbstbestimmungsrechts und der Patientenautonomie das Recht, darüber aufgeklärt zu werden, ob Künstliche Intelligenz KI eingesetzt wurde. - Technische Integration ersetzt keine inhaltliche Validität
Die Ärztin oder der Arzt ist im Rahmen der ärztlichen Sorgfaltspflicht für die Diagnosestellung verantwortlich, auch wenn Künstlichen Intelligenz KI als Unterstützung zur Diagnosestellung eingesetzt wird. Die Bereitstellung einer KI-Funktion durch etablierte Anbieter oder deren Integration in eine bestehende Softwareumgebung garantiert keine inhaltliche Korrektheit. Marketingaussagen oder Zertifizierungen dürfen keine Ersatzhandlung für eine fundierte inhaltliche Prüfung darstellen. Die Entscheidung für den Einsatz der Künstlichen Intelligenz KI sollten Ärztinnen und Ärzte ausschliesslich auf einer fundierten Einschätzung des Nutzens, der Risiken und der fachlichen Erfordernisse treffen. - Grenzen der Technologie offen benennen
Grosse KI Sprachmodelle sind Werkzeuge mit bekannten Limitierungen. Sie sind keine denkenden Systeme im eigentlichen Sinn. Wenn Ärztinnen und Ärzte Künstliche Intelligenz KI verwenden, ist dies gegenüber Kolleginnen und Kollegen transparent zu benennen. Eine realistische Erwartungshaltung schützt vor falschen Schlüssen und fördert einen verantwortungsvollen Umgang. - «Planetary Health» mitberücksichtigen
Die digitale Transformation muss auch ökologisch verantwortungsvoll gestaltet werden. Aspekte wie Energieverbrauch, Datenzentren und globalen Auswirkungen sind mitzuberücksichtigen.
Ärztinnen und Ärzte sollten die Kompetenzen zur wirksamen Nutzung und kritischen Beurteilung von Künstlicher Intelligenz während ihrer Weiter- und Fortbildung erwerben. Damit befähigen sie sich, ihre verschiedenen professionellen Rollen in allen Behandlungsformen und Behandlungsschritten unter Einsatz der erforderlichen KI-Fähigkeiten wahrnehmen zu können.