Australien fordert eine strengere Regulierung von KI, nachdem Ärzte ChatGPT zum Schreiben von Krankenakten verwenden
Die australische Ärztevereinigung (AMA) hat strenge Regeln und Transparenz für den Einsatz künstlicher Intelligenz im Gesundheitswesen gefordert, nachdem Ärzte in Krankenhäusern in Perth begonnen haben, mit ChatGPT medizinische Daten in Patientenkarten einzutragen.
Was wir wissen
Die AMA stellte fest, dass Australien bei der Regulierung der künstlichen Intelligenz hinter anderen Ländern zurückbleibt. Strengere Regeln seien notwendig, um Patienten und Angehörige der Gesundheitsberufe zu schützen und eine Atmosphäre des Vertrauens zu schaffen, so der Verband.
Im Mai wurde fünf Krankenhäusern im südlichen Perth Metropolitan Health Service empfohlen, ChatGPT nicht mehr zum Ausfüllen von Krankenakten zu verwenden. Zuvor hatte sich herausgestellt, dass einige Mitarbeiter das große Sprachmodell in ihrer Praxis verwendeten.
Der Geschäftsführer des Dienstes, Paul Forden, sagte, dass die Verwendung solcher Systeme die Vertraulichkeit der Patienten nicht garantiere und daher eingestellt werden sollte.
Nach Ansicht der AMA sollte der Schutz auch darin bestehen, dass die Ärzte die endgültigen Entscheidungen treffen. Außerdem sollte das medizinische Personal die Zustimmung des Patienten für jede Behandlung oder Diagnose mit Hilfe von KI einholen.
Die AMA erklärte, dass die Patientendaten geschützt werden müssen. Eine angemessene ethische Aufsicht sei erforderlich, um sicherzustellen, dass das System nicht zu einer größeren gesundheitlichen Ungleichheit führe, so der Verband weiter.
Nach Ansicht der AMA sollte Australien internationale Praktiken zur Regulierung künstlicher Intelligenz berücksichtigen, wie z. B. das KI-Gesetz der EU oder den Ansatz Kanadas zu diesem Thema.
Quelle: The Guardian.