L'Australie demande une réglementation plus stricte de l'IA après que des médecins ont utilisé le ChatGPT pour rédiger des dossiers médicaux
L'Association médicale australienne (AMA) a appelé à des règles strictes et à la transparence dans l'utilisation de l'intelligence artificielle dans les soins de santé après que des médecins des hôpitaux de Perth ont commencé à utiliser ChatGPT pour entrer des dossiers médicaux dans les dossiers des patients.
Ce que nous savons.
L'AMA a déclaré que l'Australie était à la traîne par rapport à d'autres pays en matière de réglementation de l'IA. Des règles plus strictes sont nécessaires pour protéger les patients et les professionnels de la santé, ainsi que pour créer un climat de confiance, estime l'association.
En mai, il a été recommandé à cinq hôpitaux du service de santé métropolitain de Perth, dans le sud du pays, de cesser d'utiliser ChatGPT pour remplir les dossiers médicaux. Avant cela, il s'est avéré que certains membres du personnel utilisaient le modèle de la grande conversation dans leur pratique.
Le directeur général du service, Paul Forden, a déclaré que l'utilisation de tels systèmes ne garantissait pas la confidentialité des patients et qu'il fallait y mettre fin.
Selon l'AMA, la protection devrait inclure la garantie que les médecins prennent les décisions finales. En outre, le personnel médical devrait obtenir le consentement du patient pour tout traitement ou diagnostic utilisant l'IA.
L'AMA a déclaré que les données des patients doivent être protégées. Un contrôle éthique approprié est nécessaire pour garantir que le système n'entraîne pas une augmentation des inégalités en matière de santé, a ajouté l'association.
Selon l'AMA, l'Australie devrait tenir compte des pratiques internationales en matière de réglementation de l'intelligence artificielle, telles que la loi sur l'IA de l'UE ou l'approche du Canada en la matière.
Source : The Guardian : The Guardian.