Australia pide una regulación más estricta de la IA después de que los médicos utilicen ChatGPT para redactar historiales médicos
La Asociación Médica Australiana (AMA) ha pedido normas estrictas y transparencia en el uso de la inteligencia artificial en la atención sanitaria después de que los médicos de los hospitales de Perth empezaran a utilizar ChatGPT para introducir historiales médicos en las historias de los pacientes.
Lo que sabemos.
La AMA declaró que Australia va por detrás de otros países en cuanto a regulación de la IA. En opinión de la asociación, se necesitan normas más estrictas para proteger a los pacientes y a los profesionales sanitarios, así como para crear una atmósfera de confianza.
En mayo, se recomendó a cinco hospitales del Servicio Metropolitano de Salud del sur de Perth que dejaran de utilizar ChatGPT para rellenar historiales médicos. Antes de eso, se descubrió que algunos miembros del personal utilizaban el modelo de grandes discursos en sus consultas.
El director general del servicio, Paul Forden, declaró que el uso de este tipo de sistemas no garantiza la confidencialidad del paciente y debe dejar de hacerse.
Según la AMA, la protección debe incluir la garantía de que los médicos tomen las decisiones finales. Además, el personal médico debe obtener el consentimiento del paciente para cualquier tratamiento o diagnóstico que utilice IA.
La AMA declaró que deben protegerse los datos de los pacientes. Es necesaria una supervisión ética adecuada para garantizar que el sistema no provoque un aumento de las desigualdades sanitarias, añadió la asociación.
Según la AMA, Australia debería tener en cuenta las prácticas internacionales para regular la inteligencia artificial, como la Ley de IA de la UE o el enfoque de Canadá sobre esta cuestión.
Fuente: The Guardian.