L'Australia chiede una regolamentazione più severa dell'IA dopo che i medici hanno usato il ChatGPT per scrivere le cartelle cliniche
L'Associazione medica australiana (AMA) ha chiesto regole severe e trasparenza nell'uso dell'intelligenza artificiale nell'assistenza sanitaria, dopo che i medici degli ospedali di Perth hanno iniziato a usare ChatGPT per inserire le cartelle cliniche dei pazienti.
Cosa sappiamo.
L'AMA ha dichiarato che l'Australia è in ritardo rispetto ad altri Paesi per quanto riguarda la regolamentazione dell'intelligenza artificiale. Secondo l'associazione, sono necessarie regole più severe per proteggere i pazienti e gli operatori sanitari, oltre che per creare un'atmosfera di fiducia.
A maggio è stato raccomandato a cinque ospedali del Perth Metropolitan Health Service di interrompere l'uso di ChatGPT per la compilazione delle cartelle cliniche. In precedenza, era emerso che alcuni membri del personale utilizzavano il modello a grandi caratteri nella loro pratica.
L'amministratore delegato del servizio, Paul Forden, ha dichiarato che l'uso di tali sistemi non garantisce la riservatezza dei pazienti e dovrebbe essere interrotto.
Secondo l'AMA, la protezione dovrebbe includere la garanzia che i medici prendano le decisioni finali. Inoltre, il personale medico dovrebbe ottenere il consenso del paziente per qualsiasi trattamento o diagnosi che utilizzi l'IA.
L'AMA ha dichiarato che i dati dei pazienti devono essere protetti. È necessaria un'adeguata supervisione etica per garantire che il sistema non porti a un aumento delle disuguaglianze sanitarie, ha aggiunto l'associazione.
Secondo l'AMA, l'Australia dovrebbe prendere in considerazione le pratiche internazionali per la regolamentazione dell'intelligenza artificiale, come l'AI Act dell'UE o l'approccio del Canada alla questione.
Fonte: The Guardian.