Gli sviluppatori dell'intelligenza artificiale dovrebbero essere ritenuti responsabili dei danni che causano, dicono i "padrini" della tecnologia
Immagine generata dall'intelligenza artificiale Bing/DALL-E 3
I potenti sistemi di intelligenza artificiale minacciano la stabilità sociale, secondo un gruppo di esperti di primo piano, tra cui due "padrini" della tecnologia.
Ecco cosa sappiamo
Secondo gli esperti, la spinta a costruire sistemi di intelligenza artificiale sempre più potenti senza capire come renderli sicuri è "assolutamente sconsiderata". Hanno avanzato una serie di suggerimenti, tra cui:
- stanziare fondi per l'uso sicuro dell'IA;
- concedere ai revisori dei conti l'accesso ai laboratori di IA
- l'introduzione di licenze per i modelli avanzati.
Gli esperti hanno anche suggerito di ritenere le aziende tecnologiche responsabili per i danni evitabili causati dai loro sistemi.
Tra i co-autori figurano due dei tre "padrini dell'IA" Geoffrey Hinton e Yoshua Bengio, il premio Nobel Daniel Kahneman, l'autore di Sapiens Yuval Noah Harari e altri importanti esperti.
Hanno avvertito che ci sono già segni di capacità di IA pericolose, come nel modello GPT-4 su cui si basa ChatGPT. Gli esperti temono l'emergere di sistemi autonomi al di fuori del controllo umano.
Fonte: The Guardian