OpenAI verscherpt controles op de ontwikkeling van potentieel gevaarlijke AI-modellen
Mariia Shalabaieva/Unsplash
OpenAI, de ontwikkelaar van de populaire chatbot ChatGPT, implementeert extra controles om het risico op het maken van kwaadaardige kunstmatige intelligentie modellen te verminderen.
Dit is wat we weten
OpenAI is bezig met het opzetten van een speciale beveiligingsadviesgroep. Deze zal de risico's van ontwikkelde modellen beoordelen op verschillende gebieden: cyberbeveiliging, verkeerde informatie, autonomie en andere.
De groep zal aanbevelingen kunnen doen aan het topmanagement van het bedrijf over het verbieden of beperken van bepaalde projecten. Daarnaast zal de raad van bestuur van OpenAI het recht hebben om een veto uit te spreken over beslissingen van het uitvoerend management.
Volgens de verklaringen van het bedrijf zullen deze maatregelen het mogelijk maken om potentiële bedreigingen in een vroeg stadium van de ontwikkeling beter te identificeren. Experts merken echter op dat de werkelijke effectiviteit van het systeem afhangt van het beleid van het OpenAI management zelf.
Eerder werden voorstanders van het beperken van risicovolle AI-projecten uitgesloten van de raad van bestuur. En de nieuwe bestuursleden staan bekend om hun nogal commerciële houding. In hoeverre zij geneigd zullen zijn om het vetorecht in de praktijk te gebruiken is onbekend.
Bron: TechCrunch