OpenAI heeft een groep gevormd om catastrofale risico's van AI te beoordelen
Mariia Shalabaieva/Unsplash
OpenAI heeft de oprichting aangekondigd van een nieuw team dat zich bezighoudt met het beperken van potentieel gevaarlijke risico's in verband met kunstmatige intelligentie.
Dit is wat we weten
Het paraatheidsteam zal ernstige problemen die AI kan veroorzaken in de gaten houden, beoordelen en voorkomen. Hieronder vallen nucleaire dreigingen, biologische wapens, menselijk bedrog en cyberaanvallen.
OpenAI merkt op dat het nieuwe team op risico's gebaseerd AI-ontwikkelingsbeleid zal ontwikkelen. Aleksander Madry, een MIT-expert in machinaal leren, is aangesteld om het team te leiden.
Volgens OpenAI kunnen geavanceerde AI-modellen voordelen bieden, maar brengen ze ook toenemende risico's met zich mee. De CEO van het bedrijf, Sam Altman, heeft eerder gewaarschuwd voor de mogelijke catastrofale gevolgen van AI en er bij overheden op aangedrongen de technologie net zo serieus te nemen als kernwapens.
Bron: OpenAI