OpenAI heeft erkend dat GPT-4, met "minimaal risico", zou kunnen helpen bij de ontwikkeling van biologische wapens.
Mariia Shalabaieva/Unsplash
OpenAI heeft een onderzoek uitgevoerd naar de risico's van het gebruik van zijn nieuwe GPT-4 model voor de ontwikkeling van biologische wapens. De resultaten toonden aan dat toegang tot AI-capaciteiten "ten minste een marginale" toename oplevert in de efficiëntie van het verzamelen van informatie om biologische bedreigingen te ontwikkelen.
Dit is wat we weten
Vijftig biologen en 50 studenten namen deel aan het experiment. Hen werd gevraagd informatie te vinden over de teelt en distributie van gevaarlijke stoffen. De helft van de proefpersonen kreeg toegang tot een speciale versie van GPT-4 zonder beperkingen, de andere helft gebruikte het gewone internet.
Vergelijking van de resultaten toonde een lichte toename in nauwkeurigheid en volledigheid van antwoorden in de groep met toegang tot AI. De OpenAI onderzoekers concludeerden dat er een "op zijn minst klein" risico bestond bij het gebruik van het model om gegevens te verzamelen over de ontwikkeling van biowapens.
Experts en beleidsmakers hebben eerder hun bezorgdheid geuit over het mogelijke gebruik van chatbots om biologische dreigingen te ontwikkelen. In oktober gaf de Amerikaanse president het ministerie van Energie de opdracht om ervoor te zorgen dat AI-systemen geen chemische en biologische risico's met zich meebrengen. Het OpenAI-team werkt nu aan het minimaliseren van dergelijke risico's naarmate de AI-technologie vordert.
Bron: OpenAI