OpenAI ha reconocido que GPT-4 podría, con un "riesgo mínimo", ayudar a desarrollar armas biológicas
Mariia Shalabaieva/Unsplash
OpenAI realizó un estudio para evaluar los riesgos de utilizar su nuevo modelo GPT-4 para desarrollar armas biológicas. Los resultados mostraron que el acceso a las capacidades de la IA proporciona un aumento "al menos marginal" en la eficiencia de la recopilación de información para desarrollar amenazas biológicas.
Esto es lo que sabemos
Cincuenta biólogos y 50 estudiantes participaron en el experimento. Se les pidió que buscaran información sobre el cultivo y la distribución de sustancias peligrosas. A la mitad de los sujetos se les dio acceso a una versión especial de GPT-4 sin restricciones, y la otra mitad utilizó el Internet normal.
La comparación de los resultados mostró un ligero aumento de la precisión y la exhaustividad de las respuestas en el grupo con acceso a la IA. Los investigadores de OpenAI concluyeron que existía un riesgo "al menos menor" de utilizar el modelo para recopilar datos sobre el desarrollo de armas biológicas.
Expertos y responsables políticos han expresado anteriormente su preocupación por el posible uso de chatbots para desarrollar amenazas biológicas. En octubre, el Presidente de EE.UU. dio instrucciones al Departamento de Energía para garantizar que los sistemas de IA no planteen riesgos químicos y biológicos. El equipo de OpenAI trabaja ahora para minimizar esos riesgos a medida que avanza la tecnología de IA.
Fuente: OpenAI