OpenAI lanza el grupo Red Teaming Network para mejorar la fiabilidad de sus modelos
OpenAI ha anunciado el lanzamiento del programa Red Teaming Network, un grupo de expertos que evaluará y mitigará los riesgos de los modelos de inteligencia artificial.
Esto es lo que sabemos
Según OpenAI, el grupo ayudará a identificar sesgos en modelos como DALL-E 2 y GPT-4, así como a encontrar pistas que hagan que la IA ignore los filtros de seguridad.
Anteriormente, la empresa también había recurrido a probadores externos, pero esta labor se formaliza ahora para "profundizar y ampliar" las comprobaciones con expertos y organizaciones.
Los participantes en la red podrán interactuar entre sí sobre problemas comunes de las pruebas de IA. Dicho esto, no todos los que participen en el proyecto trabajarán en nuevos productos de OpenAI.
La empresa también invita a participar a expertos en diversos campos, como lingüística, biometría, finanzas y sanidad. No se requiere experiencia previa con sistemas de IA, pero el acuerdo de confidencialidad podría afectar a otras investigaciones, advirtió OpenAI.
Fuente: OpenAI