OpenAI ha creado un equipo para incorporar las ideas del público a la gestión de los modelos de IA
Mariia Shalabaieva/Unsplash
OpenAI ha anunciado la formación de un nuevo grupo de investigación, Collective Alignment, que desarrollará un sistema para recoger y tener en cuenta la opinión pública a la hora de tomar decisiones sobre el comportamiento de los modelos de inteligencia artificial de la empresa.
Esto es lo que sabemos
Según los desarrolladores, Collective Alignment garantizará que los futuros modelos de IA se ajusten a los valores y expectativas de la sociedad.
La creación del equipo fue el resultado de un programa de subvenciones lanzado el año pasado que financiaba experimentos para introducir el escrutinio público y los "procesos democráticos" en la gestión de los sistemas de IA.
OpenAI publica ahora el código y los resultados del trabajo de los becarios. En el futuro, el equipo de Alineación Colectiva integrará prototipos prometedores en los productos y servicios de la empresa.
Los desarrolladores afirman que la iniciativa está diseñada para que la IA de OpenAI sea lo más útil y segura posible para la sociedad. Sin embargo, algunos expertos señalan la presencia de intereses comerciales y riesgos de presión reguladora por parte de la empresa.
Fuente: OpenAI