Microsoft bloqueó los polémicos tooltips en Copilot tras la queja de un ingeniero
Microsoft
Microsoft ha restringido ciertos tipos de consultas en su herramienta de IA generativa Copilot después de que un ingeniero de la compañía se quejara de la generación sistemática de imágenes con violencia, contenido sexual y otros contenidos inapropiados.
Esto es lo que sabemos
Copilot bloquea ahora este tipo de consultas cuando se teclean términos como "a favor de la elección", nombres de medicamentos o menciones de armas en manos de niños. El servicio también advierte de que el incumplimiento reiterado de las normas puede dar lugar a la restricción de la cuenta.
Los cambios se producen poco después de que Shane Jones, que trabaja en Microsoft desde hace seis años, escribiera una carta a la Comisión Federal de Comercio de EE.UU. (FTC) quejándose de la falta de medidas de seguridad adecuadas en los productos de la empresa basados en IA.
El ingeniero había estado probando Copilot Designer desde diciembre y descubrió que, para consultas con términos relativamente neutros, el sistema generaba imágenes impactantes de demonios comiéndose bebés y personajes en escenas violentas.
Aunque los nuevos filtros bloquean muchas de las consultas controvertidas, los usuarios de Copilot pueden seguir accediendo a algunos escenarios violentos, además de generar imágenes de personajes protegidos por derechos de autor.
Microsoft afirmó que sigue mejorando los controles sobre los contenidos generados por IA y reforzando los filtros de seguridad para evitar abusos.
La compañía ya recibió críticas masivas anteriormente por la aparición de imágenes explícitas de famosos generadas con Copilot Designer.
Profundizar:
- Un empleado de Microsoft se queja a la FTC sobre la seguridad del generador de IA Copilot Designer
- Microsoft intentó silenciar la vulnerabilidad de DALL-E, según un responsable de la empresa
Fuente: CNBC