India exige que las versiones beta de la IA sean aprobadas previamente por el Gobierno
Naveed Ahmed/Unsplash.
El Ministerio de Electrónica y Tecnología de la Información de la India (MeitY) ha publicado unas directrices que establecen que las tecnologías de inteligencia artificial en fase de desarrollo deben obtener la aprobación del gobierno antes de su lanzamiento al público general indio.
Esto es lo que sabemos
Según el documento, el despliegue de modelos de IA "no probados/no fiables", modelos lingüísticos e IA generativa en el segmento indio de Internet debe ser autorizado por las autoridades. También recomienda el uso de ventanas emergentes y etiquetado para informar a los usuarios de posibles errores e imprecisiones en los contenidos de IA generativa.
Además, las plataformas y los proveedores de servicios deben garantizar que los productos basados en IA no sesgan, discriminan o amenazan el proceso electoral. El cumplimiento se exige en un plazo de 15 días.
Según los medios de comunicación, puede exigirse a los desarrolladores que demuestren su producto de IA a los funcionarios o realicen pruebas de estrés tras solicitar la autorización.
El ministro de Tecnologías de la Información, Rajeev Chandrasekhar, ha declarado que las medidas son de momento consultivas. Sin embargo, en el futuro pueden llegar a ser obligatorias y se consagrarán en la ley.
De este modo, las autoridades indias pretenden garantizar un mayor "rigor" y responsabilidad a los proveedores de soluciones de IA tras varios incidentes recientes, como el sistema Gemini de Google, que hizo comentarios erróneos sobre el primer ministro del país.
Fuente: The Register