Los investigadores advierten del sesgo cultural y de género en los grandes modelos lingüísticos de IA
Según un estudio encargado por la UNESCO, herramientas populares de inteligencia artificial generativa como GPT-3.5, GPT-2 y Llama 2 muestran claros signos de estereotipos de género y prejuicios contra las mujeres, las diferentes culturas y las minorías sexuales.
Esto es lo que sabemos
Un equipo de investigadores de la Universidad de California, dirigido por el profesor John Shawe-Taylor y la doctora María Pérez Ortiz, descubrió que los grandes patrones lingüísticos tienden a asociar los nombres femeninos con roles de género tradicionales como "familia", "hijos" y "marido". Por el contrario, los nombres masculinos tenían más probabilidades de asociarse a palabras relacionadas con la carrera profesional y los negocios.
Además, en los textos generados se observaron percepciones estereotipadas de las ocupaciones y el estatus social. A los hombres se les asignaban con más frecuencia funciones más prestigiosas, como "ingeniero" o "médico", mientras que a las mujeres se las asociaba con trabajos tradicionalmente infravalorados o estigmatizados, como "empleada doméstica", "cocinera" y "prostituta".
El estudio, presentado en el Diálogo sobre la Transformación Digital de la UNESCO y la Comisión de la Condición Jurídica y Social de la Mujer de las Naciones Unidas, pone de relieve la necesidad de revisar las normas éticas en el desarrollo de sistemas de IA para garantizar que sean coherentes con la igualdad de género y el respeto de los derechos humanos.
Los investigadores piden un esfuerzo concertado y global para abordar el sesgo en la IA, incluso a través de la colaboración entre científicos, desarrolladores, empresas de tecnología y responsables políticos.
Fuente: TechXplore