El nuevo Bing de Microsoft a veces distorsiona la información que encuentra
Los motores de búsqueda se encuentran en una nueva fase de desarrollo con la integración de la inteligencia artificial. Ahora no tendrá que navegar por un montón de sitios web para encontrar la información que necesita: se la presentarán en mensajes cortos (o no) generados por la IA. Sin embargo, surge la pregunta: ¿hasta qué punto es fiable un sistema así?
Ayer, Microsoft anunció su motor de búsqueda Bing actualizado con ChatGPT, que debería mejorar significativamente la experiencia del usuario. Y aunque Microsoft ha tomado muchas precauciones para evitar que se repita la situación de Tay (el chatbot de Twitter que se volvió racista y misógino), la empresa sigue advirtiendo de que algunos resultados de búsqueda de Bing pueden ser malos. Esto es lo que dice la compañía en un FAQ sobre Bing:
Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una versión preliminar, todavía puede mostrar resultados inesperados o inexactos basados en el contenido web resumido, así que por favor usa tu mejor juicio". Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una versión preliminar, aún puede mostrar resultados inesperados o inexactos basados en el contenido web resumido, así que utiliza tu mejor criterio. A veces, Bing tergiversa la información que encuentra y es posible que veas respuestas que parecen convincentes pero que son incompletas, inexactas o inapropiadas. "
Y estos "errores" son fáciles de detectar: The Verge preguntó a Bing qué había mostrado Microsoft hoy y le dijeron que había mostrado el nuevo buscador Bing con ChatGPT, lo cual es cierto, y añadieron que Microsoft demostró las capacidades del buscador para "parodias de famosos", lo cual, por supuesto, no era el caso.
Fuente: The Verge