La semana pasada, Google dio a conocer su mayor cambio de búsqueda en años, mostrando nuevas características de inteligencia artificial que responden a las preguntas de la gente en el intento de la compañía por alcanzar a sus rivales Microsoft y OpenAI.
Desde entonces, la nueva tecnología ha generado una letanía de falsedades y errores, incluida la recomendación de pegamento como parte de una receta de pizza y la ingestión de piedras como nutrientes, lo que le ha dado a Google un ojo morado y ha causado un revuelo en línea.
Las respuestas incorrectas en la función, llamada AI Overview, han socavado la confianza en un motor de búsqueda al que recurren más de dos mil millones de personas en busca de información autorizada. Y mientras otros chatbots impulsados por IA dicen mentiras y se comportan de manera extraña, la reacción ha demostrado que Google está bajo más presión para incorporar IA de forma segura en su motor de búsqueda.
El lanzamiento también amplía un patrón de problemas de Google con sus últimas funciones de inteligencia artificial poco después de su implementación. En febrero de 2023, cuando Google anunció Bard, un chatbot para combatir ChatGPT, compartió información errónea sobre el espacio. Posteriormente, el valor de mercado de la empresa cayó en 100 mil millones de dólares.
En febrero pasado, la compañía lanzó el sucesor de Bard, Gemini, un chatbot que puede generar imágenes y actuar como un asistente digital controlado por voz. Los usuarios rápidamente se dieron cuenta de que el sistema se negaba a generar imágenes de personas blancas en la mayoría de los casos y dibujaba representaciones inexactas de personajes históricos.
Con cada incidente, los expertos de la industria tecnológica han criticado a la empresa por dejar pasar la pelota. Pero en entrevistas, los analistas financieros dijeron que Google necesitaba actuar rápidamente para mantenerse al día con sus rivales, incluso si eso significaba dificultades de crecimiento.
Google «no tiene otra opción en este momento», dijo en una entrevista Thomas Monteiro, analista de Google en Investing.com. “Las empresas necesitan avanzar muy rápido, incluso si eso significa saltarse pasos en el camino. La experiencia del usuario tendrá que ponerse al día”.
Lara Levin, portavoz de Google, dijo en un comunicado que la gran mayoría de las consultas de AI Overview produjeron «información de alta calidad, con enlaces para profundizar en la web». El resultado generado por IA a partir de la herramienta generalmente se muestra en la parte superior de la página de resultados.
«Muchos de los ejemplos que vimos eran consultas inusuales y también vimos ejemplos que estaban falsificados o que no pudimos reproducir», añadió. La empresa utilizará “ejemplos aislados” de respuestas problemáticas para perfeccionar su sistema.
Desde que OpenAI lanzó su chatbot ChatGPT a finales de 2022 y se convirtió en un fenómeno de la noche a la mañana, Google ha estado bajo presión para integrar la IA en sus aplicaciones populares. Pero existen desafíos a la hora de domesticar grandes modelos de lenguaje, que aprenden de enormes cantidades de datos tomados de la web abierta (incluidas falsedades y publicaciones satíricas) en lugar de programarse como el software tradicional.
(El New York Times demandó a OpenAI y su socio, Microsoft, en diciembre, alegando infracción de derechos de autor de contenido de noticias relacionado con sistemas de inteligencia artificial).
Google anunció la descripción general de la IA con mucha fanfarria en su conferencia anual de desarrolladores, I/O, la semana pasada. Por primera vez, la empresa había conectado Gemini, su último modelo de IA lingüística a gran escala, con su producto estrella, su motor de búsqueda.
AI Overview combina declaraciones generadas por sus modelos de lenguaje con fragmentos de enlaces activos en la web. Puede citar sus fuentes, pero no sabe cuándo esa fuente es incorrecta.
El sistema fue diseñado para responder preguntas más complejas y específicas que las búsquedas normales. El resultado, dijo la compañía, fue que el público podría beneficiarse de todo lo que Gemini podía hacer, eliminando parte del trabajo de búsqueda de información.
Pero las cosas rápidamente salieron mal y los usuarios publicaron capturas de pantalla de ejemplos problemáticos en plataformas de redes sociales como X.
AI Overview indicó a algunos usuarios que mezclaran pegamento no tóxico con salsa de pizza para evitar que el queso se resbalara, una receta falsa que parecía tomada prestada de una publicación de Reddit de hace 11 años que pretendía ser una broma. La IA les dijo a otros usuarios que ingieran al menos una piedra al día para obtener vitaminas y minerales, consejo que se originó en una publicación satírica de The Onion.
Como fuente de ingresos de la empresa, la búsqueda de Google es «la única propiedad que Google necesita para mantenerse relevante/confiable/útil», escribió en Engineer Gergely Orosz, ingeniero de software del boletín de tecnología Pragmatic. «Y, sin embargo, hay ejemplos de cómo las descripciones generales de IA están convirtiendo la búsqueda de Google en basura en toda mi línea de tiempo».
La gente también compartió ejemplos de Google diciéndoles a los usuarios audaces que limpien sus lavadoras con «lejía y vinagre blanco», una mezcla que, cuando se combina, puede crear gas cloro nocivo. En una fuente más pequeña, decía a los usuarios que limpiaran con uno y luego con el otro.
Los usuarios de las redes sociales intentaron competir entre sí para ver quién podía compartir las respuestas más extrañas de Google. En algunos casos, falsificaron los resultados. Una captura de pantalla manipulada parecía mostrar a Google diciendo que un buen remedio para la depresión sería saltar del puente Golden Gate, citando a un usuario de Reddit. Levin, portavoz de Google, dijo que los sistemas de la compañía nunca arrojaron ese resultado.
AI Overview, sin embargo, tuvo dificultades con la historia presidencial, diciendo que 17 presidentes eran blancos y que Barack Obama fue el primer presidente musulmán, según capturas de pantalla publicadas en X.
También se dice que Andrew Jackson se graduó de la universidad en 2005.
Kevin Roose contribuyó al reportaje.