La mayoría de las veces, los chatbots de IA son como nuestros salvadores: nos ayudan a redactar mensajes, refinar ensayos o abordar nuestras terribles investigaciones. Sin embargo, estas innovaciones imperfectas han causado absoluta hilaridad al generar algunas respuestas realmente desconcertantes.
1
Cuando las descripciones generales de la IA de Google nos animaron a poner pegamento en la pizza (y más)
No mucho después del lanzamiento de la función Descripción general de IA de Google en 2024, comenzó a hacer algunas sugerencias peculiares. Entre los consejos que ofreció se encontraba este sorprendente: agregue pegamento no tóxico a su pizza.
Sí, has leído bien. Pegamento. En pizza.
Este consejo en particular causó revuelo en las redes sociales. Comenzaron a circular memes y capturas de pantalla salvajes, y comenzamos a preguntarnos si la IA realmente podría reemplazar a los motores de búsqueda tradicionales.
Pero Géminis no había terminado. En otras revisiones, recomendó comer una piedra por día, agregar gasolina a su plato de espagueti picante y usar dólares para indicar las medidas de peso.
Gemini estaba extrayendo datos de todos los rincones de la web sin comprender completamente el contexto, la sátira o, francamente, el buen gusto. Combinaba estudios oscuros y chistes descarados, presentándolos con un nivel de convicción que haría sonrojar a cualquier experto humano.
Desde entonces, Google ha implementado varias actualizaciones, aunque todavía hay algunas características que podrían mejorar aún más las descripciones generales de IA. Si bien las sugerencias absurdas se han reducido considerablemente, los errores anteriores sirven como un recordatorio duradero de que la IA todavía requiere una dosis saludable de supervisión humana.
2
ChatGPT avergonzando a un abogado en la corte
La total dependencia de un abogado en ChatGPT llevó a una lección inesperada (y muy pública) sobre por qué no se debe confiar únicamente en el contenido generado por IA.
Mientras se preparaba para un caso, el abogado Steven Schwartz utilizó el chatbot para investigar precedentes legales. ChatGPT respondió con seis referencias de casos inventados, completas con nombres, fechas y citas que suenan realistas. Confiando en las garantías de exactitud del ChatGPT, Schwartz presentó las referencias ficticias al tribunal.
El error rápidamente se hizo evidente y, según Document Cloud, el tribunal reprendió a Schwartz por confiar en «una fuente que se había revelado no confiable». En respuesta, el abogado prometió no volver a hacerlo nunca más, al menos sin verificar la información.
También he visto a amigos entregar artículos con estudios citados que son completamente inventados porque es muy fácil creer que ChatGPT no puede mentir, especialmente cuando proporciona citas y enlaces pulidos. Sin embargo, si bien herramientas como ChatGPT pueden resultar útiles, aún requieren una verificación seria de los datos, especialmente en profesiones donde la precisión no es negociable.
3
Cuando el brutalmente honesto BlenderBot 3 asó a Zuckerberg
En un giro irónico, BlenderBot 3 de Meta se hizo famoso por criticar a su creador, Mark Zuckerberg. BlenderBot 3 no se anduvo con rodeos y acusó a Zuckerberg de no seguir siempre prácticas comerciales éticas y de tener mal gusto en moda.
Sarah Jackson, de Business Insider, también probó el chatbot preguntándole su opinión sobre Zuckerberg, quien fue descrito como espeluznante y manipulador.
Las respuestas sin filtrar de BlenderBot 3 fueron divertidas y un poco alarmantes. Planteó dudas sobre si el robot reflejaba un análisis genuino o simplemente se basaba en el sentimiento público negativo. De cualquier manera, los comentarios sin filtrar del chatbot de IA rápidamente llamaron la atención.
Meta retiró BlenderBot 3 y lo reemplazó con el Meta AI más refinado, que presumiblemente no repetirá tales controversias.
4
La crisis romántica de Microsoft Bing Chat
Bing Chat de Microsoft (ahora Copilot) causó sensación cuando comenzó a expresar sentimientos románticos hacia, bueno, todo el mundo, lo más famoso fue en una conversación con el periodista del New York Times Kevin Roose. El chatbot de IA que impulsa Bing Chat declaró su amor e incluso sugirió que Roose abandonara su matrimonio.
Este no fue un incidente aislado: los usuarios de Reddit compartieron historias similares del chatbot expresando un interés romántico en ellos. Para algunos, fue muy gracioso; para otros (o la mayoría), fue inquietante. Muchos bromearon diciendo que la IA parecía tener una vida amorosa mejor que ellos, lo que sólo contribuyó a la naturaleza extraña de la situación.
Además de sus declaraciones románticas, el chatbot también mostró otros comportamientos extraños, parecidos a los humanos, que desdibujaron la línea entre lo entretenido y lo desconcertante. Sus proclamaciones exageradas y extrañas siempre seguirán siendo uno de los momentos más memorables y extraños de la IA.
5
El difícil comienzo de Google Bard con hechos espaciales
Cuando Google lanzó Bard (ahora Gemini) a principios de 2023, el chatbot de IA estuvo plagado de varios errores de alto perfil, particularmente en la exploración espacial. Un paso en falso notable involucró a Bard haciendo afirmaciones inexactas con confianza sobre los descubrimientos del Telescopio Espacial James Webb, lo que provocó correcciones públicas por parte de los científicos de la NASA.
Este no fue un caso aislado. Recuerdo haber encontrado muchas imprecisiones fácticas durante el lanzamiento inicial del chatbot, que parecían alinearse con la percepción más amplia de Bard en ese momento. Estos primeros pasos en falso provocaron críticas de que Google había apresurado el lanzamiento de Bard. Este sentimiento aparentemente fue validado cuando las acciones de Alphabet se desplomaron en alrededor de 100 mil millones de dólares poco después.
Aunque desde entonces Géminis ha logrado avances significativos, su difícil debut sirve como advertencia sobre los riesgos de las alucinaciones de la IA en escenarios de alto riesgo.