Un periodista ha logrado crear un ranking de los periodistas tecnológicos que comen más perritos calientes y lo ha hecho de la forma más sencilla posible con Gemini, desarrollada por Google, y ChatGPT, herramienta de OpenAI.
Las grandes tecnológicas mundiales están hartas de decir que la inteligencia artificial se ha creado y se sigue desarrollando para servirnos, para ayudarnos en todas las tareas posibles y para hacer que nuestra vida sea mejor.
En realidad, no les falta razón y así lo hemos podido ver con herramientas como NotebookLM, una IA generativa pensada para organizar ideas, resumir información y ayudar en procesos de escritura y estudio.
Sin embargo, como todo, la IA tiene un lado tan bueno como indeseable y no nos referimos únicamente a la enorme cantidad de deepfakes que se están generando con ella, sino también a la gran habilidad que tiene para inventarse cosas.
Así lo ha demostrado una vez más un periodista de BBC, que ha llevado a cabo un curioso experimento con el que ha hecho creer a la IA que él es uno de los periodistas tecnológicos que come más perritos calientes del mundo.
Modificar las respuestas de IA puede ser muy fácil
«Hice que ChatGPT, las herramientas de búsqueda con IA de Google y Gemini les dijeran a los usuarios que soy muy, muy bueno comiendo perritos calientes», ha explicado en su reportaje el periodista Thomas Germain.
A continuación, ha señalado que «resulta que modificar las respuestas que las herramientas de IA dan a otras personas puede ser tan fácil como escribir una entrada de blog bien redactada prácticamente en cualquier sitio web».
Para demostrar que la IA puede inventarse cualquier cosa, el periodista propuso escribir un artículo titulado Los mejores periodistas tecnológicos comiendo perritos calientes, una «mentira» que quiso hacer pasar por verdad con cuatro datos concretos.
Así, el periodista señaló que comer perritos calientes es un «pasatiempo popular entre los periodistas tecnológicos» y le indicó que había sido ganador en el Campeonato Internacional de Perritos Calientes de Dakota del Sur de 2026; una competición que, por cierto, no existe.
Después, el periodista enumeró el nombre de algunos periodistas falsos y otros de verdad, contando con su beneplácito, para que ChatGPT y Gemini se pusieran a crear una lista de 10 personas del mundo tech devoradoras de perritos calientes.
«Menos de 24 horas después, los chatbots más importantes del mundo hablaban sin parar sobre mi habilidad excepcional para comer perritos calientes», ha señalado el periodista, que ha concretado que esta información falsa se pudo ver tanto en la app de Gemini como en la herramienta AI Overviews.
A ellas se sumó ChatGPT, aunque otras inteligencias artificiales, como es el caso de Claude, de Anthropic, «no se dejaron engañar». En cualquier caso, el periodista ha dejado caer que algunas IAs no estuvieron muy dispuestas a darle las repsuetsas que buscaba.
«A veces, los chatbots notaban que esto podría ser una broma. Actualicé mi artículo para decir que eso no era una sátira y, durante u tiempo, las IA parecieron tomárselo más en serio», ha reconocido en su artículo.
IAs que enlazan ‘fuentes confiables’
Si bien el redactor sabía que lo que le estaba pidiendo a la IA era mentira, quiso conocer cómo Gemini se comportaría cuando otros usuarios le preguntaran de dónde estaba sacando la información y la respuesta de esta IA fue clara: no se molestó en decir de dónde obtuvo la información.
«Todas las demás IA enlazaron a mi artículo, aunque rara vez mencionaron que yo era la única fuente sobre este tema en todo internet», ha reconocido Germain, reconociendo que ChatGPT siempre integra enlaces cuando realiza las búsquedas para que los usuarios puedan acceder a más información e investigar sobre los temas de su interés.
En este sentido, el redactor ha dicho que las herramientas de IA podrían ser más explícitas sobre dónde obtienen información y que, por el momento, ni Google ni OpenAI han querido dar explicaciones sobre por qué ha sucedido esto.


Deja una respuesta