Un texto de la Defensora del Lector del diario El País trataba de explicar la razón, y por ende disculparse, de que una de las newsletter que enviaba el diario a sus lectores parecía incluir frases o expresiones que parecían sacadas de contexto o simplemente no tener ningún sentido. Los lectores se quejaban de algunas “erratas groseras” que creían no dignas de un medio de comunicación como El País, pero que se habían repetido durante algunas semanas.
A modo ilustrativo, en una de ellas, por ejemplo y entre otras, se recogía el titular “Uruguay desprecia a Mujica” (haciendo referencia al presidente recientemente fallecido) cuando en realidad desde el diario se había enviado el titular “Uruguay despide a Mujica.” Tras realizar las revisiones pertinentes, se llegó a la conclusión que desde el diario no se había cometido errores de redacción, pero ¿cuál era la razón de que esa newsletter contuviese textos erróneos?
Fueron los propios lectores los que aclararon el misterio cuando advirtieron que una opción de Gmail cambiaba algunos términos al traducirlos desde el inglés (aunque el texto esté redactado en castellano desde un inicio).
Tras la resolución del enigma, el texto periodístico concluía:
Este caso expone cómo la personalización de los servicios de las plataformas de Internet, pensada para ayudar a sus clientes, se automatiza ya tanto y sin control que cuando toma decisiones inadecuadas acaba por perjudicarlos sin que estos sean conscientes. El peligro está en no ser prudente con los permisos que se les dan o en desconocer qué tipo de servicios vienen por defecto. Porque a veces la inteligencia artificial se pasa de lista.
Este pequeño caos generado a partir de un hecho anecdótico debido a una opción que puede ser muy útil a priori, pero que puede llevar a la confusión si los usuarios del servicio no son conscientes de que está activada por defecto, puede ir escalando y haciéndose mayor a lo largo del tiempo. Por ejemplo, Gmail desde hace poco puede resumir los correos gracias a su servicio de Gemini.
Por supuesto que ya éramos conscientes de que Google revisaba nuestros correos para colocar anuncios dependiendo del contenido, pero ahora reelaborará completamente la información y mostrará un resumen justo arriba del texto original. Lo que nos puede llevar a una pregunta cuándo comenzarán estas grandes plataformas u omitir temas que generen polarización social y ha construir un relato propio.
Esta premisa no debería sorprendernos. Es conocido que DeepSeek, una IA china, evita los temas más polémicos de la historia reciente del país asiático. Al otro lado del Pacífico, la propia Apple también se ha visto envuelta en una polémica puesto que su IA inventaba o reeinterpretaba noticias. Descubrimos que si Internet ya es un lugar donde el lector debe poseer cierto espíritu crítico para entender el contexto donde se publica una información, cuando una IA autogenera contenido (contenido que se genera una vez y no tiene porqué ser similar al anterior aunque se pregunte le mismo), qué margen de credibilidad nos puede llegar a quedar como lectores.
La publicación JotDown (un magazine cultural) publicaba una nota donde trasladaba una realidad que está transformando – una vez más – a los medios de comunicación. Qué hacer cuando nadie nos busca recogía el descenso pronunciado de visitantes de las principales fuentes que habían tenido hasta la fecha (Google, X, Facebook). Aseguran en su texto que han tratado de seguir las líneas maestras definidas por las plataformas, que han diversificado las fuentes, que han adecuado los mensajes y su sitio web para que los bots y los algoritmos traten de posicionarlos en el lugar donde deberían estar. Sin embargo, los algoritmos los penalizan, puede por que la IA genera las respuestas automáticamente y los usuarios no tienen necesidad de visitar la fuente original, o puede porque sus textos sean demasiado largos.
Para cualquiera que publica en Internet ya sea un medio de comunicación o un blog, ya es que ni siquiera es necesario leer una fuente original, los navegadores incorporan herramientas IA para hacerte un resumen de la página en la que estás interesado (un ejemplo de ello es ARC Browser). De este modo, un modelo de lenguaje es capaz de extraer las ideas y representarlas en un texto mucho más corto, más digerible y por supuesto desbrozado por un algoritmo.
Comentarios