Saltar al contenido →

Etiqueta: inteligencia artificial

En el mundo IA, el acceso a la información podría ser a dos velocidades

En la pasada Google I/O (su conferencia de desarrolladores), entre muchas cosas, la compañía de la gran G desveló Google AI Ultra, un nuevo servicio de suscripción que da acceso a los modelos más potentes y funciones premium de la compañía. La compañía afirmaba que era un pase VIP a lo mejor de Google IA junto a otros servicios (como YouTube Premium y 30 TB de almacenamiento) por 250 dólares mensuales.

En sí mismo, el anuncio no debería sorprender a nadie. Los modelos de suscripción por un servicio premium o el acceso a contenidos es un modo de monetización que a mediados de la década de 2020 es muy habitual en muchos sectores (y en ocasiones cayendo en el ridículo). Estamos acostumbrados a pagar una cuota mensual por entrega de paquetes (Amazon), a ver la televisión bajo demanda (Netflix) o tener una suscripción por toda la música (Spotify). Sin embargo, no debemos olvidar que hace veinte años este modelo de pago por acceso era algo no era tan frecuente.

Tras un período de popularización del pago de cuotas y tener un público cautivo, se ha pasado a un modo de búsqueda de la eficiencia a la hora de explotación de esos contenidos. Por ejemplo, casi todas las empresas de vídeo bajo demanda están incluyendo tarifas más baratas con anuncios (que incluso son más rentables que las tarifas normales sin anuncios) y se ha impulsado la restricción de compartir contraseñas entre usuarios que tanto afectaba a los resultados de las Juntas de Accionistas.

Pero el buscador de Google siempre ha sido gratis, no ha discriminado el acceso. “Hacer accesible toda la información del mundo” era el leitmotiv de la compañía americana. Es cierto que en los primeros años la compañía de Mountain View generaba dudas sobre su sostenibilidad futura puesto que no parecía encontrar una fuente de ingresos recurrente. Por supuesto que eso cambió con la publicidad contextual (promocionada en su momento como no-invasiva) que la compañía incluyó tanto en su buscador como otros servicios como Gmail y otras webs que podían incluir los scripts de la publicidad contextual de Google. Sin embargo, la filosofía permanecía como uso gratuito con las mismas características más o menos horizontales para todos.

La inteligencia artificial generativa puede socavar el uso tradicional de los buscadores y una de sus principales fuentes de ingresos de la gran G. Tanto Google como otros servicios, deberán abordar cuál es la manera más eficiente de explotar ese producto. De momento, han ido incorporando distintos modelos de suscripción que permitían una mayor cantidad de interacciones o el acceso a mejores modelos. Google en esto no difiere en exceso a sus competidores, es cierto.

La cuestión aquí será cuando los agentes IA dejarán de dar tan buenos o los mejores resultados. Por ejemplo, los agentes podrán tratar de ser honestos cuando el usuario les diga “mejores restaurantes para comer arroz en Valencia” o puede que posicionen otro tipo de resultados tras el pago de los restaurantes por su promoción (una evolución del Search Engine Marketing actual). Dándole una vuelta de tuerca adicional, cuando se popularicen los asistentes de IA que podrán buscar el mejor restaurante por nosotros y hacer una reserva por nosotros. ¿Serán imparciales o estarán influidos por algo más?

Pero más allá de estos casos de uso, y teniendo en cuenta que hoy en día las IAs se inventan algunos resultados, ¿ofrecerán IAs honestas y verídicas si pagas más? ¿Será el fin de cierta democratización al acceso a la información (con sus fallos y aciertos) como la hemos conocido? Desde luego que hay un debate interesante por delante.

Deja un comentario

Google evoluciona su búsqueda apoyado en la IA

Cómo se han concebido las búsquedas de información en la web no han variado en exceso desde hace años. Ni siquiera Google, que destronó en su momento a Yahoo y Altavista, modificó de forma importante cómo se representaban los resultados de las búsquedas. Es cierto que, al contrario de su competidores de entonces, ofreció una página limpia a la hora de realizar las búsquedas que fue revolucionaria en su época, pero cómo se mostraban los enlaces que daban acceso a las fuentes relevantes a una búsqueda determinada no suponía un gran cambio. Al final, usase un buscador u otro, el usuario siempre se encontraba con un listado de enlaces web que seguían una prioridad determinada por un algoritmo sobre los que el usuario debería ir saltando confiando encontrar la información deseada.

Lo interesante en este punto es que el usuario tendía a conformarse con los primeros resultados que los buscadores mostraban, no tendía a profundizar en las respuesto y esto derivó en dos situaciones: Google comenzó a monetizar ese espacio prioritario (llegando en ocasiones al ridículo) y los generadores de contenido trataban de que el algoritmo les situase en los primeros puestos tratando de entender sus reglas de priorización.

Esta situación derivada desde los años 90 del siglo XX, va a cambiar con la consolidación de la tendencia de la Inteligencia Artificial (IA). Google presentó recientemente su nuevo AI Mode que viene a modificar cómo vamos a interactuar con su buscador. Pero es importante puntualizar que no lo hace por gusto, se ve empujado porque la competencia ha comenzado a robarle protagonismo a la gran G en el sector de las búsquedas de Internet.

Las implicaciones del cambio de la búsqueda hacia un listado de documentos a una conversación es un movimiento de las placas tectónicas de la web tal y como la hemos conocido. Lo primero, Google ve cómo empieza a ser desplazado en este mercado dentro de una competencia liderada por OpenAI con su ya ubicuo ChatGPT principalmente, pero emergiendo otras propuestas muy interesantes como Perplexity o Anthropic. Los modelos de IA generativa comienzan a erosionar la línea de flotación sobre la que se sustenta Google en su página principal, la publicidad contextual.

Esta percepción de cambio también comienza a involucrar a otros actores que tenían acuerdos con Google y que se comienzan a replantear cuál va a ser el futuro de la búsqueda en Internet e incluso en su integración con los dispositivos móviles. Uno de los más relevante es Apple que comienza a valorar el cambio de la opción de búsqueda por defecto de su navegador Safari preponderante en los iPhones hacia otra solución conversacional.

De momento, Google comienza a apalancarse en su liderazgo en Internet con el navegador Chrome para tratar de contener a sus competidores dentro del ámbito de las búsquedas de internet con AI, lo que puede reforzar la percepción de que es un monopolio bajo el que ya está siendo investigado.

Deja un comentario

Documentarse en tiempos de IA

Dos estudiantes de Massachussets (EEUU) fueron descubiertos utilizando una Inteligencia Artificial para la generación de textos en un trabajo escolar y sancionados. Hay que aclarar que no fueron sancionados por usar una IA per se, puesto que estaba permitido su uso para documentarse y buscar fuentes, sino por copiar y pegar textos de forma literal que, para su mala fortuna, la IA se había inventado (aunque es un caso frecuente). Esta noticia sorprende por las consecuencias que puede acarrear a los dos estudiantes, ya que es posible que no puedan acceder a estudios universitarios.

Además, con cierta perspectiva, se nos hace más difícil imaginar un uso cotidiano en el que no se pueda aplicar el uso de las Inteligencias Artificiales Generativas como ChatGPT. Las grandes empresas tecnológicas se encuentran en una carrera hacia el despliegue y la implementación de este tipo de soluciones en el día a día como el próximo The next big thingtecnológico. Microsoft, Apple, Samsung o Google se afanan en integrarlas dentro de sus dispositivos para su utilización de forma masiva, lo que las popularizará aún más. Por lo que se producirán más situaciones de uso que puede ser considerado dentro de ciertos ámbitos como no lícito o inadecuado.

No hace tanto tiempo que, para documentarse, el usuario debía realizar una tarea de filtrado exhaustiva. Saltando de ficha en ficha en formato de cartulina, almacenadas en grandes archivadores de madera y recorriendo estanterías hasta localizar el libro a consultar que debía abrir, leer (aunque fuese un capítulo específico) y determinar aquello que consideraba más interesante para hacer referencia en su trabajo de investigación. Era un trabajo de síntesis intenso y en ocasiones inabarcable, que fue haciéndose más cómodo, pero no por ello más sencillo. Como otras tareas, las referencias bibliográficas se fueron digitalizando y volcando en bases de datos para localizar de forma más rápida la información que se encontraba todavía en soporte papel. El proceso no acabó ahí, ya que la digitalización fue imparable y prácticamente todo el conocimiento se fue trasladando a bits para hacerlo en buena medida accesible en cualquier parte y a cualquier hora.

Google llegó con una misión ambiciosa, hacer todo el conocimiento accesible para todo el mundo y se convirtió en el buscador de referencia para los internautas. Ya no se salta de referencia bibliográfica a referencia bibliográfica, más bien de enlace a enlace para extraer aquello que nos parece más significativo de una página web o de un documento que se quiera consultar.

A pesar de esta nueva accesibilidad a una mayor de información, no había olvidar que en cualquier supuesto hay que tener presente qué se debe de considerar una fuente de información fiable y qué no. Lamentablemente, parece que los automatismos de las IAs nos hacen bajar la guardia como nos sucede en las redes sociales, condenados en una vida de consumo digital acelerado. Olvidamos que las IAs son solo herramientas a nuestro servicio. Su capacidad de consultar distintas fuentes, de extraer la información y estructurarla nos pueden llevar a la conclusión de que lo que nos exponen de forma tan razonada puede ser cierto, pero olvidamos que nosotros somos el último filtro. Debemos ser capaces de evaluar qué fuentes de información son mejores y en qué grado debemos confiar la información que nos exponen. Para ello, sólo deberíamos confiar en aquellas que hacen referencia a fuentes que puedan ser consultadas y que podamos comprobar.

Las IAs hacen un trabajo que antes podría llevarnos meses y tienen un potencial inmenso para ayudar al ser humano en la generación de conocimiento. Pero debe ser el ser humano el que evalúe esa información, el que la entienda y, por supuesto, que la supervise. De lo contrario, estaremos delegando y dando por bueno un sistema que está diseñado para satisfacer nuestras necesidades, olvidando que nunca admitirá “no lo sé”, “no tengo acceso” o “no lo he encontrado” (en algunos casos) y nos hará caer en la trampa de la desinformación que justo tratamos de evitar.

Deja un comentario

Una web que se devora asimisma (y 2)

[Sigue del texto anterior]

La Wikipedia ha sido un referente en la Web respecto a lugar confiable a la hora de consultar información. Si bien es cierto que permitir la edición de forma abierta, siempre ha sido uno de los desafíos de los bibliotecarios de la Wikipedia, la influencia de esta web ha provocado distintas Guerra de Ediciones. Actualmente, los responsables de la calidad de la Wikipedia tratan de lidiar de un fenómeno relativamente nuevo, la web ha comenzado a ser editada mediante IAs, lo que genera un problema de confiabilidad de los contenidos de la enciclopedia online y por lo que se ha creado un grupo específico, Wikiproject IA Cleanup, para tratar de atajar el problema. Este equipo trata de revisar el contenido falso o equívoco creado por la inteligencia artificial y actualmente está compuesto por unas 80 personas.

De momento, es sencillo detectar estas inexactitudes determinado por distintos patrones a la hora de redactar los textos por parte de la inteligencia artificial o con las imágenes porque las versiones actuales tienen ciertos problemas a la hora de generar manos y dedos (algo que se está corrigiendo de forma acelerada, también habría que indicarlo). En el caso del texto, muchos bots siguen un mismo estilo a la hora de generar los textos, por lo que un ojo experimentado puede detectarlo.

Por ejemplo, en el caso anglosajón, se ha comprobado que la palabra «delve (ahondar)» ha incrementado su uso en la Web de forma exponencial según la inteligencia artificial se hacía más popular. Además, en el caso de la Wikipedia, la tendencia a generar citas incorrectas o directamente inventadas genera enlaces que no van a ninguna parte o son erróneos, lo que permite al mismo tiempo, determinar qué tipo de textos han estado generados por una IA.

Aunque lo que está sucediendo en la Wikipedia es ilustrativo en cuanto a la lucha que mantenemos los seres humanos respecto a esos generadores autónomos de contenido, la IA está cubriéndolo todo generando polémicas en distintos ámbitos como la fotografía, los diseñadores gráficos, la literatura, la música… pero también otros ámbitos profesionales como los artículos científicos o el periodismo con ciertas consecuencias todo sea dicho.

En el ámbito de la Web, la situación es aún podría considerarse peor. Cada día se generan de forma autónoma una cantidad ingente de contenidos desvirtuando los resultados de los buscadores (si es que les quedaba algo de verosimilitud a la hora de devolver los mejores resultados). El problema más allá de ese contenido es que los modelos se entrenan con una gran cantidad de información de forma abierta y esa información está desapareciendo a marchas forzadas. En un artículo de la revista Nature, se recogía que los modelos IA colapsaban cuando se entrenaban de forma recurrente con contenidos generados por IAs. Es decir, que los modelos generaban contenido basura sin ningún tipo de sentido.

Además de la necesidad de reducir su exposición a demandas por violación de las condiciones de uso de las principales editoriales, OpenAI está tratando de asegurarse el acceso al contenido de buena calidad, tratando de limitar este daño colateral firmando acuerdos con las principales empresas editoras tanto de noticias como de contenido científico para de esta manera que sus algoritmos no sufran por la cantidad de información que se autogenera e inunda poco a poco la Red.

Un comentario

Una Web que se devora asimisma (1)

En la década de los 90, cuando se echaba mano del socorrido símil autopistas de la información para entender qué es lo que podría aportar a futuro la World Wide Web (que acabó reducida a Web o Red), se nos prometió un El Dorado donde el acceso a la información será universal y barato. Sin embargo, ese paraíso futurible donde todavía el acceso era caro y con unas necesidades tecnológicas aún lejanas para la inmensa mayoría de la población pronto mutó hacia otra cosa mientras el dinero comenzó a fluir hacia un entorno que lo redefiniría todo.

En una primera fase, la recopilación de enlaces de sitios interesantes en forma de directorios fue sencillo de mantener. Pero pronto esa curación humana se tornaría inmanejable dando espacio a otro tipo de tecnologías como la de En una segunda, Google que acudió a salvarnos frente aquella intoxicación, haciendo racional y sencillo la categorización de la información mediante algoritmia y una serie de rankings que fueron cambiando a lo largo del tiempo. Esta clasificación automática tuvo que ir adaptándose a la realidad de una web que crecía y se bifurcaba hacia todo tipo de contenidos e intereses según se democratizaba la generación de contenido (Web 2.0) y el acceso sencillo e inmediato en cualquier punto (teléfonos móviles).

Cada nueva evolución tecnológica significaba un cambio del paradigma anterior, pero la Web supo pudiendo ofrecer soluciones de información a todo tipo de sensibilidades y de esperanzas. Hubo un momento que la Web era un foro abierto en que cualquier persona tenía una oportunidad para promocionarse, opinar de forma transparente y mostrar sus conocimientos. Con suerte, hasta poder construir una comunidad propia, pero el modelo se fue retorciendo según se añadían capas y capas nuevas al algoritmo y el ecosistema móvil se posicionaba como una nueva gallina de los huevos de oro, según las marcas buscaban llegar a consumidores jóvenes y no tanto. Por supuesto que los mensajes y la capacidad de influir a la opinión pública también cambiaba; trasladándose desde los medios de comunicación y hacia Facebook y, en menor medida, a Twitter entonces y ahora X.

Por si la situación no fuese compleja, y con las redes sociales ya siendo sometidas a escrutinio y control debido a su alcance a la población en general, otra capa de complejidad se añade apoyándose en todo lo anterior. La Inteligencia Artificial viene a incorporar un poco más de confusión a todas esas vías de acceso de información a los usuarios. Ya se trate mediante texto o imagen (en la mayor brevedad vídeo), las IAs se posicionan como grandes generadores de textos que de forma barata son capaces de sobrepasar al resto de generadores de contenidos ya sean medios de comunicación como referentes de la opinión pública individuales.

[Continúa]

Un comentario

El meme denuncia desplaza a la fotografía

«Que las fotografías sean a menudo elogiadas por su veracidad, su honradez, indica que la mayor parte de las fotografías, desde luego, no son veraces»

Susan Sontag

Antes de aprender escribir, la Humanidad aprendió a dibujar. Cuando la Humanidad necesitaba contar historias, recurría a la oración reforzada con pinturas y pictogramas. El refrán «una imagen vale más que 1000 palabras» transmite esa idea. Una sola imagen puede transmitir ideas complejas de una forma más efectiva que una descripción verbal o mediante un texto.

Muchas imágenes se han quedado fijas en el imaginario colectivo. Algunas simplemente por el mero gusto contemplativo, mientras que otras se han utilizado para denunciar un conflicto y las injusticias de una guerra. El fotógrafo Nick Ut consiguió remover conciencias a nivel mundial en junio de 1972 cuando inmortalizó a unos niños huyendo de un bombardeo a su aldea durante la guerra de Vietnam. La fotografía de una niña abrasada por el napalm estadounidense dio la vuelta al mundo y para remover conciencias de un mundo adormilado de años de conflicto. El fotógrafo que tomó la imagen en 1972 estaba convencido que la fotografía podía mejorar el mundo. En este caso, lo hizo.

50 años más tarde, la conciencia del mundo parece haberse transformado. Los grandes medios de comunicación apenas pueden modular el estado de una opinión pública más centrada en sus necesidades individuales y en sus sesgos de confirmación. La transmisión de la información se desborda a través del transmedia, los puntos de emisión son tanto los medios de comunicación de masas, las redes de dispersión social como otro tipo de plataformas más íntimas como la mensajería personal. Las imágenes siguen siendo más importantes que las palabras, pero esas imágenes ya no tienen porqué haber sido grabadas de forma consciente e intencionada por un ser humano allí donde sucede el hecho.

All eyes on Rafah (Todos los ojos en Rafah) ha sido la primera imagen generada por Inteligencia Artificial que se ha hecho viral para denunciar una situación de conflicto. Compartida por más de más de 46 millones de cuentas solo en Instagram, es una de las imágenes que invitan a mirar la situación sobre una zona geográfica con fuertes tensiones que no muestra la realidad del hecho que trata de denunciar.

Esto puede llegar a mostrar un cambio de paradigma sobre el periodismo. A pesar de las imágenes que los fotoperiodistas y los video-reporteros tratan de compartir a riesgo de sus vidas como llevan haciendo desde generaciones, el valor de la representación de la verdad ha perdido parte de su significado. Ya no son capaces de generar opinión pública (y no por falta de imágenes crudas) sino porque las vías de distribución de las mismas se encuentran bloqueadas y restringidas por una suerte de política de restricción de «contenido gráfico.» Sólo una imagen dulcificada, prácticamente blanca, generada por una inteligencia artificial consigue hacerse viral, porque el mundo ha olvidado cómo remover conciencias degradando el valor de la imagen o, peor, esta vez sí, que sólo pueda mirar hacia otro lado.

Deja un comentario

Todos quieren parecerse al filtro de Instagram de moda

Uno de los ámbitos donde la inteligencia artificial va a tener mayor impacto (entre otros muchos) es el de imagen. Los ámbitos de aplicación de esta tecnología en el campo de la imagen son diversos y muy potentes, pero hay uno que está comenzando a afectar en cómo interpretamos al mundo, la sociedad y nosotros mismos.

En un primer momento, las aplicaciones móviles destinadas para su uso en Instagram y otras redes sociales, sólo podían tratar las imágenes a posteriori. Es decir, se tomaba una foto y el móvil debía interpretar la imagen hasta llegar al resultado deseado. Sin embargo, actualmente estos filtros ya pueden tratar las imágenes en tiempo real, mientras se está grabando un vídeo o se está produciendo una videollamada. Todo esto gracias al salto en el procesamiento de la información que permiten los móviles hoy en día.

Si bien la presión social y mediática, se había centrado en la belleza y en ser eternamente joven, hoy en día desborda también esos ámbitos. El bótox se había constituido como una de las principales armas estéticas para tratar de ir eliminando las arrugas que iban apareciendo en los rostros de las personas a lo largo del tiempo. En algunos casos, esa obsesión para tratar de detener el tiempo había sido contraproducente porque a lo largo que acudían a más sesiones de cirugía, sus rostros se iban congelando y cambiando, limitando una de sus principales herramientas de trabajo: paralizaba algunas expresiones de sus rostros.

Más allá de la influencia que puedan suponer las principales figuras mediáticas, hoy en día se añade una más que se puede usar todos los días y muchas ocasiones gratuitamente. Además el impacto es inmediato porque la imagen que se transmite en las redes sociales es prácticamente personal, pero puede también modificar cómo nos ven y cómo nos vemos personalmente.

La era de la Instagram Face como se la ha denominado empuja los límites de cómo nos vemos y vemos al resto. Sin embargo, es una imagen algorítmica, edulcorada y estandarizante de consumo sencillo y nada sutil. El problema surge cuando se busca trasladar la imagen falsa o fake de uno mismo que se genera a través de un algoritmo a la vida real. Y no sólo por la falta de autoestima que genera, sino porque los algoritmos generan una imagen que no se puede obtener en la mayoría de ocasiones: labios gruesos, ojos más grandes o una nariz minúscula. Al fin y al cabo, la fisiología facial es propietaria de cada uno y los algoritmos tratan de estandarizar esa belleza añadiendo particularidades étnicas fusionadas en una sola imagen.

Esta situación comienza a ser tan generalizada que ya tiene nombre de enfermedad mental: dismorfia de Snapchat. Esta situación describe la obsesión del paciente respecto a su apariencia corporal y aquellos que la sufren se encuentran preocupados e infelices por su aspecto. Lamentablemente, esta imagen no se sustenta sobre algo real o físico, sino la interpretación de un algoritmo sobre nuestro rostro para que obtenga más likes y más comentarios. Una carrera para modificar nuestro rostro según la moda de los influencers y las marcas de turno y la interpretación que haga el algoritmo del canon de belleza del momento que estemos viviendo.

Deja un comentario