Saltar al contenido →

Autor: Marcos Ros

Licenciado en Documentación, he trabajado como documentalista de prensa en Levante-EMV (Valencia) y como técnico en Vigilancia Tecnológica en Aidico-Instituto Tecnológico de la Construcción (Valencia). Actualmente trabajo como analista de Inteligencia Competitiva en Acciona (Madrid).

Persuasive Technology, haciendo que la tecnología nos haga cambiar de comportamiento

La Persuasive Technology y su campo de investigación, Captology, comenzó a ser estudiada por B.J. Fogg a inicios de los años 90 en la Stanford University. Este área se define como el estudio de cómo usar la tecnología para persuadir a las personas que cambien su actitud o su comportamiento. Un ejemplo claro de su aplicación son los sitios web y sus aplicaciones móviles correspondientes (Facebook, YouTube, Instagram…) que nos hacen estar enganchados con los métodos tradicionales de persuasión – usando información, incentivos y coacciones – junto con las nuevas capacidades de los dispositivos para cambiar el comportamiento de los usuarios. En definitiva, esta rama del conocimiento estudia cómo entrenar a las personas para que hagan las acciones concretas que los diseñadores de esa tecnología desean (behavioural design)

El concepto definido por Fogg podría resumirse en la fórmula B=MAT. Donde B sería comportamiento (Behaviour) que se define como la conducta de alguien, mientras que el resto correspondería a Motivación, habilidad (Ability) y gatillo (Trigger). Además, el investigador considera que si uno de estos elementos no se encuentra, el cambio de comportamiento no ocurrirá.

  • Motivación. Las personas debe estar lo suficiente motivada para cambiar su comportamiento.
  • Habilidad. Las personas necesitan disponer de la habilidad de gestionar su comportamiento.
  • Gatillo (Trigger). Los usuarios tiene que ser alentados a cambiar su comportamiento como, por ejemplo, a través de un diseño atractivo o el uso de gamificación.

Por otro lado, los elementos se interrelacionan entre sí, por lo que hay cuatro puntos a tener presente:

  • Según la motivación y las capacidades aumentan, es más sencillo que se produzca el cambio de comportamiento.
  • Existe una relación inversa entre motivación y habilidad, cuanto más sencillo es hacer algo menor motivación se necesita.
  • Si un diseñador quiere que un tipo de comportamiento ocurra, necesita encontrar maneras para incrementar la motivación de las personas o sus habilidades (o ambas).
  • Si alguien no tiene motivación para hacer algo fracasará al hacerlo, no importa lo simple que sea. Por otro lado, si alguien está muy motivado pero es difícil hacerlo, se sentirán frustrados y no realizarán ninguna acción.
Deja un comentario

El efecto madriguera en Internet (y en tu móvil)

No es algo infrecuente. Recibes una notificación en el smartphone y sin que te hayas percatado ya ha pasado una hora. Es como un agujero de gusano en el que nos adentramos y no sabemos qué hay en el otro extremo, una cosa nos lleva a la otra sin que nos demos cuenta realmente del tiempo malgastado. No importa mucho qué plataforma utilices, puede tratarse de Twitter, YouTube, WhatsApp, Facebook o Instagram (por citar unas pocas), una vez te adentras en ellas te es casi imposible salir. Tu cerebro parece desconectarse de la verdadera razón del porqué está ahí y de las cosas más urgentes que te quedan por hacer.

Pero no deberías culparte, estas plataformas están diseñadas para ello, para atraparte en un bucle infinito de tal manera que permanezcas el máximo tiempo posible. Quién negaría que se ha pasado una tarde saltando en Netflix de serie en serie, película en película (bendita reproducción automática de contenidos), para finalmente descubrir que no ha acabado ninguna serie ni ninguna película. Dos horas de tu vida en un vacío donde realmente no has alcanzado a ver nada.

Es lo que en el ámbito anglosajón denominan el efecto madriguera (rabbit hole phenomenon) sobre nuestro comportamiento on-line haciendo referencia y como metáfora a Alicia en el País de las Maravillas de Lewis Carroll, porque Alicia caía en la madriguera hacia un destino incierto y con muchas cosas extrañas que se encontraba en el camino. Es gracias a la cultura de la distracción creada por el ámbito tecnológico actual. No hace tanto tiempo, podíamos pasar una tarde entera leyendo un libro o viendo una película completamente centrados en esas actividades, actualmente no. Es inevitable que nuestro cerebro busque la recompensa inmediata de una notificación o que de repente recuerde que tiene que buscar eso que es tan urgente, pero que podría esperar hasta el día siguiente.

Puede que seamos conscientes de ello o no lo seamos, que nos frustremos por aquella capacidad de concentración que antes teníamos, sin embargo constantemente caemos en ella. Incluso se podría describir las formas en las que caemos en esas madrigueras: iterativa, exhaustiva y asociativa. Parece que desde luego no importa lo que hagas, finalmente vas a caer en una de ellas.

En el caso de la iterativa, comienzas buscando algo (puede tratarse de información pero también de un producto o un servicio) y acabas buscando en distintas fuentes comparando servicios y productos. En la exhaustiva, buscas algo muy concreto y acabas recopilando información ampliando el alcance de esa búsqueda dentro de un ámbito relacionado. Finalmente, en la asociativa, consultas una fuente de información que te lleva a otra y ésta te lleva a otra, dos horas después estás en un punto que lo que estás consultando no tiene nada que ver con la primera cosa que consultabas.

Deja un comentario

EdgeRank vs PageRank o cómo consumimos información en Internet

Es cierto. Hablar hoy en día sobre cómo interactuamos con el contenido en la Red basándonos en los algoritmos de Google (PageRank) y Facebook (EdgeRank), sólo nos puede ilustrar respecto a los filtros a los que nos vemos sometidos para acceder a la información que estamos consumiendo. Hace mucho tiempo que Google trata de ocultar la puntuación de Pagerank en los sitios web animando a los desarrolladores a que se centren más en el SEO, mientras que Facebook dejó de utilizar su algoritmo EdgeRank en 2011 siendo sustituido por una inteligencia artificial en 2013 que tiene presentes 100.000 factores distintos. Sin embargo, es necesario retroceder al nacimiento de estos dos algoritmos, para entender cómo consumimos la información hoy en día y cómo las grandes empresas recaban información sobre nuestros comportamientos para tratar de mostrarnos la mejor información posible.

Google se basó en conceptos bibliométricos para desbancar a su competencia a finales del siglo XX. Realmente, cuando buscabas cualquier término en el buscador de Mountain View los resultados eran relevantes y parecía que su motor de búsqueda se encontrase a gran distancia de su competencia más inmediata. Tanto es así que Google estuvo mucho tiempo relacionado con el concepto de «buscar en Internet» porque funcionaba realmente bien. Sencillamente, el algoritmo PageRank consideraba los enlaces del hipertexto como votos. Si una página web recibía muchos enlaces era como citarla, por lo que había muchos autores que referenciaban a esa página web como interesante dentro de un campo. Además, PageRank también tenía presente el contenido de la página, si un término aparecía en el título o al principio del texto es que esa página abordaba esa temática de forma relevante.

Sin embargo, PageRank en sus inicios sólo consideraba que el contenido era relevante gracias a los productores de contenido, por ejemplo, los periodistas, los bloggers… Pero no por los usuarios finales de ese contenido, es decir, los internautas que eran los que finalmente los consumían. ¿Cómo afinar los contenidos teniendo presente los intereses de un usuario?

Facebook se enfrentó a su problema desde un principio. A medida que su red social se incrementaba, los usuarios necesitaban de esa priorización. ¿Cómo podía saber Facebook en sus inicios qué contenidos tenía que destacar en la página principal de un usuario? EdgeRank fundamentaba la relevancia no por el contenido en sí mismo, sino por la interacción entre usuarios y tenía presente tres variables:

  • La puntuación de afinidad entre usuarios. Cuantos más usuarios compartiesen dos «amigos» significaba que tenían vínculos sociales más fuertes entre ellos dos. Además, también podía identificarse esa afinidad mediante los mensajes que se enviasen, la visualización de sus respectivos perfiles y otro tipo de interacciones dentro de la red social.
  • Asignación de pesos a las interacciones. El algoritmo tenía presente que un mensaje o un comentario tenía más peso en la puntuación final que un simple like, por ejemplo.
  • Tiempo pasado. A la hora de mostrar contenido, EdgeRank preponderaba contenido más nuevo frente a contenido más viejo.

Si bien Google lo tuvo más complicado en un principio por su propia naturaleza como buscador, tanto la Gran G como Facebook se esforzaron por conocer cuáles es nuestro comportamiento con los contenidos en la Web. Facebook y Google han tratado de capturar nuestros clics, nuestras interacciones, cómo compartíamos y con quién la información y cómo la consumíamos. Todo ello, no sólo para mejorar los resultados que nos muestra si no también para poder vender esa información a terceros para mejorar los impactos publicitarios.

Sin embargo, esa búsqueda por mostrar la información que es relevante para nosotros tiene efectos perniciosos puede que no buscados por las tecnológicas. Por un lado, se provoca un filtro burbuja en la que nos muestra tan sólo la información que es relevante para nosotros como por ejemplo de nuestra tendencia política, pero también afecta a nuestro bienestar puesto que se puede provocar un sesgo respecto a la información positiva o negativa que se nos puede llegar a mostrar.

Deja un comentario

La batalla entre las notificaciones y nuestra concentración lectora

No, de momento, no nos hemos hecho ni más vagos ni más tontos debido a la presencia cada vez más ubicua de pantallas en nuestras vidas. Aunque sí que es cierto que estamos cambiando nuestra forma de procesar la información. Una vez que sabemos que tenemos una fuente de información inmensa a nuestro alcance puede que nos apoyemos mucho más en la herramienta para no tratar de retener esos datos en nuestra memoria. Aunque en realidad es algo accesorio, no dejamos de retener información porque Google nos eche una mano de vez en cuando. Sólo debemos recordar que antaño fueron los libros y las enciclopedias los que desempeñaron esa función, pero obviamente no hay nada más rápido que teclear unas teclas y darle al Intro para realizar una búsqueda ante cualquier duda que nos surja. A pesar de todo, nunca dejamos de sumar porque existiesen las calculadoras.

La recepción de mensajes, que ojeemos las redes sociales (con su scroll infinito) y leer trozos de noticias de forma diagonal (tratar de localizar la parte de un texto que sea la que realmente nos interesa) lo que provoca es que nuestra capacidad de procesar la información sea más rápida. No debemos olvidar que hoy leemos más que nunca porque tenemos una acceso ilimitado a fuentes de información textual. Leemos fragmentos de comentarios y noticias de otras personas de forma rápida, fragmentada y apresurada. Se trata de nuevos géneros textuales (entrada, tuits, comentarios…), en nuevos entornos comunicativos (foros, redes sociales…) con sus propias características tratándose de textos en generar breves, poco definidos, interactivos y cooperativos. Es cierto que este tipo de comunicación se acerca más a la oralidad que con la tradición escrita que se da en libros o en los medios de comunicación, pero también lo es que cada vez más se está transformando hacia una comunicación más visual y directa.

Lo que realmente se resiente es nuestra capacidad de centrarnos en una tarea frente a otros estímulos externos. Por ejemplo, la mayoría de las páginas web no se visionan durante más de diez segundos y menos de una de cada diez permanece abierta más de dos minutos, por lo tanto cuando navegamos lo hacemos de forma interactiva saltando de un sitio a otro. Son las interrupciones lo que merma nuestra capacidad de concentrarnos y lo que nos distingue de los animales. Así como ellos por supervivencia tienen que estar cambiando de prioridades por los estímulos que reciben de forma externa y de manera continua por propia supervivencia, los seres humanos tenemos la capacidad de priorizar los estímulos externos que recibimos. Por lo tanto lo que está en peligro con esta falta de concentración debido a los distintos estímulos, es nuestra capacidad de focalizarnos en sólo una cosa, analizar el entorno, reflexionar y posponer una respuesta a los cambios de éste.

La lectura profunda no se aprende, se entrena. Desde luego que podemos recuperar la paciencia para leer textos complejos. Obviamente, no nos comportamos del mismo modo si lo que estamos haciendo es leer un texto on-line que otro off-line. Encontramos muchos más estímulos en el primero y sabemos que podemos cambiar de actividad con sólo mover un dedo lo que interfiere en la actividad en que estamos realizando en ese momento.

A lo que nos enfrentamos es a una fase de transición, donde se produce mucha desorientación sobre dónde se consolidará nuestro comportamiento como especie y los efectos no sólo económicos y sociales que está llevando Internet en cómo nos relacionamos con el entorno.

Deja un comentario

La Inteligencia Artificial se convierte en un arma en las campañas de desinformación

Fueron muchos los periodistas que se sorprendieron de las andanzas de Dominic Cummings en la película Brexit: The Uncivil War donde se mostraba el uso de redes sociales para influir el voto de los británicos que todavía se mostraban indecisos. En una escena del largometraje, se explica que el interés de la campaña no se debía centrar en los convencidos y los contrarios, si no en aquellos que todavía no habían decidido su voto (un tercio aproximado de la población). Además se concluía que lo más eficiente era poner esfuerzoas específicos para desarrollar una campaña a través de las redes sociales. Mediante una campaña de publicidad en las mismas, con una serie de mensajes dirigidos, se podía influirles y lo mejor de todo nadie se daría de cuenta de ello hasta que fuese demasiado tarde (algo que la película también se preocupa en mostrar).

De repente, en una sola escena, se demostró que el cuarto poder se veía desnudo ante una realidad -puede que un tanto previsible- que existiese un quinto y que deberían tratar de evitar de contrarrestar las mentiras y los bulos que corren como la pólvora en Internet. Sin embargo, por las propias dinámicas de los medios de comunicación, con sus intereses cruzados, con la gran polarización que sufre el espectro político actual, la tarea se demuestra no sólo titánica, también como imposible de gestionar y contrarrestar.

En las redes sociales, no importa tanto la información veraz que se da aparentemente. Los usuarios de las mismas están más preocupados por la cantidad de impactos recibidos, quién puede llegar a decirlo y si acaso cuántos seguidores tiene. Pasamos de la creencia de que todo lo que estaba publicado en la Red era real a una especie de fast food de opinión donde lo importante es quién llega antes a implementar una idea en la opinión pública. El debate y las ideas expositivas se ven acorralados ante esa marea de debate agresivo donde impera la saturación más que la selección. A esto se le añade un nuevo factor en quién dice qué y con qué intenciones es cada vez más difuso y más difícil de discernir.

Por si fuese poco, se añade un nuevo factor, una nueva tecnología que va a hacer mucho más complicada la goberanza informativa actual: El uso de la Inteligencia Artificial como arma informativa. La idea de utilizar Inteligencia Artificial para crear grandes campañas de desinformación ya se había teorizado, pero hoy en día se está materializando de forma muy rápida. Las ventajas de su uso son obvias. La gestión de una campaña de desinformación mediante IAs es mucho más barato y la generación de mayores volúmenes de información con objetivos específicos dentro de la población más efectivo.

Pero, más allá de la generación autónoma y automática de textos mediante la asimilación de contenido previo mediante artículos y libros con el fin de generar un gran volumen de información y pasar desapercibido, actualmente las Inteligencias Artificiales están siendo entrenadas para la generación de fotografías falsas de personas para dotar de credibilidad a esos textos. Además, este desarrollo mediante Generative Adversial Networks (GANs) se está realizando tan rápido que pronto será difícil de discernir entre las personas reales y las falsas generadas mediante esta tecnología.

Deja un comentario

Las dos muertes de la bibliotecaria Jedi Jocasta Nu

Jocasta Nu con un Lightsaber Rifle

Jocasta Nu, maestra Jedi y jefa de bibliotecarios, que pudimos conocer en la película Episodio III – La venganza de los Sith, tuvo dos muertes. Por así decirlo, la no-oficial y la oficial. En la primera de ellas, Anakin Skywalker recién convertido en Darth Vader acude a la Biblioteca y la asesina tras la Orden 66 (la orden militar mediante la cual el emperador Palpatine ejecuta a todos los Jedi). Desde luego que no se trató de una muerte épica, sino dentro de un videojuego y de forma rápida. Jocasta no era una gran guerrera, disponía de otras habilidades, así que poco podía hacer frente a uno de los mejores Jedis de la Galaxia. pero Disney tenía mejores planes para ella y un final mucho más épico.

En los nuevos cómics, que se vienen editando ya desde hace unos pocos años, la bibliotecaria tiene un rol mucho más relevante dentro de los hechos acontecidos tras la desaparición de la Orden Jedi. Darth Vader ya ha tenido su penúltimo enfrentamiento con su maestro y amigo Obi Wan Kenobi y ya es prácticamente una máquina.

El emperador Palpatine le encomienda a Vader que comience una búsqueda a los Jedis que han sobrevivido pero pone un foco especial respecto a Jocasta Nu. A pesar de que tienen toda la biblioteca para la orden Sith donde podrán recopilar conocimientos, Palpatine advierte a Vader que necesitan de la bibliotecaria puesto que hay conocimientos más allá de la biblioteca que puede atesorar sólo ella. De hecho, el emperador es consciente de que existe un registro de todos los niños que pueden ser sensibles a la fuerza y cree que Jocasta tiene un rol relevante en la gestión de ese archivo. No estaba equivocado.

Jocasta Nu tras el alzamiento del Imperio está preparando la transmisión de conocimientos a otros Jedis, iniciando una biblioteca personal y generando lo que se denomina holocron. Estos artefactos van más allá de los libros que se pueden ver en la película del Episodio III y son dispositivos que sólo pueden abrirse y usarse utilizando la Fuerza.

Pronto se percatará la Jedi que debe acudir a la Biblioteca para recuperar información relacionada con el registro de los seres sensibles a la fuerza antes de que lo describan los Sith. Resuelta y con el peligro que ello supone, se desplaza a Coruscant para tratar de acceder a la biblioteca. En su camino hasta una cámara especial dentro de ella, descubre al gran Inquisidor consultando los libros, lo que le produce rechazo y piensa en asaltar al aliado de los Sith.

Jocasta Nu se enfrenta al gran Inquisidor

Si bien consigue contenerse en un primer momento, justo cuando está saliendo de la misma tras obtener el archivo no puede refrenarse y ataca al Inquisidor. En ese momento, Vader interviene puesto que tiene la misión del emperador de mantener a la Jedi con vida frente a la intención del Inquisidor de acabar con la Jedi.

Tras una batalla mediante la cual Jocasta se percata que no es rival para ninguno de los dos Sith, decide borrar toda la Biblioteca y atacar a Vader con distintos artefactos. Sin embargo, es capturada no sin antes borrar todo el contenido de la Biblioteca (esto lo hace mediante un terminal de un ordenador) y realizar una batalla donde resiste de la mejor manera que puede los envites del Lord Sith. Capturada, trata de convencer a Darth Vader que lo mejor que puede hacer es matarla puesto que el emperador utilizará sus conocimientos y finalmente acabará con Vader (digamos que los Sith nunca se han fiado los unos de los otros). Vader hace explotar la nave en la que transportan a Jocasta Nu hasta el emperador acabando con su vida.

Deja un comentario

Con Gutenberg, WordPress cambió del todo

Si bien cuando tratas de editar un texto para la web en tu ordenador fuera del sistema de gestión de contenidos, dispones de muchas opciones; en el caso de que lo hagas directamente a través del CMS puede que tus opciones se encuentren más bien limitadas. Si este es el caso, el sistema ha de tratar de convercerte de que sus funcionalidades son las mejores y las más potentes disponibles entre todas las opciones disponibles. Si llevas ya unos años en el mercado y te has posicionado como una de las plataformas más populares en cuanto a distribución de contenidos, un gran cambio puede no satisfacer a tu comunidad.

WordPress decidió en 2008 cambiar su sistema de edición de contenidos y darle un reenfoque. Ya no sólo se trataba de un cambio tan sólo estético, sino que también abordaba cambios en cuanto la filosofía y cómo debería editarse en la Web. El nuevo sistema se denominó Gutenberg en honor al inventor de la imprenta, Johannes Gutenberg (1400-1468), y no faltó la polémica.

Diseñado para favorecer el proceso de edición. Gutenberg transformaba cómo se editaban los textos hasta el momento en WordPress. Si hasta el momento, se seguía una edición lineal como si de un documento en MS Word se tratase, desde Automattic se forzaba a trabajar con los denominados bloques dentro del texto. De esta manera, los textos y las imágenes podían agruparse dentro de ellos favoreciendo la edición, pudiendo trasladar estos bloques con facilidad dentro de la página a publicar. El objetivo era mejorar el proceso de edición tratando que el usuario pudiese ver el resultado mientras está redactando. Además, permitía la mejor implementación de shortcodes, widgets, menús y/o campos personalizados de manera que los usuarios avanzados pudiesen personalizar todavía más las páginas a publicar.

Este movimiento aunque polémico era considerado necesario atendiendo a la creciente competencia que tenía WordPress como producto debido a las nuevas plataformas de publicación de contenidos como Medium, Ghost o Wix. Hay que tener presente que si bien WordPress es un sistema que puedes descargarte e instalar en un servidor libremente, también dispone de un servicio de alojamiento de contenidos con un modelo Freemium que es justo lo que Automattic estaba tratando de hacer frente.

Por desgracia, la implementación se realizó de forma forzada durante la liberación de la versión 5.0, lo que provocó problemas en muchos plugins de amplio uso e incluso la comunidad sintió que se les imponía algo que todavía no estaba preparado para ser lanzado. Gutenberg recibió muchas críticas puesto que no parecía estar lo suficientemente integrado (en otras palabras, maduro) para ser implementado. A esto se añadía que debido a la nueva concepción de edición presentaba mayores barreras de entrada a los usuarios puesto que no todo el mundo encontraba el nuevo sistema como algo cómodo de usar. Se ha llegado al extremo que una parte de la comunidad se ha sentido traicionada y, de hecho, ya ha aparecido un fork de WordPress llamado Classicpress que trata de dejar las cosas como estaban.

De momento, está claro que Gutenberg ha llegado para quedarse y que irá recibiendo mejoras en muchos frentes. Creo que es un sistema es potente, aunque la curva de aprendizaje puede ser alta para algún usuario. Más allá de las resistencias, de hecho uno de los plugins más descargado es Classic Editor con el que puedes revertir el editor a TinyMCE y que será actualizado de forma oficial hasta 2022, creo que hay que darle una oportunidad e irse adaptándose a él y a todas las capacidades que tiene.

Deja un comentario
Usamos Cookies - Utilizando este sitio o cerrando este mensaje aceptas nuestra política de Cookies.
Aceptar Cookies
x