Saltar al contenido →

Año: 2020

La desinformación en la guerra digital

La utilización de información errónea o incorrecta con el fin de que los adversarios tomasen decisiones erróneas o que se aproximasen lo más posible a los intereses de aquellos que la emitían se ha utilizado de forma sistemática en los ámbitos militares y políticos desde hace siglos. Hoy en día, con la capacidad de transmisión de esta información personalizada y casi instantánea, esos actos de desinformación más allá de los objetivos tradicionales se centran en la población en general. Es cierto que la población está más o menos habituada a la propaganda, que se fundamentó principalmente gracias al desarrollo de los medios de comunicación durante el siglo XX, aunque los actos de desinformación se han generalizado y, por utilizar un término del siglo XXI, viralizado gracias a las redes sociales.

Desde la Guerra Fría, los actos de propaganda se han convertido en más difusos e indiscriminados y ya no se centra en un punto concreto. De hecho, en ocasiones, ya no son sólo agentes externos a un país los mayores interesados en difundir este tipo de información, también entidades locales buscan establecer narrativas que favorezcan sus propios intereses.

Las fake news, la «post-verdad», los hechos alternativos herederos de la forma de entender de hacer política del presidente Donald Trump y la desinformación son una tendencia ascendente que han obligado a los medios de comunicación y también a los profesionales de la información de establecer herramientas para tratar de refutar esas acciones.

Sin embargo, la aceptación o no de la información que se nos transmite no sólo depende de la fiabilidad de la fuente, sino también de nuestra disposición a ser susceptibles y tener un punto crítico sobre lo recibido atendiendo a nuestros propios sesgos cognitivos. Lamentablemente, nuestras fuentes de información actuales, muy fundamentadas en las redes sociales (que obviamente trabajan en ofrecernos información próxima a nuestra forma de opinar desechando prácticamente el resto) y nuestros círculos más próximos, no nos ayudan a recibir puntos de vista que refuten nuestras creencias previas.

Como bien se señala en el artículo Weaponization of the Future: Digital Warfare & Disinformation, este choque entre hechos verificados, opiniones interesadas o sesgadas, afecta ya a nuestro día a día de forma significativa. Baste poner el ejemplo de la propia evolución de la pandemia global y su tratamiento dentro de las redes sociales y las fuentes de información, en general, en ocasiones menoscaba los cimientos de la lucha contra ésta y puede llegar a afectar a la resolución satisfactoria de la misma.

Como las agencias de publicidad que buscan realizar perfiles de nuestros hábitos gracias a nuestra huella digital en Internet, los agentes de desinformación pueden utilizar las mismas técnicas gracias a esta misma parametrización. Además, el coste de recopilación y procesado de esta información es relativamente bajo, lo cual hace que la sofisticación de estas técnicas aumente de forma significativa a lo largo del tiempo.

Por supuesto que las personas se percatan de que las engañan y son más escépticos respecto a los contenidos que reciben por fuentes on-line no verificadas, sin embargo la complejidad de este engaño también aumenta mediante las GANS. En 2016, las sociedades occidentales no estaban preparadas respecto a estas tácticas de desinformación y se han desarrollado soluciones para combatirlas, pero esto es una batalla incierta puesto que el contrario también desarrolla contramedidas para atajar las armas que se puedan establecer contra este tipo de desinformación.

Deja un comentario

Orwell & Huxley

Orwell temía a aquellos que prohibían los libros. Huxley temía que no hubiera razones para prohibir libros porque no quedaba nadie que quisiera leer. Orwell temía que nos ocultaran información. Huxley que nos dieran tanta información que nos viéramos reducidos a la pasividad y el egoísmo. Orwell temía que nos ocultaran la verdad. Huxley que la verdad sería ahogada en un mar de irrelevancia. Orwell temía que nos convirtiéramos en un público cautivo. Huxley que nos convirtiéramos en una cultura trivial, preocupados por alguna versión de «the feelies, the orgy porgy and the centrifugal bublepuppy»

PEIRANO, Marta El enemigo conoce el sistema Madrid: DEBATE, 2019

Deja un comentario

Persuasive Technology, haciendo que la tecnología nos haga cambiar de comportamiento

La Persuasive Technology y su campo de investigación, Captology, comenzó a ser estudiada por B.J. Fogg a inicios de los años 90 en la Stanford University. Este área se define como el estudio de cómo usar la tecnología para persuadir a las personas que cambien su actitud o su comportamiento. Un ejemplo claro de su aplicación son los sitios web y sus aplicaciones móviles correspondientes (Facebook, YouTube, Instagram…) que nos hacen estar enganchados con los métodos tradicionales de persuasión – usando información, incentivos y coacciones – junto con las nuevas capacidades de los dispositivos para cambiar el comportamiento de los usuarios. En definitiva, esta rama del conocimiento estudia cómo entrenar a las personas para que hagan las acciones concretas que los diseñadores de esa tecnología desean (behavioural design)

El concepto definido por Fogg podría resumirse en la fórmula B=MAT. Donde B sería comportamiento (Behaviour) que se define como la conducta de alguien, mientras que el resto correspondería a Motivación, habilidad (Ability) y gatillo (Trigger). Además, el investigador considera que si uno de estos elementos no se encuentra, el cambio de comportamiento no ocurrirá.

  • Motivación. Las personas debe estar lo suficiente motivada para cambiar su comportamiento.
  • Habilidad. Las personas necesitan disponer de la habilidad de gestionar su comportamiento.
  • Gatillo (Trigger). Los usuarios tiene que ser alentados a cambiar su comportamiento como, por ejemplo, a través de un diseño atractivo o el uso de gamificación.

Por otro lado, los elementos se interrelacionan entre sí, por lo que hay cuatro puntos a tener presente:

  • Según la motivación y las capacidades aumentan, es más sencillo que se produzca el cambio de comportamiento.
  • Existe una relación inversa entre motivación y habilidad, cuanto más sencillo es hacer algo menor motivación se necesita.
  • Si un diseñador quiere que un tipo de comportamiento ocurra, necesita encontrar maneras para incrementar la motivación de las personas o sus habilidades (o ambas).
  • Si alguien no tiene motivación para hacer algo fracasará al hacerlo, no importa lo simple que sea. Por otro lado, si alguien está muy motivado pero es difícil hacerlo, se sentirán frustrados y no realizarán ninguna acción.
Comentarios cerrados

El efecto madriguera en Internet (y en tu móvil)

No es algo infrecuente. Recibes una notificación en el smartphone y sin que te hayas percatado ya ha pasado una hora. Es como un agujero de gusano en el que nos adentramos y no sabemos qué hay en el otro extremo, una cosa nos lleva a la otra sin que nos demos cuenta realmente del tiempo malgastado. No importa mucho qué plataforma utilices, puede tratarse de Twitter, YouTube, WhatsApp, Facebook o Instagram (por citar unas pocas), una vez te adentras en ellas te es casi imposible salir. Tu cerebro parece desconectarse de la verdadera razón del porqué está ahí y de las cosas más urgentes que te quedan por hacer.

Pero no deberías culparte, estas plataformas están diseñadas para ello, para atraparte en un bucle infinito de tal manera que permanezcas el máximo tiempo posible. Quién negaría que se ha pasado una tarde saltando en Netflix de serie en serie, película en película (bendita reproducción automática de contenidos), para finalmente descubrir que no ha acabado ninguna serie ni ninguna película. Dos horas de tu vida en un vacío donde realmente no has alcanzado a ver nada.

Es lo que en el ámbito anglosajón denominan el efecto madriguera (rabbit hole phenomenon) sobre nuestro comportamiento on-line haciendo referencia y como metáfora a Alicia en el País de las Maravillas de Lewis Carroll, porque Alicia caía en la madriguera hacia un destino incierto y con muchas cosas extrañas que se encontraba en el camino. Es gracias a la cultura de la distracción creada por el ámbito tecnológico actual. No hace tanto tiempo, podíamos pasar una tarde entera leyendo un libro o viendo una película completamente centrados en esas actividades, actualmente no. Es inevitable que nuestro cerebro busque la recompensa inmediata de una notificación o que de repente recuerde que tiene que buscar eso que es tan urgente, pero que podría esperar hasta el día siguiente.

Puede que seamos conscientes de ello o no lo seamos, que nos frustremos por aquella capacidad de concentración que antes teníamos, sin embargo constantemente caemos en ella. Incluso se podría describir las formas en las que caemos en esas madrigueras: iterativa, exhaustiva y asociativa. Parece que desde luego no importa lo que hagas, finalmente vas a caer en una de ellas.

En el caso de la iterativa, comienzas buscando algo (puede tratarse de información pero también de un producto o un servicio) y acabas buscando en distintas fuentes comparando servicios y productos. En la exhaustiva, buscas algo muy concreto y acabas recopilando información ampliando el alcance de esa búsqueda dentro de un ámbito relacionado. Finalmente, en la asociativa, consultas una fuente de información que te lleva a otra y ésta te lleva a otra, dos horas después estás en un punto que lo que estás consultando no tiene nada que ver con la primera cosa que consultabas.

Comentarios cerrados

EdgeRank vs PageRank o cómo consumimos información en Internet

Es cierto. Hablar hoy en día sobre cómo interactuamos con el contenido en la Red basándonos en los algoritmos de Google (PageRank) y Facebook (EdgeRank), sólo nos puede ilustrar respecto a los filtros a los que nos vemos sometidos para acceder a la información que estamos consumiendo. Hace mucho tiempo que Google trata de ocultar la puntuación de Pagerank en los sitios web animando a los desarrolladores a que se centren más en el SEO, mientras que Facebook dejó de utilizar su algoritmo EdgeRank en 2011 siendo sustituido por una inteligencia artificial en 2013 que tiene presentes 100.000 factores distintos. Sin embargo, es necesario retroceder al nacimiento de estos dos algoritmos, para entender cómo consumimos la información hoy en día y cómo las grandes empresas recaban información sobre nuestros comportamientos para tratar de mostrarnos la mejor información posible.

Google se basó en conceptos bibliométricos para desbancar a su competencia a finales del siglo XX. Realmente, cuando buscabas cualquier término en el buscador de Mountain View los resultados eran relevantes y parecía que su motor de búsqueda se encontrase a gran distancia de su competencia más inmediata. Tanto es así que Google estuvo mucho tiempo relacionado con el concepto de «buscar en Internet» porque funcionaba realmente bien. Sencillamente, el algoritmo PageRank consideraba los enlaces del hipertexto como votos. Si una página web recibía muchos enlaces era como citarla, por lo que había muchos autores que referenciaban a esa página web como interesante dentro de un campo. Además, PageRank también tenía presente el contenido de la página, si un término aparecía en el título o al principio del texto es que esa página abordaba esa temática de forma relevante.

Sin embargo, PageRank en sus inicios sólo consideraba que el contenido era relevante gracias a los productores de contenido, por ejemplo, los periodistas, los bloggers… Pero no por los usuarios finales de ese contenido, es decir, los internautas que eran los que finalmente los consumían. ¿Cómo afinar los contenidos teniendo presente los intereses de un usuario?

Facebook se enfrentó a su problema desde un principio. A medida que su red social se incrementaba, los usuarios necesitaban de esa priorización. ¿Cómo podía saber Facebook en sus inicios qué contenidos tenía que destacar en la página principal de un usuario? EdgeRank fundamentaba la relevancia no por el contenido en sí mismo, sino por la interacción entre usuarios y tenía presente tres variables:

  • La puntuación de afinidad entre usuarios. Cuantos más usuarios compartiesen dos «amigos» significaba que tenían vínculos sociales más fuertes entre ellos dos. Además, también podía identificarse esa afinidad mediante los mensajes que se enviasen, la visualización de sus respectivos perfiles y otro tipo de interacciones dentro de la red social.
  • Asignación de pesos a las interacciones. El algoritmo tenía presente que un mensaje o un comentario tenía más peso en la puntuación final que un simple like, por ejemplo.
  • Tiempo pasado. A la hora de mostrar contenido, EdgeRank preponderaba contenido más nuevo frente a contenido más viejo.

Si bien Google lo tuvo más complicado en un principio por su propia naturaleza como buscador, tanto la Gran G como Facebook se esforzaron por conocer cuáles es nuestro comportamiento con los contenidos en la Web. Facebook y Google han tratado de capturar nuestros clics, nuestras interacciones, cómo compartíamos y con quién la información y cómo la consumíamos. Todo ello, no sólo para mejorar los resultados que nos muestra si no también para poder vender esa información a terceros para mejorar los impactos publicitarios.

Sin embargo, esa búsqueda por mostrar la información que es relevante para nosotros tiene efectos perniciosos puede que no buscados por las tecnológicas. Por un lado, se provoca un filtro burbuja en la que nos muestra tan sólo la información que es relevante para nosotros como por ejemplo de nuestra tendencia política, pero también afecta a nuestro bienestar puesto que se puede provocar un sesgo respecto a la información positiva o negativa que se nos puede llegar a mostrar.

Comentarios cerrados

Un documental sobre el Manuscrito Voynich

Si hay un libro que puede llegar a fascinarnos por ser un enigma en sí mismo es el manuscrito Voynich. Este documento medieval datado en 1400 aborda como muchos de sus libros contemporáneos distintos campos de la Ciencia constituyendo un compendio de todos ellos. Pero el manuscrito también está repleto de extrañas ilustraciones y escrito en un lenguaje que tiene su propio alfabeto que nadie ha podido descifrar hasta la fecha. El códice Voynich consta de 234 páginas y se divide en siete secciones. Sin embargo, los investigadores han intuido el ámbito de la Ciencia de cada sección por el número y tipo de ilustraciones que se encontraban en cada una de ellas (medicina, herbología, botánica, zoología, astrología…). El documento puede consultarse libremente en Archive.org

Foto: Akg / Album

El interés por este códice no ha decaído a lo largo del tiempo, sino más bien ha ido aumentando. Son muchos los investigadores que han tratado de desentrañar los secretos de este libro que no se sabe bien si la lengua en la que está escrito es una lengua muerta, un código secreto o simplemente es un documento completamente falso. Se ha intentado descifrar utilizando el latín, el árabe, el turco o el sino-tibetano, incluso una Inteligencia Artificial ha concluido que el texto es hebreo. A pesar de todos estos esfuerzos, quién lo hizo y para qué es un misterio completo que ha llegado hasta nuestros días. La pregunta de qué contiene que podría ser tan escandaloso, peligroso o tan importante como para ser cifrado es algo que intriga y fascina por igual de este manuscrito del que no hemos podido desentrañar todos sus secretos.

El documental The Voynich Manuscrit nos acerca a la historia de este volumen tan misterioso y que no deja de generar noticias alrededor de él. Adquirido por el librero y anticuario polaco Wilfrid Voynich en 1912, en un primer momento que se trataba de una falsificación del propio librero. Sin embargo, tras su análisis se llegó a la conclusión que el libro se había redactado en el siglo XV, además los registros permitían determinar que la primera noticia de la existencia del Voynich data de 1580, cuando el emperador Rodolfo II de Habsburgo, lo adquirió por 600 ducados a los ingleses John Dee –un mago que decía comunicarse con los ángeles mediante unas piedras– y Edward Kelley, un embaucador. Actualmente, lo custodia la Universidad de Yale en una biblioteca especial para rarezas.

Comentarios cerrados

La investigación bibliotecaria del accidente de Chernobyl

El 26 de abril de 1986 el reactor número 4 de la central nuclear de Chernobyl (Pripyat, Ucrania) explotó provocando el mayor desastre nuclear civil registrado hasta ese momento. El reactor tipo RBMK, uno de los más usados dentro de la Unión Soviética, explotó durante una prueba de seguridad. Las investigaciones posteriores demostraron que ese tipo de reactor tenía un fallo en su diseño y que las condiciones que se sucedieron durante esa prueba facilitaron el colapso del reactor.

La mini-serie Chernobyl (2019) de la HBO muestra con crudeza los sucesos antes, durante y tras la explosión que provocó el abandono de la ciudad de Pripyat. No podemos olvidar que el coste humano del accidente todavía está por esclarecer y determinar. Además, se considera que los trabajos y recursos destinados a tratar de mitigar el desastre aceleraron el colapso del sistema soviético en 1991.

Hay que tener presente que esta serie es una dramatización, por lo que la serie simplifica el número de personas implicadas en la lucha de la mitigación del desastre. De este modo, el espectador le es más sencillo identificarse con los principales protagonistas. De hecho, el personaje de Ulana Khomyuk interpretado por Emily Watson es ficticio y trata de homenajear el esfuerzo conjunto de todos los científicos que estuvieron asistiendo a Valery Legasov y a Boris Shcherbina en las tareas de contención del desastre. Khomyuk será la encargada de tratar de esclarecer qué sucedió realmente durante aquella noche. Más allá de las entrevistas de los supervivientes, acudirá a una biblioteca para revisar el diseño del reactor y si había algo que podría haber fallado durante la prueba que se realizó el 26 de Abril.

© HBO

La biblioteca que escoge dentro de la serie para investigar es la Lomonosov University Library (Moscú). La universidad fundada en 1755 actualmente ha cambiado su denominación por Universidad Estatal de Moscú y es una de las universidades más prestigiosas de Rusia.

© HBO

Las tareas de búsqueda de información por parte de Khomyuk se describen en el capítulo 4 – The Happiness of All Mankind donde en un primer momento vemos a la científica consultando un catálogo de fichas y recopilando información sobre los documentos que quiere consultar.

© HBO

Tras finalizar la búsqueda, se acercará al mostrador donde señalará a una bibliotecaria que quiere consultar esos documentos y que dispone de un permiso del Comité Central. La bibliotecaria la mirará escéptica y mediante un interfono reclamará la presencia de un miembro del Partido llamándole camarada. Este recogerá el documento con las referencias bibliográficas y pasará a revisarlo. Finalmente, filtrará la lista dejando tan sólo un documento disponible para su consulta.

© HBO

El secretismo fue una de las características del gobierno soviético y el desarrollo nuclear se consideraba como información militar y estaba muy restringido su acceso. Sin embargo, existía fuera de la Unión Soviética una gran presión científica respecto a la aclaración de los hechos qué provocaron el accidente nuclear en Chernobyl. La imagen que se trasladaba fuera de las fronteras de la URSS también era importante para el Estado y los propios científicos no disponían de toda la información que necesitaban para realizar sus evaluaciones y estudios.

En la propia serie, se remarca este hecho puesto que Khomyuk se da cuenta cuál es problema con el reactor. Porque, aunque si bien le censuran los documentos a los que tiene acceso y partes de su contenido, olvidan tachar el índice que señala finalmente dónde estaba el problema de diseño de los reactores y que el propio aparato del estado soviético había intentando ocultar.

Comentarios cerrados