Saltar al contenido →

El Documentalista Enredado Entradas

La batalla entre las notificaciones y nuestra concentración lectora

No, de momento, no nos hemos hecho ni más vagos ni más tontos debido a la presencia cada vez más ubicua de pantallas en nuestras vidas. Aunque sí que es cierto que estamos cambiando nuestra forma de procesar la información. Una vez que sabemos que tenemos una fuente de información inmensa a nuestro alcance puede que nos apoyemos mucho más en la herramienta para no tratar de retener esos datos en nuestra memoria. Aunque en realidad es algo accesorio, no dejamos de retener información porque Google nos eche una mano de vez en cuando. Sólo debemos recordar que antaño fueron los libros y las enciclopedias los que desempeñaron esa función, pero obviamente no hay nada más rápido que teclear unas teclas y darle al Intro para realizar una búsqueda ante cualquier duda que nos surja. A pesar de todo, nunca dejamos de sumar porque existiesen las calculadoras.

La recepción de mensajes, que ojeemos las redes sociales (con su scroll infinito) y leer trozos de noticias de forma diagonal (tratar de localizar la parte de un texto que sea la que realmente nos interesa) lo que provoca es que nuestra capacidad de procesar la información sea más rápida. No debemos olvidar que hoy leemos más que nunca porque tenemos una acceso ilimitado a fuentes de información textual. Leemos fragmentos de comentarios y noticias de otras personas de forma rápida, fragmentada y apresurada. Se trata de nuevos géneros textuales (entrada, tuits, comentarios…), en nuevos entornos comunicativos (foros, redes sociales…) con sus propias características tratándose de textos en generar breves, poco definidos, interactivos y cooperativos. Es cierto que este tipo de comunicación se acerca más a la oralidad que con la tradición escrita que se da en libros o en los medios de comunicación, pero también lo es que cada vez más se está transformando hacia una comunicación más visual y directa.

Lo que realmente se resiente es nuestra capacidad de centrarnos en una tarea frente a otros estímulos externos. Por ejemplo, la mayoría de las páginas web no se visionan durante más de diez segundos y menos de una de cada diez permanece abierta más de dos minutos, por lo tanto cuando navegamos lo hacemos de forma interactiva saltando de un sitio a otro. Son las interrupciones lo que merma nuestra capacidad de concentrarnos y lo que nos distingue de los animales. Así como ellos por supervivencia tienen que estar cambiando de prioridades por los estímulos que reciben de forma externa y de manera continua por propia supervivencia, los seres humanos tenemos la capacidad de priorizar los estímulos externos que recibimos. Por lo tanto lo que está en peligro con esta falta de concentración debido a los distintos estímulos, es nuestra capacidad de focalizarnos en sólo una cosa, analizar el entorno, reflexionar y posponer una respuesta a los cambios de éste.

La lectura profunda no se aprende, se entrena. Desde luego que podemos recuperar la paciencia para leer textos complejos. Obviamente, no nos comportamos del mismo modo si lo que estamos haciendo es leer un texto on-line que otro off-line. Encontramos muchos más estímulos en el primero y sabemos que podemos cambiar de actividad con sólo mover un dedo lo que interfiere en la actividad en que estamos realizando en ese momento.

A lo que nos enfrentamos es a una fase de transición, donde se produce mucha desorientación sobre dónde se consolidará nuestro comportamiento como especie y los efectos no sólo económicos y sociales que está llevando Internet en cómo nos relacionamos con el entorno.

Deja un comentario

La Inteligencia Artificial se convierte en un arma en las campañas de desinformación

Fueron muchos los periodistas que se sorprendieron de las andanzas de Dominic Cummings en la película Brexit: The Uncivil War donde se mostraba el uso de redes sociales para influir el voto de los británicos que todavía se mostraban indecisos. En una escena del largometraje, se explica que el interés de la campaña no se debía centrar en los convencidos y los contrarios, si no en aquellos que todavía no habían decidido su voto (un tercio aproximado de la población). Además se concluía que lo más eficiente era poner esfuerzoas específicos para desarrollar una campaña a través de las redes sociales. Mediante una campaña de publicidad en las mismas, con una serie de mensajes dirigidos, se podía influirles y lo mejor de todo nadie se daría de cuenta de ello hasta que fuese demasiado tarde (algo que la película también se preocupa en mostrar).

De repente, en una sola escena, se demostró que el cuarto poder se veía desnudo ante una realidad -puede que un tanto previsible- que existiese un quinto y que deberían tratar de evitar de contrarrestar las mentiras y los bulos que corren como la pólvora en Internet. Sin embargo, por las propias dinámicas de los medios de comunicación, con sus intereses cruzados, con la gran polarización que sufre el espectro político actual, la tarea se demuestra no sólo titánica, también como imposible de gestionar y contrarrestar.

En las redes sociales, no importa tanto la información veraz que se da aparentemente. Los usuarios de las mismas están más preocupados por la cantidad de impactos recibidos, quién puede llegar a decirlo y si acaso cuántos seguidores tiene. Pasamos de la creencia de que todo lo que estaba publicado en la Red era real a una especie de fast food de opinión donde lo importante es quién llega antes a implementar una idea en la opinión pública. El debate y las ideas expositivas se ven acorralados ante esa marea de debate agresivo donde impera la saturación más que la selección. A esto se le añade un nuevo factor en quién dice qué y con qué intenciones es cada vez más difuso y más difícil de discernir.

Por si fuese poco, se añade un nuevo factor, una nueva tecnología que va a hacer mucho más complicada la goberanza informativa actual: El uso de la Inteligencia Artificial como arma informativa. La idea de utilizar Inteligencia Artificial para crear grandes campañas de desinformación ya se había teorizado, pero hoy en día se está materializando de forma muy rápida. Las ventajas de su uso son obvias. La gestión de una campaña de desinformación mediante IAs es mucho más barato y la generación de mayores volúmenes de información con objetivos específicos dentro de la población más efectivo.

Pero, más allá de la generación autónoma y automática de textos mediante la asimilación de contenido previo mediante artículos y libros con el fin de generar un gran volumen de información y pasar desapercibido, actualmente las Inteligencias Artificiales están siendo entrenadas para la generación de fotografías falsas de personas para dotar de credibilidad a esos textos. Además, este desarrollo mediante Generative Adversial Networks (GANs) se está realizando tan rápido que pronto será difícil de discernir entre las personas reales y las falsas generadas mediante esta tecnología.

Deja un comentario

Las dos muertes de la bibliotecaria Jedi Jocasta Nu

Jocasta Nu con un Lightsaber Rifle

Jocasta Nu, maestra Jedi y jefa de bibliotecarios, que pudimos conocer en la película Episodio III – La venganza de los Sith, tuvo dos muertes. Por así decirlo, la no-oficial y la oficial. En la primera de ellas, Anakin Skywalker recién convertido en Darth Vader acude a la Biblioteca y la asesina tras la Orden 66 (la orden militar mediante la cual el emperador Palpatine ejecuta a todos los Jedi). Desde luego que no se trató de una muerte épica, sino dentro de un videojuego y de forma rápida. Jocasta no era una gran guerrera, disponía de otras habilidades, así que poco podía hacer frente a uno de los mejores Jedis de la Galaxia. pero Disney tenía mejores planes para ella y un final mucho más épico.

En los nuevos cómics, que se vienen editando ya desde hace unos pocos años, la bibliotecaria tiene un rol mucho más relevante dentro de los hechos acontecidos tras la desaparición de la Orden Jedi. Darth Vader ya ha tenido su penúltimo enfrentamiento con su maestro y amigo Obi Wan Kenobi y ya es prácticamente una máquina.

El emperador Palpatine le encomienda a Vader que comience una búsqueda a los Jedis que han sobrevivido pero pone un foco especial respecto a Jocasta Nu. A pesar de que tienen toda la biblioteca para la orden Sith donde podrán recopilar conocimientos, Palpatine advierte a Vader que necesitan de la bibliotecaria puesto que hay conocimientos más allá de la biblioteca que puede atesorar sólo ella. De hecho, el emperador es consciente de que existe un registro de todos los niños que pueden ser sensibles a la fuerza y cree que Jocasta tiene un rol relevante en la gestión de ese archivo. No estaba equivocado.

Jocasta Nu tras el alzamiento del Imperio está preparando la transmisión de conocimientos a otros Jedis, iniciando una biblioteca personal y generando lo que se denomina holocron. Estos artefactos van más allá de los libros que se pueden ver en la película del Episodio III y son dispositivos que sólo pueden abrirse y usarse utilizando la Fuerza.

Pronto se percatará la Jedi que debe acudir a la Biblioteca para recuperar información relacionada con el registro de los seres sensibles a la fuerza antes de que lo describan los Sith. Resuelta y con el peligro que ello supone, se desplaza a Coruscant para tratar de acceder a la biblioteca. En su camino hasta una cámara especial dentro de ella, descubre al gran Inquisidor consultando los libros, lo que le produce rechazo y piensa en asaltar al aliado de los Sith.

Jocasta Nu se enfrenta al gran Inquisidor

Si bien consigue contenerse en un primer momento, justo cuando está saliendo de la misma tras obtener el archivo no puede refrenarse y ataca al Inquisidor. En ese momento, Vader interviene puesto que tiene la misión del emperador de mantener a la Jedi con vida frente a la intención del Inquisidor de acabar con la Jedi.

Tras una batalla mediante la cual Jocasta se percata que no es rival para ninguno de los dos Sith, decide borrar toda la Biblioteca y atacar a Vader con distintos artefactos. Sin embargo, es capturada no sin antes borrar todo el contenido de la Biblioteca (esto lo hace mediante un terminal de un ordenador) y realizar una batalla donde resiste de la mejor manera que puede los envites del Lord Sith. Capturada, trata de convencer a Darth Vader que lo mejor que puede hacer es matarla puesto que el emperador utilizará sus conocimientos y finalmente acabará con Vader (digamos que los Sith nunca se han fiado los unos de los otros). Vader hace explotar la nave en la que transportan a Jocasta Nu hasta el emperador acabando con su vida.

Deja un comentario

Con Gutenberg, WordPress cambió del todo

Si bien cuando tratas de editar un texto para la web en tu ordenador fuera del sistema de gestión de contenidos, dispones de muchas opciones; en el caso de que lo hagas directamente a través del CMS puede que tus opciones se encuentren más bien limitadas. Si este es el caso, el sistema ha de tratar de convercerte de que sus funcionalidades son las mejores y las más potentes disponibles entre todas las opciones disponibles. Si llevas ya unos años en el mercado y te has posicionado como una de las plataformas más populares en cuanto a distribución de contenidos, un gran cambio puede no satisfacer a tu comunidad.

WordPress decidió en 2008 cambiar su sistema de edición de contenidos y darle un reenfoque. Ya no sólo se trataba de un cambio tan sólo estético, sino que también abordaba cambios en cuanto la filosofía y cómo debería editarse en la Web. El nuevo sistema se denominó Gutenberg en honor al inventor de la imprenta, Johannes Gutenberg (1400-1468), y no faltó la polémica.

Diseñado para favorecer el proceso de edición. Gutenberg transformaba cómo se editaban los textos hasta el momento en WordPress. Si hasta el momento, se seguía una edición lineal como si de un documento en MS Word se tratase, desde Automattic se forzaba a trabajar con los denominados bloques dentro del texto. De esta manera, los textos y las imágenes podían agruparse dentro de ellos favoreciendo la edición, pudiendo trasladar estos bloques con facilidad dentro de la página a publicar. El objetivo era mejorar el proceso de edición tratando que el usuario pudiese ver el resultado mientras está redactando. Además, permitía la mejor implementación de shortcodes, widgets, menús y/o campos personalizados de manera que los usuarios avanzados pudiesen personalizar todavía más las páginas a publicar.

Este movimiento aunque polémico era considerado necesario atendiendo a la creciente competencia que tenía WordPress como producto debido a las nuevas plataformas de publicación de contenidos como Medium, Ghost o Wix. Hay que tener presente que si bien WordPress es un sistema que puedes descargarte e instalar en un servidor libremente, también dispone de un servicio de alojamiento de contenidos con un modelo Freemium que es justo lo que Automattic estaba tratando de hacer frente.

Por desgracia, la implementación se realizó de forma forzada durante la liberación de la versión 5.0, lo que provocó problemas en muchos plugins de amplio uso e incluso la comunidad sintió que se les imponía algo que todavía no estaba preparado para ser lanzado. Gutenberg recibió muchas críticas puesto que no parecía estar lo suficientemente integrado (en otras palabras, maduro) para ser implementado. A esto se añadía que debido a la nueva concepción de edición presentaba mayores barreras de entrada a los usuarios puesto que no todo el mundo encontraba el nuevo sistema como algo cómodo de usar. Se ha llegado al extremo que una parte de la comunidad se ha sentido traicionada y, de hecho, ya ha aparecido un fork de WordPress llamado Classicpress que trata de dejar las cosas como estaban.

De momento, está claro que Gutenberg ha llegado para quedarse y que irá recibiendo mejoras en muchos frentes. Creo que es un sistema es potente, aunque la curva de aprendizaje puede ser alta para algún usuario. Más allá de las resistencias, de hecho uno de los plugins más descargado es Classic Editor con el que puedes revertir el editor a TinyMCE y que será actualizado de forma oficial hasta 2022, creo que hay que darle una oportunidad e irse adaptándose a él y a todas las capacidades que tiene.

Deja un comentario

Editores para abordar la pantalla en blanco

Hace unos años, escribir para la web era más difícil que hoy en día. Necesitabas entender qué era un lenguaje de marcado, las etiquetas que lo componían y cómo funcionaban. La edición se hacía sobre un texto plano y, obviamente, lo más difícil era no despistarte a la hora de cerrarlas, puesto que su filosofía era muy sencilla de entender.

Era toda una experiencia que imagino los informáticos expertos en código encontrarían simple en comparación a su trabajo diario. Pero la Web tenía una filosofía abierta y lo interesante era que cualquier persona pudiese publicar contenidos de la forma más sencilla posible. Incluso algún navegador, como Netscape, perseguía facilitar esa edición incorporando un pequeño editor WYSIWYG denominado Composer.

En aquellos primeros pasos, para añadir complejidad, tenías que publicar las páginas HTML una a una, subiéndolas tú a tu servidor mediante FTP, preocupándote que estuviesen enlazadas las unas con las otras para que tu humilde sitio web tuviese cierta integración y coherencia entre sí. Por supuesto que la evolución fue rápida y empezaron a surgir los sistemas de gestión de contenidos que funcionaban con sus propias bases de datos que facilitaban esa subida de información.

Sin embargo, la edición de textos todavía se realizaba en ocasiones sobre texto plano, aunque la aparición de los sistemas WYSIWYG sobre estos sistemas de gestión de contenidos no tardarían en aparecer. La integración de TinyMCE en WordPress (nuestro gestor de contenidos para este blog) y en otros muchos sistemas CMS supuso un salto adelante sobre la edición de textos que facilitaba la publicación, la expansión y popularización de la publicación de contenidos propios en lo que denominó Web 2.0.

A nivel personal, nunca me gustó trabajar sobre el servidor. Siempre he tratado de escribir en alguna aplicación de escritorio para luego copiar y pegar el texto cuando estuviese más o menos listo. Para ello, casi siempre he utilizado LibreOffice que dispone de un editor de texto web que facilitaba esa traslación desde mi ordenador al servidor. He de reconocer que intenté utilizar Microsoft Word (se descarta rápido por el galimatías de código que genera cuando copias y pegas) e incluso el editor de textos Google Docs creyendo que obtendría un HTML limpio. Sin embargo, siempre acababa volviendo a LibreOffice ya que me era más cómodo y sencillo de utilizar.

Hoy en día, os invito a que probéis a utilizar cualquier editor de Markdown, un lenguaje de marcado ligero realmente sencillo de utilizar y que en el caso de composición para la web es más que suficiente. Existen infinidad de editores y sólo tenéis que encontrar aquel con el que estéis más cómodos a la hora de trabajar. En mi caso particular, utilizo Typora disponible en distintas plataformas y con distintos temas para que escribáis sobre la tipografía y el fondo sobre el que más os guste. Un editor claro, sencillo y limpio para escribir sin distracciones como muchos de los actualmente disponibles.

Un comentario

Memex, una propuesta de proto-hipertexto

Si lo hubiésemos leído en cualquier relato de algún autor clásico de ciencia-ficción, no hubiese pasado de una anécdota literaria; pero Vannebar Bush se tomó muy en serio la descripción de su máquina Memory – Extender (MEMEX). En la descripción de esta máquina, se aportaba una primera idea de cómo un documento podría ser unido con otro para su recuperación mecánica. La idea fue difundida en un artículo en The Atlantic Monthly en 1945 bajo el título As We May Think, aunque el autor comenzó a trabajar en el texto seis años antes, en 1939. En el documento, Bush se planteaba cómo se estaba gestionando la información en aquella época y cómo se podría hacer más accesible.

Inspirado por Paul Otlet, Bush consideraba que los métodos utilizados para transmitir y revisar los resultados de la investigación no eran los más adecuados. De hecho, consideraba que la cantidad y el volumen de la información que se generaba en aquel momento era tal que no se podía gestionar adecuadamente. Por ello, proponía un dispositivo que permitiese gestionar la información y que evitase en buena medida la sobrecarga de información (infoxicación). Con su Memex, las personas podrían comprimir y almacenar todos sus libros, registros y comunicaciones, además de gestionarlos.

A memex is a device in which an individual stores all his books, records, and communications, and which is mechanized so that it may be consulted with exceeding speed and flexibility. It is an enlarged intimate supplement to his memory.

It consists of a desk, and while it can presumably be operated from a distance, it is primarily the piece of furniture at which he works. On the top are slanting translucent screens, on which material can be projected for convenient reading. There is a keyboard, and sets of buttons and levers. Otherwise it looks like an ordinary desk.

Esquema del MEMEX de Bush

Bush consideraba que su aparato podría extender la memoria de las personas – de ahí su nombre -, podría ser consultado con velocidad y flexibilidad. El soporte elegido por el investigador era el microfilm. De este modo, creía que todos los registros debían ser almacenados en ese soporte, ya se tratase de materiales adquiridos o materiales introducidos por el autor. El Memex permitía al usuario «fotocopiar» aquellos contenidos que desease e integrarlos dentro del sistema.

Tal vez, lo más interesante conceptualmente era que sugería un sistema de clasificación que podría ser considerado como un sistema proto-hipertextual. El aparato facilitaba un tipo de indexacion asociativa a través del que cualquier elemento podría llevar a otro mediante la voluntad del usuario y los senderos (trails) que defina. Según Bush, el usuario tiene que indexar un documento o imagen mediante un código que se registrará en un libro de forma independiente y que facilitará la recuperación de información. El autor no describe en ningún momento un sistema de recuperación automática, ni esquemas de metadatos universales como una clasificación bibliotecaria.

The essential feature of the memex [is] the process of tying two items together… When the user is building a trail, he names it in his code book, and taps it out on his keyboard. Before him are the two items to be joined, projected onto adjacent viewing positions. At the bottom of each there are a number of blank code spaces, and a pointer is set to indicate one of these on each item. The user taps a single key, and the items are permanently joined… Thereafter, at any time, when one of these items is in view, the other can be instantly recalled merely by tapping a button below the corresponding code space.

El concepto del Memex se considera como una de las ideas semilla de lo que vendría a posterior cuando se empezó a diseñar Internet en primera instancia y la Web en segunda, evolucionando esa concepción de trail el hiperenlace y el hipertexto que verían la luz varias décadas después.

Deja un comentario

Tu vida pasa en un scroll infinito

Somos unos yonkis de la información y nos hemos convertido en ello sin darnos cuenta. No, en este caso, no me refiero a la infoxicación, si no más bien a nuestra dependencia a las notificaciones de los teléfonos móviles y el cómo consumimos la información en nuestros dispositivos móviles. Todo podría enmarcarse dentro de lo que se ha denominado la economía de la atención que se basaba en que, puesto que mucho del consumo dentro de una plataforma de los usuarios sería prácticamente gratuito, lo único que sería diferencial -desde un punto de vista publicitario y por tanto de ingresos para estas plataformas- es el tiempo que un usuario pasa consumiendo contenidos en esa web/plataforma.

Hay un ejército de expertos cuya función es hacernos caer en esta misma trampa, por lo que tenemos la batalla perdida de antemano. Una de las formas más sencillas de tratar de captar la atención del usuario es mediante la explotación de la vulnerabilidad de la psicología humana. En este ámbito, la dopamina tiene un papel relevante puesto que es una hormona que segrega nuestro cerebro para recompensarnos. Segregamos dopamina en cuanto recibimos un like o un comentario que recibimos en cualquier red social, puesto que esta hormona es una de las encargadas en recompensarnos cuando estamos satisfechos.

Aza Raskin fue el inventor del scroll infinito, una característica muy práctica dentro de las redes sociales a distintos niveles y que han sabido explotar sobremanera. El scroll infinito permite cargar contenidos de manera secuencial una vez has acabados los previos sin una acción necesaria por parte del usuario. Sin embargo, su aplicación tuvo un efecto nocivo y tal como él mismo declara al cerebro de los usuarios no les da tiempo a ponerse al día con sus impulsos así que sólo puedes seguir haciendo scroll. Obviamente, esto hace que el usuario se encuentre constantemente consumiendo contenidos en un bucle infinito y mientras trata de centrarse en lo que está haciendo, se queda atrapado en las redes sociales.

Por si fuese poco, estas plataformas están diseñadas para que volvamos una y otra vez a las mismas para ver qué ha estado sucediendo dentro de ellas. A esto se le denomina FOMO (miedo a perderse algo, del inglés, fear of missing out) y entran en juego las notificaciones que deliberadamente permitimos que nos alcancen hora tras hora. Sencillamente, somos seres sociales y nos gusta estar conectados de forma permanente con las personas que nos rodean. Para bien o para mal.

Al final, se ha hecho tan bien el trabajo de tenernos enganchados que los propios desarrolladores de sistemas operativos para teléfonos móviles se han preocupado por nuestro bienestar digital. De esta manera, podremos saber para nuestro sonrojo o sorpresa, cuánto tiempo al día destinamos a nuestros terminales y si así lo deseamos apartar nuestra vista de nuestro terminal… Hasta la próxima notificación, claro.

Un comentario
Usamos Cookies - Utilizando este sitio o cerrando este mensaje aceptas nuestra política de Cookies.
Aceptar Cookies
x