Saltar al contenido →

Etiqueta: Web 2.0

El fin de la web como la conocimos

No deberíamos engañarnos respecto al futuro de la web. Hay que mirar con un poco de perspectiva respecto cómo el ecosistema de la información ha ido evolucionando a lo largo de los años tras la promesa del acceso universal y gratuito a la información. En la década de los 90, conectarse a la Web estaba reservado a unos pocos y no digamos publicar contenidos en ella. A principios de los 2000, la propuesta era que cualquiera podría generar sus propios contenidos, se constituiría una inteligencia colectiva dentro de lo que se denominó la Web 2.0. En la primera década del siglo XXI, el Social Media supuso un terremoto respecto a la rapidez en que la información se transmitía y se priorizaba y nos fuimos acostumbrando a los términos trending topic o viralización. Parecía que por fin la opinión pública no iba a ser tan maleable e influenciable, que iba a saber consumir información y determinar qué fuentes de información podrían ser fiables y cuáles no. Pero según pasaron los años, todo ello cayó como un castillo de naipes.

Las Fake News y el escándalo de Cambridge Analytica nos hizo caer la venda de los ojos según ciertos intereses y la publicidad iba integrándose en el ecosistema. «Podremos vivir con ello», pudimos creer, pero parece que la baraja se rompe del todo y en diversos frentes a la vez.

Como siempre sucede, los grandes cambios aparecen como pequeñas grietas por los que se filtra el agua rompiendo toda la estructura y haciendo colapsar toda la estructura anterior. Lo que nos conduce hacia el escenario ya admitido por Google de que la web abierta está en rápido declive (aunque posteriormente haya puntualizado esa afirmación) y que sólo se entiende si nos alejamos unos pasos y contemplamos el escenario desde una perspectiva amplia.

Desde aquí, ya hemos apuntado algunas señales de este gran cambio, pero hay otros puntos que debemos considerar para complementar el análisis:

  1. Concentración de tráfico. La mayoría del tráfico de la web se concentra en unas pocas empresas como Google, Amazon (AWS), Meta (Facebook) o TikTok. Estas grandes empresas que concentran el 50% del tráfico de la Red deciden qué se ve, cómo se ve y cómo se monetiza. Esto provoca un desequilibrio respecto a otros agentes de la Red.
  2. El fin del hiperenlace. La tendencia de consumo de información tiende hacia el contenido encapsulado (reels, vídeos, memes, capturas de pantalla…) Lo que socava el origen mismo de la red como agregación de enlaces de contenido.
  3. Publicidad y rastreo. El esfuerzo que están llevando a cabo las grandes plataformas de redes sociales a la monetización de la actividad de los usuarios provoca que estos tiendan a desconfiar del uso de las mismas. Esto menoscaba el uso de la red como un espacio público de debate y de intercambio de ideas.
  4. Costos de infraestructura. Durante el apogeo de la blogosfera, era relativamente sencillo y barato abrir un lugar de publicación. Sin embargo, la complejidad de mantenimiento de estos sitios ha aumentado, así como tratar de posicionar los contenidos.
  5. IA Generativa. Ya abordado anteriormente en este blog, la IA en las búsquedas de usuarios es un game changer en todo el ecosistema de información que puede conducir a un cambio relevante respecto a la publicación y consumo de información.
Deja un comentario

Cuando el tagging se convierte en nocivo (en el MundoReal™)

Una de las cosas que la Web 2.0 trajo consigo es el etiquetado tanto de artículos, fotografías como de otro tipo de documentos. Estas etiquetas, asignadas en muchas ocasiones libremente por los usuarios de este tipo de servicios, son palabras clave cuyo fin es permitir a otros usuarios del mismo servicio localizar información y artículos relacionados.

Este sistema de clasificación de información de los que se sirve servicios bien conocidos como Twitter o Instagram es una buena idea en un principio. Por ejemplo, en el caso de Twitter sirve para la detección de las tendencias en distintos ámbitos de clasificación de la información, ya se geográficamente como temáticamente. Y a pesar de que esta acción parezca ser superflua en primera instancia, tiene un impacto en el MundoReal™.

Algo tan inocente como un turista o un vecino añadiendo una etiqueta a una fotografía que se acaba de hacer de un elemento natural que le resulta bonito o simplemente interesante puede llegar a convertirse en un problema precisamente para la conservación de aquello que acabamos de inmortalizar. De hecho, ya hay Parques Naturales como Keep Jackson Hole Wild que están pidiendo a sus visitantes que no Geo-localicen sus fotos en un intento de preservar los espacios naturales del parque.

Un ejemplo a pequeña escala es el Broccoli Tree que acabó siendo vandalizado y finalmente talado precisamente por su popularidad en Instagram. El árbol fue popularizado por Patrik Svedberg que realizó durante meses de un árbol situado en Suecia. Poco a poco, el árbol fue adquiriendo popularidad convirtiéndose en una pequeña atracción turística y ganándose un hueco como celebridad en Instagram con 30.000 seguidores. Sin embargo, en 2017, alguien cortó una de sus ramas y posteriormente alguna autoridad local decidió que había que cortar el árbol entero poniendo fin a este pequeño rincón natural.

De esta forma, un sistema que sirvió para destacar un elemento natural y que personas de todo el mundo lo conociesen y apreciasen, sirvió también para acabar con él. Algo que también se puede comprobar a mayor escala en espacios naturales como Maya Bay que tuvo que ser cerrada para tratar de recuperar su ecosistema ante la gran afluencia de turistas.

Comentarios cerrados

El declive de la Wikipedia

La Wikipedia es uno de los ejemplos por antonomasia de la Web 2.0, de la web colaborativa y, por supuesto, de la sabiduría de las masas (Wisdom of the crowd). Son muchos los servicios a terceros que la utilizan como fuente de información empezando por las dos tecnológicas más grandes Google y Apple (Siri). Sin embargo, el éxito y el impacto más que evidente de la Wikipedia son extraños, ya que este proyecto se ha mantenido por una organización sin ánimo de lucro que intermitentemente solicita ayuda a sus usuarios y colaboradores para poder mantener su funcionamiento. La Wikipedia provocó que Microsoft tuviese que cerrar Encarta, mientras que Google lo intentó con su enciclopedia Knol. Las enciclopedias tradicionales se han debatido entre el modelo freemium como el caso de la enciclopedia Britannica que mantiene algunos textos abiertos con publicidad a la vez que mantiene un sistema de suscripción por $70.

Recientemente, la publicación MIT Technology Review publicaba un texto denunciando la agonía de la Wikipedia. Desde 2007, según la publicación, la Wikipedia ha perdido hasta un tercio de sus colaboradores (siempre refiriéndose a su versión inglesa) pasando durante este período de 51.000 a 31.000 y las bajas siguen ascendiendo. Un debate que se mantiene desde 2009 y al que se añaden otros como que esta bajada no ayuda a tapar las miserias de una enciclopedia que ha crecido de forma inorgánica y cuyos artículos frívolos disponen de mayor dedicación que aquellos que son más complejos o que existan más entradas dedicadas a la Antártida que a muchos países africanos. Por otro lado, la calidad de la Wikipedia, atendiendo al criterio de las 1000 entradas que toda enciclopedia debería tener, no pasa de una calidad media.

Sin embargo, los achaques de la Wikipedia no son exclusivos. Cualquier comunidad on-line que disponga de un impacto tan relevante como la enciclopedia colaborativa sufre de ciertas disfuncionalidades como un exceso de burocracia. Para tratar de atajarlo, se incide en que satisfacer a los usuarios más activos es importante, pero no vital y que son estos los que deberían ayudar a los nuevos a adaptarse al medio en vez de tratar de penalizarles.

En 2005, cuando la Wikipedia supuso una bocanada de aire fresco tras el batacazo de las tecnológicas en 2001, comenzó su gran popularidad. Aumentaron sus colaboradores de forma exponencial al mismo tiempo que lo hacían los actos de vandalismo y de falsas entradas (hoax). Para tratar de atajar esas malas actuaciones, desde la organización de la enciclopedia se programaron una serie de bots que se dedicaban a vigilar las modificaciones de las entradas y, ante cualquier alarma, debían avisar a los bibliotecarios. El problema se atajó pronto, sin embargo, este nuevo proceder provocó que los nuevos miembros que se agregaban a la Wikipedia descubriesen que añadir nuevos conocimientos era bastante complicado.

Por otro lado, si los expertos en una materia trataban de realizar aportaciones, descubrían cómo sus esfuerzos podían ser modificados por otros casi inmediatamente. Al final, poder agregar contenidos en la Wikipedia pasó de «la enciclopedia que cualquiera puede editar» a la que «cualquiera que entienda las reglas, socialice, esquive el muro impersonal de rechazo semiautomatizado y siga queriendo contribuir […], puede editar».

Para añadir más leña al fuego, editar la Wikipedia no es sencillo ya que utiliza un lenguaje de marcado (de programación por así decirlo) propio. Desde la enciclopedia, se trató de atajar esa dificultad añadiendo un editor visual que facilitase la tarea, pero los editores tradicionales se rebelaron ya que ese editor aparecía por defecto. Se inició una lucha por su desactivación en la que se buscaban sus fallos y se ponían al descubierto, mientras se justificaba su falta de necesidad, lo que empeoraba la usabilidad de edición de la misma. Parece que, finalmente, podría resultar que los peores enemigos de la Wikipedia son aquellos que se encuentran dentro de ella.

Un comentario

Del outsourcing científico al Science as a Service (SCIaaS)

La revolución de la Web 2.0 nos trajo el concepto de “Cloud Computing” y, por ende, “Software as a Service (SaaS)”. Nuevas palabras que, aunque similares, definen y añaden pequeños matices especificando y diferenciando distintas formas de trabajar. El SaaS y la “Nube” son modelos de distribución de software a los que se accede a través de un navegador e Internet, pero donde el soporte lógico y los datos que se manejan se alojan en servidores de una compañía de tecnologías de información y comunicación. Las principales ventajas de la contratación de SaaS por las empresas son la reducción de costos de entrada en nuevas formas de trabajo y de software, el fomento de la cooperación entre trabajadores, así como favorecer su movilidad.

El concepto de “Science as a service”, rescatado por Renee DiResta y sugerido por Bill St. Arnaud a través del artículo “Accelerating and Democratizing Science through Cloud Based Services” de Ian Foster; trata de aglutinar todos los conceptos anteriores en una nueva manera de hacer Ciencia. La SCIaaS pretende suponer un ahorro de tiempo sin comprometer la calidad de la investigación científica y abarca tanto la contratación de investigadores de forma muy flexible, el alquiler de instalaciones de forma que supongan un ahorro de costos y el desarrollo de la Ciencia de una manera más eficiente, creativa y colaborativa.

Obviamente, lo que se propone en los textos antes citados es el desarrollo de un nuevo modelo de outsourcing que en el campo científico surgió ya en la década de los años 80 y es utilizada sobretodo en el ámbito farmacéutico. Sin embargo, el outsourcing científico desarrollado hasta la fecha es un tanto opaco y bastante caro, además de difícil de encontrar.

Los nuevos modelos desarrollados a calor de la Web 2.0, así como los modelos B2B y B2C pueden ayudara redefinir este outsourcing a través de la creación de Marketplaces donde las instalaciones, los equipos y los profesionales ofrezcan sus servicios a empresas y organizaciones para hacer Ciencia. El ejemplo es el sitio web Science Exchange donde se ofertan y demandan servicios de este tipo de forma abierta y transparente. Este nuevo modelo se encuentra todavía en un estado embrionario, pero ¿sera éste un nuevo modelo de “Open Innovation”?

Comentarios cerrados

El hashtag mató al titular

Los manuales de estilo periodísticos son muy estrictos a la hora de redactar titulares. La lectura de un artículo periodístico comienza con ellos, tienen que reducir una pieza informativa a la mínima expresión, no tienen porqué ser frases completas, no tienen que hacer referencia a títulos de películas o libros (O eso intentan los correctores de estilo), tienen que ser impactantes, originales, atractivos, no pueden superar cierta extensión, etc.

Desde luego que la Prensa e Internet nunca se han llevado demasiado bien, ni desde el punto de vista del modelo de negocio ni desde el punto de vista de la composición de los textos. Escribir para Google es una de las críticas achacables a esa transición, matando los dobles sentidos, acabando con la riqueza del lenguaje e intentando ser lo más descriptivo posible para ser localizado en el maremágnum de las páginas que pueblan la Red. El redactor parece constreñirse más en el hiperespacio que sentirse libre en un lugar donde la dictadura del espacio disponible, de las líneas o los caracteres, es prácticamente inexistente.

Sin embargo, actualmente, la dictadura la marcan otros y son estremadamente extremadamente crueles con los usos y costumbres que hace un año nos hubiesen parecido imposibles. Google comienza a declinar en su capacidad para difundir noticias y fomentar su consumo. La Red impone su ritmo incluso a las empresas que nacieron de ella. La empresa de Mountain View parece incapaz de seguirle el ritmo a una sociedad que acelera ad infinitum el consumo de noticias e informaciones. Los periódicos se han dado cuenta y comienzan a escribir para otros.

El Hashtag no nació de Twitter, lo crearon sus usuarios intentando agrupar las informaciones sobre un mismo tema. Fue espontáneo, pero Twitter lo adoptó como un elemento más de su propio ecosistema informativo. Actualmente, el hashtag asalta el medio impreso, sus titulares. En esta ocasión, el medio busca la generación de ruido, que el titular se desplace a Twitter que genere debate, que pueda ser monitorizado y evaluado, que el ruido redunde en la lectura de su artículo, que el titular y el hashtag sean uno. El lector del medio impreso menos avezado no entenderá qué es eso, una almohadilla junto a un nombre (#nimileurista), pero esos textos están destinados hacia una generación joven copada por una crisis económica que les impide su desarrollo personal y profesional. Una generación que usa Twitter de forma intensiva y que el periódico busca que comenten el reportaje y los que le seguirán al primero.

Desde luego que el hashtag no matará al titular, simplemente se metamorfoseará en el nuevo lenguaje comunicativo de la Red y de sus usuarios más intensivos. La información buscará su salida en las nuevas formas comunicativas, perseguirá la forma más eficiente de ser difundida, como si de la Evolución se tratase. La información aún quiere ser libre.

2 comentarios

Web 2.0: La utopía resquebrajada

Este texto se publicó originalmente en el blog colaborativo Neumattic el 25 de enero de 2011

Hubo un tiempo que consideramos que nosotros, los internautas, los usuarios, desplazaríamos a los grandes medios de comunicación. Hubo un tiempo que nosotros expertos, profesionales, conocedores de la realidad social que vivimos, podríamos hablar cara a cara con los grandes medios, corregirlos, castigar la forma en que pudiesen filtrar la información, darle el tamiz que ellos obviaron u olvidaron. Nosotros nos haríamos un hueco, crearíamos una comunidad interconectada que hablaría con voz propia, con mayor autoridad que los gobernantes o los propios periodistas. Nos haríamos un hueco en esta democracia con una voz propia. Nosotros éramos los medios, nosotros construíamos la Web.

Esta nueva Web, refundada tras sus cenizas del desastre de la Burbuja.com, palpitaba en su momento cumbre con innumerables usuarios actualizando blogs con mayor o menor rigor, con mejores y peores historias, con grandes discusiones que aportaban contenidos o simplemente con el típico griterío de un bar. Pero era un sueño y era nuestro, íbamos a cambiar el mundo, pero ¿qué podría quedar de ello?

El sueño parece diluirse tras estos cinco años acelerados en los que hemos pasado de sólo poder usar la web principalmente desde nuestros ordenadores a otros dispositivos como móviles y tabletas. La información que compartimos es inmediata, se prima el aquí y el ahora, lo breve, lo ingenioso, lo impactante, lo taquigráfico. Una muestra de nuestra sociedad acelerada, lo importante por la mañana es olvidado al anochecer, el impacto que dure un segundo, pero que se grave en la retina aunque se trate de 60 minutos.

Automattic, consciente de la falta de tono muscular de la Blogosfera, ofrece un reto a los blogueros sean o no usuarios de su plataforma: Publicar un post al día. Una imagen, un texto breve son razones más que suficientes para los chicos de WordPress, aunque han tenido que bajar varios peldaños su reto y actualmente se conforman con un post a la semana. Sin embargo, eso mismo ya se comparte en Twitter y/o Facebook, feroz competencia me temo ante que los blogs, menos inmediatos, poco pueden hacer.

Dentro de la Blogosfera, otros que están soportando esta corrección son las redes de blogs. De un tiempo a esta parte, se ha pasado de una situación en la que existían múltiples en activo, apareciendo como setas, hemos pasado al cierre e incluso la compra de algunas de ellas.

Otros proyectos que se convirtieron en estandartes de la Web 2.0 como los marcadores sociales tampoco se encuentran en su mejor momento. Nos referimos principalmente a Delicious que, como es bien sabido, iba a ser cerrado por Yahoo! tras su fracaso en su adquisición y que provocó una reacción melancólica dentro de la Web Social que sólo ha derivado a la intención de la compañía norteamericana hacia su venta, más que su cierre. Sin embargo, los usuarios de Delicious ya se han dispuesto a la búsqueda de alternativas que no hace presagiar un buen desenlace sobre esta web que provocó ríos de tinta en su momento.

La promoción social de informaciones tampoco pasa por su mejor momento tras el descenso de Digg a los infiernos. Los distintos cambios que ha sufrido la gestión de la Web no han sentado nada bien a su comunidad y los internautas han ido progresivamente abandonando el barco. El descenso del tráfico de Digg también tiene su efecto gracias a otras alternativas para compartir información y mantenerse actualizado como sucede con Twitter, lo que nos lleva a la consideración de que los hábitos y las evoluciones de los internautas tienen mucho peso a la hora del desarrollo del negocio de este tipo de webs.

Y, finalmente, y esto debería ser un punto de atención para aquellos proyectos que se encuentran en su hype actualmente. MySpace, otrora la red social por excelencia, que ha visto cómo debía ceder su cetro a otra red social (Facebook) que simplemente ha sabido barrerla del mapa. La estrategia de Rupert Murdoch falló, pero es otro punto de atención innegable que, en la Web, las generaciones que reemplazan a las siguientes bien pueden acabar con un proyecto que parecía completamente asentado y viable económicamente.

Comentarios cerrados

Salud 2.0: mirándonos en un espejo

Hace mucho tiempo ya que dejé de ser una parte activa de la biblioblogosfera, y aún diría más, que dejé de ser una parte pasiva. Por circunstancias personales, por trabajo, por tiempo, por pereza… por aburrimiento.

Dejé de leer blogs de documentación y bibliotecas, mientras algunos desaparecían y otros surgían sin percatarme; dejé de leer artículos profesionales, incluso dejé de imprimir o archivar “futuribles” lecturas interesantes; por la imposibilidad de asistir a eventos profesionales fuera de Valencia y su casi inexistencia por estos lares, me fue fácil desvincularme de jornadas y encuentros (auque aún me he acercado a alguno). En definitiva, después de estos dos o tres años pensaba que estaba totalmente fuera de los temas y las inquietudes de mi profesión.

Hoy, se ha dado la circunstancia de desarrollarse en Valencia una jornada denominada “Salud 2.0: Nuevas herramientas aplicadas a la medicina”. Y, aprovechando que tenía la excusa laboral perfecta para asistir, como documentalista en una institución de investigación biomédica, y picada por el gusanillo de la temática Web 2.0 que hace tanto tiempo dejé de lado, allí que he ido.

Mi gran sorpresa ha sido ver que todo era igual a lo que yo había conocido hace unos años en relación a las bibliotecas, pero ahora con temática médica: el miedo de los profesionales a perder su posición “paternalista” tradicional en la relación médico-paciente, porque los pacientes se informan por otras fuentes (todo el mundo busca en Google, también sobre salud, y un paciente puede acceder al último artículo publicado sobre su enfermedad tan rápido como su médico); la crítica a la falta de “fiabilidad” de la información vertida en la Red si no hay un médico o institución detrás (cuando está comprobado que el porcentaje de errores es mínimo ya que la llamada “inteligencia colectiva” corrige errores tan pronto como los detecta); la reticencia, a cualquier cambio tecnológico, a cualquier estrategia de comunicación alternativa y, en definitiva, a establecer una comunicación recíproca con sus pacientes, en los que estos pudieran participar activamente aportando información tanto como recibiéndola.

Trasladado al mundo bibliotecario: cuánto se ha hablado (y temido) del cambio de rol del bibliotecario, que pasó de ser el guardián de la información a un ¿simple? intermediario y facilitador de ésta; cuánto se ha discutido y censurado la posibilidad de que el usuario participara en la indización del catálogo bibliotecario mediante etiquetas, comentarios o recomendaciones, porque la “sagrada” clasificación bibliotecaria se veía comprometida; y, decidme, cuántas herramientas de comunicación real entre los usuarios y su biblioteca se han establecido. Mejor no respondáis a esta última pregunta.

En este evento en el que se han dado ejemplos de proyectos de Salud 2.0, me he dado cuenta de que nada ha cambiado en este tiempo, que no hay tantas diferencias. Que al igual que en las Bibliotecas 2.0 y en la Salud 2.0 trabajamos con las mismas herramientas, también nos enfrentamos a las mismas reticencias de los profesionales y las instituciones.

Y, teniendo en cuenta que, los internautas que se desenvuelven en la Web 2.0, que están en redes sociales, escriben y siguen blogs, y comentan en foros, son los mismos usuarios que buscan una participación más activa en nuestras bibliotecas, y los pacientes que esperan otro tipo de comunicación con sus médicos; como profesionales, bibliotecarios o médicos, no podemos permitir que también nuestros mismos miedos nos detengan y no adaptemos nuestro papel y nuestros servicios a las necesidades del ciudadano del siglo XXI.

2 comentarios