El Documentalista Enredado

Infonomía, Innovación, Análisis y Nuevas Tecnologías

Posts in the Web 2.0 category

El declive de la Wikipedia

La Wikipedia es uno de los ejemplos por antonomasia de la Web 2.0, de la web colaborativa y, por supuesto, de la sabiduría de las masas (Wisdom of the crowd). Son muchos los servicios a terceros que la utilizan como fuente de información empezando por las dos tecnológicas más grandes Google y Apple (Siri). Sin embargo, el éxito y el impacto más que evidente de la Wikipedia son extraños, ya que este proyecto se ha mantenido por una organización sin ánimo de lucro que intermitentemente solicita ayuda a sus usuarios y colaboradores para poder mantener su funcionamiento. La Wikipedia provocó que Microsoft tuviese que cerrar Encarta, mientras que Google lo intentó con su enciclopedia Knol. Las enciclopedias tradicionales se han debatido entre el modelo freemium como el caso de la enciclopedia Britannica que mantiene algunos textos abiertos con publicidad a la vez que mantiene un sistema de suscripción por $70.

Recientemente, la publicación MIT Technology Review publicaba un texto denunciando la agonía de la Wikipedia. Desde 2007, según la publicación, la Wikipedia ha perdido hasta un tercio de sus colaboradores (siempre refiriéndose a su versión inglesa) pasando durante este período de 51.000 a 31.000 y las bajas siguen ascendiendo. Un debate que se mantiene desde 2009 y al que se añaden otros como que esta bajada no ayuda a tapar las miserias de una enciclopedia que ha crecido de forma inorgánica y cuyos artículos frívolos disponen de mayor dedicación que aquellos que son más complejos o que existan más entradas dedicadas a la Antártida que a muchos países africanos. Por otro lado, la calidad de la Wikipedia, atendiendo al criterio de las 1000 entradas que toda enciclopedia debería tener, no pasa de una calidad media.

Sin embargo, los achaques de la Wikipedia no son exclusivos. Cualquier comunidad on-line que disponga de un impacto tan relevante como la enciclopedia colaborativa sufre de ciertas disfuncionalidades como un exceso de burocracia. Para tratar de atajarlo, se incide en que satisfacer a los usuarios más activos es importante, pero no vital y que son estos los que deberían ayudar a los nuevos a adaptarse al medio en vez de tratar de penalizarles.

En 2005, cuando la Wikipedia supuso una bocanada de aire fresco tras el batacazo de las tecnológicas en 2001, comenzó su gran popularidad. Aumentaron sus colaboradores de forma exponencial al mismo tiempo que lo hacían los actos de vandalismo y de falsas entradas (hoax). Para tratar de atajar esas malas actuaciones, desde la organización de la enciclopedia se programaron una serie de bots que se dedicaban a vigilar las modificaciones de las entradas y, ante cualquier alarma, debían avisar a los bibliotecarios. El problema se atajó pronto, sin embargo, este nuevo proceder provocó que los nuevos miembros que se agregaban a la Wikipedia descubriesen que añadir nuevos conocimientos era bastante complicado.

Por otro lado, si los expertos en una materia trataban de realizar aportaciones, descubrían cómo sus esfuerzos podían ser modificados por otros casi inmediatamente. Al final, poder agregar contenidos en la Wikipedia pasó de «la enciclopedia que cualquiera puede editar» a la que «cualquiera que entienda las reglas, socialice, esquive el muro impersonal de rechazo semiautomatizado y siga queriendo contribuir […], puede editar».

Para añadir más leña al fuego, editar la Wikipedia no es sencillo ya que utiliza un lenguaje de marcado (de programación por así decirlo) propio. Desde la enciclopedia, se trató de atajar esa dificultad añadiendo un editor visual que facilitase la tarea, pero los editores tradicionales se rebelaron ya que ese editor aparecía por defecto. Se inició una lucha por su desactivación en la que se buscaban sus fallos y se ponían al descubierto, mientras se justificaba su falta de necesidad, lo que empeoraba la usabilidad de edición de la misma. Parece que, finalmente, podría resultar que los peores enemigos de la Wikipedia son aquellos que se encuentran dentro de ella.

La revolución de la Web 2.0 nos trajo el concepto de “Cloud Computing” y, por ende, “Software as a Service (SaaS)”. Nuevas palabras que, aunque similares, definen y añaden pequeños matices especificando y diferenciando distintas formas de trabajar. El SaaS y la “Nube” son modelos de distribución de software a los que se accede a través de un navegador e Internet, pero donde el soporte lógico y los datos que se manejan se alojan en servidores de una compañía de tecnologías de información y comunicación. Las principales ventajas de la contratación de SaaS por las empresas son la reducción de costos de entrada en nuevas formas de trabajo y de software, el fomento de la cooperación entre trabajadores, así como favorecer su movilidad.

El concepto de “Science as a service”, rescatado por Renee DiResta y sugerido por Bill St. Arnaud a través del artículo “Accelerating and Democratizing Science through Cloud Based Services” de Ian Foster; trata de aglutinar todos los conceptos anteriores en una nueva manera de hacer Ciencia. La SCIaaS pretende suponer un ahorro de tiempo sin comprometer la calidad de la investigación científica y abarca tanto la contratación de investigadores de forma muy flexible, el alquiler de instalaciones de forma que supongan un ahorro de costos y el desarrollo de la Ciencia de una manera más eficiente, creativa y colaborativa.

Obviamente, lo que se propone en los textos antes citados es el desarrollo de un nuevo modelo de outsourcing que en el campo científico surgió ya en la década de los años 80 y es utilizada sobretodo en el ámbito farmacéutico. Sin embargo, el outsourcing científico desarrollado hasta la fecha es un tanto opaco y bastante caro, además de difícil de encontrar.

Los nuevos modelos desarrollados a calor de la Web 2.0, así como los modelos B2B y B2C pueden ayudara redefinir este outsourcing a través de la creación de Marketplaces donde las instalaciones, los equipos y los profesionales ofrezcan sus servicios a empresas y organizaciones para hacer Ciencia. El ejemplo es el sitio web Science Exchange donde se ofertan y demandan servicios de este tipo de forma abierta y transparente. Este nuevo modelo se encuentra todavía en un estado embrionario, pero ¿sera éste un nuevo modelo de “Open Innovation”?

El hashtag mató al titular

Los manuales de estilo periodísticos son muy estrictos a la hora de redactar titulares. La lectura de un artículo periodístico comienza con ellos, tienen que reducir una pieza informativa a la mínima expresión, no tienen porqué ser frases completas, no tienen que hacer referencia a títulos de películas o libros (O eso intentan los correctores de estilo), tienen que ser impactantes, originales, atractivos, no pueden superar cierta extensión, etc.

Desde luego que la Prensa e Internet nunca se han llevado demasiado bien, ni desde el punto de vista del modelo de negocio ni desde el punto de vista de la composición de los textos. Escribir para Google es una de las críticas achacables a esa transición, matando los dobles sentidos, acabando con la riqueza del lenguaje e intentando ser lo más descriptivo posible para ser localizado en el maremágnum de las páginas que pueblan la Red. El redactor parece constreñirse más en el hiperespacio que sentirse libre en un lugar donde la dictadura del espacio disponible, de las líneas o los caracteres, es prácticamente inexistente.

Sin embargo, actualmente, la dictadura la marcan otros y son estremadamente extremadamente crueles con los usos y costumbres que hace un año nos hubiesen parecido imposibles. Google comienza a declinar en su capacidad para difundir noticias y fomentar su consumo. La Red impone su ritmo incluso a las empresas que nacieron de ella. La empresa de Mountain View parece incapaz de seguirle el ritmo a una sociedad que acelera ad infinitum el consumo de noticias e informaciones. Los periódicos se han dado cuenta y comienzan a escribir para otros.

El Hashtag no nació de Twitter, lo crearon sus usuarios intentando agrupar las informaciones sobre un mismo tema. Fue espontáneo, pero Twitter lo adoptó como un elemento más de su propio ecosistema informativo. Actualmente, el hashtag asalta el medio impreso, sus titulares. En esta ocasión, el medio busca la generación de ruido, que el titular se desplace a Twitter que genere debate, que pueda ser monitorizado y evaluado, que el ruido redunde en la lectura de su artículo, que el titular y el hashtag sean uno. El lector del medio impreso menos avezado no entenderá qué es eso, una almohadilla junto a un nombre (#nimileurista), pero esos textos están destinados hacia una generación joven copada por una crisis económica que les impide su desarrollo personal y profesional. Una generación que usa Twitter de forma intensiva y que el periódico busca que comenten el reportaje y los que le seguirán al primero.

Desde luego que el hashtag no matará al titular, simplemente se metamorfoseará en el nuevo lenguaje comunicativo de la Red y de sus usuarios más intensivos. La información buscará su salida en las nuevas formas comunicativas, perseguirá la forma más eficiente de ser difundida, como si de la Evolución se tratase. La información aún quiere ser libre.

Web 2.0: La utopía resquebrajada

Este texto se publicó originalmente en el blog colaborativo Neumattic el 25 de enero de 2011

Hubo un tiempo que consideramos que nosotros, los internautas, los usuarios, desplazaríamos a los grandes medios de comunicación. Hubo un tiempo que nosotros expertos, profesionales, conocedores de la realidad social que vivimos, podríamos hablar cara a cara con los grandes medios, corregirlos, castigar la forma en que pudiesen filtrar la información, darle el tamiz que ellos obviaron u olvidaron. Nosotros nos haríamos un hueco, crearíamos una comunidad interconectada que hablaría con voz propia, con mayor autoridad que los gobernantes o los propios periodistas. Nos haríamos un hueco en esta democracia con una voz propia. Nosotros éramos los medios, nosotros construíamos la Web.

Esta nueva Web, refundada tras sus cenizas del desastre de la Burbuja.com, palpitaba en su momento cumbre con innumerables usuarios actualizando blogs con mayor o menor rigor, con mejores y peores historias, con grandes discusiones que aportaban contenidos o simplemente con el típico griterío de un bar. Pero era un sueño y era nuestro, íbamos a cambiar el mundo, pero ¿qué podría quedar de ello?

El sueño parece diluirse tras estos cinco años acelerados en los que hemos pasado de sólo poder usar la web principalmente desde nuestros ordenadores a otros dispositivos como móviles y tabletas. La información que compartimos es inmediata, se prima el aquí y el ahora, lo breve, lo ingenioso, lo impactante, lo taquigráfico. Una muestra de nuestra sociedad acelerada, lo importante por la mañana es olvidado al anochecer, el impacto que dure un segundo, pero que se grave en la retina aunque se trate de 60 minutos.

Automattic, consciente de la falta de tono muscular de la Blogosfera, ofrece un reto a los blogueros sean o no usuarios de su plataforma: Publicar un post al día. Una imagen, un texto breve son razones más que suficientes para los chicos de WordPress, aunque han tenido que bajar varios peldaños su reto y actualmente se conforman con un post a la semana. Sin embargo, eso mismo ya se comparte en Twitter y/o Facebook, feroz competencia me temo ante que los blogs, menos inmediatos, poco pueden hacer.

Dentro de la Blogosfera, otros que están soportando esta corrección son las redes de blogs. De un tiempo a esta parte, se ha pasado de una situación en la que existían múltiples en activo, apareciendo como setas, hemos pasado al cierre e incluso la compra de algunas de ellas.

Otros proyectos que se convirtieron en estandartes de la Web 2.0 como los marcadores sociales tampoco se encuentran en su mejor momento. Nos referimos principalmente a Delicious que, como es bien sabido, iba a ser cerrado por Yahoo! tras su fracaso en su adquisición y que provocó una reacción melancólica dentro de la Web Social que sólo ha derivado a la intención de la compañía norteamericana hacia su venta, más que su cierre. Sin embargo, los usuarios de Delicious ya se han dispuesto a la búsqueda de alternativas que no hace presagiar un buen desenlace sobre esta web que provocó ríos de tinta en su momento.

La promoción social de informaciones tampoco pasa por su mejor momento tras el descenso de Digg a los infiernos. Los distintos cambios que ha sufrido la gestión de la Web no han sentado nada bien a su comunidad y los internautas han ido progresivamente abandonando el barco. El descenso del tráfico de Digg también tiene su efecto gracias a otras alternativas para compartir información y mantenerse actualizado como sucede con Twitter, lo que nos lleva a la consideración de que los hábitos y las evoluciones de los internautas tienen mucho peso a la hora del desarrollo del negocio de este tipo de webs.

Y, finalmente, y esto debería ser un punto de atención para aquellos proyectos que se encuentran en su hype actualmente. MySpace, otrora la red social por excelencia, que ha visto cómo debía ceder su cetro a otra red social (Facebook) que simplemente ha sabido barrerla del mapa. La estrategia de Rupert Murdoch falló, pero es otro punto de atención innegable que, en la Web, las generaciones que reemplazan a las siguientes bien pueden acabar con un proyecto que parecía completamente asentado y viable económicamente.

Salud 2.0: mirándonos en un espejo

Hace mucho tiempo ya que dejé de ser una parte activa de la biblioblogosfera, y aún diría más, que dejé de ser una parte pasiva. Por circunstancias personales, por trabajo, por tiempo, por pereza… por aburrimiento.

Dejé de leer blogs de documentación y bibliotecas, mientras algunos desaparecían y otros surgían sin percatarme; dejé de leer artículos profesionales, incluso dejé de imprimir o archivar “futuribles” lecturas interesantes; por la imposibilidad de asistir a eventos profesionales fuera de Valencia y su casi inexistencia por estos lares, me fue fácil desvincularme de jornadas y encuentros (auque aún me he acercado a alguno). En definitiva, después de estos dos o tres años pensaba que estaba totalmente fuera de los temas y las inquietudes de mi profesión.

Hoy, se ha dado la circunstancia de desarrollarse en Valencia una jornada denominada “Salud 2.0: Nuevas herramientas aplicadas a la medicina”. Y, aprovechando que tenía la excusa laboral perfecta para asistir, como documentalista en una institución de investigación biomédica, y picada por el gusanillo de la temática Web 2.0 que hace tanto tiempo dejé de lado, allí que he ido.

Mi gran sorpresa ha sido ver que todo era igual a lo que yo había conocido hace unos años en relación a las bibliotecas, pero ahora con temática médica: el miedo de los profesionales a perder su posición “paternalista” tradicional en la relación médico-paciente, porque los pacientes se informan por otras fuentes (todo el mundo busca en Google, también sobre salud, y un paciente puede acceder al último artículo publicado sobre su enfermedad tan rápido como su médico); la crítica a la falta de “fiabilidad” de la información vertida en la Red si no hay un médico o institución detrás (cuando está comprobado que el porcentaje de errores es mínimo ya que la llamada “inteligencia colectiva” corrige errores tan pronto como los detecta); la reticencia, a cualquier cambio tecnológico, a cualquier estrategia de comunicación alternativa y, en definitiva, a establecer una comunicación recíproca con sus pacientes, en los que estos pudieran participar activamente aportando información tanto como recibiéndola.

Trasladado al mundo bibliotecario: cuánto se ha hablado (y temido) del cambio de rol del bibliotecario, que pasó de ser el guardián de la información a un ¿simple? intermediario y facilitador de ésta; cuánto se ha discutido y censurado la posibilidad de que el usuario participara en la indización del catálogo bibliotecario mediante etiquetas, comentarios o recomendaciones, porque la “sagrada” clasificación bibliotecaria se veía comprometida; y, decidme, cuántas herramientas de comunicación real entre los usuarios y su biblioteca se han establecido. Mejor no respondáis a esta última pregunta.

En este evento en el que se han dado ejemplos de proyectos de Salud 2.0, me he dado cuenta de que nada ha cambiado en este tiempo, que no hay tantas diferencias. Que al igual que en las Bibliotecas 2.0 y en la Salud 2.0 trabajamos con las mismas herramientas, también nos enfrentamos a las mismas reticencias de los profesionales y las instituciones.

Y, teniendo en cuenta que, los internautas que se desenvuelven en la Web 2.0, que están en redes sociales, escriben y siguen blogs, y comentan en foros, son los mismos usuarios que buscan una participación más activa en nuestras bibliotecas, y los pacientes que esperan otro tipo de comunicación con sus médicos; como profesionales, bibliotecarios o médicos, no podemos permitir que también nuestros mismos miedos nos detengan y no adaptemos nuestro papel y nuestros servicios a las necesidades del ciudadano del siglo XXI.

La Web Social se reencarna en software

Si recuerdo mi primera experiencia con Internet, tendría que retrotraerme a los tiempos del Gopher. A la navegación por carpetas en servidores externos, a los pocos elementos gráficos que se podían visualizar en aquellos navegadores que hoy consideraríamos en completamente rudimentarios. Luego llegaría el HTML, los navegadores gráficos y nos iríamos olvidando de los distintos protocolos que en aquel momento poblaban Internet. Aprenderíamos a diseñar nuestras páginas web afortunadamente sin tener que escribir líneas de código HTML, si no con los primeros editores e incluso llegaríamos a usar el FTP incluso con el propio navegador Internet Explorer (!).

Mucho han cambiado las cosas. Después de la burbujapuntocom y considerar que la Web era tierra baldía para hacer negocios, el resurgimiento de la misma vino apalancada por sus propios usuarios. El “usuario es el rey” e incluso los propios medios de comunicación temblarían por el poder del mismo. Los internautas crearían sus contenidos, los expertos desplazarían a los medios como fuentes de referencia e Internet podría derribar gobiernos.

Sin embargo, la Web 2.0, la democratización de la producción y la distribución de la información ha quedado como un mundo idealizado. A los blogs se les ha intentado enterrar muchas veces, mientras que la Wikipedia, los sucesivos escándalos, trataban de desacreditarla como fuente de información de referencia. La participación, la Conversación como se le trató de denominar, evoluciona desde el infinito hasta convertirse en meras líneas de 140 caracteres máximo pero donde la capacidad de influencia sobre otros viene determinada por el volumen de seguidores en Twitter o amigos (o falsos amigos) que puedas tener en Facebook.

Durante este tiempo, la forma de consumir la Web ha evolucionado dramáticamente. La barra de direcciones de los navegadores perdían su sentido cuando sus usuarios consultaban o escribían directamente las direcciones de los sitios web en la caja de búsqueda de Google, la aparición del iPhone convertía a las Apps en el futuro del consumo de contenidos tratando de derribar la Web abierta tal y como hoy en día la conocemos, mientras que lo Social se avanzaba al término 2.0. Y en ello andamos.

RockMelt se lanzaba esta semana en su versión beta como el futuro de la navegación en Internet. El internauta daba un paso más ya no sólo como consumidor de contenidos, si no como difusor de los mismos tanto a través de la red social Facebook y el servicio de microblogging Twitter de forma completamente integrada y bajo la plataforma Chromium de Google. También debería causarnos asombro que el formato RSS todavía sobreviva en esta nueva forma de utilizar la web, otra de las cosas que según los gurús estarían ya finiquitadas de la etapa anterior, y que sin embargo es fundamental para los superusuarios de la web.

Claro que la competencia de este nuevo navegador, como por ejemplo Chrome y Firefox ya disponían de la posibilidad de implementar características sociales a sus navegadores a través de distintos plugins como la barra de Facebook o clientes especiales como Echofon. Pero este nuevo movimiento dentro del mundo de los navegadores, de la manera que todavía hoy accedemos y consumimos la web puede llegar a ser una llamada de atención muy interesante hacia dónde se dirige nuestra experiencia dentro de la misma.

¿El Social Media ha matado al blog?

No creo que sea menester recordar aquí que no fui un early-adopter de Twitter, ni tampoco de Facebook. No soy de aquellos que ansían que le ofrezcan una invitación o recibir una cuando un servicio se encuentra en fase Beta -Excepto en la honrosa ocasión de Gmail cuando era un coto de unos pocos y lo cierto es que es el único servicio que adopté más rápidamente con los brazos abierto -. En el caso del microblogging, mi excepticismo era total.

Puede que en aquellos principios hubiese podido pronunciar las palabras: “¿140 carácteres? ¿Dónde nos conduce eso?” Por supuesto que se trataba de un error, ya que obviaba que muchos de los posts de aquel entonces, los años 2006-2008, bien se podrían haber solventado con un miserable tweet. De hecho, la propia terminología del blog proviene de aquellas anotaciones cortas fruto de la navegación de los internautas por la Red.

Desde entonces Twitter ha tenido tiempo de crecer exponencialmente, mientras que la red social Facebook la mira de reojo intentando introducir cambios dentro de su interfaz y de su configuración para asemejarse cada día más a ella. Twitter se ha erigido la bandera de una revolución descentralizada y mientras el mundo de la comunicación trata de digerir ese nuevo canal inesperado que redirige tráfico y puntúa el interés de ciertas informaciones. Aunque la pregunta está en el aire: ¿El Social Media ha matado al blog?

Twitter es una forma muy efectiva de entrar en una comunidad ya establecida. 140 caracteres no ocupan excesivo tiempo, a pesar de que el seguimiento de las conversaciones cruzadas puede llegar a ser agotador, y puede ser actualizado desde cualquier momento. En el mundo Twitter, sólo tienes que encontrar a alguien al que seguir que comparta ciertos intereses contigo, comprobar sus listas y comenzar a seguir a personas. En el caso de los blogs, era mucho más costoso. La redacción de textos de 350 palabras de media supone un esfuerzo importante de tiempo y no siempre se puede estar seguro de que el retorno sea suficiente para justificarlo (Aunque sea mentalmente). 140 caracteres y listo, conversaciones, recomendaciones… Todo un mundo se abre en Twitter y seguir a personajes ficticios o reales, ser accesible a ellos, se encuentra extendiendo sólo una mano.

Pero ¿y los blogs? Antaño eran considerados como un portfolio para los profesionales (y todavía lo son), una manera de demostrar la valía de cada uno, sus conocimientos, sin embargo que la tendencia actualmente se centra en la capacidad de cada uno de conseguir seguidores dentro de su cuenta Twitter. Pero no debemos equivocarnos, los blogs, evolucionados hacia medios de comunicación de bajo costo y enfocados hacia las microaudiencias, no dejan de crecer apareciendo nuevos, mejores junto con nuevas ideas y enfoques. Ya no como proyectos aislados, esfuerzos personales; sino con un sino y una razón de ser que se centralizada en al menos una decena de personas dispuestas a actualizarlos.

Mientras tanto la generación de contenidos desde las plataformas sociales (Blogs, Wikis, etc.) ha disminuido lo que ha conducido a considerar que las ideas y el debate generado anteriormente dentro de este medio se está debilitando. Pero ¿se ha trasladado a Twitter? Recientemente, se publicó un estudio que analizaba 1200 millones de tweets (publicaciones en Twitter) producidos en dos meses. Los resultados eran un tanto decepcionantes puesto que el 71% no provocaban ninguna reacción, mientras que sólo el 6% era retuiteado (Redistribuido por otros usuarios) y el 23% restante obtenía una contestación. Unos resultados un tanto escasos, que en cualquier caso, dentro de nuestra experiencia, Twitter constituye una nueva forma y bastante poderosa de obtener tráfico, es decir obtener visitantes nuevos, por lo que ante esta falta de reacción deberían incluirse otras métricas como los clics producidos ante la distribución de un enlace o los hashtags utilizados.

El debate se sigue produciendo aunque se descentraliza y se esparce por toda la Web, de hecho el consumo de la Red ha aumentado un 62% desde principios de año. Twitter y Facebook permiten que estos contenidos lleguen a un mayor número de personas, con la audiencia más segmentada y por lo tanto más proclive de acceder a consumir cierto contenido. Las plataformas abiertas conducen a un aumento de la viralidad de los mensajes lanzados en ella, que permiten a las multitudes autoorganizarse de una forma mucho más efectiva y productiva ante un objetivo común.

¿El Social Media ha matado al blog? No, simplemente, la Conversación se ha transformado.

Usamos Cookies - Utilizando este sitio o cerrando este mensaje aceptas nuestra política de Cookies.
Aceptar Cookies
x