Saltar al contenido →

El Documentalista Enredado Entradas

La flaqueza del bloguer

Daniel Martí Pellón anunciaba el pasado mes de enero su despedida de su blog ComuniSfera – Ojo que también dispone del blog Comunicación e Imagen situado en La Coctelera – después de cinco años en activo. Aunque Daniel siempre deja la puerta abierta al retorno, lo cierto es que su autor argumentaba que buscaba nuevos espacios de la comunicación con su “comunidad” con la firme convicción de desplazarse allí donde se encontrase. En el texto donde hacía recopilación de los hechos más destacados durante los cinco años que ha mantenido su actividad bloguera, podíamos deducir un cierto regusto amargo y un poco frustrado, de lo que debería haber sido el blog y lo que no ha llegado a ser.

Desde que leí el texto, no he podido dejar de reflexionar sobre el adiós que he vivido de muchos bloguers. Algunos que me impactaron especialmente, pero siendo plenamente consciente de que esto es precisamente ley de vida. No podemos negar que cinco años es mucho tiempo, un marco temporal excepcional que muy pocos confiábamos en sobrepasar, puede que ni imaginábamos, cuando comenzamos a postear. Este año, dentro de este blog, también celebraremos nuestro quinto aniversario y los razonamientos evocados por Daniel también me hacen reconsiderar el camino realizado aunque sea de forma anticipada.

No hace falta indicaros que la reflexión de una persona con su espacio de publicación digital no es algo nuevo para mi, ya que he dejado muchos textos tratando de reflejar la experiencia que he sentido a la hora de mantener este blog. Hoy estoy hablando de textos como Mientras escribo, Punto y aparte, El síndrome del blogger quemado o Achaques de bloguer, donde reflejo con mejor o peor fortuna cierta frustración de aquel que se encuentra en la encrucijada, altos en el camino que nos invitan ha abandonarlo definitivamente, pero que finalmente se resuelven por la necesidad de comunicar, razonar y aprender.

Por otro lado, qué duda cabe que la experiencia es un grado. Si en nuestro tercer aniversario, os confesábamos que seguíamos adelante por vosotros, por los que día a día os agregáis a nuestro feed, por aquellos que en silencio nos seguís tímidamente y por las ocasiones que os acercáis a nosotros y nos confesáis que lo que hacemos, al menos, lo hacemos bien; este año me proponía ir a ciegas, sin fijarme ningún objetivo concreto aunque siendo consciente de que cada vez la tarea es más ardua mientras otras obligaciones se imponen frente a los entretenimientos que uno pudiese disfrutar.

Otro de los factores decisivos en el desgaste de los blogs profesionales personales, se debe a que la Blogosfera ha hecho madurar a los medios de comunicación en Internet, forzándoles a abrirse, a tratar de construir sus comunidades, a mostrarse ágiles cuando salta la noticia. El seguimiento de la actualidad les impone un proceso de actualización constante, por otro lado, las reflexiones, y no necesariamente irreflexiones, se multiplican en múltiples espacios, llevándote a la conclusión que tus aportaciones son más bien pocas, mientras que los espacios comunicativos, sociales si se quiere, se multiplican dejando el blog como un reducto de aquel tiempo pasado que fue mejor.

Sí, hoy más que nunca, los bloguers pueden sentir cómo su dedicación está cada día más injustificada. Mientras las audiencias no crecen, desplazándose hacia las redes sociales, robando tiempo de navegación, a la vez que los comentarios desaparecen, olvidándose un poco de lo que fue La Conversación; los bloguers individuales que mantienen sus blogs en búsqueda de nuevos espacios de reflexión de forma independiente pueden sentirse un poco desvalidos, considerando ¿dónde está mi gente?

Puede ser que el mayor pecado de los blogs haya sido no haber sabido fijar la red social que se entrelaza en el día a día, como han sabido realizar otros servicios de la Web 2.0 y es posible que, hoy en día, ésta sea la mayor de sus flaquezas, el no haber sabido representar las redes sociales que los bloguers construían.

5 comentarios

Citas al libro /32

“La palabra no es más que un ruido y los libros nada más que papel”
Paul Claudel

“Los libros hacen libre al que los quiere”
Vicene Espinel

“Unos libros almacenan sabiduría y otros tontería: unos rebosan conocimiento y otros ignorancia”
José Ferrater Mora

“Por fortuna, hay libros que no son de quien los escribe sino de quien los sufre, y éste es uno de ellos”
Gabriel García Márquez

“Muchas veces un libro ha formado o aniquilado a un hombre para toda la vida”
Johann Gottfired Herder

“Cuando cojo este libro, súbitamente se me pone limpio el corazón, lo mismo que un pomo cristalino”
Juan Ramón Jiménez

“Odio los libros; enseñan a hablar de lo que no se sabe”
Jean-Jacques Rousseau

Un comentario

¿Cuántos lectores de RSS podrías tener hoy?

Una de las cosas que más me sorprende de Feedburner es que no ha habido ningún servicio capaz de hacerle sombra. Sí, existen innumerables webs que son capaces de gestionar feeds, desde agregadores a generadores, pero el servicio que ofrece Feedburner – normalizar el formato del fichero RSS, dar una versión legible para las personas en su caso, ofrecer estadísticas sobre los suscritos, servicios añadidos como la suscripción al mismo por correo electrónico y, la más importante, bajar el estrés de nuestro servidor a la hora de servir información a los bots – no ha sido igualado hasta ahora. La popularidad del mismo llegó a ser tan importante que Google se fijó en él y decidió su adquisición en mayo de 2007 por 100 millones de dólares tras muchos rumores.

Desde entonces, el proceso de innovación y de mejora dentro del servicio ha permanecido bastante plano llegando a considerarse que simplemente Google lo estaba dejando morir. Este hecho puede ser que sea achacable a la nunca sencilla integración dentro de la macroestructura de Google, como bien les ha sucedido a muchas compañías adquiridas por el gigante, y en ocasiones contradictorias, puesto que una de las últimas propuestas por parte de Feedburner fue la de ofrecer un sistema de estadísticas para páginas web que, obviamente, se enfrentaba con el superior producto Google Analytics. En cualquier caso, de lo que no cabe duda, es que Google adquirió este servicio para rentabilizar los contenidos que gestiona insertando su popular programa publicitario, Adsense, dentro de los textos servidos por infinidad de pequeños sitios web.

De hecho, el blog oficial de Feedburner, Burning Questions, fue cerrado junto la apertura de uno sustitutivo con la denominación Adsense for Feeds, toda una declaración de principios. Dos años después, Google nos urge en migrar las cuentas de acceso de Feedburner hacia una Google Account para poder seguir utilizándolo. Sin embargo, aunque el proceso es bastante sencillo, no deja de ser en ciertos aspectos traumático. Así, por ejemplo, a la hora de mostrar las estadísticas de suscriptores, el servicio sufre fluctuaciones dramáticas (en ocasiones de un día para otro se puede llegar a perder un 40% de tus suscriptores), más allá de los “apagones” que de vez en cuando Feedburner sufre por los principales agregadores RSS disponibles on-line, fundamentalmente Google Reader (!) y Bloglines.

Lo cierto es que más allá de las situaciones puntuales antes señaladas, la excepción se está convirtiendo en una constante, siendo casi imposible saber a ciencia cierta cuántos suscriptores disponemos en cada momento, por lo que el servicio comienza a no aportar el valor añadido del que en su momento disponía. Por otro lado, al gestionar los contenidos a través de Feedburner perdemos cierto control sobre los contenidos de los feeds, porque si bien Feedburner nos advierte de los Unfrequent uses, no nos permite bloquearlos, por lo que nos impide, por ejemplo, restringir los abusos que realizan los Content Scrappers, por poner un ejemplo.

Sin embargo, el abandono de este servicio a otro plantea ciertas dificultades. Por un lado, debemos encontrar un sistema de estadísticas fiable, que en el caso de los blogs gestionados con WordPress bien podría servirnos el plugin oficial WordPress Stats, sin embargo la redirección de los feeds si no se ha sido cuidadoso desde un principio -señalando una URL dentro de nuestro dominio que finalmente redireccionase al servicio de Feedburner-, puede llegar a ser confusa para nuestros lectores y para nosotros mismos que debemos advertirles y sugerirles el esfuerzo del cambio. Lo que nunca llega a ser suficiente para que permanezcan junto a nosotros.

3 comentarios

En la mesa redonda “Libros y lectores 2.0 ” en Valencia

El próximo 9 de marzo a las 19h estáis invitados a participar en la mesa redonda Libros y lectores 2.0 que se celebrará en la Fnac de Valencia en el marco de la presentación del libro publicado por Javier Celaya La empresa en la Web 2.0. Dentro de la mesa, se debatirán aspectos sobre el impacto de las nuevas tecnologías en el mundo del libro, su futuro (el impreso y el digital), los nuevos hábitos de lectura en pantallas, la transformación de las bibliotecas dentro del marco de la Web 2.0, el papel de las nuevas tecnologías en el fomento de la lectura, etc.

Los componentes de la mesa serán:

  • Javier Celaya, socio fundador de Dosdoce.com, que actuará como moderador de la mesa.
  • Jorge Serrano-Cobos, especialista en diseño de sistemas de información, usabilidad y accesibilidad y socio de Masmedios.com.
  • Javier Leiva, Profesor de Información y Documentación en la Universidad de Vic y socio fundador de Catorze.
  • Marcos Ros-Martín, coautor de este blog.

También podéis ampliar información en Facebook y apuntaros.

2 comentarios

El documentalista camaleónico o el proceso del cambio

Cuando alguien se dedica a una profesión para la que previamente se ha formado y de la que tiene experiencia, puede presuponerse que un nuevo puesto de trabajo dentro de su área no supone un gran cambio, sino apenas un pequeño reajuste para adaptarse al nuevo medio.

En nuestro caso, las funciones estándar de un bibliotecario/documentalista podrían sintetizarse en: buscar o recoger información, organizarla o clasificarla para su recuperación y, finalmente, ofrecerla a nuestro usuario final, de la forma en que pueda resultarle más útil. Pero una formula tan sencilla como ésta, ante un nuevo trabajo, puede complicarse hasta límites insospechados y, sin alejarte realmente de ella, obligarte casi a partir de cero.

Cuando nos enfrentamos al reto de un cambio de trabajo debemos pasar por una fase de reconocimiento del terreno y adaptación a éste más o menos larga. Esto dependerá de nuestro bagaje personal, pero también de los escollos que tengamos que sortear o de las personas que nos allanen el camino.

La mayoría de las veces, ese escollo puede consistir en aprender un programa de catalogación en una biblioteca o de gestión de la información en una empresa. Y, según mi parecer, las herramientas informáticas son quizá el menor de nuestros problemas. Como profesionales de la información comprendemos la lógica de estos programas: sabemos cuál es su finalidad (almacenar la información), qué tenemos que darles (datos que clasificaremos según un criterio establecido) para que nos den lo que queremos (información pertinente), y sólo necesitamos saber cómo (la idiosincrasia del programa). Seguramente bastará con empaparnos del manual de instrucciones y, con suerte, contar con la ayuda de algún compañero conocedor del programa.

Ya son palabras mayores cuando hablamos de un sistema de catalogación o clasificación diferente al que estamos acostumbrados, o la utilización de un tesauro, porque esto nos obliga a reorientar nuestra proceso mental de análisis de la información. Pero es el entrenamiento el que nos hace eficaces y eficientes y, en este caso, es nuestro único camino.

Un cambio importante que se ha ido produciendo en las últimas décadas y que nos afecta a la hora de desarrollar nuestra labor es la aparición de nuevos soportes documentales. Incluso conociendo el ámbito de trabajo –una biblioteca, un archivo de empresa, un medio periodístico- y conociendo el sistema de gestión que debemos utilizar, trabajar con un soporte diferente puede darnos más de un quebradero de cabeza.

Empezando con el primer caso que he mencionado, para las bibliotecas la inclusión de documentos de audio y vídeo supuso para empezar afrontar (por poner un ejemplo obvio) problemas de almacenamiento, al requerir un mobiliario especial; pero también la necesidad de ofrecer a sus usuarios los medios técnicos para acceder a ellos (reproductores). Y esto fue lo de menos, ya que a raíz del préstamo de películas y música en las bibliotecas públicas surgió una serie de complicaciones legales por derechos de propiedad intelectual que con los libros no se había planteado hasta entonces.

El cambio del documento en papel al documento digital está resultando mucho más traumático. A los complicaciones de un almacenamiento con la garantía de seguridad informática necesaria, se añaden aspectos legales sobre la autenticidad y validez legal de dicho documento. Cuando la información digital resulta tan fácil de modificar, convencer a los interesados (empresas – clientes, administraciones públicas – ciudadanos) que un documento electrónico no ha sido manipulado y que su valor legal es el mismo que tendría un original en papel no siempre es factible. Nueva normativa al respecto, la firma electrónica y otros medios técnicos intentan solventar estas reticencias, pero creo que principalmente se trata más de una cuestión de concienciación.

Pero me he alejado un poco del tema al hablar de soportes de información, ya que son las instituciones para las que trabajemos las que tienen que lidiar con estos problemas.

Así que volviendo a lo que nos atañe, un nuevo formato puede modificar nuestra forma habitual de realizar nuestras funciones, pero éstas vienen a ser en definitiva las mismas: recoger información, tratarla y servirla. Quizá en el caso de un documentalista especializado en medios de comunicación pueda resultar drástico el pasar de trabajar en un periódico, donde la información es exclusivamente en papel o al menos textual, a trabajar en un medio audiovisual, donde este tipo de información requiere un análisis completamente diferente. Pero repito lo dicho, tenemos las habilidades necesarias para enfrentarnos a ello y sólo necesitamos entrenamiento.

Desde mi experiencia, quizá lo que más incertidumbre ocasiona en un nuevo trabajo sea precisamente lo que no tiene que ver directamente con nuestras funciones (la tríada mágica que no paro de repetir). Empezar a trabajar en un área del que poco o nada sabemos –entrar en el mundo empresarial por primera vez, o en un ámbito científico del que apenas tenemos unos conocimientos básicos- puede resultar tal vez la barrera más difícil de superar. En estos casos nuestra formación y experiencia poco pueden ayudarnos.

Y si además los astros se conjugan de tal forma que ni siquiera podemos aprovechar la experiencia o seguir la huella de nuestro predecesor en el puesto de trabajo ya que nos encontramos en un terreno sin abonar, una institución en la que somos los primeros profesionales de la información que asumen un trabajo nuevo para ambas partes, nuestro desamparo puede ser desesperante.

Entonces todo son trabas: un medio que desconocemos, unas fuentes de información que nos son extrañas, que no sabemos si existen o cómo llegar a ellas, unos datos que no sabemos cómo procesar porque apenas llegamos a comprenderlos. ¡Un auténtico calvario!

Llegado a este punto queda claro que la única solución es llegar a entender sea como sea el mundo en el que desempeñaremos nuestra labor. Y en estas ocasiones, como en muchas otras de la vida, los contactos personales pueden ser nuestra tabla de salvación. Antiguos compañeros de estudios o de trabajo que han tenido que desenvolverse en campos similares y que pueden aportarnos su experiencia en la misma situación. Pero también amigos o conocidos que ni siquiera pertenecen a nuestra profesión y que, precisamente por eso, pueden ofrecernos la información que tanto necesitamos e iluminar un poco ese empedregado camino: regalarnos una clase elemental del ámbito científico en el que tenemos que trabajar, darnos a conocer fuentes de información o herramientas que nos serán útiles, recomendarnos a las personas que pueden orientarnos o ayudarnos a establecer contactos. En definitiva, ayudarnos a conocer el terreno que pisamos.

Pero ese camino de adaptación a un nuevo trabajo no tiene porqué se siempre así de espinoso… a veces lo es más.

Comentarios cerrados

¿Apocalipsis SEO? Google va a apostar por las Marcas en sus resultados

Parece ser que últimamente Google, aunque también el resto de compañías con los buscadores más importantes Yahoo y Microsoft, disponen de más poder a la hora de desarrollar estándares para nuestras páginas web que el mismísimo W3C. Por supuesto que seguir las recomendaciones del W3C tampoco es que hayan sido seguidas a pies juntillas por las grandes empresas informáticas. Sin ir más lejos, Microsoft no ha sido del gusto de seguir los dictados del consorcio y bien conocidos son los quebraderos de cabeza que los diseñadores web han sufrido a la hora de desarrollar páginas web porque los chicos de Redmond no se han arrugado a la hora de saltárselos en el desarrollo de su Internet Explorer.

No me sorprende la influencia de Google sobre los webmasters y sobre los cambios de la estructura de la Web, bajo el paraguas del combate del Spam y el contenido duplicado han sido capaces de marcar sus dictados para tratar de hacerles frente con relativo éxito claro. En un primer lugar, nos sugirieron la utilización de la etiqueta rel=”nofollow” que debía ser insertada de forma casi obligatoria en los comentarios cuando los blogs comenzaban a expandirse para evitar el Spam – Fundamentalmente, la utilización de esta etiqueta señalaba a los bots de Google que no debían seguir estos enlaces y de esta manera no promocionar las páginas web de destino –. También, nos propusieron que situásemos dentro de nuestras webs un fichero en XML denominado Sitemap que listaba todas las páginas de un sitio web de forma jerárquica, de tal manera que facilita las tareas de rastreo de los bots que no tienen que seguir todos y cada uno de los enlaces de un sitio para recuperar su contenido. Y recientemente los principales buscadores nos proponían la utilización de la etiqueta link rel=”canonical” para evitar la penalización por el contenido duplicado, puesto que esta etiqueta señala a los buscadores cual es la página principal que dispone del contenido frente a otras que podrían contenerlo como Archivos o Categorías. Obviamente, la adopción de todas estas etiquetas ha resultado masiva haciendo un poco más sencilla la tarea a Google de “organizar la información del mundo”, a la vez que se facilitaba nuestras tareas para aparecer en las primeras páginas de resultados de Google, aunque parece que desde Mountain View las cosas van a cambiar para los pequeños editores.

El pasado noviembre el buscador realizó una actualización en su algoritmo, la Google Florida update, aunque en ámbitos SEO esta actualización, aparentemente, no tuvo excesivas implicaciones a primera vista, lo cierto es que esto no es del todo cierto. De hecho, desde entonces se ha detectado que muchas páginas web que utilizaban técnicas básicas SEO han ido desaparecido de las primeras páginas de resultados frente a otras, tal vez, entrando en consideración la nueva política de Google a la hora de devolver resultados en las búsquedas. Eric Schmidt, CEO de la compañía, señaló hacia dónde se dirige Google:

Internet se está convirtiendo en un agujero putrefacto donde reina la información falsa. Tenemos que encontrar indicativos sólidos de credibilidad, y las marcas (marcas comerciales) son la solución, no el problema.
Las Marcas son una buena forma de salir de ese agujero de información falsa.
Estamos totalmente conectados a las marcas. Están tan fundamentalmente conectadas con el ser humano que no hay marcha atrás. Tiene que tener un componente genético.

Es decir, que los pequeños editores lo van a tener un poco más difícil a la hora de posicionarse dentro del algoritmo de Google, mientras que el buscador va a intentar ofrecer puntos de credibilidad a las informaciones editadas por los medios de comunicación y las empresas posicionadas en otros ámbitos junto al resto de consideraciones. ¿Es este el principio del fin de los SEO?

Comentarios cerrados

La caída de Gmail y las debilidades del “Cloud Computing”

Todo parece indicar que este 2009 está siendo especialmente problemático para Google a nivel de gestión. Si finalizando enero cometía un error a la hora de actualizar la base de datos de sitios web dañinos que dejaba en fuera de juego su buscador (sin excesivas repercusiones gracias sobretodo a que se trataba de un sábado), el pasado 24 de febrero dejaba a los usuarios de su servicio de correo electrónico, Gmail, y otros servicios sin acceso vía web durante tres horas y media debido a un error durante las tareas de mantenimiento rutinario en un centro de datos del mismo. Desgraciadamente, la caída del servicio se produjo durante el mediodía de una jornada laboral en Europa, por lo que no pasó desapercibido. Es curioso, pero los dos sucesos me cogieron delante de un ordenador y pude sufrir sus efectos, a pesar de que si bien el primer error, el del buscador, lo achaqué a la página web a la que intentaba acceder, en el segundo me percaté de que algo grave estaba pasando con Google y sus servidores.

De hecho, de Gmail me trasladé inmediatamente al buscador para comprobar hasta dónde llegaba el desaguisado, aunque por fortuna el buscador se encontraba en perfecto funcionamiento porque, de otro modo , sí que nos hubiésemos encontrado frente a un problema y el “pánico” que se ha llegado a señalar que sacudió a los usuarios del servicio de email de Google se hubiese extendido y de qué manera sobre toda la Web. En este caso, sí que nos hubiésemos encontrado frente a frente la gran dependencia que la economía de la Web dispone de Google y las conclusiones habrían sido otras, claro.

Sin embargo, la caída de los servidores de Gmail conduce necesariamente al replanteamiento de la nueva tendencia de este año, el Cloud Computing, que desde luego no lo va a tener fácil después de este incidente. Obviamente, se trata de un asunto de escala. Los defensores del Cloud Computing -entendamos esto como el establecimiento de herramientas de productividad (Office, comunicación y demás) en servicios en la Web- argüirán que el coste del mantenimiento de estas herramientas dentro de una empresa es mayor que dejar que sean los técnicos del servicio web los que se encarguen de ello. El problema, además de los problemas de dejar datos confidenciales a recaudo de otra empresa, es que si hay una caída de los servidores, como ha sucedido en el caso de Gmail, el hecho puntual se convierte global. De este modo, en vez de encontrarnos con que el problema lo tiene una sola empresa, nos trasladamos a un marco donde la incidencia la sufren distintas organizaciones, relentizando y dificultando las transacciones económicas y la productividad de los trabajadores.

Obviamente, el posible impacto de una caída de los servidores de un servicio de Cloud Computing dependen en buena medida de la urgencia y de la finalidad del servicio mismo. En mi caso, por ejemplo, Gmail sólo me sirve para fines personales por lo que la incidencia de que el correo electrónico se encontrase inaccesible durante tres horas fue mínima. Sin embargo, si utilizamos esta plataforma con fines corporativos, la dimesión del problema es otro. Por otro lado, Google además de Gmail ofrece otro tipo de herramientas como las destinadas a la edición de documentos, gestión de la información (Calendars por ejemplo) o la creación de internets corporativas básicas (Google Sites). ¿Podemos imaginarnos 1000 empresas sin poder acceder a sus respectivas intranets a la vez? ¿Y si además del problema de acceso, no disponemos de un back-up?

Por otro lado, el error que se ha producido en Gmail era de acceso vía web, pero se podía trabajar con él a través de los servicios POP e IMAP (aunque también se podía trabajar con él off-line gracias a Google Gears) por lo que aquellos que tenían sus aplicaciones de correo electrónico de escritorio configuradas, o los que accedían vía móvil, no sufrieron la incidencia, además de que ningún correo electrónico se perdió o pudo ser contestado. Sin embargo, el Cloud Computing a pesar de disponer de muchas ventajas como el menor coste de mantenimiento y de gestión, no debería ser confiado a tareas críticas de las organizaciones y no sólo por la individualidad de una sola, sino por el conjunto que quedarían inoperativas.

6 comentarios