Saltar al contenido →

Mes: junio 2010

La recuperación de la información según Marshall McLuhan

No puedo remediarlo, aunque en ocasiones no entienda una palabra de lo que dice, pero Marshall McLuhan me tiene embrujado. Escribió su libro Comprender los medios de comunicación. Extensiones del ser humano en 1964, antes de que la Internet fuese casi concebida, pero McLuhan ya preveía que la electricidad en la comunicación traería cambios terribles y radicales, así como nuestras interacción con el mundo.

“El medio es el mensaje” es la frase que más ha calado en nuestra cultura popular, se utiliza casi instintivamente, pero todo un desarrollo metafórico y en ocasiones incomprensible se extraen de ella. En ocasiones, aparentemente contradictorio en sus expresiones, como cuando explica los medios de comunicación fríos y calientes, el impacto de la fotografía a nivel sonoro y el de la imprenta a nivel audiovisual, McLuhan despliega un discurso que no consigue aburrirme, llevándome de la mano hacia una visión del futuro que puede que entonces no fuésemos capaces de entender pero que hoy en día se revela con toda su fuerza.

Os dejo aquí un pequeño extracto, un destello de este visionario que vio más allá que ninguno de sus contemporáneos y al que aún hoy recordamos insistentemente.

[…] Así como cualquier cosa puede servir de combustible, de materias primas o de materiales de construcción cuando aumentan los niveles de información de la física y de la química, con la tecnología eléctrica puede invocarse la aparición de todos los bienes tangibles, con circuitos de información ordenados según los patrones orgánicos que llamamos “automatización” y recuperación de la información. Con la tecnología eléctrica, toda la actividad humana se convierte en aprender y conocer. En términos de lo que todavía consideramos “economía” (palabra griega que se refería a una unidad familiar), significa que todos los tipos de empleo se convierten en “aprendizaje remunerado” y que todos los tipos de riqueza resultan de movimientos de información. […]

3 comentarios

Gran error 2.0, prohibir el Social Media en la redacción

Twitter Media Huelga decir que la situación de los medios de comunicación no es la mejor de su historia. Si nos referimos a los medios de comunicación impresos, que luchan en su traslación hacia el mundo digital en ocasiones a contracorriente, la situación podría ser definida como dramática. Sin embargo, ya se trate de periodistas de uno u otro soporte, existen herramientas comunes que no se deberían evitar aprender usar y, actualmente, no se deberían obviar ni Facebook ni Twitter.

La primera de ellas, si bien debe ser entendida como un coto cerrado de privacidad, está cambiando radicalmente la manera que estamos utilizando la web y en un futuro no tan lejano puede que su protagonismo sea mayor que el de Google. La segunda porque Twitter se ha convertido en un medio de comunicación por sí mismo, donde políticos y deportistas, organizaciones e instituciones comentan sus últimas actividades e incluso tratan de gestionar crisis. E incluso, en ocasiones, Twitter es noticia por sí mismo al ser uno de los medios de comunicación utilizados por sus propios protagonistas. No, no es baladí, que un comunicador aprenda a utilizar estas herramientas, que sea consciente de su funcionamiento y de sus posibilidades, que sea partícipe de ellas no sólo como mero espectador.

Por supuesto que todavía hay periodistas que colocan a estas dos herramientas en los mismos planos, como si una excluyese a la otra o como si se tratasen de la misma. Alguno se acercará a algún compañero, probablemente más joven y más avezado en el vertiginoso mundo de la Web, para que le explique qué es exactamente eso de Twitter (Más complicado de usar que Facebook por su propia idiosincrasia). Los propios medios de comunicación lo utilizan como canal sin mayores problemas, el propio Twitter abrió un blog para ayudar a los periodistas más despistados, por lo que no me esperaba es lo que me comentó una amiga periodista hace no mucho.

A vueltas con la productividad de los trabajadores, me comentaba que, desde su empresa, se estaba empezando a considerar la posibilidad de capar la utilización de ciertos sitios web y me destacó dos: Facebook y Twitter. Teniendo presentes los últimos movimientos que se están produciendo dentro de las cabeceras más importantes en España, con la integración de las redacciones digitales e impresas, con lecciones de técnicas básicas SEO (Se acabó la escritura para humanos) y la búsqueda de audiencias por todo tipo de soportes; me pareció completamente extraño aquello, si no suicida, minando el futuro del trabajo de los periodistas.

A partir de ahora, nada de ir más allá de la búsqueda de información que puedan dar los organismos oficiales mediante notas y ruedas de prensa, editar los despachos de agencia, toda la información filtrada por otros, replicadores de contenidos tradicionales incapaces de ver por dónde salta la noticia… La innovación de la información capada por una decisión puede que un tanto arbitraria.

6 comentarios

¿Será Facebook juez y parte en el posicionamiento web de Google?

Hace ahora justo un año cuando lanzaba la pregunta ¿Es la web social el inicio del declive de Google? Entonces, algunos escépticos consideraron mi propuesta como una completa locura e infundamentada, insostenible, increíble, imposible… Puede ser que lo fuese entonces, hoy es probable que tenga mayor sentido.

Podríamos considerar que, al principio, la Web era el enlace, millones de páginas enlazadas sin aparente orden ni concierto que encontraban su sentido en esa algarabía gracias al trabajo del algoritmo de Google y de otros buscadores. Sin embargo, hoy en día, la Web se construye mucho más allá de los enlace. Partiendo de las base de que los enlaces los crean y los gestionan los creadores de contenido, aquellos que quieren estar considerados en los puestos altos del ranking de Google o simplemente los que desean referenciar contenidos para ampliar conocimientos, hay una parte de los usuarios de la Web que no saben ni entienden cómo se crean. La Web no llega a ser necesariamente democrática en ese aspecto porque una parte de ella no enlaza, ni siente la necesidad de hacerlo. Hasta ahora.

Hoy en día, los usuarios de la Web pueden llegar a no ser tan pasivos. La Web 2.0 trató de democratizar la creación del contenido, sin embargo lo que realmente sucedió es que democratizó la recomendación del mismo, siendo arrebatada esa idea primigenia hacia otros valores. Twitter y Facebook redirigen contenidos a nuestros conocidos y seguidores sin necesidad de escribir largos y extensos textos. Lo importante es derivar la atención, “me gustó esto y te creo que os podría interesar”, a través de personas que pueden tener las mismas inquietudes (no necesariamente intelectuales) que nosotros.

De este modo, Facebook, aunque actualmente sobre todo Twitter, se erigen como los grandes filtradores de contenidos de la Red y pueden llegar a otorgar una parte importante del tráfico de páginas web. Los medios de comunicación y las páginas web profesionales han sido los primeros en percatarse de ello y en colocar esos letreros de veces twitteado o “Me gusta” sobreimpreso en el azul Facebook para poner fácil a sus lectores el compartir sus gustos.

¿Ese mismo “Me gusta” puede influir en el posicionamiento? ¿Habrá perdido Google la posibilidad de posicionar los contenidos bajo sus reglas, las que obligaba a los SEOs a devanarse los sesos intentando entenderlo, y pagando a terceros para que les permita indizar esas recomendaciones? ¿Es la muerte del enlace como sistema democrático en la Web? ¿Es el principio del fin del SEO como lo conocimos hasta ahora?

Lo interesante de esta cuestión es el baile de poder que ha sufrido la Web en escasos cinco años. Un sitio web no concebida desde un principio para ser un nodo de tráfico, arrebata lentamente el poder de influencia que pueda tener Google sobre el resto del ecosistema web y lo peor de todo es que la dependencia de una a la otra puede ser peligrosa.

Un comentario

¿Qué hay de Web 2.0 en la Biblioteca 2.0?

Mucho se ha hablado, escrito, debatido y enseñado sobre lo que es la Biblioteca 2.0, o al menos lo que debería ser una Biblioteca 2.0 atendiendo al modelo de la Web 2.0, pero ¿es realmente útil? ¿Qué herramientas han calado más en las bibliotecas? ¿La Biblioteca está caminando realmente hacia aquello que el movimiento de la Web 2.0 pregonaba?

En los textos The Academic Library meets Web 2.0: Applications and Implications y A study of Web 2.0 applications in library sites se intenta encontrar respuestas a estas preguntas tras la publicación de los resultados de dos estudios en los que se analizan las herramientas de la Web 2.0 que las bibliotecas han implementado de una forma preferente, aunque sin olvidar y tratar de definir qué es lo que caracteriza a la Biblioteca 2.0:

  1. Debe ser abierta para permitir el desarrollo y mejora de sus servicios y funcionamiento.
  2. Debe ser interactiva de tal manera que sus usuarios puedan contribuir e interactuar con las herramientas disponibles en la Web 2.0.
  3. Debe ser convergente para que las distintas herramientas de la Web 2.0 le permitan cumplir sus objetivos.
  4. Debe ser colaborativa de tal forma que los usuarios y los bibliotecarios puedan comunicarse en el mismo nivel de autoridad.
  5. Debe ser participativa puesto que la participación se halla en el cuadro central de la Web 2.0, si no es participativa la Biblioteca 2.0 no tiene sentido.

En el primer artículo, se realiza un análisis de las herramientas de la Web 2.0 que se han implementado en las distintas bibliotecas universitarias del estado de Nueva York (EE.UU.). En las que han comenzado la transición, puesto que no todas han comenzado a abrazar la Web 2.0, las herramientas implementadas, aunque a distintas escalas, son la mensajería instantánea, blogs, RSS, etiquetado social, wikis, redes sociales y podcasts. Las herramientas más populares son, en este orden, la mensajería instantánea seguida por los blogs y RSS, centrándose en servicios referenciales, mientras que otros servicios más técnicos como el etiquetado social aplicado a la catalogación quedarían en un segundo plano.

En el segundo artículo, que dispone de una mayor profundidad, se compara la implementación de la Web 2.0 en bibliotecas norteamericanas frente a europeas y asiáticas, del que se puede extraer:

  • Las bibliotecas de Norteamérica lideran la adopción de las herramientas de la Web 2.0 frente a las europeas y las asiáticas.
  • Las bibliotecas universitarias muestran una tasa de adopción mayor comparadas con las bibliotecas públicas, aunque las diferencias no son estadísticamente significativas.
  • Mientras que la función subyacente de todas las herramientas de la Web 2.0 apunta a que están enfocadas al refuerzo de los intereses de los usuarios y mejorar su experiencia con los servicios bibliotecarios, la manera en que las herramientas se usan se limitan a la imaginación de los bibliotecarios y los responsables.
  • Las herramientas también se utilizan de forma conjunta, por ejemplo blogs y RSS, para mejorar el enganche del usuario a los mismos.
  • La presencia de las herramientas en los sitios webs de las bibliotecas, mejora de forma significativa la calidad de los mismos.
  • La asociación entre herramientas 2.0 y calidad de la información proveída se ha demostrado como el punto más débil. De esta manera, mientras que la presencia de las herramientas dentro de las webs mejoraba la calidad de las mismas, no sucedía lo mismo con la calidad de la información que contenían.

Para saber más:

  • XU, Chen; OUYANG, Fenfei; CHU, Heting. The Academic Library meets Web 2.0: Applications and Implications. The Journal of Academic Librarianship, 2009, 35(4), pp. 324-331
  • CHUA, Alton Y.K., GOH, Dion H. A study of Web 2.0 applications in library sites. Library & Information Science Research, 2010, In press.

5 comentarios

Un sistema de gestión de información sanitaria… Prohibido usarlo

Superfreakonomics

Me encanta la sección “¿Sabías que…?” de la revista Muy Interesante. Pequeñas píldoras de curiosidades que posteriormente se recopilarían en una serie de libretos que, por supuesto, adquiría y aún tengo localizados en alguna estantería. Los dos libros Freakonomics y Superfreakonomics serían una especie de libros de curiosidades si no se tratase de textos que parecen hilar aparentes banalidades con hechos y argumentos constatados científicamente conectando directamente al político norteamericano Al Gore con el volcán Pinatubo. La verdad es que ambos son libros amenos y muy interesantes para aquellos que somos un poco curiosos e intentamos al mismo tiempo entender cómo funciona este mundo y las personas que lo habitamos, mientras aprendemos.

De aquel primer libro, Freakonomics, extrajimos dos ideas para este blog: La Asimetría Informativa y Si las bibliotecas públicas no existieran desde hace tiempo, ¿podría hoy alguien fundar una? De su segunda parte, que su editorial nos hizo llegar, creo que merece la pena reseñar una parte de uno de sus capítulos. Espero que resulte de interés.

Aunque algunos de los departamentos especializados del WHC (Hospital Central de Washington) tenían bastante prestigio, la sección de urgencias siempre quedaba la última de la zona del distrito de Columbia [en 1995]. Estaba abarrotada, era lenta y desorganizada; aproximadamente cada año cambiaba de director, y el propio director médico del hospital decía que la sección de urgencias era «un sitio bastante indeseable».

A estas alturas, entre Feied y Smith habían tratado a más de cien mil pacientes en diversas salas de urgencias. Descubrieron que había un elemento qeu siempre escaseaba: La información. […]

«Durante años, estuve tratando a los pacientes sin más información que lo que ellos me decían – dice Feied-. Cualquier otra información tardaba demasiado, así que no podías contar con ella. Muchas veces sabíamos qué información necesitábamos, e incluso sabíamos dónde estaba, pero no iba a llegar a tiempo. Los datos críticos estaban a dos horas o a dos semanas de nosotros. En un departamento de urgencias muy ajetreado, hasta dos minutos es demasiado tiempo. […]»

El problema tenía tan inquieto a Feied que se convirtió en el primer informatizador de medicinas de urgencias del mundo. […] Creía que la mejor manera de mejorar la atención médica en urgencias era mejroar el flujo de la información.

Ya antes de hacerse cargo en el WHC, Feied y Smith contrataron a un grupo de estudiantes de medicina para que siguieran a los médicos y a las enfermeras por la sección de urgencias y los acribillaran a preguntas. […] He aquí algunas de las preguntas que hacían a los estudiantes:

  • Desde la última vez que hablé con usted, ¿qué información ha necesitado?
  • ¿Cuánto tardó en conseguirla?
  • ¿Cuál es la fuente? ¿Llamó por teléfono, utilizó un libro de referencia, habló con un bibliotecario médico (Esto ocurría en los primeros tiempos de internet, antes de la aparición de la red)?
  • ¿Obtuvo una respuesta satisfactoria a sus preguntas?
  • ¿Tomó una decisión médica basada en esa respuesta?
  • ¿Cómo influyó esa decisión en la atención al paciente?
  • ¿Cuál fue el impacto económico de dicha decisión en el hospital?

El diagnóstico estaba claro: el departamento de urgencias del WHC padecía un caso grave de «datapenia», o bajo nivel de datos. Los médicos dedicaban aproximadamente el 60 por ciento de su tiempo a la «gestión de la información» y solo el 15 por ciento a la atención directa del paciente. […]

Smith y Feied descubrieron en el hospital más de trescientas fuentes de datos que no se comunicaban unas con otras, incluyendo un ordenador central, notas manuscritas, imágenes escaneadas, resultados de laboratorio, vídeos de angiogramas cardíacos y un sistema de seguimiento para el control de infecciones que se encontraba solo en el ordenador de una personas, en un archivo Excel. «Y si ella se marchaba de vacaciones, que Dios te ayudara si querías seguir un brote de tuberculosis», dice Feied.

Para proporcionar a los médicos y enfermeras de urgencis lo que necesitaban, había que construir un sistema informático a partir de cero. Tenía que ser enciclopédico (la falta de un dato clave echaría a perder el intento); tenía que ser potente (una sola resonancia magnética, por ejemplo, ocupa una capacidad enorme); y tenía que ser flexible (un sistema incapaz de incorporar datos de cualquier departamento de cualquier hospital del pasado, presente o futuro, no serviría de nada).

También tenía que ser rápido, muy rápido. No solo porque en urgencias la lentitud mata, sino porque […] una persona que utiliza un ordenador experimenta una «deriva cognitiva» si pasa más de un segundo entre hacer clic el ratón y ver nuevos datos en la pantalla. Si pasan diez segundos, la mente de la persona está ya en otro sitio.

[…]

Por desgracia, la idea no entusiasmó a todo el mundo en el WHC. Las instituciones son, por naturaleza, organismos grandes e inflexibles con feudos que hay que defender y reglas que no deben romperse. Algunos departamentos consideraban que sus datos eran porpiedad suya y se negaban a facilitarlos. Las estrictas normas de adquisiciones del hospital no permitían a Feied y Smith comprar el equipo informático que necesitaban. Uno de los altos cargos «nos odiaba -recuerda Feied-, y no perdía una oportunidad de ponernos trabas e impedir que la gente colaborara con nosotros. Solía entrar de noche en el sistema de peticiones de servicios y borraba las nuestras.» […]

Al final, Feied venció, o más bien vencieron los datos. Azyxxi [denominación utilizada para el sistema de información y posteriormente adquirido por Microsoft] cobró vida en un único ordenador de mesa en la sala de urgencias del WHC. Feied le puso un letrero: «Prueba Beta: No usar» (nadie dijo nunca que no fuera listo). Como otros tantos adanes y evas, los médicos y las enfermeras empezaron a mordisquear la fruta prohibida y la encontraron verdaderamente milagrosa. En pocos segundos podían localizar prácticamente cualquier información que necesitaran. Al cabo de una semana, había cola ante el ordenador Azyxxi. Y no eran solo médicos de urgencias; venían de todo el hospital para hacerse con los datos. A primera vista, parecía el producto de un genio. Pero Feied dice que no, que fue «el triunfo de la tenacidad».

LEVITT, Steven D.; DUBNER, Stephen J. Superfreakonomics. Enfriamento global, prostitutas patrióticas y por qué los terroristas suicidas deberían contratar un seguro de vida. Barcelona: Debate, 2010. pp. 96-99

Un comentario

En la elección de la universidad, la biblioteca es importante

Anuncio ComplutenseLa Biblioteca, ese concepto demodée para una parte de la sociedad, resurge de vez en cuando para demostrarse como un elemento vital en la educación universitaria y sobre las otras dos patas sobre las que se fundamenta el cacareado nuevo modelo productivo español basado en el conocimiento – Los otros dos son investigación e innovación – . Aquí mismo, recogimos dos ejemplos que vienen a demostrarlo en dos universidades valencianas (Universidad La Florida y la Universidad Cardenal Herrera-CEU) donde se utilizan las Ciencias de la Documentación como un plus.

Pues bien, hoy os traemos otro ejemplo de un anuncio publicado en prensa nacional para recabar futuros estudiantes que sitúa a la biblioteca como una fortaleza a la hora de elegir como centro de formación a la Universidad Complutense de Madrid.

6 comentarios

Canibalización de producto en la prensa, hacia la integración de las redacciones (y 2)

time_newspaper.jpg

Partiendo de la consideración anterior, los medios de comunicación impresos deben acometer una serie de cambios de políticas respecto al producto informativo que venían publicando hasta ahora en la web que pasaría por las siguientes consideraciones:

  1. Integración de formatos multimedia. Su producto no debe contentarse sólo con el texto y la imagen que han predominado hasta hace poco en la Web, sino que deben realizar una apuesta por el enriquecimiento de las informaciones cuando sea necesario añadiendo vídeo y audio.
  2. Enlace a fuentes. Una de las mayores críticas que se realizan a los medios de comunicación es el “miedo” que tienen a la hora de enlazar fuentes de información externas. Temor a que los usuarios salgan del sitio web, dando una imagen de no llegar a entender la naturaleza de la Web. Sin embargo, el enlace a fuentes externas o a las propias informaciones que se han publicado de manera previa, son necesarias para contextualizar la noticia y ofrecer un servicio añadido al lector que puede no realizar un seguimiento a la noticia al detalle y que espera que realicen los periodistas.
  3. Creación de comunidad. Tradicionalmente, los lectores de un medio de comunicación suelen ser fieles al identificarse ideológicamente con el producto. Los medios impresos han mantenido secciones de participación limitadas a través de las secciones tipo “Cartas al Director”. Sin embargo, en un marco digital, las posibilidades se amplían mediante la creación de espacios de participación como la posibilidad de comentar noticias o rectificarlas.
  4. Promoción de contenidos. El periódico debe llevar acciones de promoción activas para que sus contenidos lleguen al mayor número de internautas. El apoyo a blogs, servicio de microblogging o redes sociales son varias de las vías para que sean los usuarios los que compartan contenidos entre ellos, pero también la instauración de la figura del Community Manager .
  5. Consulta de información retrospectiva. Los servicios de archivo permiten el aumento del tráfico mediante lo que se ha denominado “Long Tail”. De esta manera, lo ya publicado crea una fuente de ingresos adicional mediante contenidos ya publicados (Archivo), así como la redifusión del contenido cuando sea necesario.
  6. Distintos soportes. El navegador se está convirtiendo en un elemento tradicional de acceder a la información disponible en la Web y al mismo tiempo obsoleto. Mientras los ordenadores se sitúan como principales fuentes de acceso a la Red, otros dispositivos están comenzando a hacerse más interactivos. Los teléfonos móviles o smartphones son principalmente estas nuevas vías de acceso, pero la reciente popularización de dispositivos eBooks o Tablets, como el reciente lanzado iPad, son otras de las vías de consumo de información. Los medios de comunicación deberán tener presente estas evoluciones para que el contenido llegue por encima del contenido.

Para alcanzar los anteriores puntos, la redacción debe sufrir una reconversión para el fomento de innovación informativa para la adaptación competitiva. Para ello sería interesante la consideración de los siguientes puntos:

  • Integración redacciones impresa y digital. Esto es fundamental para favorecer la transición de un modelo a otro. Ante la incógnita de si la edición impresa sobrevivirá a la reconversión que está sufriendo el mercado de la información, los periodistas deben ser personas capaces de adaptarse al cambio que les sobreviene. En cuanto comiencen a entender su nuevo rol y las nuevas formas del nuevo producto informativo, podrán desarrollar un producto más competitivo.
  • Formación de periodistas sobre el nuevo entorno de comunicación social. No sólo se debe integrar a los periodistas de prensa dentro de la redacción digital, si no que se les debe formar sobre el funcionamiento de la Red y las formas y comportamientos que la rigen.
  • Fomento entorno audiovisual. La Web integra infinidad de tecnologías que en épocas anteriores se consideraban excluyentes o complementarias. Cada vez con mayor frecuencia, las informaciones se verán reforzadas por testimonios gráficos.
  • Horizontalidad en la toma de decisiones. La publicación de informaciones dentro de la Web es rápida y ágil, muy alejada del modelo tradicional en el que las decisiones se tomaban de forma jerárquica (Redactor – Jefe de sección – Redactor-jefe – Subdirector – Director). La estructura tenderá hacia la horizontalidad en la que el redactor tendrá un mayor poder de decisión sobre la información que se publica.
  • Vigilancia tecnológica. El nuevo producto informativo tenderá a convertirse además de multimedia en multisoporte. La vigilancia sobre el entorno y la tecnológica serán cada vez más importante y la capacidad de innovación en formatos será capital para encontrar nuevas vías de financiación para el producto informativo. Qué hace la competencia y las nuevas tendencias serán vitales para mantener la viabilidad económica de un producto.
  • Arquitectura de la información, usabilidad y diferenciación de la competencia. La cabecera todavía será un elemento vital para las cabeceras tradicionales dentro de su ámbito territorial, pero también habrá que reforzar cómo se estructura la información y cómo se presenta para diferenciarse de la competencia ante productos similares.

Un comentario