El Documentalista Enredado

Infonomía, Innovación, Análisis y Nuevas Tecnologías

Posts in the Fuente de información category

Leer es caro

Sucedió que, en una jornada de financiación de la Investigación y Desarrollo, una responsable de I+D de una empresa se quejó amargamente de que leer era caro. “La formación no sólo son cursos, también lo es la lectura. Formación también es leer, leer y leer; y leer es caro.” Esta persona parecía hallarse en una contradicción en un momento en el que acceder a la información nunca fue tan sencillo y tan barato.

Actualmente, los científicos no necesitan de desplazarse a bibliotecas lejanas para acceder a una tesis o a realizar búsquedas bibliográficas. La mayoría de las fuentes de información secundarias se encuentran accesibles a través de la web de forma gratuita (o una gran parte de ellas), mientras que las universidades realizan una gran inversión de sus presupuestos para permitir a sus investigadores que accedan al documento primario de una forma sencilla y ágil. Los investigadores universitarios reconocen que cada vez con menos frecuencia disponen de la necesidad de desplazarse hasta sus bibliotecas del campus, casi todo se encuentra en línea. Es decir, el esfuerzo de los investigadores para documentarse ha disminuido, lo que conlleva un aumento de su productividad, pero esto bien sucede en las instituciones públicas.

¿Qué sucede en los otros motores de la I+D? ¿Dónde quedan los investigadores y los innovadores de las pymes o pequeños centros de investigación? ¿Qué mecanismos les quedan a ellos para acceder al documento primario? Si cada artículo científico tiene un coste de media de 30$, ¿qué pyme se encuentra dispuesta en realizar el gasto de 300$ para artículos que, en ocasiones, se reducen a una crítica de un libro de dos páginas? ¿Cómo puede justificarlo ante sus gerentes?

En general, los mercados financieros son unos completos desconocidos para los comunes de los mortales. Cuando salta alguna noticia a las parrillas de los telediarios, sólo se trata de informaciones sobre espectaculares subidas o, más bien, completos descalabros. Es entonces cuando nos percatamos que la economía no funciona todo lo bien que debiera y esperamos que las cosas mejoren poco a poco.

Desde luego que no hay que llevarse a engaño, aunque basados en lo que se denomina Fundamentales Empresariales, a ojos de cualquier persona poco ducha en ingeniería financiera hay, aparentemente, más de casino o de ruleta rusa dentro de ellos que de Ciencias Exactas, por lo que no suelen ser un lugar cómodo para invertir para los pequeños ahorradores. De hecho, como en los mejores casinos, uno siempre está a tiempo de retirarse, monitorizando y vigilando las cotizaciones de las acciones bursátiles, así como automatizar sus órdenes de compra o venta llegados a ciertos niveles que uno considere relevantes. Así, por ejemplo, si deseamos invertir en una empresa, podemos fijar su precio de compra a cierto nivel y esperar a que la acción lo alcance para que se realice la compra, o bien si ya tenemos esas acciones en nuestra posesión podemos señalar un nivel de desinversión de manera que cuando una cotización llegue a cierto nivel podamos desinvertir y vender las acciones que disponemos en posesión, es lo que se denomina Stops Loss.

Esto podríamos considerar que está francamente bien porque así nos guardamos las espaldas ante caídas o cuando creemos que una acción se encuentra a un nivel muy interesante para invertir. El problema llega cuando la bolsa comienza a bajar en exceso y todas las órdenes, los stops, comienzan a saltar en venta deprimiendo aún más el efecto bola de nieve de las depreciaciones bursátiles y forzando la caída mucho más.

Por supuesto que las cotizaciones de las acciones se encuentran tremendamente ligadas a rumores, desmentidos, publicaciones de resultados empresariales y económicos. Esa necesidad de obtener información privilegiada, más allá de los análisis chartistas (de los gráficos para captar tendencias o realizar previsiones), es lo que determina quién gana más o quién puede mitigar las posibles pérdidas en caso de noticias desfavorables. La obtención de esa información nos puede llegar a colocar con cierta ventaja competitiva y es una constante en los mercados financieros globales pudiendo arruinarnos, e incluso a las empresas cotizadas, si no nos movemos de forma ágil.

Afortunadamente, la tecnología pone al alcance de nuestras manos la monitorización de las noticias que se van publicando de las compañías que son de nuestro interés, a la vez que negocian de forma automática y en nuestro nombre la compra-venta de acciones. Esto puede resultar tremendamente atractivo, absolutamente genial, si la presión informativa y otros quehaceres superan nuestra vigilancia del mercado. Sin embargo, puede suceder que todo el sistema no sea perfecto y falle ante un bulo o ante una noticia de hace 6 años.

Es lo que le sucedió a la compañía aérea estadounidense United Airlines (ver gráfico) cuando de súbito perdió el 75% de su valor en bolsa en 13 minutos debido a que el robot de Google News había interpretado como nueva una noticia extraída del archivo de un pequeño periódico estadounidense, South Florida-Sun Sentinel, y el sistema automático de Google la publicó como actual. El hecho es que el agregador de noticias de Google incorporó en sus titulares de forma automatizada una noticia de 2002 -Nótese que se trata del período inmediatamente posterior al 11-S cuando muchas compañías aéreas se vieron en apuros- en la que se afirmaba que United Airlines anunciaba una suspensión de pagos. De Google News, la noticia saltó a la agencia especializada en información financiera Bloomberg y de ahí a los inversores (Aunque la liebre la destapó la empresa Income Securities Advisors) comenzando una caída del valor que provocaría un suspensión en la cotización hasta que, finalmente, se comprobaría que la noticia no tenía ningún fundamento.

Actualmente, el debate gira entorno quién es el responsable último de estos sucesos, lanzándose Sun Sentinel, Google y Blomberg las responsabilidades sobre la información errónea y la pérdida de millones de dólares de inversones.

El máximo responsable de Weblogs SL, Julio Alonso, publicaba un texto recientemente en el que se volvía a sacar a la palestra si los blogs podían o no ser considerados una fuente de información fiable a la hora de publicar informaciones. Lo cierto es que el tema ya se encuentra un poco manido. De hecho, dentro del boom blogosférico vivido en 2005, ya se dispusieron suficientes argumentos para refutar aquellos que consideraban a las bitácoras como una fuente de información poco fiable. Recordemos el argumentario de aquellos que defienden los weblogs como fuentes válidas de información:

  • Independencia. Los blogs son confiables porque son independientes y no están conectados a organizaciones más grandes con sus propios temas de interés.
  • Experiencia. Los blogs ofrecen un nivel de experiencia que las fuentes de noticias tradicionales no pueden lograr.
  • La blogosfera como una comunidad comentada por los pares. Los blogs son una forma abierta para el intercambio de información, y cuando un blog no es exacto en lo que publica, con contenidos de calidad, será atacado en foros de discusión y en otros blogs.
  • Transparencia de ideología. Las organizaciones de noticias luchan por la objetividad, buscando cobertura "justa y balanceada" a cualquier costo. Los bloggers no luchan por este objetivo inalcanzable, ellos traen sus opiniones políticas al frente y expresan sus opiniones sin dudar.

Por otro lado, Alonso señala de forma crítica las principales razones que se han aducido para considerar a los blogs como fuentes poco fiables:

Los medios tradicionales verifican la información, se aseguran de que sea cierta antes de publicarla. Los blogs publican cualquier cosa, expanden bulos sin ningún rigor y sin molestarse siquiera por hacer la más mínima comprobación.

Desgraciadamente, lo que puede darse por supuesto dentro de un medio de comunicación no tiene porqué ser necesariamente cierto. Dentro de un panorama de convergencia, donde las redacciones digitales y tradicionales van a tener que fusionarse para sobrevivir, no podemos confiar en que se mantenga la forma tradicional de trabajar en los medios de comunicación.

Tradicional en cursiva, porque no es necesariamente cierta. De esta manera, en un estudio realizado por la Universidad Camilo José Cela se ponía de relieve que los medios de comunicación no son muy cuidadosos a la hora de verificar sus informaciones. Así, tras el análisis de 10.438 piezas de radio y televisión, se señalaba que en el 83% de los casos los medios ofrecían una sola versión de la noticia, en general la fuente interesada por estar afectada directamente (78% de los casos en TV y el 63% en la radio), que, además, era la oficial (72% de los casos en la TV y el 65% en la radio). Por supuesto que esta noticia se difundió fundamentalmente en medios impresos, aunque sería interesante la realización de un segundo estudio para comprobar el nivel de verificación de los impresos.

Y es que algunos medios ya se han pillado los dedos inquietos en esto de ser los primeros en lanzar noticias sin contrastar. Sin ir más lejos, la noticia de que la directora de la Biblioteca Nacional, Milagros del Corral, twitteaba (Noticia difundida en la blogosfera por Álvaro Cabezas) fue publicada por el diario El País, aunque posteriormente se descubrió de que era un bulo. ¿No tenía en este caso un medio de comunicación mucho más poder que un simple bloguer para acceder a la fuente original? ¿No podría El País haber consultado a la Nacional para comprobar la veracidad de esa noticia y contrastarla?

Obviamente, sí, pero no se hizo y se publicó una información que no era veraz para rectificarla 3 días después. El bloguer dudaba, el medio afirmaba, ¿quién pudo ser más confiable en esta ocasión?

En este blog, no vamos a negarlo, no somos expertos en Bibliometría (parte de la cienciometría que aplica métodos matemáticos y estadísticos a toda la literatura de carácter científico y a los autores que la producen, con el objetivo de estudiar y analizar la actividad científica), para eso ya está la troupe de Álvaro Roldán, sin embargo queremos señalaros, como curiosidad nada más, las leyes bibliométricas que reflejan, de nuevo, la existencia de leyes de potencia dentro de esta área de conocimiento. Las leyes de las que vamos a hablar son las leyes de Bradford y la de Lotka, bien conocidas por los bibliómetras pero que pueden pasar desapercibidas para el resto de los bibliotecarios e incluso para los documentalistas.

La ley de Lotka o de la productividad de los autores (1926) afirma que en una determinada especialidad unos pocos autores publican un gran número de artículos mientras que el gran número de autores restantes publica muy poco. Lotka comprobó que el 50% de los trabajos de un área sean publicados por cerca del 10% de los autores totales, un 25% por un 15% de autores y el restante 25% de textos por un 75% de autores.

Mientras que la Ley de Bradford o de dispersión de la literatura científica (1934) exponía que un pequeño número de revista sobre una determinada disciplina reunía la mayor parte de los artículos. De esta manera, una pequeña parte de las publicaciones aunarían la mayor parte del prestigio, concentrando una gran parte de los trabajos más interesantes, mientras que el resto de textos se encontrarían dispersos en publicaciones de diversa índole.

Finalmente, como apunte y cerrar este texto, señalaros  la tercera ley sobre la que se fundamenta la bibliometría es la Ley de Price o del crecimiento exponencial. Según esta ley, el número de publicaciones científicas que hay en el mundo crece de manera exponencial. Dicho crecimiento es tal, que cada 10-15 años la información existente se duplica con un crecimiento exponencial, aunque esto depende en gran medida del área de conocimiento de la que se trate.  Sin embargo, no sólo la literatura científica crece de forma exponencial, sino también lo hace el número de investigadores, por lo que la primera conclusión que obtuvo Price del crecimiento exponencial fue la contemporaneidad de la ciencia. Esto es un porcentaje que nos dice cómo se encuentra la ciencia actual respecto del conjunto de las demás épocas.

El artículo Overcoming net disease: The risks in depending solely on the internet for competitive intelligence research intenta ilustrar de la necesidad de acudir a otras fuentes que no sean Internet y, por ende, Google o más recientemente la Wikipedia como fuente única de información. Aunque el texto está enfocado hacia la Inteligencia Competitiva, un término que debería a estas alturas ser familiar a todos los documentalistas, es una ilustración perfecta de que todo ni tiene que ser gratuito ni necesariamente encontrarse disponible en Internet. De hecho, la Red, a pesar de ser una fuente inagotable de la información, jamás contendrá toda la información relevante que podríamos llegar a necesitar, ni la que pudiésemos considerar.

Otro de los problemas que nos plantea la Red, es la fiabilidad de la información publicada. La consideración de una fuente de información en Internet como verídica, no es tarea sencilla y en muchas ocasiones tomada a la ligera por la mayoría de los internautas. El ciberplagio, la toma de informaciones como propias de fuentes extraídas de la Red sin cita, es algo que ya sobrepasa los niveles académicos universitarios, qué decir de niveles inferiores, y/o de la investigación. Los profesores podrán hacer la vista gorda ante sus intrépidos alumnos que les tratan de colar un trabajo extraído de, por ejemplo, El Rincón del Vago, pero es un aviso para navegantes el indicar que las habilidades tecnológicas y de recuperación de la información de los maestros en la Red es superior a la que tenían hace tan sólo cinco años.

Más fácil -en lo de nos ser descubiertos- lo tienen aquellos que dispongan y entreguen sus trabajos de investigación por encargo, como si el conocimiento se pudiese comprar y no fuese fruto del trabajo constante y la ilusión e interés por una materia, aunque errarán el tiro. Acabarán engañados en su propia inopia al tratar de obtener cierto título para descubrir posteriormente que, esta vez, lo comprado en Internet no les es útil en determinados ámbitos ni ante determinadas situaciones. Como se anuncia actualmente en España, hoy en día, a la vida no se viene con un traductor [de inglés] bajo el brazo.

La información y el conocimiento se han convertido en algo que es accesible y sencillo de utilizar, cualquiera puede consumirlos y disponer de ellos. Sin embargo, la información de calidad se sigue publicando principalmente en papel de acuerdo con ciertos criterios editoriales. La información que realmente necesitamos para la toma de decisiones a veces no se encuentra ni impresa ni en prensa, debemos buscarla y generarla. Se halla en la revista que no se vuelca en la Red, en libros colocados en estanterías esperando que alguien los desempolve, en mentes que trabajosamente estudian a lo largo de los años para desembocar un trabajo final en una tesis o un artículo científico o incluso en las empresas.

La enfermedad Red es un defecto de la sociedad tecnológica actual saltando desde lo analógico sin tener en cuenta la disrupción y el error que esto provoca. El conocimiento acumulado anterior no puede ser trasladado inmediatamente a una caja de texto en la pantalla de bienvenida de un buscador. Mientras que la conjugación masiva Ctrl+C-Ctrl+V con lo hallado en la Red debería ser lo último que tendríamos que realizar como estudiantes, profesionales o investigadores. A pesar de que, por supuesto, no negaré la mayor de que la tentación siempre estará ahí. Por los siglos de los siglos.

El profesor José Luis Orihuela, autor de eCuaderno, relanza la Web de Blogs, una recopilación de recursos sobre la blogosfera y todo lo relacionado con el mundo de las bitácoras gestionado, cómo no a través, de un weblog. En esta web, podemos encontrarnos tanto directorios nacionales, rankings variados, metablogs, redes de blogs, recursos docentes como bibliografía y un amplio glosario que se había recogido sólo en el libro La Revolución de los Blogs.

Por cierto que el libro, además de tener buenas críticas, dispone de su propio apartado en eCuaderno, donde son accesibles los anexos donde se recoge lo más representativo de la Biblioblogosfera. Una lástima porque algunos de los weblogs ahí citados ya no son mantenidos o están abandonados.

Estamos de enhorabuena porque ha nacido una nueva herramienta para la búsqueda de información científica y tecnología en nuestro país: el Buscador España I+D+I.

Este buscador nace dentro del portal Sistema madri+d, una red de trabajo entre instituciones públicas y privadas de investigación, y asociaciones empresariales de la Comunidad de Madrid.

La variada información sobre I+D+I que contiene este portal es, sin duda, una valiosa fuente de información; pero este buscador, no se limita a la información contenida en el Sistema madri+d, si no que permite también la búsqueda a nivel nacional, ya que hay indexados más de 300 centros, que ofrecen sus contenidos web a este motor de búsqueda. De este modo, recoge información sobre los centros pertenecientes al Sistema madri+d, empresas innovadoras y centros de investigación, entre otros, y la información de otros portales especializados. En un futuro, además, se ampliará a Iberoamérica y Europa.

La búsqueda de la información del Sistema madri+d permite buscar por términos o por categorías establecidas, que siguen la estructura propia del sitio web. Algunas de estas categorías son: noticias, grupos de investigación, proyectos de investigación, oferta de empleo, etc.

El buscador a nivel nacional, lo que propiamente dicho sería el Buscador España I+D+I, sólo permite una búsqueda sencilla, ya que la variedad de fuentes en que realiza la búsqueda hace que la información se encuentra mucho menos estructurada; pero, en contrapartida, ofrece los resultados clasificados de forma automática en taxonomías que corresponden a las diferentes áreas científicas.

Como veis, se trata de una herramienta que puede resultar muy útil… Si los centros de investigación que se inscriban en este buscador se toman la molestia de actualizar el contenido de sus sitios web y ofrecer realmente información interesante.

Descubierto gracias a: A la caza de información científica y tecnológica

Usamos Cookies - Utilizando este sitio o cerrando este mensaje aceptas nuestra política de Cookies.
Aceptar Cookies
x