Saltar al contenido →

El Documentalista Enredado Entradas

Allí donde los lectores estén

No estoy muy seguro, no sé exactamente qué pensarán los diseñadores gráficos o, yendo un poco más allá, los tipógrafos de la cantidad de dispositivos que utilizaremos en un futuro próximo para la lectura. Estos profesionales llevan tantos años devanándose los sesos para intentar que disfrutemos de una experiencia placentera durante el acto de leer, eligiendo tipografías, fotografías y diseñando apoyos en periódicos y revistas, y no nos engañemos en esto hay más ciencia de lo que podríamos considerar en un principio, que es posible que se sientan frustrados cuando contemplen los productos textuales o incluso gráficos tienen que encararse con pantallas de 2’5 pulgadas.

Pero, aparentemente, de momento, habrá que encogerse de hombros a la vez que aseveramos “es lo que hay”. La separación del contenido de un sitio web frente al contenido que pudiese llegar a albergar ya comenzó a producirse con la aparición de las hojas de estilo (CSS) o de una manera decisiva con la sindicación de los contenidos (RSS). La sindicación redujo el trabajo que debía realizar un usuario en la consulta a webs para mantenerse actualizado, delegando esa visita a un programa o una plataforma web. Las páginas web  que disponen de esta opción separan el contenido de la presentación, sirviendo pequeñas pastillas de información o el contenido completo, viniendo a demostrar que otra manera de consultar las fuentes de información en Internet era posible sin tener que necesariamente acudir a los marcadores del navegador cada dos por tres. La maquetación, el diseño, la arquitectura de la información de una web quedaban relegadas inmediatamente a un segundo plano, confiando en que los lectores dejarían comentarios dentro de ella y que alguien acabase buscando cualquier cosa en Google y aterrizando en alguna de nuestras páginas. En este caso, la imagen, la intencionalidad de los colores se sacrificaban completamente, mientras los administradores de las webs se adaptaban a una innovación en el consumo de la información. La pregunta que nos debe asaltar es qué puede llegar a suceder cuando el cambio en el consumo se produzca de forma masiva a través de la llegada de nuevos aparatos con los que se accede a esa misma información.

Estos cambios ya se han venido produciendo paulatinamente. Los blogs fueron de primeros en adaptarse rápidamente al cambio de hábito en el acceso a la web, siendo decisiva en el mercado de masas la llegada del iPhone y la obligatoriedad de contratar una tarifa de datos que hiciese posible el consumo de la web a través de aparatos móviles. Las bitácoras más importantes y de mayor tráfico se prepararon para adaptar de nuevo sus textos a las nuevas necesidades de los usuarios, involucionado de hecho las formas de visualizar la información a dispositivos con pantalla pequeña. Se trata de ediciones preparadas para la mínima expresión gráfica, con tipografías básicas o sin definición ninguna esperando que el dispositivo dispusiese de la fuente instalada. Es decir, toda la planificación y control sobre el consumo de esa información caía inmediatamente relegada sobre la necesidad de que el mensaje llegase a su destinatario.

Lo importante ya no pasa por cómo se maqueta la información, cómo se presenta, sino lo importante es que pueda llegar a ser leída. Ya no importa tanto si la consulta se recibe a través de un ordenador, de un teléfono móvil o un e-book (Kindle ofrece que podamos añadir fuentes RSS), lo importante es prepararse para que la información sea accesible, allí donde los lectores estén en el momento que la necesiten, adaptándola en su presentación al dispositivo desde el cual se consulta.

Un comentario

Manifestación “En defensa de los derechos fundamentales en Internet”

Tras la reunión decepcionante de esta mañana en el Ministerio de Cultura, los internautas de movilizan y preparan para este viernes (4 de diciembre) distintas concentraciones por toda España (Madrid en el Ministerio de Cultura y Barcelona en la Plaça de Sant Jaume a las 20h – También puedes buscar tu ciudad -). En Valencia, será en la Plaza de Tetuán Temple a las 20h, mientras tanto parece que el Gobierno trata de realizar una marcha atrás sin dejar tocada a la Ministra. Mientras tanto, nos sumamos al Manifiesto «En defensa de los derechos fundamentales en internet».

Actualización (4/12/2009 – 00:05) con las principales ciudades y lugares – la mayoría frente a las Delegaciones del Gobierno respectivas – (La hora de convocatoria son las 20h):

  • Madrid: Ministerio de Cultura
  • Barcelona: Plaça Sant Jaume
  • Sevilla: Plaza Nueva
  • Valencia: Plaza del Temple
  • Zaragoza: Plaza España
  • Málaga: Plaza de la Aduana
  • Almería: Puerta de la Purchena
  • Santander: Plaza Porticada
  • Logroño: Plaza del espolón
  • León: Plaza Inmaculada
  • A Coruña: Plaza de Orense
  • Palma de Mallorca: C/constitución, 4
  • Cádiz: Plaza de España
  • Valladolid: Plaza Mayor
  • Oviedo: Plaza Escandalera
  • Las Palmas de Gran Canaria: Plaza León y Castillo
  • Bilbao: Plaza del Arriaga
  • Córdoba: Plaza de las Tendillas
  • Granada: Plaza del Carmen
  • Cáceres: Avenida Virgen de la Montaña
  • Badajoz: Avenida de Europa

Eneko/20minutos.es
Eneko/20minutos.es

Ante la inclusión en el Anteproyecto de Ley de Economía sostenible de modificaciones legislativas que afectan al libre ejercicio de las libertades de expresión, información y el derecho de acceso a la cultura a través de Internet, los periodistas, bloggers, usuarios, profesionales y creadores de Internet manifestamos nuestra firme oposición al proyecto, y declaramos que…

  1. Los derechos de autor no pueden situarse por encima de los derechos fundamentales de los ciudadanos, como el derecho a la privacidad, a la seguridad, a la presunción de inocencia, a la tutela judicial efectiva y a la libertad de expresión.
  2. La suspensión de derechos fundamentales es y debe seguir siendo competencia exclusiva del poder judicial. Ni un cierre sin sentencia. Este anteproyecto, en contra de lo establecido en el artículo 20.5 de la Constitución, pone en manos de un órgano no judicial – un organismo dependiente del ministerio de Cultura -, la potestad de impedir a los ciudadanos españoles el acceso a cualquier página web.
  3. La nueva legislación creará inseguridad jurídica en todo el sector tecnológico español, perjudicando uno de los pocos campos de desarrollo y futuro de nuestra economía, entorpeciendo la creación de empresas, introduciendo trabas a la libre competencia y ralentizando su proyección internacional.
  4. La nueva legislación propuesta amenaza a los nuevos creadores y entorpece la creación cultural. Con Internet y los sucesivos avances tecnológicos se ha democratizado extraordinariamente la creación y emisión de contenidos de todo tipo, que ya no provienen prevalentemente de las industrias culturales tradicionales, sino de multitud de fuentes diferentes.
  5. Los autores, como todos los trabajadores, tienen derecho a vivir de su trabajo con nuevas ideas creativas, modelos de negocio y actividades asociadas a sus creaciones. Intentar sostener con cambios legislativos a una industria obsoleta que no sabe adaptarse a este nuevo entorno no es ni justo ni realista. Si su modelo de negocio se basaba en el control de las copias de las obras y en Internet no es posible sin vulnerar derechos fundamentales, deberían buscar otro modelo.
  6. Consideramos que las industrias culturales necesitan para sobrevivir alternativas modernas, eficaces, creíbles y asequibles y que se adecuen a los nuevos usos sociales, en lugar de limitaciones tan desproporcionadas como ineficaces para el fin que dicen perseguir.
  7. Internet debe funcionar de forma libre y sin interferencias políticas auspiciadas por sectores que pretenden perpetuar obsoletos modelos de negocio e imposibilitar que el saber humano siga siendo libre.
  8. Exigimos que el Gobierno garantice por ley la neutralidad de la Red en España, ante cualquier presión que pueda producirse, como marco para el desarrollo de una economía sostenible y realista de cara al futuro.
  9. Proponemos una verdadera reforma del derecho de propiedad intelectual orientada a su fin: devolver a la sociedad el conocimiento, promover el dominio público y limitar los abusos de las entidades gestoras.
  10. En democracia las leyes y sus modificaciones deben aprobarse tras el oportuno debate público y habiendo consultado previamente a todas las partes implicadas. No es de recibo que se realicen cambios legislativos que afectan a derechos fundamentales en una ley no orgánica y que versa sobre otra materia.
Un comentario

4th LIS-EPI, rozando la visión del Futuro

Tratar de asomarse al futuro siempre puede considerarse como una tarea harto complicada, poder intuirlo, incluso acertarlo dispone de mayor mérito. El objetivo de este cuarto encuentro LIS-EPI se entreveía con sólo leer su epígrafe, La información en 2015: innovación y prospectiva, y lo cierto es que la mayoría de sus ponentes consiguieron estar a la altura de aquellos que nos desplazamos hasta el encuentro. He de confesar, y así se lo hice llegar a sus organizadores, que este cuarto encuentro me ha parecido mejor que el anterior, y confío que sus organizadores sigan profundizando en su temática en sucesivas organizaciones porque éste no pudo ser más interesante en su globalidad. Como es natural, intentaremos realizar algunos resúmenes de lo más destacado de las charlas a lo largo de esta semana, pero obviamente muchas cosas se quedarán en el tintero.

Es probable que si algún bibliotecario esperaba que se hablase de bibliotecas, puede que saliese defraudado. Y no porque se pasase de puntillas por la gestión de la información dentro de este ámbito, sino porque el futuro tiene que ir más allá de los problemas actuales, endémicos me atrevería a señalar, del sistema bibliotecario en España. De hecho, Eric Lease Morgan tuvo que aplicarse ante la pregunta de un atribulado bibliotecario que le lanzó la cuestión de si en Estados Unidos los presupuestos de las bibliotecas habían sufrido un recorte presupuestarios por la crisis económica. El risueño bibliotecario confesó que los presupuestos se habían mantenido más o menos similares a los de años precedentes, si bien algunas bibliotecas habían sufrido recortes al utilizar su dinero dentro de los mercados de valores (!).

Por su parte, Josef Herget con el que ya habíamos contado con su presencia en la anterior edición del LIS-EPI, trazó un mapa completo de hacia dónde había que desarrollar el e-learning, la importancia de gestionar los recursos de la formación tanto en la vida como estudiante, así como profesional, y de qué modo desde la Danube University Krems se estaban utilizando herramientas de la Web Social para reforzar los procesos de aprendizaje.

Sin embargo, esto tan sólo eran calentamientos previos hacia los derroteros que el resto de las charlas se iban a encaminar. En la mesa de las RIAs, un concepto que invito a todos los profesionales de la información a profundizar por su interés y posibilidades, tan sólo David Maniega se aprestó a la tarea de aportar interés a la charla, mientras que el resto de participantes de la mesa pareció dejarse llevar por la didáctica de los trabajos y desarrollos que se realizaban desde sus respectivas organizaciones, que por supuesto no dejan de tener interés, pero puede ser que el foro no fuese el más indicado para exponerlos.

Aunque lo mejor estaba por venir. Roser Lozano, a la que nunca nos cansamos de escuchar, nos aportó una vez más su visión de la innovación en las bibliotecas públicas desde su experiencia y cómo intenta aplicar su misma metodología en su nuevo puesto de trabajo (CRAI – Centro de Recursos para el aprendizaje y la investigación de la Universitat Rovira i Virgili). Fue una conferencia vibrante en la que dispuso de toda su curiosidad y sus ganas de realizar nuevas tareas y servicios, en algunos casos con presupuesto cero, para seguir avanzando y aportando nuevas facetas a los roles bibliotecarios. Impresionante e imprescindible para entender la biblioteconomía moderna.

Hubo más, mucho más. En la mesa Las bibliotecas frente al software libre, puede ser que la joya de la corona de este LIS-EPI desde mi punto de vista, se nos dio una visión de lo que llevamos hablando desde hace mucho, la Biblioteca 2.0 deja de ser una entelequia para presentarse con toda su fuerza en la exposición que nos ofreció Jorge Serrano. Sus contertulios no dejaron de estar a un nivel impresionante, primero con Patricia Russo, que realizó un compendio del software libre que podemos utilizar distintas tareas en la gestión de la biblioteca (una presentación que se merecerá un texto completo en breve) y Jordi Serrano de la Universitat Politècnica de Catalunya que nos ofreció la evolución que ha sufrido la página web de la biblioteca y las distintas funcionalidades que nos ofrece actualmente.

Por su parte, Julio Alonso nos dio un dato preocupante en la mesa Open Access in library and information science durante la presentación de su estudio sobre el repositorio E-LIS. Según datos de Alonso, aparentemente Google ha penalizado el sitio web provocando un descenso en las consultas y en los accesos a los PDFs que el repositorio tiene disponibles. ¿Estará Google vetando este tipo de contenidos o se trata de un hecho puntual y particular?

Javier Díaz Noci nos ofreció durante la segunda jornada una revisión de los distintos sistemas digitales que los medios de comunicación habían ensayado para la distribución de contenidos. Durante esta fiebre Kindle, Díaz Noci recuerda que los medios nunca se han mostrado excesivamente flexibles en lo que distribución de contenidos se refiere, siempre vigilantes de que los sistemas sean lo más cerrados posible, tratando de emular a la distribución que los medios conocen (el papel). Sin embargo, para Díaz Noci la crisis actual de la prensa no es económica, sino de lectores, algo que los medios han tratado de obviar pero que se ha mostrado en toda su crudeza durante los últimos dos años.

Por supuesto que, también hubo una decepción, el responsable de contenidos de Google en España, Luis Collado, ofreció una charla vacía en la que trataba de aportar una visión de Google un tanto errática en apariencia pero que oculta más de lo que aparenta ser. Puede que la audiencia se sintió un tanto acongojada por la presencia de la marca cuatricolor y no se atreviese a lanzar preguntas incisivas (me incluyo por supuesto), pero lo cierto es que de esa charla se hubiese podido sacar petróleo y según me comentaron Twitter echaba humo.

Y finalmente pudimos contemplar el trabajo que está realizando el grupo SCImago a través de la presentación de Félix de Moya que, en general, pudo resultar un tanto agotadora para buena parte de la audiencia, pero que en contraposición me resultó muy interesante tras haber podido contar con la presencia en Aidico del otro grupo bibliométrico español, EC3, recientemente. Solo puedo señalar que me dejó tremendamente impresionado el trabajo realizado por SCImago y que tuvo su recompensa cuando hace unas semanas su ranking de universidades españolas saltó a la palestra tras la publicación de algunos de sus datos por algunos medios de comunicación españoles.

2 comentarios

Herramientas de software para la vigilancia tecnológica

Jornada de Vigilancia Tecnológica en Aimplas

El pasado 19 de noviembre tuve el gusto de asistir a la jornada Software para aplicaciones de inteligencia y vigilancia estratégica: Análisis crítico que impartía Infocenter. Organizado por REDIT, junto a la colaboración de Aimplas donde tuvo lugar la actividad, Óscar Marañón, director de sistemas de Infocenter, realizó a los técnicos que integran la Red de Institutos Tecnológicos de la Comunidad Valenciana una introducción a las principales herramientas de software de los que nos podemos servir durante el desarrollo de la Vigilancia Tecnológica (VT).

Durante la charla, además de la tradicional breve explicación sobre lo que es la VT y sus principales objetivos, se incidió en la importancia de la parte humana de la Vigilancia, del análisis de los datos recolectados, la huida de tratar de realizar una recolección extensiva de la información y la necesidad de centrar las búsquedas en aspectos concretos de lo que se desea vigilar. La jornada consistió en la visión de la Vigilancia donde una pequeña inversión económica en software se puede realizar una tarea muy eficiente, rehuyendo de las grandes inversiones en productos de software mucho más complejos y con mayores funcionalidades.

Aunque, obviamente, existe un abanico bastante amplio de software que realizan funciones similares, Óscar se detuvo en los siguientes programas para la realización de distintas tareas de Vigilancia:

  • Website-Watcher. Fundamentalmente, persigue la búsqueda de actualizaciones y cambios dentro de las páginas web de cualquier tipo, resaltando los cambios y pudiendo señalar diversos aspectos de las variaciones a advertir cuando se produzcan.
  • Patent Hunter. Aunque funciona mejor sobre la base norteamericana USPTO, la funcionalidad de este software pasa por la posibilidad de descargarse las patentes en diversos formatos sin necesidad de acudir a los tediosos entornos web de las oficinas de patentes.
  • EndNote. Software para el tratamiento de citas bibliográficas perteneciente a Thomson Reuters y de pago, no se citó a Zotero una alternativa abierta y gratuita que puede ser interesante en un futuro no tan lejano.
  • Bibexcel. Esta pequeña aplicación desarrollada por Olle Persson está enfocada hacia el tratamiento de citas bibliográficas y el desarrollo de informes bibliométricos. Bajo una apariencia adusta, dispone de funcionalidades muy interesantes que a buen seguro hace las delicias de los bibliómetras.
  • Matheo Patent. Se trata del software de tratamiento de datos de patentes por excelencia y desde el cual se pueden realizar distintos informes y gráficas incidiendo en diversos aspectos de las mismas.
8 comentarios

Mobsumers, futuros consumidores

Consumer2.0

Espero que no os lancéis a buscar qué significa Mobsumers en Google, ya lo he hecho yo antes. Claro que yo confiaba en que alguien hubiese acuñado tal palabreja previamente, pero para mi desgracia no ha sido así. Desgracia, porque desde luego no poseo excesivo gusto acuñando nuevos términos, pero el hecho de que el pasado lunes me encontrase realizando una decisión de compra sobre un producto a través de la web, recibiendo información casi en tiempo real, me lleva a considerar que, en el futuro, el impulso a la hora de comprar casi cualquier cosa se realizará dependiendo de si tiene disponible una conexión a Internet en ese momento o no. Os contaré mi caso.

El pasado lunes estaba dispuesto a comprarme un disco duro multimedia. Más o menos, conocía qué podía esperarme de este tipo de aparatos y, en mi primera aproximación, a ellos quería saber qué especificaciones técnicas podía encontrarme en el mercado. He de confesar que no había realizado grandes esfuerzos previos a la hora de buscar información, así que podría decirse que realmente informado no estaba. Así que me comporté de una manera tradicional como consumidor, desplazándome hacia un hipermercado para comprobar qué oferta podía encontrar allí y de este modo realizar mis primera tareas de investigación.

He de confesar que los discos duros disponibles en el hipermercado me interesaron mucho, sobre todo uno de marca indeterminada que estaba a demasiado buen precio. Sin excesivas ganas de querer volver otro día, dirigí mi mirada hacia mi triste teléfono móvil y desplacé mi pulgar sobre él como si de un iPhone se tratase. “Si sólo pudiese conectarme a Internet” fue mi pensamiento, por lo que traté buscarme una alternativa. Así pues traté de consultar los ordenadores portátiles que tenían expuestos por si alguno disfrutase de conexión WiFi y lanzar algunas preguntas a un buscador. Mi gozo en un pozo. Resuelto a cerrar ese asunto aquella tarde (el tiempo es finito), reflexioné durante unos instantes sobre qué tienda de consumo podría ofrecerme conexión a Internet y ayudarme en el proceso de compra. Y como yo no soy tonto, me acordé que, en general, las zonas de Tiendas Apple suelen tener conexión a Internet. Considerando que me aprestaba a matar dos pájaros de un tiro, me dispuse a trasladarme hasta una macrotiendo de electrónica de consumo no sin antes tratar de apuntarme algunos precios para la realización de comparativas.

Efectivamente. Tras llegar a aquel comercio, me dispuse a consultar la Web, suspirando aliviado al comprobar que aquella marca desconocida resultaba finalmente un desastre y los consumidores no estaban nada satisfechos con ella, según me informaban en algunos foros. Un tanto contrariado, me dispuse a consultar mi segunda opción presente en ambas tiendas. Tras realizar una segunda comprobación, encontré un segundo disco duro que me interesaba pero que no especificaba (en su caja) sus características técnicas. De nuevo, me desplacé hacia el terminal con conexión a Internet, consulté sus especificaciones y los comentarios de los usuarios. Por supuesto que hice lo propio con los precios y descubrí que el precio del hipermercado era el más barato y como estaba dispuesto a desplazarme hasta él (quedaba relativamente cerca de mi casa) acudí allí para adquirir mi disco duro.

He de advertir que ya se han escrito ya algunos libros centrándose en los cambios de los hábitos de los consumidores. Crossumer de Víctor Gil y Felipe Romero, por ejemplo, abren fuego describiendo la comparativa y la influencia que tendrá los Social Media en los hábitos de los consumidores en el futuro. En Crossumer, se describe una decisión de compra con el consumidor informado previamente, pero la posibilidad de decidir la compra de un producto en unas horas, casi en tiempo real, era una experiencia nueva para mi desde la que se abren un abanico de posibilidades desde la Internet ubicua.

Mis mobsumers (término inventado para la ocasión que fusiona móvil, mobile en inglés, y consumidor, consumer) decidirán sus compras de forma casi impulsiva, en unas horas, pero lo harán con la suficiente información que les harán sopesar sus posibilidades y necesidades. Sí, se tratará de heavy-users de telefonía móvil, con su conexión a Internet que les ofrecerá la información adecuada para adquirir un producto y un servicio, evaluando el proveedor en su caso y pudiendo encontrar la oferta más barata o más adecuada a sus intereses inmediatos. He de confesar que, sin quererlo, casi me convertí en uno de ellos.

2 comentarios

Google Caffeine, el nuevo algoritmo de Google, un terremoto en la Web

Google Caffeine Andan estos días los foros de los SEO y los webmasters un tanto revueltos debido al próximo movimiento de Google en el sector de las búsquedas que se espera que esté completo hacia enero del próximo año bajo el nombre de Google Caffeine. Desde agosto, la compañía de Mountain View nos invitaba a probar la nueva versión del buscador en la dirección http://www2.sandbox.google.com. Actualmente, este pretest se encuentra cerrado tras la finalización de las pruebas y no será hasta enero cuando, de nuevo, podamos volver a probar la potencia del nuevo algoritmo de Google.

Pero, ¿qué es lo nuevo que nos trae Caffeine? De momento, todo son especulaciones, pero a lo largo de estos meses se han ido ofreciendo retazos de lo que nos depara en el futuro la búsqueda en la Web. Matt Cutts, portavoz de Google respecto a lo que atañe al buscador, ya ha salido al paso de los rumores y ha asegurado que no van a producirse grandes cambios en el posicionamiento de las páginas porque, según asegura, Caffeine es una revisión de la arquitectura del robot de búsqueda para buscar más rapidez y eficacia en la indexación del contenido web.

Puede ser que esto sea cierto, sin embargo, una cosa puede estar perfectamente unida con la otra. Así, por ejemplo, desde algunos foros se lanzaba la exclamación de que Google ya se encuentra indexando la web en tiempo real. Es decir, que si un editor web publicaba un contenido, Google es capaz de detectarlo casi inmediatamente e indizarlo. De esta manera, si Caffeine incide en una de las tendencias sobre las que más énfasis se está poniendo en el sector de las búsquedas, la indexación de la Real-Time Web, cambios en el posicionamiento se van a producir, nos guste o no.

De hecho, en los actuales buscadores, trata de primarse el contenido frente a otras consideraciones a la hora de analizarlo y posicionarlo. De esta manera, tratan de situarse en las primeras posiciones de los resultados los contenidos de calidad frente a otras consideraciones como la actualidad o su inmediatez, penalizándose de esta manera hechos que pueden estár sucediendo en ese mismo momento y de una gran candencia informativa. Actualmente, la necesidad de adaptarse a las necesidades de sus usuarios hace que los buscadores se estén fijando en las herramientas del Social Media como Twitter o Facebook para tratar de ganar “frescura” en sus resultados, de tal manera que les permiten detectar las tendencias de lo que está sucediendo en ese momento y poder trasladarlo de esta manera a sus índices.

Fundamentalmente, lo que se prevé que Caffeine nos ofrecerá es:

  • Mayor velocidad a la hora de mostrar los resultados.

  • Aumento en la velocidad de indexación de páginas web.

  • Mayor cantidad de páginas indexadas.

  • Menor relevancia a Wikipedia.

  • Menor relevancia a resultados de Universal Search (Imágenes, vídeos, mapas, etc).

  • Mayor relevancia de Twitter y de otras herramientas de Social Media.

Obviamente, con esta gran actualización del algoritmo, Google va a tomarse las cosas con relativa calma. En enero, actualizará sólo un datacenter, por lo que serán pocos los usuarios que utilizarán Caffeine aunque poco a poco el algoritmo se extenderá por el resto. Veremos qué nos depara.

14 comentarios

Talleres de Bibliometría en Valencia

Evaristo Jiménez y Álvaro Cabezas

La semana pasada, del 3 al 5 de noviembre, en Aidico contamos con la presencia de Evaristo Jiménez Contreras y Álvaro Cabezas que tuvieron a bien aceptar nuestra propuesta para la realización de dos talleres sobre Bibliometría. Bajo los títulos Utilización de Indicadores Bibliométricos para la Solicitud de Sexenios y Acreditaciones (Enfocada hacia los investigadores y profesores universitarios) y Bibliometría y Evaluación de la Ciencia, los ponentes ofrecieron a los asistentes una visión de los modos de evaluación de la Ciencia y los científicos que cada vez va a disponer de mayor relevancia a la hora de encontrar financiación de proyectos e investigaciones.

Los temas abordados, la visión de la comunicación científica, los indicadores bibliométricos fundamentales utilizados, las bases de datos que se utilizan para el análisis de la producción científica y su impacto dentro de la comunidad, el empleo básico de estas bases de datos y cómo tratar la información extraída para la elaboración de informes, por citar algunos; nos acercaron al trabajo que se realiza dentro del grupo de investigación EC3 de la Universidad de Granada para distintas instituciones.

La afirmación por parte de los ponentes que se enfrentaban a dos talleres que nunca habían impartido previamente nos da cuenta de la oportunidad que vivimos aquellos que nos encontramos presentes. La descripción de cómo se debe consultar las bases de datos, la normalización de los autores y el filtro de los datos son, en ocasiones, conocimientos que se adquieren tras muchas horas de experiencia, tras encontrarse en callejones sin salida que se descubren tras el cotejo de datos que señalan que algo se encuentra definitivamente mal. Es decir, Evaristo y Álvaro aportaron una experiencia que no puede ser transmitida a través de los textos impresos y supieron ofrecernos una visión apasionada y entretenida de una materia que en muchas ocasiones es contemplada como árida por los estudiantes de Biblioteconomía y Documentación.

He de confesar que lo que me dejó maravillado, a pesar de algunas dificultades técnicas a la hora de mostrarla, fue la aplicación Científica. Un producto desarrollado en buena parte por Daniel Torres Salinas que viene a demostrar que con muchas ganas, tesón y visión se pueden conseguir grandes resultados.

5 comentarios