Saltar al contenido →

Mes: noviembre 2009

4th LIS-EPI, rozando la visión del Futuro

Tratar de asomarse al futuro siempre puede considerarse como una tarea harto complicada, poder intuirlo, incluso acertarlo dispone de mayor mérito. El objetivo de este cuarto encuentro LIS-EPI se entreveía con sólo leer su epígrafe, La información en 2015: innovación y prospectiva, y lo cierto es que la mayoría de sus ponentes consiguieron estar a la altura de aquellos que nos desplazamos hasta el encuentro. He de confesar, y así se lo hice llegar a sus organizadores, que este cuarto encuentro me ha parecido mejor que el anterior, y confío que sus organizadores sigan profundizando en su temática en sucesivas organizaciones porque éste no pudo ser más interesante en su globalidad. Como es natural, intentaremos realizar algunos resúmenes de lo más destacado de las charlas a lo largo de esta semana, pero obviamente muchas cosas se quedarán en el tintero.

Es probable que si algún bibliotecario esperaba que se hablase de bibliotecas, puede que saliese defraudado. Y no porque se pasase de puntillas por la gestión de la información dentro de este ámbito, sino porque el futuro tiene que ir más allá de los problemas actuales, endémicos me atrevería a señalar, del sistema bibliotecario en España. De hecho, Eric Lease Morgan tuvo que aplicarse ante la pregunta de un atribulado bibliotecario que le lanzó la cuestión de si en Estados Unidos los presupuestos de las bibliotecas habían sufrido un recorte presupuestarios por la crisis económica. El risueño bibliotecario confesó que los presupuestos se habían mantenido más o menos similares a los de años precedentes, si bien algunas bibliotecas habían sufrido recortes al utilizar su dinero dentro de los mercados de valores (!).

Por su parte, Josef Herget con el que ya habíamos contado con su presencia en la anterior edición del LIS-EPI, trazó un mapa completo de hacia dónde había que desarrollar el e-learning, la importancia de gestionar los recursos de la formación tanto en la vida como estudiante, así como profesional, y de qué modo desde la Danube University Krems se estaban utilizando herramientas de la Web Social para reforzar los procesos de aprendizaje.

Sin embargo, esto tan sólo eran calentamientos previos hacia los derroteros que el resto de las charlas se iban a encaminar. En la mesa de las RIAs, un concepto que invito a todos los profesionales de la información a profundizar por su interés y posibilidades, tan sólo David Maniega se aprestó a la tarea de aportar interés a la charla, mientras que el resto de participantes de la mesa pareció dejarse llevar por la didáctica de los trabajos y desarrollos que se realizaban desde sus respectivas organizaciones, que por supuesto no dejan de tener interés, pero puede ser que el foro no fuese el más indicado para exponerlos.

Aunque lo mejor estaba por venir. Roser Lozano, a la que nunca nos cansamos de escuchar, nos aportó una vez más su visión de la innovación en las bibliotecas públicas desde su experiencia y cómo intenta aplicar su misma metodología en su nuevo puesto de trabajo (CRAI – Centro de Recursos para el aprendizaje y la investigación de la Universitat Rovira i Virgili). Fue una conferencia vibrante en la que dispuso de toda su curiosidad y sus ganas de realizar nuevas tareas y servicios, en algunos casos con presupuesto cero, para seguir avanzando y aportando nuevas facetas a los roles bibliotecarios. Impresionante e imprescindible para entender la biblioteconomía moderna.

Hubo más, mucho más. En la mesa Las bibliotecas frente al software libre, puede ser que la joya de la corona de este LIS-EPI desde mi punto de vista, se nos dio una visión de lo que llevamos hablando desde hace mucho, la Biblioteca 2.0 deja de ser una entelequia para presentarse con toda su fuerza en la exposición que nos ofreció Jorge Serrano. Sus contertulios no dejaron de estar a un nivel impresionante, primero con Patricia Russo, que realizó un compendio del software libre que podemos utilizar distintas tareas en la gestión de la biblioteca (una presentación que se merecerá un texto completo en breve) y Jordi Serrano de la Universitat Politècnica de Catalunya que nos ofreció la evolución que ha sufrido la página web de la biblioteca y las distintas funcionalidades que nos ofrece actualmente.

Por su parte, Julio Alonso nos dio un dato preocupante en la mesa Open Access in library and information science durante la presentación de su estudio sobre el repositorio E-LIS. Según datos de Alonso, aparentemente Google ha penalizado el sitio web provocando un descenso en las consultas y en los accesos a los PDFs que el repositorio tiene disponibles. ¿Estará Google vetando este tipo de contenidos o se trata de un hecho puntual y particular?

Javier Díaz Noci nos ofreció durante la segunda jornada una revisión de los distintos sistemas digitales que los medios de comunicación habían ensayado para la distribución de contenidos. Durante esta fiebre Kindle, Díaz Noci recuerda que los medios nunca se han mostrado excesivamente flexibles en lo que distribución de contenidos se refiere, siempre vigilantes de que los sistemas sean lo más cerrados posible, tratando de emular a la distribución que los medios conocen (el papel). Sin embargo, para Díaz Noci la crisis actual de la prensa no es económica, sino de lectores, algo que los medios han tratado de obviar pero que se ha mostrado en toda su crudeza durante los últimos dos años.

Por supuesto que, también hubo una decepción, el responsable de contenidos de Google en España, Luis Collado, ofreció una charla vacía en la que trataba de aportar una visión de Google un tanto errática en apariencia pero que oculta más de lo que aparenta ser. Puede que la audiencia se sintió un tanto acongojada por la presencia de la marca cuatricolor y no se atreviese a lanzar preguntas incisivas (me incluyo por supuesto), pero lo cierto es que de esa charla se hubiese podido sacar petróleo y según me comentaron Twitter echaba humo.

Y finalmente pudimos contemplar el trabajo que está realizando el grupo SCImago a través de la presentación de Félix de Moya que, en general, pudo resultar un tanto agotadora para buena parte de la audiencia, pero que en contraposición me resultó muy interesante tras haber podido contar con la presencia en Aidico del otro grupo bibliométrico español, EC3, recientemente. Solo puedo señalar que me dejó tremendamente impresionado el trabajo realizado por SCImago y que tuvo su recompensa cuando hace unas semanas su ranking de universidades españolas saltó a la palestra tras la publicación de algunos de sus datos por algunos medios de comunicación españoles.

2 comentarios

Herramientas de software para la vigilancia tecnológica

Jornada de Vigilancia Tecnológica en Aimplas

El pasado 19 de noviembre tuve el gusto de asistir a la jornada Software para aplicaciones de inteligencia y vigilancia estratégica: Análisis crítico que impartía Infocenter. Organizado por REDIT, junto a la colaboración de Aimplas donde tuvo lugar la actividad, Óscar Marañón, director de sistemas de Infocenter, realizó a los técnicos que integran la Red de Institutos Tecnológicos de la Comunidad Valenciana una introducción a las principales herramientas de software de los que nos podemos servir durante el desarrollo de la Vigilancia Tecnológica (VT).

Durante la charla, además de la tradicional breve explicación sobre lo que es la VT y sus principales objetivos, se incidió en la importancia de la parte humana de la Vigilancia, del análisis de los datos recolectados, la huida de tratar de realizar una recolección extensiva de la información y la necesidad de centrar las búsquedas en aspectos concretos de lo que se desea vigilar. La jornada consistió en la visión de la Vigilancia donde una pequeña inversión económica en software se puede realizar una tarea muy eficiente, rehuyendo de las grandes inversiones en productos de software mucho más complejos y con mayores funcionalidades.

Aunque, obviamente, existe un abanico bastante amplio de software que realizan funciones similares, Óscar se detuvo en los siguientes programas para la realización de distintas tareas de Vigilancia:

  • Website-Watcher. Fundamentalmente, persigue la búsqueda de actualizaciones y cambios dentro de las páginas web de cualquier tipo, resaltando los cambios y pudiendo señalar diversos aspectos de las variaciones a advertir cuando se produzcan.
  • Patent Hunter. Aunque funciona mejor sobre la base norteamericana USPTO, la funcionalidad de este software pasa por la posibilidad de descargarse las patentes en diversos formatos sin necesidad de acudir a los tediosos entornos web de las oficinas de patentes.
  • EndNote. Software para el tratamiento de citas bibliográficas perteneciente a Thomson Reuters y de pago, no se citó a Zotero una alternativa abierta y gratuita que puede ser interesante en un futuro no tan lejano.
  • Bibexcel. Esta pequeña aplicación desarrollada por Olle Persson está enfocada hacia el tratamiento de citas bibliográficas y el desarrollo de informes bibliométricos. Bajo una apariencia adusta, dispone de funcionalidades muy interesantes que a buen seguro hace las delicias de los bibliómetras.
  • Matheo Patent. Se trata del software de tratamiento de datos de patentes por excelencia y desde el cual se pueden realizar distintos informes y gráficas incidiendo en diversos aspectos de las mismas.
8 comentarios

Mobsumers, futuros consumidores

Consumer2.0

Espero que no os lancéis a buscar qué significa Mobsumers en Google, ya lo he hecho yo antes. Claro que yo confiaba en que alguien hubiese acuñado tal palabreja previamente, pero para mi desgracia no ha sido así. Desgracia, porque desde luego no poseo excesivo gusto acuñando nuevos términos, pero el hecho de que el pasado lunes me encontrase realizando una decisión de compra sobre un producto a través de la web, recibiendo información casi en tiempo real, me lleva a considerar que, en el futuro, el impulso a la hora de comprar casi cualquier cosa se realizará dependiendo de si tiene disponible una conexión a Internet en ese momento o no. Os contaré mi caso.

El pasado lunes estaba dispuesto a comprarme un disco duro multimedia. Más o menos, conocía qué podía esperarme de este tipo de aparatos y, en mi primera aproximación, a ellos quería saber qué especificaciones técnicas podía encontrarme en el mercado. He de confesar que no había realizado grandes esfuerzos previos a la hora de buscar información, así que podría decirse que realmente informado no estaba. Así que me comporté de una manera tradicional como consumidor, desplazándome hacia un hipermercado para comprobar qué oferta podía encontrar allí y de este modo realizar mis primera tareas de investigación.

He de confesar que los discos duros disponibles en el hipermercado me interesaron mucho, sobre todo uno de marca indeterminada que estaba a demasiado buen precio. Sin excesivas ganas de querer volver otro día, dirigí mi mirada hacia mi triste teléfono móvil y desplacé mi pulgar sobre él como si de un iPhone se tratase. “Si sólo pudiese conectarme a Internet” fue mi pensamiento, por lo que traté buscarme una alternativa. Así pues traté de consultar los ordenadores portátiles que tenían expuestos por si alguno disfrutase de conexión WiFi y lanzar algunas preguntas a un buscador. Mi gozo en un pozo. Resuelto a cerrar ese asunto aquella tarde (el tiempo es finito), reflexioné durante unos instantes sobre qué tienda de consumo podría ofrecerme conexión a Internet y ayudarme en el proceso de compra. Y como yo no soy tonto, me acordé que, en general, las zonas de Tiendas Apple suelen tener conexión a Internet. Considerando que me aprestaba a matar dos pájaros de un tiro, me dispuse a trasladarme hasta una macrotiendo de electrónica de consumo no sin antes tratar de apuntarme algunos precios para la realización de comparativas.

Efectivamente. Tras llegar a aquel comercio, me dispuse a consultar la Web, suspirando aliviado al comprobar que aquella marca desconocida resultaba finalmente un desastre y los consumidores no estaban nada satisfechos con ella, según me informaban en algunos foros. Un tanto contrariado, me dispuse a consultar mi segunda opción presente en ambas tiendas. Tras realizar una segunda comprobación, encontré un segundo disco duro que me interesaba pero que no especificaba (en su caja) sus características técnicas. De nuevo, me desplacé hacia el terminal con conexión a Internet, consulté sus especificaciones y los comentarios de los usuarios. Por supuesto que hice lo propio con los precios y descubrí que el precio del hipermercado era el más barato y como estaba dispuesto a desplazarme hasta él (quedaba relativamente cerca de mi casa) acudí allí para adquirir mi disco duro.

He de advertir que ya se han escrito ya algunos libros centrándose en los cambios de los hábitos de los consumidores. Crossumer de Víctor Gil y Felipe Romero, por ejemplo, abren fuego describiendo la comparativa y la influencia que tendrá los Social Media en los hábitos de los consumidores en el futuro. En Crossumer, se describe una decisión de compra con el consumidor informado previamente, pero la posibilidad de decidir la compra de un producto en unas horas, casi en tiempo real, era una experiencia nueva para mi desde la que se abren un abanico de posibilidades desde la Internet ubicua.

Mis mobsumers (término inventado para la ocasión que fusiona móvil, mobile en inglés, y consumidor, consumer) decidirán sus compras de forma casi impulsiva, en unas horas, pero lo harán con la suficiente información que les harán sopesar sus posibilidades y necesidades. Sí, se tratará de heavy-users de telefonía móvil, con su conexión a Internet que les ofrecerá la información adecuada para adquirir un producto y un servicio, evaluando el proveedor en su caso y pudiendo encontrar la oferta más barata o más adecuada a sus intereses inmediatos. He de confesar que, sin quererlo, casi me convertí en uno de ellos.

2 comentarios

Google Caffeine, el nuevo algoritmo de Google, un terremoto en la Web

Google Caffeine Andan estos días los foros de los SEO y los webmasters un tanto revueltos debido al próximo movimiento de Google en el sector de las búsquedas que se espera que esté completo hacia enero del próximo año bajo el nombre de Google Caffeine. Desde agosto, la compañía de Mountain View nos invitaba a probar la nueva versión del buscador en la dirección http://www2.sandbox.google.com. Actualmente, este pretest se encuentra cerrado tras la finalización de las pruebas y no será hasta enero cuando, de nuevo, podamos volver a probar la potencia del nuevo algoritmo de Google.

Pero, ¿qué es lo nuevo que nos trae Caffeine? De momento, todo son especulaciones, pero a lo largo de estos meses se han ido ofreciendo retazos de lo que nos depara en el futuro la búsqueda en la Web. Matt Cutts, portavoz de Google respecto a lo que atañe al buscador, ya ha salido al paso de los rumores y ha asegurado que no van a producirse grandes cambios en el posicionamiento de las páginas porque, según asegura, Caffeine es una revisión de la arquitectura del robot de búsqueda para buscar más rapidez y eficacia en la indexación del contenido web.

Puede ser que esto sea cierto, sin embargo, una cosa puede estar perfectamente unida con la otra. Así, por ejemplo, desde algunos foros se lanzaba la exclamación de que Google ya se encuentra indexando la web en tiempo real. Es decir, que si un editor web publicaba un contenido, Google es capaz de detectarlo casi inmediatamente e indizarlo. De esta manera, si Caffeine incide en una de las tendencias sobre las que más énfasis se está poniendo en el sector de las búsquedas, la indexación de la Real-Time Web, cambios en el posicionamiento se van a producir, nos guste o no.

De hecho, en los actuales buscadores, trata de primarse el contenido frente a otras consideraciones a la hora de analizarlo y posicionarlo. De esta manera, tratan de situarse en las primeras posiciones de los resultados los contenidos de calidad frente a otras consideraciones como la actualidad o su inmediatez, penalizándose de esta manera hechos que pueden estár sucediendo en ese mismo momento y de una gran candencia informativa. Actualmente, la necesidad de adaptarse a las necesidades de sus usuarios hace que los buscadores se estén fijando en las herramientas del Social Media como Twitter o Facebook para tratar de ganar “frescura” en sus resultados, de tal manera que les permiten detectar las tendencias de lo que está sucediendo en ese momento y poder trasladarlo de esta manera a sus índices.

Fundamentalmente, lo que se prevé que Caffeine nos ofrecerá es:

  • Mayor velocidad a la hora de mostrar los resultados.

  • Aumento en la velocidad de indexación de páginas web.

  • Mayor cantidad de páginas indexadas.

  • Menor relevancia a Wikipedia.

  • Menor relevancia a resultados de Universal Search (Imágenes, vídeos, mapas, etc).

  • Mayor relevancia de Twitter y de otras herramientas de Social Media.

Obviamente, con esta gran actualización del algoritmo, Google va a tomarse las cosas con relativa calma. En enero, actualizará sólo un datacenter, por lo que serán pocos los usuarios que utilizarán Caffeine aunque poco a poco el algoritmo se extenderá por el resto. Veremos qué nos depara.

14 comentarios

Talleres de Bibliometría en Valencia

Evaristo Jiménez y Álvaro Cabezas

La semana pasada, del 3 al 5 de noviembre, en Aidico contamos con la presencia de Evaristo Jiménez Contreras y Álvaro Cabezas que tuvieron a bien aceptar nuestra propuesta para la realización de dos talleres sobre Bibliometría. Bajo los títulos Utilización de Indicadores Bibliométricos para la Solicitud de Sexenios y Acreditaciones (Enfocada hacia los investigadores y profesores universitarios) y Bibliometría y Evaluación de la Ciencia, los ponentes ofrecieron a los asistentes una visión de los modos de evaluación de la Ciencia y los científicos que cada vez va a disponer de mayor relevancia a la hora de encontrar financiación de proyectos e investigaciones.

Los temas abordados, la visión de la comunicación científica, los indicadores bibliométricos fundamentales utilizados, las bases de datos que se utilizan para el análisis de la producción científica y su impacto dentro de la comunidad, el empleo básico de estas bases de datos y cómo tratar la información extraída para la elaboración de informes, por citar algunos; nos acercaron al trabajo que se realiza dentro del grupo de investigación EC3 de la Universidad de Granada para distintas instituciones.

La afirmación por parte de los ponentes que se enfrentaban a dos talleres que nunca habían impartido previamente nos da cuenta de la oportunidad que vivimos aquellos que nos encontramos presentes. La descripción de cómo se debe consultar las bases de datos, la normalización de los autores y el filtro de los datos son, en ocasiones, conocimientos que se adquieren tras muchas horas de experiencia, tras encontrarse en callejones sin salida que se descubren tras el cotejo de datos que señalan que algo se encuentra definitivamente mal. Es decir, Evaristo y Álvaro aportaron una experiencia que no puede ser transmitida a través de los textos impresos y supieron ofrecernos una visión apasionada y entretenida de una materia que en muchas ocasiones es contemplada como árida por los estudiantes de Biblioteconomía y Documentación.

He de confesar que lo que me dejó maravillado, a pesar de algunas dificultades técnicas a la hora de mostrarla, fue la aplicación Científica. Un producto desarrollado en buena parte por Daniel Torres Salinas que viene a demostrar que con muchas ganas, tesón y visión se pueden conseguir grandes resultados.

5 comentarios

Egocentricidades

Ego en la Web

Voy a pediros que perdonéis a este, antaño, amante de los rankings blogosféricos y que pueda realizar una divagación, porque no puede alcanzar la disertación, sobre ese afán por colocarse en los primeros puestos de cualquier cosa por parte de los heavy-users de cualquier servicio de Internet. Porque si bien en la Web, mal que nos pese, todo es medible y cuantificable, aquello que, hasta cierto momento no lo era, tiende a convertirse en cuantificable para la creación de una comparativa entre el resto de iguales para que lentamente dejen de serlo tanto obedeciendo a aquello de que “todos los animales son iguales, pero algunos animales son más iguales que otros”.

El mayor y mejor ranking, u ordenación de resultados según su importancia, y el más importante dentro de la Web es el Pagerank, creado y mantenido por Google, que ha favorecido a lo largo del tiempo la creación de todo un ecosistema informativo y económico a su alrededor. Así que si las páginas web son rankeables, ordenables por importancia, ¿por qué no íbamos a poder realizar comparativas con el resto de nuestros semejantes de casi cualquier cosa que en Internet se crease?

Más allá de los rankings blogosféricos sobre los blogs más influyentes dentro de una u otra materia, creados ad-hoc tras la definición de esos sitios web que configuran su propio totum revolutum con su particular ideosincrasia, las comparativas entre usuarios de cualquier servicio casi son una necesidad que pueden abrir una pequeña ventana a la fama. Puede ser que una de esas famosas que disfrutaron de sus quince minutos de gloria fuese Sofia de Oliveira lo consiguió tras aparecer en un programa de televisión con 92,000 amigos, y que favoreció su salto a la fama junto con una entrevista posterior asegurando que los amigos de verdad sólo contaban 10, aunque actualmente Sofía no es la única en alcanzar tan estratosférica cifra de conocidos virtuales.

Pero tranquilos, para cualquier hijo de vecino, el contacto medio en las redes sociales, como en Facebook, se ha calculado en 120 amigos de media, mientras que, en la otra Web Social por excelencia, Twitter el usuario medio tiene 85 seguidores y sigue a otros 80 usuarios. Pero hay más datos, curiosamente, de esos 120 amigos sólo interactuaríamos dependiendo de nuestro género con una pequeña muestra de ellos. De este modo, si fuésemos hombres interactuaríamos con 7 de ellos de media, mientras que si fuésemos mujeres esta cantidad ascendería con 10. Sin embargo, ese afán por recoger y mostrar el mayor número de amigos que tienen algunos usuarios se ha contemplado y justificado como un juego. Es decir, que nos tomamos las redes sociales como meros juegos donde los puntos serían el número de conexiones, y competiríamos por ver quiénes consiguen mayor puntuación (mayor cantidad de contactos).

Podría pasar que una de nuestras justificaciones sería el juego o más bien el entorno competitivo en el que nos movemos. Imagino que esa competitividad también dependerá sobremanera del tipo de usuario, porque los medios de comunicación también trazan sus propias comparativas. Así, me quedé muy sorprendido cuando el diario El País publicó la cantidad de seguidores que disponía en Twitter (y no sólo se conformó con la edición en Internet) considerándose como el medio de comunicación español más popular en la Red. Mi sorpresa proviene del razonamiento de que ¿cuándo una empresa ha hecho publicidad de otra sin que haya un acuerdo económico? Hasta ahora casi nunca.

Por supuesto que el juguete pasado el tiempo se ha convertido en algo más sotisficado. En esta ocasión, Twitter ofreció a sus usuarios una nueva funcionalidad con la que poder jugar que consiste en la creación de listas en las que los usuarios podían ser etiquetados. Si en el mundo real, solemos huir de las etiquetas, del encasillamiento, en Twitter aparentamos estar encantados, mientras nuestros iguales nos perfilan a través de folksonomías y somos incluidos en una serie de listas de los usuarios de Twitter que nos siguen. Como no podría ser de otra manera, entramos en la discusión de palabras como reputación, ego o incluso spam, pero lo cierto es que de nuevo se creamos nuevos rankings con las personas y las listas más seguidas y, de nuevo, la rueda vuelve a girar. “No va más”.

2 comentarios