El Documentalista Enredado

Infonomía, Innovación, Análisis y Nuevas Tecnologías

Posts in the Buscadores Web category

sci-hub

En los últimos años, la batalla sobre el acceso al conocimiento científico-técnico se ha recrudecido. El movimiento sobre el acceso libre, universal y gratuito al conocimiento se ha visto espoleado principalmente por la página web Sci-Hub que ofrece material descargable que hasta ahora sólo podía ser accesible mediante pago. Actualmente, los servidores de Sci-Hub almacenan cerca de 50 millones de documentos a los que se añaden más cada día, según los usuarios hacen uso de su buscador. Hay que señalar que estos contenidos se agregan sin el permiso pertinente de los que poseen su copyright. El crecimiento de esta página web ha provocado que los grandes medios de comunicación ya hayan comenzando a hacerse eco de esta página y The Washington Post ha tratado de ofrecer un poco de luz sobre quién está haciendo uso de la misma: todo el mundo.

Debajo de esta piratería de la propiedad intelectual, se encuentra una lucha más compleja y profunda que nos debe llevar a la década de los años 70. En esta década se produjo un incremento importante de las publicaciones seriadas científicas, pero que derivó en algo mucho más relevante con la popularización de Internet que debería hacer mucho más sencillo el conseguir rebajar los costes.

Como nota aclaratoria, debemos tener presente que los científicos que publican en estas revistas no son retribuidos por los artículos que finalmente acaban siendo publicados, sino que lo que realmente buscan es el prestigio para obtener financiación para las instituciones para las que trabajan y para sus propios equipos. Sin embargo, las editoriales pueden llegar a cobrar hasta $10.000 por suscripción para alguna de estas revistas, mientras que los científicos obtienen sus ingresos gracias a las administraciones públicas que todos mantenemos gracias a los impuestos. La pregunta es evidente si los científicos trabajan por el bien común, financiados por las administraciones públicas, ¿por qué esa información no es libre y gratuita?

Tal y como señalábamos, desde los años 70, los precios de las revistas académicas comenzaron a subir más que la inflación. Peter Suber, en su libro Open Access, afirmaba que “en el año 2000, Harvard tenía suscritas 98.900 revistas, mientras que Yale tenía 73.900.” La mejor biblioteca de investigación de la India, Indian Institute of Science, tenía suscritas 10.600 revistas, mientras que muchas bibliotecas subsaharianas no disponían de ninguna. Pero no es que las universidades pobres no puedan permitirse una suscripción o un acceso a los papers de su interés, es que las propias universidades de los países desarrollados han tenido que acometer planes de recortes en las mismas por la continua alza de los precios. Empezando por Harvard.

Para contrarrestar esa continua barrera que suponía el continuo incremento de las revistas, surgió el movimiento Open-Access en 1990. Los propulsores del mismo eran conscientes de que Internet podría reducir los costes de producción y distribución, a la vez que ofrecían una solución a esas diferencias de acceso a la información. Por ello, surgieron iniciativas como PLOS ONE como una forma de facilitar ese acceso. Sci-Hub se la contempla como un ala radical de este movimiento y es que su máxima responsable Alexandra Elbakyan espera poder acelerar la adopción del Open Access.

Las publicaciones científicas contemplan el movimiento con consternación y denuncias. La revista Science publicó recientemente una editorial (My love-hate of Sci-Hub) defendiendo el modelo de negocio de las revistas. Entre otras, las editoriales se defienden afirmando que la publicación on-line es tan cara como la impresa (se necesita contratar a ilustradores, comunicadores, editores y técnicos) y que las revistas aseguran la calidad de las publicaciones científicas y las hacen convenientes para los lectores.

Buscadores para la Internet of Things

La World Wide Web fue ideada por Tim Berners-Lee como un sistema de gestión de información. En él, todos los documentos están interconectados mediante una serie de enlaces que se sitúan dentro de los textos. Esto hacía sencillo realizar citas a otras fuentes de información y su consulta, ya que la recuperación de otros documentos relacionados se realizaba de una forma más ágil que la establecida hasta el momento. El desarrollo de Berners-Lee supuso la colocación de los cimientos para que Internet se popularizase, haciéndose más sencilla de utilizar y, por tanto, más accesible a una gran parte de la población.

Esa apertura hacia un público masivo significó que fuesen necesarias unas herramientas que favoreciesen la recuperación de información dentro de la misma Web. Google afinó mucho más el concepto del investigador del CERN al considerar que aquellos documentos que obtuviesen más enlaces deberían ser, necesariamente, más populares (Entre otros elementos de valor). Hasta ese momento, los buscadores de la Web se dedicaban a recuperar textos, sin embargo, según la Web se hacía más grande eran necesaria una segmentación para una recuperación más efectiva. Así, se diferenció por tipos de documentos (En Word, en PDF o en PowerPoint), se segmentó por elementos multimedia (imágenes, vídeos) e incluso posteriormente se hizo por el tipo de publicación (Noticias, blogs o libros). El siguiente paso es la diferenciación por tipo de máquinas conectadas a la Red.

La próxima revolución en la sociedad es lo que se ha denominado la Internet of Things (IoT) propuesto por Kevin Ashton en 2009. En un principio, se definió como todos aquellos objetos que podían ser equipados con identificadores (En aquel momento, se consideraba que la tecnología RFID era la más adecuada) que podrían ser inventariados y gestionados por un ordenador. Actualmente, el concepto es un poco más amplio y se considera que la IoT la compone cualquier objeto que disponga de una dirección IP o una URI. Hoy, existe una infinidad de objetos que se conectan a Internet para infinidad de tareas. Desde los tradicionales ordenadores y derivados (Tabletas y teléfonos móviles), pasando por cámaras de vigilancia, televisiones, frigoríficos, automóviles, semáforos, sistemas de gestión de piscinas, etcétera. La pregunta inmediata a hacerse es si una vez están conectados podrían ser recuperados como si fuesen documentos o imágenes tal y como se hace en Google.

Thingful, que será lanzado en fase beta durante este año, parte de la idea de la necesidad de buscar datos de una estación meteorológica concreta o de una carretera que disponga de sensores embebidos en ella. La idea de Thingful es la recuperación a través de enlaces directos a conjuntos de datos o páginas de perfiles con los objetos que se encontrarán enriquecidas con la información estructurada que darán sus propietarios a través de Twitter.

Por otro lado, y quizá más interesante, es la propuesta de John Matherly creador del buscador Shodan. Su desarrollo permite buscar directamente cualquier tipo de dispositivo que se encuentre conectado a Internet. Es decir, Shodan indexa Internet buscando dispositivos que estén programados para contestar. Los objetos que se encuentran en la base de datos de Shodan son desde coches, equipamiento quirúrgico, sistemas de climatización de oficinas, instalaciones de tratamientos de aguas… La idea detrás de Shodan es el aprendizaje, por lo que el número de resultados que muestra se encuentra limitados. Si un usuario desease la obtención de una mayor cantidad de resultados, deberá justificar el uso de la información que obtenga y asegurar que los va a usar sin ánimo de violentar sistemas de seguridad.

Los buscadores de la IoT abren un abanico interesante de posibilidades, pero al mismo tiempo muestran una serie de peligros que a nivel individual y colectivo hasta ahora habían pasado completamente desapercibidos.

¿Será Facebook juez y parte en el posicionamiento web de Google?

Hace ahora justo un año cuando lanzaba la pregunta ¿Es la web social el inicio del declive de Google? Entonces, algunos escépticos consideraron mi propuesta como una completa locura e infundamentada, insostenible, increíble, imposible… Puede ser que lo fuese entonces, hoy es probable que tenga mayor sentido.

Podríamos considerar que, al principio, la Web era el enlace, millones de páginas enlazadas sin aparente orden ni concierto que encontraban su sentido en esa algarabía gracias al trabajo del algoritmo de Google y de otros buscadores. Sin embargo, hoy en día, la Web se construye mucho más allá de los enlace. Partiendo de las base de que los enlaces los crean y los gestionan los creadores de contenido, aquellos que quieren estar considerados en los puestos altos del ranking de Google o simplemente los que desean referenciar contenidos para ampliar conocimientos, hay una parte de los usuarios de la Web que no saben ni entienden cómo se crean. La Web no llega a ser necesariamente democrática en ese aspecto porque una parte de ella no enlaza, ni siente la necesidad de hacerlo. Hasta ahora.

Hoy en día, los usuarios de la Web pueden llegar a no ser tan pasivos. La Web 2.0 trató de democratizar la creación del contenido, sin embargo lo que realmente sucedió es que democratizó la recomendación del mismo, siendo arrebatada esa idea primigenia hacia otros valores. Twitter y Facebook redirigen contenidos a nuestros conocidos y seguidores sin necesidad de escribir largos y extensos textos. Lo importante es derivar la atención, “me gustó esto y te creo que os podría interesar”, a través de personas que pueden tener las mismas inquietudes (no necesariamente intelectuales) que nosotros.

De este modo, Facebook, aunque actualmente sobre todo Twitter, se erigen como los grandes filtradores de contenidos de la Red y pueden llegar a otorgar una parte importante del tráfico de páginas web. Los medios de comunicación y las páginas web profesionales han sido los primeros en percatarse de ello y en colocar esos letreros de veces twitteado o “Me gusta” sobreimpreso en el azul Facebook para poner fácil a sus lectores el compartir sus gustos.

¿Ese mismo “Me gusta” puede influir en el posicionamiento? ¿Habrá perdido Google la posibilidad de posicionar los contenidos bajo sus reglas, las que obligaba a los SEOs a devanarse los sesos intentando entenderlo, y pagando a terceros para que les permita indizar esas recomendaciones? ¿Es la muerte del enlace como sistema democrático en la Web? ¿Es el principio del fin del SEO como lo conocimos hasta ahora?

Lo interesante de esta cuestión es el baile de poder que ha sufrido la Web en escasos cinco años. Un sitio web no concebida desde un principio para ser un nodo de tráfico, arrebata lentamente el poder de influencia que pueda tener Google sobre el resto del ecosistema web y lo peor de todo es que la dependencia de una a la otra puede ser peligrosa.

There will be blood (Todos contra Google)

He aquí una empresa que encontró ElDorado, una organización que dio un paso más allá en el mercado global de un mundo interconectado, que entendió la quinta esencia de cómo se comportaba el mercado dentro de un canal completamente nuevo, que intuyó cómo sería el futuro y se atrevió a desarrollar todo un modelo de negocio para sí misma y lo hizo accesible para el resto. Pero en el camino, son muchas las piedras en las que tropezar, muchos los enfrentamientos que superar y muchas mentes a las que convencer. En crisis, si todos admiran tu cuenta de resultados, si todos contemplan que tu caja sigue aumentando cada trimestre, sólo ansiarán meter la mano en ella. No les van a faltar las maneras de encontrar caminos para ello.

Aunque todas las miradas se centrarán en los medios, no son los únicos. Los medios de comunicación, esos agentes que consideran que sin ellos en Internet carecería de sentido, no habría contenido; quieren su pedazo de pastel sobre el buscador de Google y Google News. Haces dinero con nosotros, con nuestro producto, queremos nuestra parte, parecen aseverar. Sin embargo, la tendencia está cambiando, la competencia pura y perfecta de Internet es la culpable, y Facebook ya redirecciona más tráfico que Google a las webs. ¿No cabría también que pedir su parte del pastel a estos concentradores emergentes?

Los gobiernos, con Francia a la cabeza con su “tasa Google”, consideran que sus ingresos vía impuestos no están lo suficientemente bien recaudados como debieran y consideran que ese dinero podría ser bien utilizado para “protección de la oferta legal de contenidos en Internet y a la remuneración de los creadores”. Es decir, destinarlo a subvenciones que protejan el sector cultural. Los medios de comunicación han tratado de añadir leña al fuego difundiendo la noticia que Google no paga los suficientes impuestos en España, ya que sólo declara el 5’1% de lo que ingresa en este país (Según algunas estimaciones).

Por otro lado, las operadoras de telecomunicaciones, algunas cansadas de lanzar productos fallidos, tratan de convertirse en algo más que tuberías y solicitan también su parte, mientras Google ya muestra interés en convertirse también en una operadora más instalando cables submarinos, ofreciendo conexiones ultrarrápidas experimentales o con servicios de voz. Al mismo tiempo que algunos consideran que esa reclamación podría fin a la neutralidad red, Google se muestra conciliador asegurando que las telefónicas recibirán lo que hayan invertido. ¿Una aceptación de su debilidad?

Y, mientras tanto, la compañía sigue enredada en aspectos legales antiguos y nuevos provocados por la precipitación a la hora de publicar nuevos servicios. En Estados Unidos, prosigue el litigio sobre el control de los contenidos y sus planes de digitalización de casi toda obra editada en el mundo. Sin embargo, la travesía de Google Books nunca fue sencilla con acuerdos y denuncias que ponen en cuestión la viabilidad de un proyecto muy ambicioso y que dispone de detractores y defensores que no deja indiferente ni satisfecho a ninguno de los actores implicados.

Para que todo esto no fuese suficiente, Google Buzz el producto destinado a plantar cara a los productos estrella del denominado Social Media (Twitter y Facebook) se ha lanzado sin tener presentes aspectos claves como el de la privacidad que violaba y la sobrecarga informativa que provocaba, lo que ha conducido que se esté preparando una demanda contra el gigante de Mountain View de la que a buen seguro no saldrá  muy bien parado.

Desde luego que esta no es manera de empezar el año.

¿Acabará el Chat de Facebook con el Messenger?

El movimiento ha pasado completamente desapercibido, el mundo estaba demasiado preocupado intentando destripar Google Buzz por esas fechas, o tal vez porque esta opción ya era conocida y estaba disponible desde hacía tiempo, pero desde Facebook se ha realizado un movimiento más para que casi toda la actividad social de los internautas pase por su sitio web (o por sus servicios). El chat de Facebook, un pequeño menú desplegable más molesto que otra cosa que aparecía a pie de página, se ha hecho mayor o al menos va a intentarlo. Desde la semana pasada, es posible acceder a él a través del protocolo Jabber. Es decir, los usuarios pueden utilizarlo de forma abierta como si de un MSN Messenger se tratase, asaltando el escritorio de los internautas. La conversación asíncrona puede llegar a ser síncrona, aunque por supuesto todavía debe pasar un proceso de mejora en el que sea posible filtrar a esos usuarios molestos que aceptamos como integrantes de nuestra red social, pero que realmente tenemos bloqueados y de los que no queremos saber nada.

Sin embargo, este servicio es cada vez usado con mayor frecuencia por los usuarios de Facebook, que se detienen a charlar con sus contactos mientras publican y comentan los estados de los mismos. En el mismo momento en que ya no hace falta conocer el correo electrónico concreto de una persona, tan sólo cómo se llama – o se hace llamar – dentro de la Red Social, será posible hablar con ella, socavando los esfuerzos de Microsoft de convertir su Messenger en otra red social.

Y es que Facebook y Twitter tienen lo que otros quieren, Google lo sigue intentando tratando de cerrar su asignatura pendiente, mientras Facebook se propone posicionarse también en el escritorio, puede que desarrollando funcionalidades más allá del intercambio de mensajes. De momento, lo ha puesto un poco difícil al usuario medio, con configuraciones de aplicaciones de terceros un tanto liosas, aunque algunos como Adium (sólo para Mac) ya lo integran, pero puede que no tardemos en descubrir un Facebook Messenger tratando de destronar una de las aplicaciones favoritas de los internautas españoles.

Los buscadores de Internet mienten

Cada vez con mayor frecuencia, los medios de comunicación exponen en las noticias los resultados que el Buscador, dejémoslo así, ofrece ante una consulta para apoyar la importancia de cierta tendencia, fenómeno emergente o personaje popular. Esta costumbre ya fue objeto de nuestra reflexión en un texto anterior, pero considero conveniente volver sobre ella para afirmar que estos datos se sustentan sobre unas mentiras intencionadas.

Una mentira que forma una estrategia de marketing de los tres buscadores principales (Google, Yahoo! y Bing -Antiguo Live, antiguo MSN-) para intentar capturar usuarios ofreciendo una mayor cantidad de resultados. No debemos olvidar que la tarea de indexar toda la Web constituye una tarea titánica que nunca se puede llegar a conseguir. De hecho, durante mucho tiempo Google señalaba la cantidad de páginas que tenía indexadas en sus bases de datos, hasta que retiró el dato de su página principal. El hecho es que la exhaustividad en esa obtención de información se antojaba como un componente más para demostrar la veracidad de los datos trasladando la idea quien tuviese la base de datos más grande podría ofrecer, al fin y al cabo, mejores resultados.

La semana pasada asistí a la jornada Innovadores sistemas de vigilancia tecnológica impartida por Prudencio Herrero celebrada en la Cámara de Comercio de Valencia que me demostró que todavía existen personas con una visión crítica de la tecnología que nos rodea. A modo de juego, nos enseñó la gran mentira de los buscadores donde lo importante es la apariencia.

El ejercicio que nos propuso pasó por buscar de distintas maneras el concepto de Vigilancia Tecnológica en sus distintas vertientes:

  • vigilancia tecnologica
  • vigilancia tecnológica
  • “vigilancia tecnologica”
  • “vigilancia tecnológica”

Las búsquedas se debían acometer en distintos buscadores en sus distintas formas, obteniendo resultados sorprendentes. En primer lugar, debíamos comparar los resultados ante los distintos términos en cada uno de los buscadores, para posteriormente compararlos:

Google

Yahoo!

Bing

vigilancia tecnologica

2.080.000

3.750.000

315.000

vigilancia tecnológica

615.000

3.490.000

315.000

vigilancia tecnologica”

157.000

925.000

1.810.000

vigilancia tecnológica”

158.000

826.000

1.810.000

Como podemos comprobar, los resultados se demuestran como un tanto dispares dependiendo de cómo acometamos la búsqueda y, sin embargo, completamente falsos y sin poder comprobarlos, porque en general los buscadores no nos dan más allá de los primeros 1000 resultados.

Así pues, porqué no buscar algo más específico, probemos con el libro de Pere Escorsa y Ramón Maspons, “De la Vigilancia Tecnológica y la Inteligencia Competitiva” utilizando la ecuación vigilancia tecnológica escorsa maspons y comprobemos hasta dónde llegamos. Debemos tener en cuenta que llegado a cierto punto, los buscadores nos invitan a realizar las búsquedas de nuevo sin que se eliminen ciertos resultados muy similares que son omitidos automáticamente, pero aún así desde la cantidad inicial que se nos ofrece hasta la real recuperada correspondiente a la última página, los resultados van menguando.

Resultados iniciales

Resultados reales (Última página de resultados)

Resultados sin omisiones

Resultados reales sin omisiones (Última página de resultados)

Google

885

271

876

491

Yahoo!

921

195

921

421

Bing

316

181

No procede

No procede

NOTA: La muestra se realizó el 30 de junio de 2009 en los sitios web:

Nos disponemos a cerrar el año 2008, confiando que el venidero no sea tan mal año como algunos agoreros aseguran debido a la crisis económica. En la Red, a pesar de las buenas intenciones de algunos, los apretones y los ajustes presupuestarios están ya al orden del día. Aquellos proyectos a los que se les asignaba un valor, descubrirán que en realidad valen la mitad, simplemente porque a día de hoy el panorama es completamente distinto al que nos habíamos acostumbrado en estos últimos cuatro. Es curioso el argumentario que se ofrece para el ajuste a la baja de innumerables proyectos, sea tan similar al del crack de la Burbuja.com de principios de siglo, que fue y es: “No te puedes centrar en generar tráfico tan sólo, también tienes que desarrollar un proyecto económico viable”.

Sin embargo, a diferencia del año 2000, la situación es bien distinta, con una crisis económica estructural, atacando a todos los sectores económicos sin distinción, contrayendo el consumo y afectando directamente al crecimiento económico de casi todos los países. Si bien, en aquella ocasión, se resumió la crisis tecnológica en que las prisas por ser los primeros en posicionarse dentro de un nuevo mercado, las malas gestiones y la mala previsión fue lo que derivó en aquel pinchazo bursátil y tecnológico, en esta ocasión, durante 2009, el chivo expiatorio va a ser otro: Google.

La economía en la Web, la generación de valor, ha cambiado completamente. Si en 2000 Google era un buscador entre el amplio abanico que se nos ofrecía en la Red, actualmente su cuota de mercado en campo de las búsquedas ha barrido completamente a su competencia. Por otro lado, Google ha sido capaz de desarrollar un modelo de negocio estableciendo todo un ecosistema económico para sí y para el resto de la Web mediante su sistema publicitario: Adwords para los anunciantes y Adsense para los editores. De este modo, Google ha desarrollado su principal fuente de ingresos a través de la publicidad en la Web y su gestión, pero a la vez ha alimentado al resto de webs ofreciéndoles participar de su tarta con una porción de la misma, aunque las webs nunca han sido conscientes qué porción era para Google y cual era el tamaño que les correspondía.

Sin embargo, durante 2008, la situación ha ido evolucionando. La imagen de Google y sus acciones están siendo son cada vez más contestadas y discutidas, llegando a enfrentarse con toda una industria. No nos referimos tan sólo a las suspicacias que levantan las actividades del buscador sobre la privacidad en sus usuarios, sino que se está yendo un paso más allá. De este modo, por un lado, tenemos a los pequeños editores, aquellos que contemplaron a Adsense como un sistema práctico y cómodo para rentabilizar sus esfuerzos a la hora de actualizar sus webs, pero que ahora contemplan con preocupación y frustación cómo los ingresos se ajustan cada vez más a su tráfico, descendiendo en algunos casos, mientras que en otros son baneados sin explicación ni razones suficientes, lo que les está conduciendo a plantearse otras alternativas publicitarias como el patrocinio. Es interesante señalar que los números sobre el dominio de Google en la publicidad dentro de las pequeñas webs son demoledores y, según la compañía Attributor, éste alcanzaría el 98% de las webs que actualmente disponen de algún tipo de publicidad.

Pero no sólo los editores están preocupados por el cambio en la tendencia de Google, desde el lado de los anunciantes, los que alimentan al buscador, las cosas tampoco se encuentran mejor. La crisis ha tocado al gigante de Mountain View y, necesitado de ingresos, ha aplicado una serie de políticas que se han considerado penalizadoras respecto a los usuarios de Adwords. Se ha llegado a un extremo que los anunciantes consideran que estas nuevas políticas están diseñadas para aumentar su gasto en publicidad, a pesar de que el retorno que preven respecto a esta nueva política del buscador va en contra de sus intereses con un tráfico de peor calidad. La situación ha generado tal malestar que se ha llegado al extremo de que los SEM, responsables de ajustar las campañas publicitarias en la Web, se han planteado un boicot a Google y aunque se contempla con cierto excepticismo desde el gremio sobre su éxito, lo cierto es que plantear una protesta contra el gigante es sintomático de que algo está cambiando.

Pero hay más, Google controla actualmente el 57% del mercado mundial de la publicidad en la Web y los grandes productores de información -Esto es editores y medios de comunicación- están acusando a la compañía californiana de canibalizar el ecosistema de la información dentro de ella. Según sus argumentos, por un lado, les provee de tráfico, mediante su buscador y su servicio de Google News, mientras que por otro les propone la gestión publicitaria a través de Adsense y Ad Manager, con estas dos premisas los grandes grupos multimedia consideran que el margen de ingresos publicitarios es tan ajustado que va en detrimento de sus intereses. Tanto es así que en Francia, pero no hay que olvidar Bélgica, los ánimos están tan revueltos que el responsable de Google News, Josh Cohen, tuvo que desplazarse hasta el país europeo para tratar de calmar los ánimos. Sin embargo, a corto plazo, es bastante probable que las aguas se embravezcan mientras la crisis económica se va endureciendo.

Para tratar de mejorar la situación, la discográfica Warner ha decidido retirar todos los vídeos de sus artistas desde el portal multimedia YouTube (Propiedad de Google). La razón principal para su abandono de esta Web es que el modelo de publicidad incrustrada dentro los vídeos aparentemente no funciona y los ingresos que la discográfica recibía de YouTube son considerados insuficientes e insostenibles a largo plazo para desarrollar un modelo empresarial viable. Además, tras este anuncio, se cree que el resto de discográficas secundarán la decisión de la Warner lo que podría inducir tanto a discográficas como a artistas y televisiones a comenzar a retirar contenidos, lo que dejaría a YouTube sin una parte importante de sus contenidos.

Como se puede comprobar, la situación en estos dos últimos meses de 2008 se ha complicado tremendamente para la multinacional de Mountain View, con innumerables frentes, que no parecen tener camino a solucionarse en un corto plazo. Aún habrá que esperar un poco para comprobar si la crisis sigue ampliándose o se mantiene estable, pero no cabe duda que nos adentramos a una nueva etapa en la que posición de Google va a ser cada vez más contestada y su imagen cada vez más en entredicho, ¿será el 2009 cuando cambiemos la visión que tenemos de Google?

Usamos Cookies - Utilizando este sitio o cerrando este mensaje aceptas nuestra política de Cookies.
Aceptar Cookies
x