Saltar al contenido →

Categoría: Internet

No utilizarás mi marca en tus meta-tags

Podría parecer un tanto retrógrado a estas alturas del desarrollo de la Red, pero en Estados Unidos el enfrentamiento entre dos empresas, Venture Tape Corp. y McGills Glass Warehouse, respecto a la utilización de las Meta-Tags dentro del código fuente del sitio web de una de ellas ha sentado jurisprudencia respecto al uso de las mismas. Los hechos se remontan al año 2000, cuando McGill mantenía relaciones comerciales con Venture Tape vendiéndole productos de diversa índole y decidió de forma unilateral la inclusión  dentro de sus descriptores web las marcas comerciales «Venture Tape» y «Venture Foil», además de enmascararlas en color blanco dentro del sitio web. Tres años más tarde, en 2003, Venture Tape se percata de ello y decide denunciar los hechos por infringimiento del uso de marca. Finalmente, este año, un tribunal de justicia se ha declarado a favor del demandante sentenciando el pago de 426,487$ por distintos conceptos.

Es obvio que lo que pretendía McGills con esa estratagema era el robo de tráfico web a Venture Tape utilizando sus distintas marcas e intentando posicionarse mejor que ella. Actualmente, esta acción no tiene ningún sentido, puesto que ni Google ni Microsoft utilizan las Meta-Tags para el posicionamiento en la Red, mientras que Yahoo y Ask sí que las utilizarían. En cualquier caso, no es la primera vez que se denuncia la utilización ilícita de marca dentro de la Red, puesto que la propia Google se tuvo que enfrentar a una acusación por infringir el uso lícito de marcas permitiendo su utilización como descriptores en las campañas publicitarias a realizar dentro de su sistema publicitario Adwords.

Nunca unos descriptores habían dado tantos dolores de cabeza.

Comentarios cerrados

Google se descubre en la guerra de los navegadores presentando ‘Chrome’

Es posible que uno de los mayores errores estratégicos de Microsoft durante la década de los años 90 fuese no percatarse de las posibilidades que podía ofrecer Internet como canal comunicativo, de negocios y de distribución de contenidos y productos que llegaría a ser a finales del siglo XX. Fruto de esa falta de perspectiva inicial, se desarrolló lo que se ha denominado como primera batalla dentro de la guerra de navegadores que dispuso de dos contendientes: Netscape, cuyo navegador era casi un estándar de facto en 1995, y la compañía de Redmond que no dudó en utilizar todas sus herramientas y sus posibilidades para acabar hundiendo el modelo de negocio de su competidora, ofreciendo su navegador Internet Explorer de forma gratuita y configurando su página inicio para que señalase a Microsoft, lo que derivó en que el Netscape Navigator fuese barrido y que languideciese durante algunos años.

De aquella primera batalla, Microsoft salió relativamente airosa. Su navegador Internet Explorer 6 disponía de una cuota de mercado superior al 80%, mientras que el Navigator, junto a Netscape, era adquirido por AOL, para finalmente desaparecer el pasado 1 de marzo de 2008. Sin embargo, el trabajo realizado por Netscape no acabó abandonado en su totalidad puesto que el motor del navegador de Netscape renacería para acabar presentando batalla al Explorer que, por otro lado, durante un lustro permaneció estanco y sin mejoras importantes. Estamos hablando de Mozilla Firefox.

Firefox, basándose en la filosofía Software Libre, tomó el testigo para intentar hacerle sombra al dominio aplastante del Explorer bajo la tutela de la Fundación Mozilla encargada de desarrollarlo, mientras que paralelamente surgían otros navegadores – Opera desarrollado por Opera Software y Safari desarrollado por Apple Inc.- que estarían dispuestos a presentar armas en lo que se ha considerado como la segunda batalla de la guerra de los navegadores. Sin embargo, no podemos olvidar que dentro de esta pugna tras el deceso de Netscape falta señalar puede que el actor más importante de todos los citados hasta el momento: Google.

La Fundacion Mozilla, cuyo navegador ha conseguido arañar cuota hasta alcanzar el 20% del mercado, reconocía hace pocas semanas que su dependencia respecto a los ingresos que le aportaba el acuerdo de colaboración con Google era excesivo. De hecho, los aportes de Google se acercan al 85% del total de los ingresos de la Fundación y, aunque los tienen asegurados hasta el año 2011, desde la propia Fundación reconocen que es completamente necesario diversificar sus ingresos para evitar suspicacias entre usuarios y desarrolladores, además de evitar que Google tome cartas sobre lo que se debe y lo que no se debe desarrollar para el producto estrella de la Fundación, Firefox.

Desgraciadamente, los recelos hacia la estrecha relación entre el gigante de Mountain View y Firefox ya se han producido en la utilización del ‘Google Safe Browsing’ que se trata de un sistema anti-phising desarrollado por Google que necesita de algunos datos privados de los internautas para ser efectivos comprometiendo la privacidad de los usuarios del navegador.

Pero, ¿por qué necesita Google de un producto como Firefox? En primer lugar, para evitar que los usuarios del buscador tengan que pasar por un producto desarrollado por la competencia directa de Google -Microsoft y su navegador Explorer- que podría comprometer la experiencia de usuario de los productos de Google en caso de que Microsoft lo desease. Así, por ejemplo, es conocido que Hotmail, uno de los servicios de correo electrónico más populares y propiedad de Microsoft, no funcionaba demasiado bien en las primeras versiones de Firefox, y además en la nueva versión del Explorer, la octava, está planteado que el internauta disponga de modo de navegación, denominado InPrivate, cuyo objetivo es la navegación anónima. En segundo lugar, teniendo presente que cada vez más tareas se realizan a través de los navegadores, en mayor medida los internautas comienzan a trabajar de forma completamente distribuida, en la Web, alejándose cada vez más del escritorio de su ordenador y de su disco duro, por lo que es el propio navegador una de las herramientas que más se utilizarán y con mayores fines en un futuro.

Por lo tanto, a lo que estamos asistiendo no es a una batalla sobre software, sino a una guerra sobre cómo en el futuro se accederá a la Web, cómo se procesará la información y qué características técnicas dispondremos para ello. Los pasos de Google ya no se encaminan hacia organizar la información del mundo como nos anunciaba cuando daba sus primeros pasos, sino que está dispuesto a avanzar un poco más su propia herramienta para acceder a la Web y a toda la información que ésta contiene: El navegador Google Chrome. De esta manera, Google está dando un golpe sobre la mesa, presentando su candidatura formal en el desarrollo de software, preparando al usuario a utilizar su interfaz, dispuesto a crear una comunidad en torno a él, además de dar el salto a otros terminales más allá del ordenador sobremesa, puesto que el futuro de Internet es la ubicuidad y la movilidad.

De momento, el navegador no ha decepcionado a los early adopters y más allá de los fallos de programación y de seguridad que se detecten en esta versión 0.6 (Beta), la compañía está dispuesta a apostar fuerte por crear un producto que favorezca completamente a sus intereses corporativos y de sus productos desde cualquier plataforma, permitiendo a sus usuarios que Google Gears, una aplicación que nos permite trabajar off-line con los servicios de Google, se encuentre implementada en nuestro navegador y que los fallos a la hora de la utilización de los servicios de Google sean los menores posibles.

No, esto no va a ser una guerra contra un software, esto es una guerra total por el futuro del acceso a la información, donde podríamos estar vendiendo nuestra alma al diablo pervirtiendo nuestra privacidad si no andamos con tiento. No, esto no es guerra por un software para situarse en un rincón de nuestros escritorios, es una guerra por la Web como Sistema Operativo donde el mejor posicionado se llevará el gato al agua y donde no dejaremos de ver zancadillas e incomodidades entre las empresas desarrolladoras. Desde luego que esto es sólo es el principio.

3 comentarios

¿La Web 2.0 se torna clasista?

Portada de la revista Time sobre la Web 2.0

No cabe la menor duda de que los nuevos proyectos de Internet, amparados bajo la etiqueta Web 2.0 y fundamentalmente dispuestos para la participación de sus usuarios, se han convertido en motores del cambio de la filosofía y del reverdecimiento de la Red tras la caída en desgracia de las «Empresas.com» que fracasaron a principio de esta década.  De este modo, de los blogs, pequeños diarios digitales publicados en la Red, se evolucionó hacia las redes de blogs comerciales e incluso los medios de comunicación ven con buenos ojos la implantación de estas plataformas de comunicación dentro de sus sitios webs como un servicio de valor añadido a sus lectores. Además, de los wikis -unas herramientas muy interesantes que todavía no han despertado todo su potencial- han surgido proyectos cumbre como la Wikipedia, además de otras enciclopedias participativas como Knol o Citizendium; también los servicios de publicación y alojamiento de elementos audiovisuales – YouTube o Flickr- son intensamente usados por los internautas y asaltados continuamente por los medios de comunicación como modelo de futuro, búsqueda de rarezas, así como denuncia ante la supuesta ilegalidad de difusión de contenidos. Así pues, parece que tras la «Burbuja.com» Internet está comenzando a ser diseñada  pensando en las necesidades comunicativas y de ocio de sus usuarios, y tras esa fiebre 2.0 comienza a ser necesaria una reflexión alrededor de la importancia de los proyectos desarrollados, el alcance de su autoridad y su explotabilidad comercial.

El concepto de la Web 2.0, aquel donde las personas de forma individual generaban los contenidos -que se encontraba perfectamente ilustrado en la portada de la revista Time en la que el usuario se convertía en el Personaje del Año para esta publicación- en la que eran los ciudadanos los que realmente controlaban la Sociedad de la Información, parece desvanecerse lentamente. Mientras algunos proyectos comienzan a crecer y obtener cierta relevancia, se confirma que algunas ideas son viables y rentables desde un punto de vista comercial, alejándose del romanticismo inicial de que cualquier persona tiene algo que decir y puede compartir sus conocimientos de tú a tú con el resto de la comunidad que lo conforman.

El ejemplo de los modelos de desarrollo de contenidos dentro de la Web 2.0 como se realiza dentro de la Wikipedia o de Knol, la enciclopedia desarrollada por Google, podrían parecer contrapuestos en un principio, aunque es posible que se vayan acercando a lo largo del tiempo en su filosofía. De esta manera, si la Wikipedia se fundamenta primordialmente en la contribución anónima, los usuarios que modifican el contenido nunca pueden reclamar la autoría de éste, así como no deben esperar una remuneración por el trabajo desarrollado; Knol confía su desarrollo precisamente de la forma contraria, permitiendo que los contenidos vengan firmados por el autor y éste obtiene ingresos a través de la publicidad insertada dentro de los textos.

Mucho más prematura, la Wikipedia ya sea convertido en una de las enciclopedias on-line más utilizadas y fiables por todo tipo de usuarios, tanto por estudiantes de cualquier nivel como por los medios de comunicación generalistas a la hora de elaborar sus informaciones. Su influencia es tal que, en general, sus textos suelen situarse en los primeros puestos de los resultados en los buscadores de Internet y los bloguers suelen gustar de enlazar sus entradas como referencia en sus textos por su continua evolución y modificación. Sin embargo, el avance de un proyecto de estas características no ha podido salvarse de ni de las críticas ni de las polémicas en cuanto gestión y desarrollo, tanto es así que incluso su co-fundador, Larry Sanger, decidió lanzar otra enciclopedia colaborativa de nombre Citizendium donde no se pudiesen editar los artículos de forma anónima y en la que se estableciese una serie de jerarquías dependiendo de los méritos intelectuales de los usuarios.

Jimmy Wales y el cambio en la Wikipedia

Existen estudios que afirman, apoyándose en la regla del 1%, que la Web 2.0 es menos democrática de lo que se considera, puesto que la creación y moderación de contenidos se fundamenta en las aportaciones de una parte muy pequeña de su comunidad, que se establecerían dentro de una jerarquía orgánica dentro de la Wikipedia o incluso de forma  caótica como en Digg. Trasladado al extremo, Knol ya no representaría fundamentalmente el contenido, sino más bien en el continente, puesto que podríamos encontrarnos con distintos artículos de una misma temática, abordados de forma completamente distinta y por distintos autores. Más allá de una enciclopedia al uso, nos encontraríamos con un contenedor de informaciones que funcionaría a través de la promoción personal estableciendo expertos dentro de ella y fomentándolos en detrimento de otros.

Esto mismo es lo que está comenzando a suceder dentro de la Wikipedia. Dentro de la enciclopedia en su versión alemana, sus administradores se están planteando la creación de una jerarquía de usuarios que aprobarían las modificaciones y las adiciones de contenido antes de su publicación. Esto contraviene el funcionamiento original de la misma Wikipedia, puesto que hasta ahora los cambios se tornaban en visibles de forma instantánea y transparente pudiendo ser en cualquier momento revertidos si la publicación sufría sabotaje. Sin embargo, esto es un paso más hacia el cambio filosófico de la Wikipedia puesto que un grupo designado de usuarios serían los que dispusiesen de la potestad de publicar los contenidos, por lo que la cultura participativa completamente abierta de la misma se vería comprometida.

¿Estaremos vislumbrando el fin de la Web 2.0 tal y como la hemos conocido?

6 comentarios

A vueltas con «La responsabilidad sobre el contenido que generan los usuarios en la Internet colaborativa»

Me solicita Jorge Franganillo que refunda y ordene mis aportaciones a su texto La responsabilidad sobre el contenido que generan los usuarios en la Internet colaborativa a lo que me he lanzado gustosamente descubriendo que mi estilo a través del correo electrónico no es ni lo suficientemente organizado ni lo expositivo que me hubiese deseado. En cualquier caso, os dejo aquí mis reflexiones para vuestro disfrute, ahora sí, un poco más ordenadas.

El debate que nos propone Jorge Franganillo es sempiterno y reverdece cada vez que a la Blogosfera se le propone un nuevo intento de regulación. Pero, aunque aparentemente esta regulación tenga nombre y apellidos (los blogs), no es difícil imaginar que los tentáculos reguladores se extenderán a otros ámbitos de la Web Colaborativa una vez que la Blogosfera haya sido normalizada. Imagino que el profesor ha estado al tanto de la propuesta de la Unión Europea de crear un registro de blogs que levantó la liebre para la generación de una nueva polémica más con sus réplicas y contrarréplicas sobre la regularización blogosférica en las que no vamos a entrar en detalle.

Sin embargo, lo que no debe obviarse es que la crítica a un ente informe, que no atiende a una organización lógica, ni a unas reglas establecidas, que no puede atribuirse a un único colectivo, que es infinito y cuya definición es difícil de establecer; desconcierta tanto a los poderes políticos, empresariales y mediáticos que se ven impotentes a la hora de conseguir meterlo en cintura. Pero que nos recuerda que la generación de contenidos dentro del Web es uno de los temas más apasionantes y más interesantes que se vienen desarrollando actualmente.

Por ejemplo, que una persona, sea cuales sean sus características, pueda considerarse como una fuente de información fiable y fidedigna sobre un tema en la Web, ¿recordamos el reciente premio Ortega y Gasset a una bloguer cubana?, se encuentra al orden del día y son los propios medios de comunicación los que ensalzan y defienden esas voces en aras de la libertad de expresión. Sí, es cierto que podríamos partir en nuestra crítica considerando que el 80% de lo que se publica en Internet es basura o poco relevante, pero atendiendo a los mismos criterios editoriales, mucho de lo que se publica en papel bien pudiera ser considerado (Sin ánimo de ofender) de poco interés o relevante.

Siguiendo el razonamiento anterior, profundizando en nuestra crítica, podríamos aseverar que Internet está lleno de Geeks, que en Digg, una web colaborativa ideada para la publicación y votación de noticias, sólo se promocionan noticias Techies, pero sólo nos quedaríamos con una visión residual de lo que está sucediendo realmente dentro de la Red. De hecho, existen estudios que demuestran que mientras Digg estuvo consolidando y aumentando su audiencia, sí que se enviaban una gran mayoría de contenidos informáticos o relacionados con las nuevas tecnologías, pero también es cierto que esa tendencia ha cambiando hoy en día y que esta web de promoción social de noticias se encuentra ampliando el espectro de las informaciones que se votan dentro de ella.

Así pues, nos hallamos en un escenario en la que los blogs se han erigido en algunos casos como medios de comunicación realmente capaces de llegar allí donde los media tradicionales no llegan por intereses económicos, comerciales o ideológicos. Sobre este hecho, es paradigmático el caso de la blogosfera política americana, considerada influyente, apasionada y un referente a la hora de informarse en aquel país sobre su política y su situación actual.

También hay que tener presente que la mayoría de los blogs no tienen el objetivo de alcanzar grandes audiencias, que se conforman con el público que puedan llegar a obtener. En el caso que nos toca, la biblioblogosfera, ese público sería muy restringido, pero al mismo tiempo se convierten en lugares que son capaces de generar información a su público objetivo que es considerada relevante y que no podría ser distribuida de otra forma. Como podéis suponer, en el caso del resto de blogs, cuál sea ese público y la forma en que se realice el mensaje ya es otra historia.

En cualquier caso, retomando el tema desde el que nace este texto, el del control de contenidos ofensivos, insultos y denuncias infundadas; desgraciadamente, como en la vida analógica, se parece obviar que dentro de Internet existen buenas y malas iniciativas, buenos y malos comportamientos, y que se conjuga la censura y libertad de expresión al mismo tiempo sin que exista necesariamente un órgano regulador.

No negaremos que Internet dispone de zonas hostiles y reprochables, mas acusar a la Blogosfera de Infoxicación, siguiendo el criterio de la UE para controlarla, se antoja ridículo. Estoy de acuerdo en que los blogs deben de autorregularse, y aunque no lo parezca lo hacen, siguiendo unas normas que se dicta cada uno atendiendo a las buenas maneras, que precisamente se ajustan a los usos sociales establecidos, por lo que intentar reglamentar la forma en la que se publican contenidos desde una instancia superior no lo considero como lo más idóneo. Sin ir muy lejos, un ejemplo de la regulación que llevan a cabo los bloguers la puedo aportar yo mismo, cuando hace un tiempo exponía algunos problemas surgidos dentro de mi blog respecto a algunos comentarios que me había obligado a retirar.

Por otro lado, algo que considero capital en este debate, es el hecho de que no podemos obviar que la autoridad en Internet, y fuera de ella, no es un valor que cada uno se otorga así mismo, sino que dan los demás. Es decir, la autoridad la dan los lectores y seguidores de cada sitio web, así como la consideración de si un sitio web puede ser confiable o no. Por ejemplo, tratar de asignar el mismo valor informativo al blog de Enrique Dans (O el de José Luis Orihuela) que al mío (El Documentalista Enredado), por poner un ejemplo, es una desfachatez puesto que las escalas de autoridad dentro y fuera de la red son simplemente ridículas.

Otro ejemplo de Web 2.0 que otorga cierto margen a la autorregulación es la propia Wikipedia. Esta enciclopedia colaborativa dispone de sus propios mecanismos para evitar su sabotaje y moderación, a través de la figura de los famosos bibliotecarios que, como no podría ser de otra manera, tampoco pueden escapar de la polémica ante la ejecución de criterios distintos a la hora de aprobar, editar o restringir contenidos o simplemente reciben críticas ante la falta de ellos. Sin embargo, tampoco es de recibo atacar la Web 2.0 considerando que se trata de una dictadura de los idiotas o que Google nos vuelve estúpidos, en mi opinión son planteamientos que tratan de censurar un movimiento que no puede detenerse.

Por todo ello, considero que el vandalismo y las malas maneras dentro de la web deben mejorarse, sí, pero a través de la educación y la enseñanza del buen uso de las herramientas disponibles en Internet y sus infinitas posibilidades. La Educación 2.0 trataría precisamente de alfabetizar digitalmente, enseñando a aquellos que no pueden acceder a la Web por los recursos de sus familias, pero también enseñando educación dentro de Internet, qué es lo que se puede hacer y qué no, pero a través de la formación jamás de la censura.

Comentarios cerrados

Google, el medio de comunicación del siglo XXI (2) – Google es Internet

Hace ya unas semanas, que me aventuraba a reflexionar sobre las formas mediante las cuales nuestros visitantes llegan a nuestros sitios web. Os refresco la memoria u os pongo al día si no llegasteis a leer el texto:

  • A través de la barra de dirección del navegador web.
  • Mediante un marcador (Bookmark)
  • Mediante un enlace
  • Sindicación de contenidos
  • Un buscador

Hoy me quiero centrar sobre el rol que están jugando los buscadores respecto a la utilización de Internet, puesto que más allá de toda duda o consideración, son los actores que más echaríamos en falta en caso de que desapareciesen. De hecho, los buscadores son, no podemos negarlo a pesar de que depende de cada sitio web, una de nuestras principales fuentes de tráfico a la hora de recibir visitantes. Tanto es así, que hoy en día no podemos imaginarnos una Red sin ellos, negándonos a utilizar la Web por la inutilidad de la misma. Tal es la cantidad de información que Internet contiene, que confiamos que sean ellos los que se dediquen a organizar, clasificar y realizar una valoración previa de aquello que, ante cualquier dificultad, necesitemos encontrar.

En un mundo académico, y porqué no, en un mundo utópico, las distintas especificaciones a la hora de describir el contenido mediante la utilización de metadatos, ya sean siguiendo las especificaciones del W3C (World Wide Web Consortium) o las Dubin Core, hubiese funcionado bastante bien, llegando a permitir que la recuperación de información no fuese tan tediosa dependiendo de ciertas temáticas. Sin embargo, la Web es hoy en día un lugar marcado por los intereses comerciales, por lo que el engaño y la redirección de tráfico dentro de ella se produce tanto en los resultados de los buscadores como dentro de la publicidad contextual que los mismos tratan de gestionar.

No, no es suficiente una descripción de buena fe desde la posición del webmaster para que nuestra página sea considerada pertinente a ojos de los buscadores, hay que ir un paso más allá desarrollando otras técnicas y saber qué es lo que realmente se valora dentro de los buscadores para obtener resultados que sean realmente interesantes.

Así pues, los buscadores, y en España fundamentalmente Google, se convierten en juez y parte -parte porque gestiona mucha información sobre los gustos y necesidades de sus usuarios y busca la rentabilización de ello- entre las necesidades de información y los contenidos propiamente dichos. No podemos olvidar que la Web fue concebida como un sistema de información y, como todos sabemos, un sistema de información es relevante, pertinente y útil si es capaz de satisfacer nuestras necesidades informativas. Por escala, la propia implementación de la Web hace imposible este objetivo sin un intermediario, al menos hasta la siempre deseada llegada de la Web Semántica, los buscadores que son los que dictaminan y sopesan qué información nos puede interesar y cuál no. Por lo tanto, son los buscadores los que se erigen como controladores del tráfico de la web, hubs en su acepción inglesa, concentradores, y son ellos, o al menos el mejor de ellos, el que se está convirtiendo en la viva imagen de la web y fagocitando la Red misma.

Porque Google, no nos llevemos a engaño, hoy por hoy es mucho más que un buscador, con el número de servicios que ha desplegado, además de su increíble aceptación por parte de los internautas. Deberíamos maravillarnos por la capacidad que la empresa de Mountain View ha adquirido en su objetivo de organizar la información del mundo, puesto que esto ya no parece un sueño romántico ni una quimera. Por ende, ha sabido desarrollar su modelo empresarial sin, aparentemente, agredir a sus clientes ni que se sientan incómodos con sus actividades, desarrollando un modelo de amabilidad y fraternidad que muchas organizaciones hubiesen querido para ellas. Hay que añadir que otro de los puntos fuertes de Google es su otro eslogan, aquel No seas malo, que muchos tienen presente y creen en él, a pesar de que la empresa ofrece comportamientos censurables desde el punto de vista occidental.

En definitiva, Google se convertiría en el sueño de cualquier magnate de la información del siglo XX. Todos aquellos que quieren mantenerse informados mediante un medio determinado pasan por él, o bien, acuden a él. Y lo mejor de todo es que él les provee de la información de forma indirecta y lo mejor de todo es que no dispone de manchas en su expediente, ni se encuentra próximo a un partido político o es proclive a una condición religiosa. Es como si el mando de la televisión lo tuviese la televisión dictándonos lo que debemos ver, y no nosotros, y ni siquiera nos percatásemos de ello. Además, Google dispone de un aura etérea, no se sabe bien qué es ni quién está detrás – hay personas sí – pero las desconocemos completamente. Los periodistas, por ejemplo, o yo mismo cuando me meto en algún malentendido, tenemos que dar la cara en algunas ocasiones, pero en general Google no tiene necesidad de ello.

Además, los propios medios caen en su trampa y le echan una mano cada vez que pueden. Ahora, los descubro utilizando su logo para ilustrar temas genéricos sobre Internet, ilustrando el complejo mundo de documentos digitales interconectados mediante enlaces, englobándolos bajo un mismo concepto, una misma idea. El sinónimo de Internet en los medios de comunicación es Google.

4 comentarios

La depreciación del link

Ejemplo de publicidad intrusiva en la WebComo profesionales de la información, no hay publicidad que nos debería molestar más que aquella que está incluida dentro del texto sin posibilidad de diferenciar qué es contenido incluido por el autor y cuál por las agencias publicitarias (O que la diferencia sea mínima como el doble subrayado). Aunque ya la nombré, de pasada, en el texto La Blogosfera ante la crisis económica – Otros tipos de publicidad, la violación que supone la inclusión de un enlace patrocinado dentro del texto de un artículo de un sitio web de forma aleatoria y automática, ajena a los deseos del autor, me merece la consideración de que se trata de una degradación del texto y del sitio web que la sustenta. Porque Tim Berners-Lee concibió la Web como un sistema de información en el que todos los documentos estuviesen interconectados, haciéndose referencia y pudiendo acceder a ellos de una forma sencilla e inmediata. Pero el enlace, el link, el sistema democrático que Google utilizó, y todavía se utiliza, para medir la popularidad de ciertas páginas web, se encuentra ahora en un momento de debilidad y amenaza.

No hace falta que señalemos que no estamos en contra de la publicidad, al fin y al cabo es el modelo de monetización que tienen los contenidos que aquí publicamos, pero una cosa es recomendar sitios web de forma perfectamente clara en cajas perfectamente diferenciadas de que son publicidad o enlaces publicitarios y otra cosa es que se nos engañe, por definirlo de alguna manera, invitándonos a visitar webs que han comprado las palabras que utilizamos en nuestros textos, pero que no necesariamente amplían o profundizan los textos sobre los que se hallan. Si los medios de comunicación huyen, en general, de utilizar enlaces hacia otras páginas web porque pierden tráfico, gran error porque lo único que se pierde es perspectiva, no alcanzo a comprender el porqué algunos utilizan estos sistemas que simplemente no aportan gran valor a sus informaciones.

Ya criticamos en su momento el Autolink de Google disponible en su Toolbar (Barra de Herramientas) como un elemento intrusivo en la navegación de aquellas personas que se instalasen el software, ahora no podemos salvo señalar, tal y como hace José Antonio Millán, que este tipo de publicidad además de ser completamente invasiva, se aleja mucho de lo que debe ser considerado un sitio web que aporta valor añadido a sus lectores, que va más allá de lo que debe ser considerado contenido y publicidad, distorsionando el mensaje y la voluntad que tenía el autor del texto a la hora de redactarlo. Confiamos que, finalmente, este tipo de publicidad no se generalice puesto que la navegación en la Red sería completamente vacía, sin sentido y llena de ruido.

3 comentarios

Los lados oscuros de la Wikipedia

La Wikipedia “La enciclopedia libre que todos podemos editar” ha cumplido su séptimo aniversario erigiéndose con pleno derecho en el buque insignia de la llamada Web 2.0. Las estadísticas que se manejan son impresionantes. Concretamente, esta enciclopedia on-line editada de forma colaborativa por voluntarios, permitiendo que la gran mayoría de los artículos sean modificados por cualquier persona con acceso mediante un navegador web; fue fundada el 15 de enero de 2001 y alcanzó su artículo 10 millones el pasado mes de marzo. Dispone de 253 ediciones distintas en distintas lenguas, aunque unicamente 137 están activas, correspondiendo sólo a su versión inglesa 2 millones de textos. Su éxito de participación y consulta ha sido tal que ha propiciado el desarrollo de otros proyectos hermanos y, curiosamente, la creación de proyectos para la edición de versiones de la Wikipedia estables en DVD e incluso la propuesta de una edición en papel. Su popularidad le ha llevado a constituirse como una de las fuentes más visitadas en Internet y el omnipresente Google dispone de cierta predilección por situar sus artículos en las primeras posiciones de los resultados frente a una búsqueda. De hecho, el buscador de Mountain View ya está preparando su Wikipedia particular bajo el nombre de Knol. Aunque a diferencia de la Wikipedia, Knol retribuye a su editores con lo que se desmarca claramente del carácter altruista y colaborativo de la primera.

Este es un reconocimiento explícito de Google del poder de la Wikipedia como fuente de información confiable. Sin embargo, el desarrollo y gestión de la Wikipedia dispone de partes oscuras y muchas dificultades tanto económicas, de contenidos y humanas. Como todo proyecto con cierta popularidad y envergadura, el foco de la opinión pública se ha situado sobre ella, siendo vigilado el cómo se desarrolla, qué se publica, cómo se publica, su funcionamiento interno, las relaciones personales de Jimmy Wales – su co-fundador y cabeza visible – y otros escándalos derivados. Por supuesto que Wales, su co-fundador, es plenamente consciente de ello y ha declarado recientemente, “Wikipedia tiene cada vez más poder, pero está en manos de la gente”.

Puede que uno de los mayores debates que levanta la Wikipedia sea precisamente el de su fiabilidad. De la Web social, que se ha llegado a denominar por algunos como la dictadura de los idiotas, se consideraba que no podía salir un producto de buena calidad, fiable, libre y gratuito, sino más bien de un burdo copiar y pegar de fuentes editoriales de prestigio. La fiabilidad de la Wikipedia siempre se ha hallado cuestionada y, de hecho, se llegó a prohibir su uso y, obviamente, la cita de ésta como fuente documental en la universidad de Middlebury (EEUU). Sin embargo, desde algunas fuentes científicas se ha tratado de corroborar el grado de fiabilidad esperable dentro de un producto informativo de estas características mediante la comparación con otras enciclopedias. El artículo publicado por la revista Nature es el más afamado y en él se compararon distintos artículos seleccionados previamente y sometidos a revisión por expertos. Los resultados fueron sorprendentes ya que el número de errores hallados dentro de la Enciclopaedia Britannica y los de la Wikipedia eran muy similares. Según el texto publicado en Nature, se había encontrado que, por término medio, cada entrada de Wikipedia tenía cuatro errores y la Británica tenía tres, mientras que la mayor queja contra Wikipedia fue que las entradas eran confusas y estaban mal estructuradas.

Hay que señalar que las críticas sobre su fiabilidad nacieron muy pronto y precisamente por personas que estuvieron involucradas desde un principio en su puesta en marcha. Así, Larry Sanger, co-fundador de la Wikipedia, se desvinculó totalmente del proyecto en 2002 tras criticar el descontrol que existía sobre los contenidos que aportaban los colaboradores. Finalmente, en 2006, lanzó una enciclopedia colaborativa que, desde su punto de vista, era más rigurosos bajo el nombre de Citizendium.

Pero más allá de lo que se publica, el debate también gira sobre lo que debe estar y lo que no debe de estar dentro de ella. Por ejemplo, dentro de la biblioblogosfera, se trató de incluir un término como representativo de los blogs de Biblioteconomía y Documentación, pero la propuesta fue descartada por sus editores. Esto muestra que qué o quién merece estar dentro de ella es una tarea más complejas de los denominados bibliotecarios y que tampoco consiguen sustraerse de la polémica, puesto que las presiones son muchas y variadas. Sin embargo, a veces las presiones sobre lo creado y los contenidos, sobrepasan mucho las buenas intenciones de los mantenedores de la limpieza de la enciclopedia. Esto ha obligado a la organización a intervenir para tratar de evitar actos vandálicos dentro de ella e incluso a tomar resoluciones drásticas para detenerlos.

Desgraciadamente, no sólo personas por su cuenta y riesgo, junto a pequeñas organizaciones, han tratado de alterar sus contenidos, también grandes agencias han puesto sus ojos sobre ella e intervenido para manipular sus artículos. Bien conocido es el hecho que la agencia estadounidense CIA fue descubierta tratando de adulterar contenidos. de este sitio web o, también, las presiones recibidas desde el Islam para que se retirase una imagen del profeta Mahoma para no herir las sensibilidades de los seguidores de este culto, lo que fue finalmente rechazado. Por otro lado, están surgiendo otros problemas como la aparición de empresas que pagan a editores de la enciclopedia para que el contenido de cierto artículo sea más próximo a sus intereses. Pero las curiosidades no acaban ahí, por supuesto, ya que la Wikipedia también ha servido para predecir una muerte, aunque no para evitarla.

Desgraciadamente, las denuncias sobre manipulación y edición fraudulentas de contenidos no son los únicos protagonistas que han saltado a la palestra en las informaciones de los medios de comunicación sobre la Wikipedia. Más allá del pasado oscuro de personas que trabajaron para la Wikipedia, las actividades de Jimmy Wales son seguidas con sumo detenimiento y sus actos constantemente analizados. De este modo, a Jimmy Wales le han surgido denuncias por extorsión y malversación de fondos, junto a denuncias de edición ilegal de una entrada de la Wikipedia por una ex-amante del fundador que han sido recogidas y difundidas por los medios.

Como conclusión, señalar que los retos de la Wikipedia son los desafíos a los que se enfrenta la Web 2.0 en general. El poder de la Wikipedia es el poder de muchos concentrado en un punto, dando la voz a cualquiera que tenga algo que aportar y bajo la tutela de iguales. Por supuesto que las dificultades de la Wikipedia, por su tamaño y ambición, no pueden ser extrapolables completamente a todos los proyectos Web 2.0, aunque sí a aquellos que se basa en la confianza entre pares. A tenor de lo visto, la creación de entornos colaborativos del conocimiento son imparables al igual que la Web 2.0 en su conjunto.

13 comentarios