Saltar al contenido →

Categoría: Internet

A vueltas con «La responsabilidad sobre el contenido que generan los usuarios en la Internet colaborativa»

Me solicita Jorge Franganillo que refunda y ordene mis aportaciones a su texto La responsabilidad sobre el contenido que generan los usuarios en la Internet colaborativa a lo que me he lanzado gustosamente descubriendo que mi estilo a través del correo electrónico no es ni lo suficientemente organizado ni lo expositivo que me hubiese deseado. En cualquier caso, os dejo aquí mis reflexiones para vuestro disfrute, ahora sí, un poco más ordenadas.

El debate que nos propone Jorge Franganillo es sempiterno y reverdece cada vez que a la Blogosfera se le propone un nuevo intento de regulación. Pero, aunque aparentemente esta regulación tenga nombre y apellidos (los blogs), no es difícil imaginar que los tentáculos reguladores se extenderán a otros ámbitos de la Web Colaborativa una vez que la Blogosfera haya sido normalizada. Imagino que el profesor ha estado al tanto de la propuesta de la Unión Europea de crear un registro de blogs que levantó la liebre para la generación de una nueva polémica más con sus réplicas y contrarréplicas sobre la regularización blogosférica en las que no vamos a entrar en detalle.

Sin embargo, lo que no debe obviarse es que la crítica a un ente informe, que no atiende a una organización lógica, ni a unas reglas establecidas, que no puede atribuirse a un único colectivo, que es infinito y cuya definición es difícil de establecer; desconcierta tanto a los poderes políticos, empresariales y mediáticos que se ven impotentes a la hora de conseguir meterlo en cintura. Pero que nos recuerda que la generación de contenidos dentro del Web es uno de los temas más apasionantes y más interesantes que se vienen desarrollando actualmente.

Por ejemplo, que una persona, sea cuales sean sus características, pueda considerarse como una fuente de información fiable y fidedigna sobre un tema en la Web, ¿recordamos el reciente premio Ortega y Gasset a una bloguer cubana?, se encuentra al orden del día y son los propios medios de comunicación los que ensalzan y defienden esas voces en aras de la libertad de expresión. Sí, es cierto que podríamos partir en nuestra crítica considerando que el 80% de lo que se publica en Internet es basura o poco relevante, pero atendiendo a los mismos criterios editoriales, mucho de lo que se publica en papel bien pudiera ser considerado (Sin ánimo de ofender) de poco interés o relevante.

Siguiendo el razonamiento anterior, profundizando en nuestra crítica, podríamos aseverar que Internet está lleno de Geeks, que en Digg, una web colaborativa ideada para la publicación y votación de noticias, sólo se promocionan noticias Techies, pero sólo nos quedaríamos con una visión residual de lo que está sucediendo realmente dentro de la Red. De hecho, existen estudios que demuestran que mientras Digg estuvo consolidando y aumentando su audiencia, sí que se enviaban una gran mayoría de contenidos informáticos o relacionados con las nuevas tecnologías, pero también es cierto que esa tendencia ha cambiando hoy en día y que esta web de promoción social de noticias se encuentra ampliando el espectro de las informaciones que se votan dentro de ella.

Así pues, nos hallamos en un escenario en la que los blogs se han erigido en algunos casos como medios de comunicación realmente capaces de llegar allí donde los media tradicionales no llegan por intereses económicos, comerciales o ideológicos. Sobre este hecho, es paradigmático el caso de la blogosfera política americana, considerada influyente, apasionada y un referente a la hora de informarse en aquel país sobre su política y su situación actual.

También hay que tener presente que la mayoría de los blogs no tienen el objetivo de alcanzar grandes audiencias, que se conforman con el público que puedan llegar a obtener. En el caso que nos toca, la biblioblogosfera, ese público sería muy restringido, pero al mismo tiempo se convierten en lugares que son capaces de generar información a su público objetivo que es considerada relevante y que no podría ser distribuida de otra forma. Como podéis suponer, en el caso del resto de blogs, cuál sea ese público y la forma en que se realice el mensaje ya es otra historia.

En cualquier caso, retomando el tema desde el que nace este texto, el del control de contenidos ofensivos, insultos y denuncias infundadas; desgraciadamente, como en la vida analógica, se parece obviar que dentro de Internet existen buenas y malas iniciativas, buenos y malos comportamientos, y que se conjuga la censura y libertad de expresión al mismo tiempo sin que exista necesariamente un órgano regulador.

No negaremos que Internet dispone de zonas hostiles y reprochables, mas acusar a la Blogosfera de Infoxicación, siguiendo el criterio de la UE para controlarla, se antoja ridículo. Estoy de acuerdo en que los blogs deben de autorregularse, y aunque no lo parezca lo hacen, siguiendo unas normas que se dicta cada uno atendiendo a las buenas maneras, que precisamente se ajustan a los usos sociales establecidos, por lo que intentar reglamentar la forma en la que se publican contenidos desde una instancia superior no lo considero como lo más idóneo. Sin ir muy lejos, un ejemplo de la regulación que llevan a cabo los bloguers la puedo aportar yo mismo, cuando hace un tiempo exponía algunos problemas surgidos dentro de mi blog respecto a algunos comentarios que me había obligado a retirar.

Por otro lado, algo que considero capital en este debate, es el hecho de que no podemos obviar que la autoridad en Internet, y fuera de ella, no es un valor que cada uno se otorga así mismo, sino que dan los demás. Es decir, la autoridad la dan los lectores y seguidores de cada sitio web, así como la consideración de si un sitio web puede ser confiable o no. Por ejemplo, tratar de asignar el mismo valor informativo al blog de Enrique Dans (O el de José Luis Orihuela) que al mío (El Documentalista Enredado), por poner un ejemplo, es una desfachatez puesto que las escalas de autoridad dentro y fuera de la red son simplemente ridículas.

Otro ejemplo de Web 2.0 que otorga cierto margen a la autorregulación es la propia Wikipedia. Esta enciclopedia colaborativa dispone de sus propios mecanismos para evitar su sabotaje y moderación, a través de la figura de los famosos bibliotecarios que, como no podría ser de otra manera, tampoco pueden escapar de la polémica ante la ejecución de criterios distintos a la hora de aprobar, editar o restringir contenidos o simplemente reciben críticas ante la falta de ellos. Sin embargo, tampoco es de recibo atacar la Web 2.0 considerando que se trata de una dictadura de los idiotas o que Google nos vuelve estúpidos, en mi opinión son planteamientos que tratan de censurar un movimiento que no puede detenerse.

Por todo ello, considero que el vandalismo y las malas maneras dentro de la web deben mejorarse, sí, pero a través de la educación y la enseñanza del buen uso de las herramientas disponibles en Internet y sus infinitas posibilidades. La Educación 2.0 trataría precisamente de alfabetizar digitalmente, enseñando a aquellos que no pueden acceder a la Web por los recursos de sus familias, pero también enseñando educación dentro de Internet, qué es lo que se puede hacer y qué no, pero a través de la formación jamás de la censura.

Comentarios cerrados

Google, el medio de comunicación del siglo XXI (2) – Google es Internet

Hace ya unas semanas, que me aventuraba a reflexionar sobre las formas mediante las cuales nuestros visitantes llegan a nuestros sitios web. Os refresco la memoria u os pongo al día si no llegasteis a leer el texto:

  • A través de la barra de dirección del navegador web.
  • Mediante un marcador (Bookmark)
  • Mediante un enlace
  • Sindicación de contenidos
  • Un buscador

Hoy me quiero centrar sobre el rol que están jugando los buscadores respecto a la utilización de Internet, puesto que más allá de toda duda o consideración, son los actores que más echaríamos en falta en caso de que desapareciesen. De hecho, los buscadores son, no podemos negarlo a pesar de que depende de cada sitio web, una de nuestras principales fuentes de tráfico a la hora de recibir visitantes. Tanto es así, que hoy en día no podemos imaginarnos una Red sin ellos, negándonos a utilizar la Web por la inutilidad de la misma. Tal es la cantidad de información que Internet contiene, que confiamos que sean ellos los que se dediquen a organizar, clasificar y realizar una valoración previa de aquello que, ante cualquier dificultad, necesitemos encontrar.

En un mundo académico, y porqué no, en un mundo utópico, las distintas especificaciones a la hora de describir el contenido mediante la utilización de metadatos, ya sean siguiendo las especificaciones del W3C (World Wide Web Consortium) o las Dubin Core, hubiese funcionado bastante bien, llegando a permitir que la recuperación de información no fuese tan tediosa dependiendo de ciertas temáticas. Sin embargo, la Web es hoy en día un lugar marcado por los intereses comerciales, por lo que el engaño y la redirección de tráfico dentro de ella se produce tanto en los resultados de los buscadores como dentro de la publicidad contextual que los mismos tratan de gestionar.

No, no es suficiente una descripción de buena fe desde la posición del webmaster para que nuestra página sea considerada pertinente a ojos de los buscadores, hay que ir un paso más allá desarrollando otras técnicas y saber qué es lo que realmente se valora dentro de los buscadores para obtener resultados que sean realmente interesantes.

Así pues, los buscadores, y en España fundamentalmente Google, se convierten en juez y parte -parte porque gestiona mucha información sobre los gustos y necesidades de sus usuarios y busca la rentabilización de ello- entre las necesidades de información y los contenidos propiamente dichos. No podemos olvidar que la Web fue concebida como un sistema de información y, como todos sabemos, un sistema de información es relevante, pertinente y útil si es capaz de satisfacer nuestras necesidades informativas. Por escala, la propia implementación de la Web hace imposible este objetivo sin un intermediario, al menos hasta la siempre deseada llegada de la Web Semántica, los buscadores que son los que dictaminan y sopesan qué información nos puede interesar y cuál no. Por lo tanto, son los buscadores los que se erigen como controladores del tráfico de la web, hubs en su acepción inglesa, concentradores, y son ellos, o al menos el mejor de ellos, el que se está convirtiendo en la viva imagen de la web y fagocitando la Red misma.

Porque Google, no nos llevemos a engaño, hoy por hoy es mucho más que un buscador, con el número de servicios que ha desplegado, además de su increíble aceptación por parte de los internautas. Deberíamos maravillarnos por la capacidad que la empresa de Mountain View ha adquirido en su objetivo de organizar la información del mundo, puesto que esto ya no parece un sueño romántico ni una quimera. Por ende, ha sabido desarrollar su modelo empresarial sin, aparentemente, agredir a sus clientes ni que se sientan incómodos con sus actividades, desarrollando un modelo de amabilidad y fraternidad que muchas organizaciones hubiesen querido para ellas. Hay que añadir que otro de los puntos fuertes de Google es su otro eslogan, aquel No seas malo, que muchos tienen presente y creen en él, a pesar de que la empresa ofrece comportamientos censurables desde el punto de vista occidental.

En definitiva, Google se convertiría en el sueño de cualquier magnate de la información del siglo XX. Todos aquellos que quieren mantenerse informados mediante un medio determinado pasan por él, o bien, acuden a él. Y lo mejor de todo es que él les provee de la información de forma indirecta y lo mejor de todo es que no dispone de manchas en su expediente, ni se encuentra próximo a un partido político o es proclive a una condición religiosa. Es como si el mando de la televisión lo tuviese la televisión dictándonos lo que debemos ver, y no nosotros, y ni siquiera nos percatásemos de ello. Además, Google dispone de un aura etérea, no se sabe bien qué es ni quién está detrás – hay personas sí – pero las desconocemos completamente. Los periodistas, por ejemplo, o yo mismo cuando me meto en algún malentendido, tenemos que dar la cara en algunas ocasiones, pero en general Google no tiene necesidad de ello.

Además, los propios medios caen en su trampa y le echan una mano cada vez que pueden. Ahora, los descubro utilizando su logo para ilustrar temas genéricos sobre Internet, ilustrando el complejo mundo de documentos digitales interconectados mediante enlaces, englobándolos bajo un mismo concepto, una misma idea. El sinónimo de Internet en los medios de comunicación es Google.

4 comentarios

La depreciación del link

Ejemplo de publicidad intrusiva en la WebComo profesionales de la información, no hay publicidad que nos debería molestar más que aquella que está incluida dentro del texto sin posibilidad de diferenciar qué es contenido incluido por el autor y cuál por las agencias publicitarias (O que la diferencia sea mínima como el doble subrayado). Aunque ya la nombré, de pasada, en el texto La Blogosfera ante la crisis económica – Otros tipos de publicidad, la violación que supone la inclusión de un enlace patrocinado dentro del texto de un artículo de un sitio web de forma aleatoria y automática, ajena a los deseos del autor, me merece la consideración de que se trata de una degradación del texto y del sitio web que la sustenta. Porque Tim Berners-Lee concibió la Web como un sistema de información en el que todos los documentos estuviesen interconectados, haciéndose referencia y pudiendo acceder a ellos de una forma sencilla e inmediata. Pero el enlace, el link, el sistema democrático que Google utilizó, y todavía se utiliza, para medir la popularidad de ciertas páginas web, se encuentra ahora en un momento de debilidad y amenaza.

No hace falta que señalemos que no estamos en contra de la publicidad, al fin y al cabo es el modelo de monetización que tienen los contenidos que aquí publicamos, pero una cosa es recomendar sitios web de forma perfectamente clara en cajas perfectamente diferenciadas de que son publicidad o enlaces publicitarios y otra cosa es que se nos engañe, por definirlo de alguna manera, invitándonos a visitar webs que han comprado las palabras que utilizamos en nuestros textos, pero que no necesariamente amplían o profundizan los textos sobre los que se hallan. Si los medios de comunicación huyen, en general, de utilizar enlaces hacia otras páginas web porque pierden tráfico, gran error porque lo único que se pierde es perspectiva, no alcanzo a comprender el porqué algunos utilizan estos sistemas que simplemente no aportan gran valor a sus informaciones.

Ya criticamos en su momento el Autolink de Google disponible en su Toolbar (Barra de Herramientas) como un elemento intrusivo en la navegación de aquellas personas que se instalasen el software, ahora no podemos salvo señalar, tal y como hace José Antonio Millán, que este tipo de publicidad además de ser completamente invasiva, se aleja mucho de lo que debe ser considerado un sitio web que aporta valor añadido a sus lectores, que va más allá de lo que debe ser considerado contenido y publicidad, distorsionando el mensaje y la voluntad que tenía el autor del texto a la hora de redactarlo. Confiamos que, finalmente, este tipo de publicidad no se generalice puesto que la navegación en la Red sería completamente vacía, sin sentido y llena de ruido.

3 comentarios

Los lados oscuros de la Wikipedia

La Wikipedia “La enciclopedia libre que todos podemos editar” ha cumplido su séptimo aniversario erigiéndose con pleno derecho en el buque insignia de la llamada Web 2.0. Las estadísticas que se manejan son impresionantes. Concretamente, esta enciclopedia on-line editada de forma colaborativa por voluntarios, permitiendo que la gran mayoría de los artículos sean modificados por cualquier persona con acceso mediante un navegador web; fue fundada el 15 de enero de 2001 y alcanzó su artículo 10 millones el pasado mes de marzo. Dispone de 253 ediciones distintas en distintas lenguas, aunque unicamente 137 están activas, correspondiendo sólo a su versión inglesa 2 millones de textos. Su éxito de participación y consulta ha sido tal que ha propiciado el desarrollo de otros proyectos hermanos y, curiosamente, la creación de proyectos para la edición de versiones de la Wikipedia estables en DVD e incluso la propuesta de una edición en papel. Su popularidad le ha llevado a constituirse como una de las fuentes más visitadas en Internet y el omnipresente Google dispone de cierta predilección por situar sus artículos en las primeras posiciones de los resultados frente a una búsqueda. De hecho, el buscador de Mountain View ya está preparando su Wikipedia particular bajo el nombre de Knol. Aunque a diferencia de la Wikipedia, Knol retribuye a su editores con lo que se desmarca claramente del carácter altruista y colaborativo de la primera.

Este es un reconocimiento explícito de Google del poder de la Wikipedia como fuente de información confiable. Sin embargo, el desarrollo y gestión de la Wikipedia dispone de partes oscuras y muchas dificultades tanto económicas, de contenidos y humanas. Como todo proyecto con cierta popularidad y envergadura, el foco de la opinión pública se ha situado sobre ella, siendo vigilado el cómo se desarrolla, qué se publica, cómo se publica, su funcionamiento interno, las relaciones personales de Jimmy Wales – su co-fundador y cabeza visible – y otros escándalos derivados. Por supuesto que Wales, su co-fundador, es plenamente consciente de ello y ha declarado recientemente, “Wikipedia tiene cada vez más poder, pero está en manos de la gente”.

Puede que uno de los mayores debates que levanta la Wikipedia sea precisamente el de su fiabilidad. De la Web social, que se ha llegado a denominar por algunos como la dictadura de los idiotas, se consideraba que no podía salir un producto de buena calidad, fiable, libre y gratuito, sino más bien de un burdo copiar y pegar de fuentes editoriales de prestigio. La fiabilidad de la Wikipedia siempre se ha hallado cuestionada y, de hecho, se llegó a prohibir su uso y, obviamente, la cita de ésta como fuente documental en la universidad de Middlebury (EEUU). Sin embargo, desde algunas fuentes científicas se ha tratado de corroborar el grado de fiabilidad esperable dentro de un producto informativo de estas características mediante la comparación con otras enciclopedias. El artículo publicado por la revista Nature es el más afamado y en él se compararon distintos artículos seleccionados previamente y sometidos a revisión por expertos. Los resultados fueron sorprendentes ya que el número de errores hallados dentro de la Enciclopaedia Britannica y los de la Wikipedia eran muy similares. Según el texto publicado en Nature, se había encontrado que, por término medio, cada entrada de Wikipedia tenía cuatro errores y la Británica tenía tres, mientras que la mayor queja contra Wikipedia fue que las entradas eran confusas y estaban mal estructuradas.

Hay que señalar que las críticas sobre su fiabilidad nacieron muy pronto y precisamente por personas que estuvieron involucradas desde un principio en su puesta en marcha. Así, Larry Sanger, co-fundador de la Wikipedia, se desvinculó totalmente del proyecto en 2002 tras criticar el descontrol que existía sobre los contenidos que aportaban los colaboradores. Finalmente, en 2006, lanzó una enciclopedia colaborativa que, desde su punto de vista, era más rigurosos bajo el nombre de Citizendium.

Pero más allá de lo que se publica, el debate también gira sobre lo que debe estar y lo que no debe de estar dentro de ella. Por ejemplo, dentro de la biblioblogosfera, se trató de incluir un término como representativo de los blogs de Biblioteconomía y Documentación, pero la propuesta fue descartada por sus editores. Esto muestra que qué o quién merece estar dentro de ella es una tarea más complejas de los denominados bibliotecarios y que tampoco consiguen sustraerse de la polémica, puesto que las presiones son muchas y variadas. Sin embargo, a veces las presiones sobre lo creado y los contenidos, sobrepasan mucho las buenas intenciones de los mantenedores de la limpieza de la enciclopedia. Esto ha obligado a la organización a intervenir para tratar de evitar actos vandálicos dentro de ella e incluso a tomar resoluciones drásticas para detenerlos.

Desgraciadamente, no sólo personas por su cuenta y riesgo, junto a pequeñas organizaciones, han tratado de alterar sus contenidos, también grandes agencias han puesto sus ojos sobre ella e intervenido para manipular sus artículos. Bien conocido es el hecho que la agencia estadounidense CIA fue descubierta tratando de adulterar contenidos. de este sitio web o, también, las presiones recibidas desde el Islam para que se retirase una imagen del profeta Mahoma para no herir las sensibilidades de los seguidores de este culto, lo que fue finalmente rechazado. Por otro lado, están surgiendo otros problemas como la aparición de empresas que pagan a editores de la enciclopedia para que el contenido de cierto artículo sea más próximo a sus intereses. Pero las curiosidades no acaban ahí, por supuesto, ya que la Wikipedia también ha servido para predecir una muerte, aunque no para evitarla.

Desgraciadamente, las denuncias sobre manipulación y edición fraudulentas de contenidos no son los únicos protagonistas que han saltado a la palestra en las informaciones de los medios de comunicación sobre la Wikipedia. Más allá del pasado oscuro de personas que trabajaron para la Wikipedia, las actividades de Jimmy Wales son seguidas con sumo detenimiento y sus actos constantemente analizados. De este modo, a Jimmy Wales le han surgido denuncias por extorsión y malversación de fondos, junto a denuncias de edición ilegal de una entrada de la Wikipedia por una ex-amante del fundador que han sido recogidas y difundidas por los medios.

Como conclusión, señalar que los retos de la Wikipedia son los desafíos a los que se enfrenta la Web 2.0 en general. El poder de la Wikipedia es el poder de muchos concentrado en un punto, dando la voz a cualquiera que tenga algo que aportar y bajo la tutela de iguales. Por supuesto que las dificultades de la Wikipedia, por su tamaño y ambición, no pueden ser extrapolables completamente a todos los proyectos Web 2.0, aunque sí a aquellos que se basa en la confianza entre pares. A tenor de lo visto, la creación de entornos colaborativos del conocimiento son imparables al igual que la Web 2.0 en su conjunto.

13 comentarios

Escribir para buscadores y lectores 2.0: La simplificación del lenguaje (y 2)

Adecuar el contenido al continente no tiene porqué ser pernicioso a corto plazo si su utilización está englobada dentro de ciertos ámbitos y no invadan otros. Por ejemplo, no es lo mismo escribir un SMS, lo que supone acometer un número de faltas de ortografías ilimitado, que escribir en otro medio y para que lo lean otros. Obviamente, los registros se adecúan en el primer caso para que el mensaje nos resulte lo más económico posible (0’15 € el mensaje nos obligan a ello), mientras que en el segundo caso el costo económico no tiene la mayor importancia para nosotros, no así de lo que queremos transmitir. Así, por ejemplo, escribir un e-mail o un texto para un blog no tienen coste o éste es imperceptible para aquel que lo redacta, por lo que nuestro interés pasa por que el mensaje llegue y de una forma adecuada.

El problema surge cuando el ámbito de la ortografía utilizada para los mensajes móviles, que consiste en la reducción de caracteres, fundamentalmente vocales, para poder utilizar el mayor número de palabras posibles de la forma más económica; va más allá del entorno de los mensajes cortos e inunda la Red. Es entonces cuando surgen movimientos para el correcto uso del lenguaje aceptado y reglado por todos para evitar que ese uso, considerado incorrecto, transcienda y se generalice allí donde no le corresponde.

Dispones de 144 caracteres para comunicarte

Como si de la condena de los teléfonos móviles nos persiguiese, últimamente se han puesto de moda una serie de servicios en Internet, muy Web 2.0, que nos impiden utilizar más de 144 caracteres para comunicar nuestras ideas. Se trata del denominado micro-blogging, donde escribir textos extensos está prohibido y donde la brevedad es la quinta esencia del mensaje. Un buen ejemplo de estos sitios web es el conocido Twitter, donde lo que se busca es el establecimiento de una conversación asíncrona con nuestros seguidores y amigos junto con la posibilidad de transmitir qué se está haciendo en cada momento.

Comprobamos de este modo que la tiranía del SMS se extiende también por la web más allá de los usos ortográficos y gramaticales de sus usuarios, permitiendo concebir servicios y utilidades que se adecúan a ellos y que, a la postre, disponen de una gran popularidad entre los internautas. La cultura de lo breve y esencial se impone en una Red donde la vida frenética no permite detenerse en grandes divagaciones o exposiciones, donde lo superfluo vence a lo profundo y donde prima lo telegráfico sobre otras consideraciones y que lentamente inunda otros aspectos de nuestras vidas.

En efecto, nos estamos acostumbrando a que se nos dé la información de forma directa y sin grandes rodeos. Si una información periodística tiene que ser redactada necesariamente de forma piramidal inversa, lo más importante en su parte superior mientras que según se avanza en el texto se dan otros detalles de menor relevancia, en Internet actualmente prima lo breve y, por ello, no precisamente lo mejor. Pero, en cualquier caso, nos encontramos ante una nueva generación multitarea, que necesita estímulos contínuos para seguir trabajando dentro de una actividad y que no necesariamente tiene que fijarse o establecerse en una sola.

Nos hallamos ante los lectores 2.0, incapaces de leer algunas líneas seguidas sin llegar a entender el todo, que se pierden agotados ante textos que superan las 500 palabras y qué decir libros de más de 200 páginas. Sin embargo, esto no tiene porqué ser necesariamente negativo, ni censurable, simplemente se trata de una adaptación a los nuevos tiempos que viven y que, por supuesto, no pueden controlar.

Nuevos tiempos comunicativos, la esencia es el mensaje

Tampoco lo hacen aquellos que deberían. Los periodistas, aquellos garantes del buen hacer comunicativo escrito, cada vez escriben peor, trufan sus informaciones de faltas ortográficas, de sintaxis inconexas, de gramáticas imposibles. Sucumben, lentamente, a las prisas, a las multitareas que deben atender y a la presión por ser los primeros en publicar una noticia, en dar la primicia descuidando lo que más deberían mimar, su escritura y su firma.

Pero, retomando el texto anterior, no sólo se ven presionados por las prisas, también por otros factores desde que los medios se han dado cuenta de que Internet es el futuro de su negocio y, por ello, crear y diseñar un nuevo modelo de negocio para él. En la Red, se trabaja para la audiencia y, sencillamente, cuanta más audiencia consigas congregar alrededor tuyo, mayores posibilidades de ingresos económicos puedes obtener. Por ello, los medios de comunicación trabajan para los buscadores, no tienen mayor fuerza que ellos, sin embargo trabajar para Google tiene cierto efecto pernicioso y es la simplificación del uso del lenguaje. Tanto es así que los medios de comunicación han sacrificado su estilo hacia su presencia en la Red, aportando incluso dobles titulares, uno para su edición en papel y otro para su edición en la Red para adecuarse a los dos medios.

Hoy en día, la quinta esencia de la comunicación es la telegrafía. Despojar de adornos la comunicación, ser directo y claro, sin ambigüedades, sin adornos posibles. De esta forma, el estilo se despoja de la creatividad y se queda desnudo intentando lanzar un mensaje que tal vez no llegue a ninguna parte, sin sustancia ni gracia, desnudo ante la audiencia, desnudo ante Google.

4 comentarios

Escribir para buscadores y lectores 2.0: La simplificación del lenguaje (1)

En el blog del Sedic, dedicaban el pasado mes de enero al debate alrededor de la idea de que se estaba conformando Una sociedad sin lectores que huía de catastrofismos. De este modo, todos los autores participantes concluían que, en esta sociedad del siglo XXI, no es que no se leyese poco, es que nunca se había leído y se podía leer tanto. Así pues, la tónica general en los discursos de los textos era considerar que actualmente se lee mucho, ya que las nuevas tecnologías e Internet nos invitan (y obligan) a ello. De este modo, los jóvenes se comunican preferentemente de forma textual, ya se trate mediante envíos de mensajes de texto a móviles o a través del messenger, los negocios y su comunicación todavía se sustentan en el soporte texto (Las Blackberry y el correo electrónico son buena prueba de ello), la ciencia nunca ha disfrutado de una vía de comunicación tan rápida, barata y sencilla de utilizar como la Red; los medios de comunicación invitan a la participación junto al consumo de informaciones, cualquiera puede “obligarse” a escribir un blog, a construir una red social o incluso a componer una enciclopedia, etc. Sí, hoy en día nos encontramos ante la Sociedad de la Infoxicación más que sobre otra consideración, pero, mientras nos adentramos en ella, olvidamos cuidar cómo transmitimos la información y, sobre todo, cómo componemos.

Se me ha acusado de escribir textos demasiado largos, de hecho hay estudios que así lo atestiguan, puesto que mis argumentaciones no son esquemáticas y me gusta desarrollar las ideas. Últimamente, me he obligado a acortar mis textos, primero porque la disponibilidad del tiempo es reducida y, por otro lado, porque un texto demasiado largo no invita a leerlo. En cualquier caso, acortar los textos tiene ciertas ventajas puesto que los buscadores, sobre todo Google, les encanta los textos cortos, esquemáticos, que no disponen de la complicación del lenguaje figurativo humano. Una verdadera lástima. El hecho es que sacrificamos nuestro estilo, nuestra inventiva, en la estandarización de nuestro lenguaje, destacando palabras clave por las que deseamos ser encontrados y leídos.

Cómo funciona Google

Google nació dentro de un ámbito académico y su funcionamiento inicial se basaba principalmente en los textos científicos. De este modo, en sus inicios, Google otorgaba mucho peso a las partes que abrían un texto (donde se sitúan la introducción, metodología y objetivos de los textos científicos) y finales donde se pueden encontrar las conclusiones. La fiebre de los descriptores en los títulos para el posicionamiento también derivan del estilo científico, puesto que este tipo de artículos deben disponer de un título claro, preciso y conciso que defina sin lugar a dudas qué nos vamos a encontrar en el texto. No hace falta señalar que la idea del interés de un texto basándose en los enlaces entrantes que recibía se basa en las teorías bibliométricas para localizar los artículos y autores más relevantes de una determinada ciencia dentro de un determinado ámbito.

Así pues, cada webmaster se afana por trabajar para Google siguiendo una metodología para mejorar su posicionamiento dentro de la primera página de resultados del buscador. Echemos un vistazo a un texto que nos describe cómo deberíamos escribir para los buscadores para mejorar el posicionamiento:

  • El título es la parte más importante del artículo – Debe aparecer el término o keyword principal. El título debe ser los más corto imprescindible posible.

  • El primer párrafo es más importante que el último – Debe aparecer el término principal y varias expresiones, palabras o términos similares. Pongamos el ejemplo en este post. Sería algo así:

    • Escribir para Google

    • Cómo escribir de cara al SEO

    • Normas de escritura para mejorar nuestro posicionamiento

  • Repetir el término principal a lo largo de los párrafos, junto con otras expresiones similares.

  • Si utilizamos etiquetas h2, que contengas los términos.

  • Mantenernos centrados en el tema principal, procurando no mezclar temas o irnos demasiado por las ramas. Se trata de mensajes claros y generalmente cortos, no estamos escribiendo ensayos.

Comprobamos entonces que realmente no estamos escribiendo para humanos, sino para buscadores, máquinas en definitiva que evalúan nuestros textos dependiendo de una serie de variables que servirán para colocar a nuestras páginas por arriba o por abajo de sus resultados. Pero la simplificación en la comunicación no se detiene ahí, va un poco más allá.

2 comentarios

Domain Hack, deconstruyendo el nombre de un dominio

Matt Mullenweg, fundador y desarrollador de WordPress, nos relataba en su blog esta misma semana que había cambiado de dominio. Una de las curiosidades que arguïa en su texto era la cantidad de errores que había detectado en textos periodísticos asignándole el dominio .COM cuando su blog disponía del domino . NET, por lo que, imagino que entre cansado y divertido, ha decidido abandonar su dirección web, que tenía desde hacía 6 años, "http://photomatt.net/", por un dominio adquirido en Trinidad y Tobago por lo que su nueva web es "http://ma.tt". A esto se le denomina Domain Hack y su definición nos dice que se trata de un dominio de internet que tiene forma de una palabra completa.

Antes que nada, hay que aclarar que un dominio de Internet es un nombre base que agrupa a un conjunto de equipos o dispositivos y que permite proporcionar nombres de equipo más fácilmente recordables en lugar de una dirección IP numérica. Es decir, cuando accedéis a la dirección "http://www.elpais.com" estáis solicitando datos a un ordenador (servidor) que dispone de un número identificativo único (Dirección IP), pero que ha sido renombrado de forma usable para los seres humanos, esto es elpais.com.

Existe una lista de dominios de Internet válidos que sirven para identificar (Más o menos) la localización geográfica o el propósito de el sitio web. Así, por ejemplo, los dominios .COM se trataría dominios genéricos de webs con fines comerciales y los .NET estarían dedicados para la infraestructura de red, por otro lado los .ES serían dominios de nivel superior geográfico que correspondería a páginas web españolas. Sin embargo, es bastante obvio que la disponibilidad de nombres para dominios es escasa, además de que se ha convertido en un negocio el registrar un dominio para después revenderlo al mejor postor.

Por ejemplo, imaginemos que queremos comprar el dominio Bonito. Si realizamos una búsqueda para su registro, descubriremos que Bonito tiene casi todos sus dominios genéricos ocupados (Bonito.com, Bonito.net, Bonito.es, Bonito.org), pero se da la circunstancia que queremos necesariamente que nuestra web se llame de esta forma. Podemos hacer dos cosas, la primera sería tratar de recomprar el dominio a su propietario o bien truncar el dominio hasta conseguir una denominación que nos guste. La idea (Domain Hack) es coger la palabra y descomponerla jugando con las distintas posibilidades que disponemos para truncarlo. Así, por ejemplo, Matt ha contratado el dominio MA en el país Trinidad y Tobago (.TT), lo que resulta es el dominio ma.tt (Se supone que muy fácil de recordar).  Por supuesto que tenemos más ejemplos, y más conocidos, como el de las webs del.icio.us o blo.gs.

Pero si no sabemos por dónde empezar, podemos utilizar la herramienta Domain Hacks que nos truncará la palabra que escojamos ofreciéndonos algunas sugerencias. De esta manera, para nuestra palabra "Bonito" dispondríamos de cuatro dominios para otros tantos países.

Domain Name Top-Level Domain
http://boni.to/ boni.to .to Tonga
http://bon.it/o/ bon.it .it Italy
http://bo.ni/to/ bo.ni .ni Nicaragua
http://x.bo/nito/ x.bo .bo Bolivia

Claro que esto tiene varios peros. El primero es encontrar una empresa registradora de dominios de confianza en los países señalados, mientras que el otro consistiría en que nuestros visitantes puede que se equivoquen a la hora de escribir nuestro dominio en su barra de direcciones del navegador (aquellos que no utilicen la caja de búsqueda de Google para tal fin). Es posible que se equivoquen a la hora de deletrearlo y que acaben en otra página web que no sea la nuestra, lo que, por otro lado, es bastante frecuente en páginas webs conocidas, como Google, y genera un tráfico de visitantes residual que se aprovechan un puñado de dominios para su propio beneficio. A esto se denomina Typosquatting.

3 comentarios