Saltar al contenido →

Categoría: Internet

La depreciación del link

Ejemplo de publicidad intrusiva en la WebComo profesionales de la información, no hay publicidad que nos debería molestar más que aquella que está incluida dentro del texto sin posibilidad de diferenciar qué es contenido incluido por el autor y cuál por las agencias publicitarias (O que la diferencia sea mínima como el doble subrayado). Aunque ya la nombré, de pasada, en el texto La Blogosfera ante la crisis económica – Otros tipos de publicidad, la violación que supone la inclusión de un enlace patrocinado dentro del texto de un artículo de un sitio web de forma aleatoria y automática, ajena a los deseos del autor, me merece la consideración de que se trata de una degradación del texto y del sitio web que la sustenta. Porque Tim Berners-Lee concibió la Web como un sistema de información en el que todos los documentos estuviesen interconectados, haciéndose referencia y pudiendo acceder a ellos de una forma sencilla e inmediata. Pero el enlace, el link, el sistema democrático que Google utilizó, y todavía se utiliza, para medir la popularidad de ciertas páginas web, se encuentra ahora en un momento de debilidad y amenaza.

No hace falta que señalemos que no estamos en contra de la publicidad, al fin y al cabo es el modelo de monetización que tienen los contenidos que aquí publicamos, pero una cosa es recomendar sitios web de forma perfectamente clara en cajas perfectamente diferenciadas de que son publicidad o enlaces publicitarios y otra cosa es que se nos engañe, por definirlo de alguna manera, invitándonos a visitar webs que han comprado las palabras que utilizamos en nuestros textos, pero que no necesariamente amplían o profundizan los textos sobre los que se hallan. Si los medios de comunicación huyen, en general, de utilizar enlaces hacia otras páginas web porque pierden tráfico, gran error porque lo único que se pierde es perspectiva, no alcanzo a comprender el porqué algunos utilizan estos sistemas que simplemente no aportan gran valor a sus informaciones.

Ya criticamos en su momento el Autolink de Google disponible en su Toolbar (Barra de Herramientas) como un elemento intrusivo en la navegación de aquellas personas que se instalasen el software, ahora no podemos salvo señalar, tal y como hace José Antonio Millán, que este tipo de publicidad además de ser completamente invasiva, se aleja mucho de lo que debe ser considerado un sitio web que aporta valor añadido a sus lectores, que va más allá de lo que debe ser considerado contenido y publicidad, distorsionando el mensaje y la voluntad que tenía el autor del texto a la hora de redactarlo. Confiamos que, finalmente, este tipo de publicidad no se generalice puesto que la navegación en la Red sería completamente vacía, sin sentido y llena de ruido.

3 comentarios

Los lados oscuros de la Wikipedia

La Wikipedia “La enciclopedia libre que todos podemos editar” ha cumplido su séptimo aniversario erigiéndose con pleno derecho en el buque insignia de la llamada Web 2.0. Las estadísticas que se manejan son impresionantes. Concretamente, esta enciclopedia on-line editada de forma colaborativa por voluntarios, permitiendo que la gran mayoría de los artículos sean modificados por cualquier persona con acceso mediante un navegador web; fue fundada el 15 de enero de 2001 y alcanzó su artículo 10 millones el pasado mes de marzo. Dispone de 253 ediciones distintas en distintas lenguas, aunque unicamente 137 están activas, correspondiendo sólo a su versión inglesa 2 millones de textos. Su éxito de participación y consulta ha sido tal que ha propiciado el desarrollo de otros proyectos hermanos y, curiosamente, la creación de proyectos para la edición de versiones de la Wikipedia estables en DVD e incluso la propuesta de una edición en papel. Su popularidad le ha llevado a constituirse como una de las fuentes más visitadas en Internet y el omnipresente Google dispone de cierta predilección por situar sus artículos en las primeras posiciones de los resultados frente a una búsqueda. De hecho, el buscador de Mountain View ya está preparando su Wikipedia particular bajo el nombre de Knol. Aunque a diferencia de la Wikipedia, Knol retribuye a su editores con lo que se desmarca claramente del carácter altruista y colaborativo de la primera.

Este es un reconocimiento explícito de Google del poder de la Wikipedia como fuente de información confiable. Sin embargo, el desarrollo y gestión de la Wikipedia dispone de partes oscuras y muchas dificultades tanto económicas, de contenidos y humanas. Como todo proyecto con cierta popularidad y envergadura, el foco de la opinión pública se ha situado sobre ella, siendo vigilado el cómo se desarrolla, qué se publica, cómo se publica, su funcionamiento interno, las relaciones personales de Jimmy Wales – su co-fundador y cabeza visible – y otros escándalos derivados. Por supuesto que Wales, su co-fundador, es plenamente consciente de ello y ha declarado recientemente, “Wikipedia tiene cada vez más poder, pero está en manos de la gente”.

Puede que uno de los mayores debates que levanta la Wikipedia sea precisamente el de su fiabilidad. De la Web social, que se ha llegado a denominar por algunos como la dictadura de los idiotas, se consideraba que no podía salir un producto de buena calidad, fiable, libre y gratuito, sino más bien de un burdo copiar y pegar de fuentes editoriales de prestigio. La fiabilidad de la Wikipedia siempre se ha hallado cuestionada y, de hecho, se llegó a prohibir su uso y, obviamente, la cita de ésta como fuente documental en la universidad de Middlebury (EEUU). Sin embargo, desde algunas fuentes científicas se ha tratado de corroborar el grado de fiabilidad esperable dentro de un producto informativo de estas características mediante la comparación con otras enciclopedias. El artículo publicado por la revista Nature es el más afamado y en él se compararon distintos artículos seleccionados previamente y sometidos a revisión por expertos. Los resultados fueron sorprendentes ya que el número de errores hallados dentro de la Enciclopaedia Britannica y los de la Wikipedia eran muy similares. Según el texto publicado en Nature, se había encontrado que, por término medio, cada entrada de Wikipedia tenía cuatro errores y la Británica tenía tres, mientras que la mayor queja contra Wikipedia fue que las entradas eran confusas y estaban mal estructuradas.

Hay que señalar que las críticas sobre su fiabilidad nacieron muy pronto y precisamente por personas que estuvieron involucradas desde un principio en su puesta en marcha. Así, Larry Sanger, co-fundador de la Wikipedia, se desvinculó totalmente del proyecto en 2002 tras criticar el descontrol que existía sobre los contenidos que aportaban los colaboradores. Finalmente, en 2006, lanzó una enciclopedia colaborativa que, desde su punto de vista, era más rigurosos bajo el nombre de Citizendium.

Pero más allá de lo que se publica, el debate también gira sobre lo que debe estar y lo que no debe de estar dentro de ella. Por ejemplo, dentro de la biblioblogosfera, se trató de incluir un término como representativo de los blogs de Biblioteconomía y Documentación, pero la propuesta fue descartada por sus editores. Esto muestra que qué o quién merece estar dentro de ella es una tarea más complejas de los denominados bibliotecarios y que tampoco consiguen sustraerse de la polémica, puesto que las presiones son muchas y variadas. Sin embargo, a veces las presiones sobre lo creado y los contenidos, sobrepasan mucho las buenas intenciones de los mantenedores de la limpieza de la enciclopedia. Esto ha obligado a la organización a intervenir para tratar de evitar actos vandálicos dentro de ella e incluso a tomar resoluciones drásticas para detenerlos.

Desgraciadamente, no sólo personas por su cuenta y riesgo, junto a pequeñas organizaciones, han tratado de alterar sus contenidos, también grandes agencias han puesto sus ojos sobre ella e intervenido para manipular sus artículos. Bien conocido es el hecho que la agencia estadounidense CIA fue descubierta tratando de adulterar contenidos. de este sitio web o, también, las presiones recibidas desde el Islam para que se retirase una imagen del profeta Mahoma para no herir las sensibilidades de los seguidores de este culto, lo que fue finalmente rechazado. Por otro lado, están surgiendo otros problemas como la aparición de empresas que pagan a editores de la enciclopedia para que el contenido de cierto artículo sea más próximo a sus intereses. Pero las curiosidades no acaban ahí, por supuesto, ya que la Wikipedia también ha servido para predecir una muerte, aunque no para evitarla.

Desgraciadamente, las denuncias sobre manipulación y edición fraudulentas de contenidos no son los únicos protagonistas que han saltado a la palestra en las informaciones de los medios de comunicación sobre la Wikipedia. Más allá del pasado oscuro de personas que trabajaron para la Wikipedia, las actividades de Jimmy Wales son seguidas con sumo detenimiento y sus actos constantemente analizados. De este modo, a Jimmy Wales le han surgido denuncias por extorsión y malversación de fondos, junto a denuncias de edición ilegal de una entrada de la Wikipedia por una ex-amante del fundador que han sido recogidas y difundidas por los medios.

Como conclusión, señalar que los retos de la Wikipedia son los desafíos a los que se enfrenta la Web 2.0 en general. El poder de la Wikipedia es el poder de muchos concentrado en un punto, dando la voz a cualquiera que tenga algo que aportar y bajo la tutela de iguales. Por supuesto que las dificultades de la Wikipedia, por su tamaño y ambición, no pueden ser extrapolables completamente a todos los proyectos Web 2.0, aunque sí a aquellos que se basa en la confianza entre pares. A tenor de lo visto, la creación de entornos colaborativos del conocimiento son imparables al igual que la Web 2.0 en su conjunto.

13 comentarios

Escribir para buscadores y lectores 2.0: La simplificación del lenguaje (y 2)

Adecuar el contenido al continente no tiene porqué ser pernicioso a corto plazo si su utilización está englobada dentro de ciertos ámbitos y no invadan otros. Por ejemplo, no es lo mismo escribir un SMS, lo que supone acometer un número de faltas de ortografías ilimitado, que escribir en otro medio y para que lo lean otros. Obviamente, los registros se adecúan en el primer caso para que el mensaje nos resulte lo más económico posible (0’15 € el mensaje nos obligan a ello), mientras que en el segundo caso el costo económico no tiene la mayor importancia para nosotros, no así de lo que queremos transmitir. Así, por ejemplo, escribir un e-mail o un texto para un blog no tienen coste o éste es imperceptible para aquel que lo redacta, por lo que nuestro interés pasa por que el mensaje llegue y de una forma adecuada.

El problema surge cuando el ámbito de la ortografía utilizada para los mensajes móviles, que consiste en la reducción de caracteres, fundamentalmente vocales, para poder utilizar el mayor número de palabras posibles de la forma más económica; va más allá del entorno de los mensajes cortos e inunda la Red. Es entonces cuando surgen movimientos para el correcto uso del lenguaje aceptado y reglado por todos para evitar que ese uso, considerado incorrecto, transcienda y se generalice allí donde no le corresponde.

Dispones de 144 caracteres para comunicarte

Como si de la condena de los teléfonos móviles nos persiguiese, últimamente se han puesto de moda una serie de servicios en Internet, muy Web 2.0, que nos impiden utilizar más de 144 caracteres para comunicar nuestras ideas. Se trata del denominado micro-blogging, donde escribir textos extensos está prohibido y donde la brevedad es la quinta esencia del mensaje. Un buen ejemplo de estos sitios web es el conocido Twitter, donde lo que se busca es el establecimiento de una conversación asíncrona con nuestros seguidores y amigos junto con la posibilidad de transmitir qué se está haciendo en cada momento.

Comprobamos de este modo que la tiranía del SMS se extiende también por la web más allá de los usos ortográficos y gramaticales de sus usuarios, permitiendo concebir servicios y utilidades que se adecúan a ellos y que, a la postre, disponen de una gran popularidad entre los internautas. La cultura de lo breve y esencial se impone en una Red donde la vida frenética no permite detenerse en grandes divagaciones o exposiciones, donde lo superfluo vence a lo profundo y donde prima lo telegráfico sobre otras consideraciones y que lentamente inunda otros aspectos de nuestras vidas.

En efecto, nos estamos acostumbrando a que se nos dé la información de forma directa y sin grandes rodeos. Si una información periodística tiene que ser redactada necesariamente de forma piramidal inversa, lo más importante en su parte superior mientras que según se avanza en el texto se dan otros detalles de menor relevancia, en Internet actualmente prima lo breve y, por ello, no precisamente lo mejor. Pero, en cualquier caso, nos encontramos ante una nueva generación multitarea, que necesita estímulos contínuos para seguir trabajando dentro de una actividad y que no necesariamente tiene que fijarse o establecerse en una sola.

Nos hallamos ante los lectores 2.0, incapaces de leer algunas líneas seguidas sin llegar a entender el todo, que se pierden agotados ante textos que superan las 500 palabras y qué decir libros de más de 200 páginas. Sin embargo, esto no tiene porqué ser necesariamente negativo, ni censurable, simplemente se trata de una adaptación a los nuevos tiempos que viven y que, por supuesto, no pueden controlar.

Nuevos tiempos comunicativos, la esencia es el mensaje

Tampoco lo hacen aquellos que deberían. Los periodistas, aquellos garantes del buen hacer comunicativo escrito, cada vez escriben peor, trufan sus informaciones de faltas ortográficas, de sintaxis inconexas, de gramáticas imposibles. Sucumben, lentamente, a las prisas, a las multitareas que deben atender y a la presión por ser los primeros en publicar una noticia, en dar la primicia descuidando lo que más deberían mimar, su escritura y su firma.

Pero, retomando el texto anterior, no sólo se ven presionados por las prisas, también por otros factores desde que los medios se han dado cuenta de que Internet es el futuro de su negocio y, por ello, crear y diseñar un nuevo modelo de negocio para él. En la Red, se trabaja para la audiencia y, sencillamente, cuanta más audiencia consigas congregar alrededor tuyo, mayores posibilidades de ingresos económicos puedes obtener. Por ello, los medios de comunicación trabajan para los buscadores, no tienen mayor fuerza que ellos, sin embargo trabajar para Google tiene cierto efecto pernicioso y es la simplificación del uso del lenguaje. Tanto es así que los medios de comunicación han sacrificado su estilo hacia su presencia en la Red, aportando incluso dobles titulares, uno para su edición en papel y otro para su edición en la Red para adecuarse a los dos medios.

Hoy en día, la quinta esencia de la comunicación es la telegrafía. Despojar de adornos la comunicación, ser directo y claro, sin ambigüedades, sin adornos posibles. De esta forma, el estilo se despoja de la creatividad y se queda desnudo intentando lanzar un mensaje que tal vez no llegue a ninguna parte, sin sustancia ni gracia, desnudo ante la audiencia, desnudo ante Google.

4 comentarios

Escribir para buscadores y lectores 2.0: La simplificación del lenguaje (1)

En el blog del Sedic, dedicaban el pasado mes de enero al debate alrededor de la idea de que se estaba conformando Una sociedad sin lectores que huía de catastrofismos. De este modo, todos los autores participantes concluían que, en esta sociedad del siglo XXI, no es que no se leyese poco, es que nunca se había leído y se podía leer tanto. Así pues, la tónica general en los discursos de los textos era considerar que actualmente se lee mucho, ya que las nuevas tecnologías e Internet nos invitan (y obligan) a ello. De este modo, los jóvenes se comunican preferentemente de forma textual, ya se trate mediante envíos de mensajes de texto a móviles o a través del messenger, los negocios y su comunicación todavía se sustentan en el soporte texto (Las Blackberry y el correo electrónico son buena prueba de ello), la ciencia nunca ha disfrutado de una vía de comunicación tan rápida, barata y sencilla de utilizar como la Red; los medios de comunicación invitan a la participación junto al consumo de informaciones, cualquiera puede “obligarse” a escribir un blog, a construir una red social o incluso a componer una enciclopedia, etc. Sí, hoy en día nos encontramos ante la Sociedad de la Infoxicación más que sobre otra consideración, pero, mientras nos adentramos en ella, olvidamos cuidar cómo transmitimos la información y, sobre todo, cómo componemos.

Se me ha acusado de escribir textos demasiado largos, de hecho hay estudios que así lo atestiguan, puesto que mis argumentaciones no son esquemáticas y me gusta desarrollar las ideas. Últimamente, me he obligado a acortar mis textos, primero porque la disponibilidad del tiempo es reducida y, por otro lado, porque un texto demasiado largo no invita a leerlo. En cualquier caso, acortar los textos tiene ciertas ventajas puesto que los buscadores, sobre todo Google, les encanta los textos cortos, esquemáticos, que no disponen de la complicación del lenguaje figurativo humano. Una verdadera lástima. El hecho es que sacrificamos nuestro estilo, nuestra inventiva, en la estandarización de nuestro lenguaje, destacando palabras clave por las que deseamos ser encontrados y leídos.

Cómo funciona Google

Google nació dentro de un ámbito académico y su funcionamiento inicial se basaba principalmente en los textos científicos. De este modo, en sus inicios, Google otorgaba mucho peso a las partes que abrían un texto (donde se sitúan la introducción, metodología y objetivos de los textos científicos) y finales donde se pueden encontrar las conclusiones. La fiebre de los descriptores en los títulos para el posicionamiento también derivan del estilo científico, puesto que este tipo de artículos deben disponer de un título claro, preciso y conciso que defina sin lugar a dudas qué nos vamos a encontrar en el texto. No hace falta señalar que la idea del interés de un texto basándose en los enlaces entrantes que recibía se basa en las teorías bibliométricas para localizar los artículos y autores más relevantes de una determinada ciencia dentro de un determinado ámbito.

Así pues, cada webmaster se afana por trabajar para Google siguiendo una metodología para mejorar su posicionamiento dentro de la primera página de resultados del buscador. Echemos un vistazo a un texto que nos describe cómo deberíamos escribir para los buscadores para mejorar el posicionamiento:

  • El título es la parte más importante del artículo – Debe aparecer el término o keyword principal. El título debe ser los más corto imprescindible posible.

  • El primer párrafo es más importante que el último – Debe aparecer el término principal y varias expresiones, palabras o términos similares. Pongamos el ejemplo en este post. Sería algo así:

    • Escribir para Google

    • Cómo escribir de cara al SEO

    • Normas de escritura para mejorar nuestro posicionamiento

  • Repetir el término principal a lo largo de los párrafos, junto con otras expresiones similares.

  • Si utilizamos etiquetas h2, que contengas los términos.

  • Mantenernos centrados en el tema principal, procurando no mezclar temas o irnos demasiado por las ramas. Se trata de mensajes claros y generalmente cortos, no estamos escribiendo ensayos.

Comprobamos entonces que realmente no estamos escribiendo para humanos, sino para buscadores, máquinas en definitiva que evalúan nuestros textos dependiendo de una serie de variables que servirán para colocar a nuestras páginas por arriba o por abajo de sus resultados. Pero la simplificación en la comunicación no se detiene ahí, va un poco más allá.

2 comentarios

Domain Hack, deconstruyendo el nombre de un dominio

Matt Mullenweg, fundador y desarrollador de WordPress, nos relataba en su blog esta misma semana que había cambiado de dominio. Una de las curiosidades que arguïa en su texto era la cantidad de errores que había detectado en textos periodísticos asignándole el dominio .COM cuando su blog disponía del domino . NET, por lo que, imagino que entre cansado y divertido, ha decidido abandonar su dirección web, que tenía desde hacía 6 años, "http://photomatt.net/", por un dominio adquirido en Trinidad y Tobago por lo que su nueva web es "http://ma.tt". A esto se le denomina Domain Hack y su definición nos dice que se trata de un dominio de internet que tiene forma de una palabra completa.

Antes que nada, hay que aclarar que un dominio de Internet es un nombre base que agrupa a un conjunto de equipos o dispositivos y que permite proporcionar nombres de equipo más fácilmente recordables en lugar de una dirección IP numérica. Es decir, cuando accedéis a la dirección "http://www.elpais.com" estáis solicitando datos a un ordenador (servidor) que dispone de un número identificativo único (Dirección IP), pero que ha sido renombrado de forma usable para los seres humanos, esto es elpais.com.

Existe una lista de dominios de Internet válidos que sirven para identificar (Más o menos) la localización geográfica o el propósito de el sitio web. Así, por ejemplo, los dominios .COM se trataría dominios genéricos de webs con fines comerciales y los .NET estarían dedicados para la infraestructura de red, por otro lado los .ES serían dominios de nivel superior geográfico que correspondería a páginas web españolas. Sin embargo, es bastante obvio que la disponibilidad de nombres para dominios es escasa, además de que se ha convertido en un negocio el registrar un dominio para después revenderlo al mejor postor.

Por ejemplo, imaginemos que queremos comprar el dominio Bonito. Si realizamos una búsqueda para su registro, descubriremos que Bonito tiene casi todos sus dominios genéricos ocupados (Bonito.com, Bonito.net, Bonito.es, Bonito.org), pero se da la circunstancia que queremos necesariamente que nuestra web se llame de esta forma. Podemos hacer dos cosas, la primera sería tratar de recomprar el dominio a su propietario o bien truncar el dominio hasta conseguir una denominación que nos guste. La idea (Domain Hack) es coger la palabra y descomponerla jugando con las distintas posibilidades que disponemos para truncarlo. Así, por ejemplo, Matt ha contratado el dominio MA en el país Trinidad y Tobago (.TT), lo que resulta es el dominio ma.tt (Se supone que muy fácil de recordar).  Por supuesto que tenemos más ejemplos, y más conocidos, como el de las webs del.icio.us o blo.gs.

Pero si no sabemos por dónde empezar, podemos utilizar la herramienta Domain Hacks que nos truncará la palabra que escojamos ofreciéndonos algunas sugerencias. De esta manera, para nuestra palabra "Bonito" dispondríamos de cuatro dominios para otros tantos países.

Domain Name Top-Level Domain
http://boni.to/ boni.to .to Tonga
http://bon.it/o/ bon.it .it Italy
http://bo.ni/to/ bo.ni .ni Nicaragua
http://x.bo/nito/ x.bo .bo Bolivia

Claro que esto tiene varios peros. El primero es encontrar una empresa registradora de dominios de confianza en los países señalados, mientras que el otro consistiría en que nuestros visitantes puede que se equivoquen a la hora de escribir nuestro dominio en su barra de direcciones del navegador (aquellos que no utilicen la caja de búsqueda de Google para tal fin). Es posible que se equivoquen a la hora de deletrearlo y que acaben en otra página web que no sea la nuestra, lo que, por otro lado, es bastante frecuente en páginas webs conocidas, como Google, y genera un tráfico de visitantes residual que se aprovechan un puñado de dominios para su propio beneficio. A esto se denomina Typosquatting.

3 comentarios

¿Web 2.0? ¡Antiguo! En 2008 se habla de Redes Sociales

Qué crueldad esto de la obsolescencia programada de la terminología, cuando ya hemos leído, estudiado e incluso escrito, ingentes documentos sobre un término o un concepto nuevo – sí, hablo de la Web 2.0de repente se desvanece, parece aburrido y puede que incluso reiterativo. Pero la Web 2.0 ya tenía fecha de caducidad, sólo hay que ver el gráfico publicado el año pasado por Radar Networks con la evolución prevista de la web. Consultándolo a la Web 2.0 le quedan dos años, pero puede que no pase de éste.

Evolución prevista de la web

Porque si al principio fue la blogosfera, tampoco hace tanto cuando se empezaron a publicar libros sobre ella, para ser engullida en atención mediática por la Web 2.0, ahora todo nuevo proyecto en Internet debe llevar la etiqueta Red Social para resultar medianamente interesante y, por lo tanto, atraer inversores. Tanto es así que incluso los blogs más importantes están llevando a cabo distintas iniciativas para crear una Red Social en torno a sus comentaristas y su comunidad de lectores. Este es el caso, por ejemplo, de OpenID y la empresa de nanomedios Weblogs SL que decidió integrar este sistema de identificación abierto para todos sus blogs.

Pero, ¿qué es eso de las redes sociales en Internet? Fundamentalmente, se trataría de páginas web donde se utiliza el alcance de Internet para facilitar la ampliación del círculo de contactos y poder compartir intereses, de la naturaleza que sean, con un gran número de personas sin ninguna limitación física o temporal. Las redes sociales parten de la teoría de los seis grados de separación, según la cual cualquier persona del planeta está conectada a otra por sólo seis pasos entre gente que se conoce.

De esta forma, si los blogs han permitido la creación de un universo en la Red donde cada internauta publica su diario personal, sus ideas sobre su profesión o su particular ‘visión del mundo’, las redes sociales fomentan la posibilidad de estrechar vínculos desconocidos y dispersos, crear un espacio para compartir conocimiento, intereses o aficiones. Principalmente, hay tres tipos de redes sociales:

  • Comunicación que nos ayudan a poner en común conocimientos y experiencias.
  • Comunidad que nos permiten encontrar e integrar comunidades.
  • Cooperación que nos facilitan hacer cosas junto a otras personas.

En The Social Software Weblog disponemos de un listado de distintas web con objetivos muy variopintos como redes sociales, aunque son en inglés. En España, disponemos de Xing, que compró eConozco, y Neurona, aunque obviamente las más conocidas son Facebook, LinkedIn o MySpace todas en inglés. Pero mientras ya se comienza a estudiar el posible futuro y evolución de esta nueva idea, las redes sociales permiten por un lado estudiar a los internautas desde un punto sociológico, a la vez que se puede segmentar el mercado y enviar a estos usuarios publicidad de productos específicos según sus intereses. Por supuesto que llegados a este punto entramos en el debate de la privacidad del usuario y qué hacen estas empresas con los datos aportados por los internautas, pero eso ya es otra historia.

3 comentarios

«Web 2.0 – El usuario, el nuevo rey de Internet» de Ismael Nafría

Web 2.0Ismael Nafría, subdirector de contenidos de Prisacom, no se contenta con realizar un estado del arte de la Web 2.0, a saber, los consabidos sitios, las acostumbradas definiciones; sino que desea darle un valor añadido a su libro "Web 2.0. El usuario, el nuevo rey de Internet" aportando una perspectiva histórica de cómo nacieron los negocios en Internet, cómo y porqué fracasaron, desde qué punto comienza a evolucionar lo que hoy en día se considera la Web 2.0 y porqué no está condenada a ser una nueva Burbuja 2.0.

De los textos que he tenido la oportunidad de leer relacionados con la Web 2.0 y, anteriormente, relacionados con la blogosfera; éste es de los más amenos y accesibles que he tenido en mis manos. Este periodista nos permite tener una perspectiva global, alejándose de tecnicismos, de cómo las principales empresa de las que hoy hablamos que nacieron en la Red evolucionaron hacia lo que son hoy, junto aquellas que fracasaron y/o fueron fagocitadas por las grandes, pero que caminaron hacia lo que se entiende una nueva forma de hacer las cosas en Internet.

Este nuevo libro sobre la Web 2.0 [ISBN: 978-84-96612-75-4] abre fuego con la consabida portada de la revista Time dedicado al personaje del año 2006 que señalaba directamente a los internautas. Las razones de porqué un ente, un ordenador que abría un vídeo de YouTube, era considerado como representativo del personaje destacado del año; se desgranan en el texto punto a punto, remarcando que fueron los usuarios los que tomaron finalmente el control de Internet, algo que no había sucedido en la Web 1.0, y que había provocado un terremoto en las comunicaciones y en los medios yendo más allá de la circunstancia puntual ante grandes hechos noticiosos como desastres o atentados terroristas.

No hace falta señalar que listados, directorios, de lo más representativo de la Web 2.0 no faltan. Pero Nafría consigue darle un punto de interés más allá de su uso y evolución a lo largo del tiempo, aportando entrevistas con algunos de los desarrolladores de estos lugares que además de aportar su punto de vista particular sobre el fenómeno de la Web 2.0 van más allá señalando algunos consejos para los que empiezan.

Para los ya expertos en los vericuetos de la Web 2.0, puede que los más relevante que vayamos a encontrar sea el desarrollo de la financiación de esta forma de hacer las cosas, de cómo el dinero ha establecido unos flujos de inversión más seguros después de la crisis bursátil de las empresas tecnológicas, pero que decididamente Internet cambiará la publicidad y cómo los seres humanos se comunicarán y recibirán las noticias a partir de ahora. Por supuesto que Nafría no se detiene en el ahora y marcha un poco más allá, ofreciéndonos un último capítulo desentrañando cómo será el futuro, la Web 3.0 que al igual que la anterior está en continuo desarrollo, aunque ésta parece que nunca llega a materializarse.

6 comentarios
Usamos Cookies - Utilizando este sitio o cerrando este mensaje aceptas nuestra política de Cookies.
Aceptar Cookies
x