Saltar al contenido →

Etiqueta: Web 2.0

Porqué lo llaman “Nube” cuando quieren decir Internet

La pasada semana, leyendo a un columnista tecnológico bastante popular, me sorprendía cuando utilizaba Nube refiriéndose indudablemente a la Internet de forma genérica. Este comunicador señalaba que una aplicación del iPhone se conectaba a El País para descargarse la información, pero en vez de denominar esta acción como conexión a la Web, lo definía como conexión a la Nube. Ya hemos reflexionado aquí mucho sobre los continuos cambios a la hora de designar las cosas, la creación de nuevos términos y mucho más si se trata en el sector tecnológico. El término Web 2.0 está tan manido que ya se huye de él y precisamente el de Web Social, buscando sustituirlo, tiene una serie de connotaciones que no se ajustan al anterior y algunos sugieren que en realidad el primero engloba al último. De forma bastante similar ha sucedido con los términos multitudes inteligentes o inteligencia colectiva que reinventados como inteligencia de enjambre que no acabó de cuajar, aunque desde luego este último dispone de mi simpatía.

Puede ser que Internet sea uno de los entornos más sujetos a los cambios de tendencias y a la reinvención de las ruedas, como alguien me señaló en cierta ocasión, aunque, todo hay que decirlo, es precisamente uno de los lugares donde la información se mueve a mayor velocidad y donde su intercambio se produce de forma más acelerada. Tal vez por ello, la Web deba estar redenominándose tratando de adaptarse a las nuevas tendencias, al mismo tiempo que urge a la rápida adopción de las mismas para que la máquina no deje de funcionar nunca.

Sin embargo, es justo decir que los nuevos bautizos surgen gracias a los nuevos conceptos y puede que ante el éxito de uno, los nichos de mercado similares lo adopten rápidamente y de forma no distintiva, provocando confusiones y el cruce de fronteras que provocan la confusión más allá de la aclaración de los términos.

Porque, volviendo a mi columnista, en esta ocasión el iPhone se descarga información a través de la Web sin pasar por un navegador, que siempre ha sido la forma más tradicional de conseguirla. No se trata de un RSS, ni de un correo electrónico sino de un software finalista para las alertas informativas, aunque esta idea también la habíamos visto en este mismo sitio web en forma de aplicaciones de escritorio. Por lo tanto, en este caso, la Nube describe un ente abstracto que no hace referencia a los mecanismos tradicionales a la hora de obtener información de la Web, aunque obviamente el proceso es bastante similar.

Es posible que el concepto Nube esté desplazando a la Web (Telaraña en inglés) debido a la rápida penetración de la ubicuidad (se encuentra en todas partes gracias a las conexiones inalámbricas) dentro de nuestra sociedad. Si hace unos años, la Web en el móvil, sí hablo del WAP, parecía una broma comparada con lo que se veía a través de un ordenador y un navegador de escritorio, el iPhone y el desarrollo de navegadores específicos para móviles, por ejemplo el Opera Mini, junto con el desarrollo de redes WiFi están trasladando el concepto de Internet ligado a un ordenador, una mesa y una silla, a casi estar disponible en cualquier dispositivo imaginable.

Pero esta Nube no es más que una reinvención de otro término, el Grid Computing o computación distribuida mediante el cual una serie de ordenadores se conectaban simultáneamente para la realización de cálculos, almacenamiento y procesos de forma coordinada y más barata que si de grandes supercomputadores se tratase. De Grid Computing, pasamos a Cloud Computing, aunque esta vez la necesidad de darle una capa de barniz era más comercial y centralizada y de ahí lo de Nube, mediante el cual una serie de empresas contrataban la capacidad de cálculo de servidores de tercero para el alojamiento o procesamiento de información de tal manera que el coste fuese inferior que disponer de un servidor dedicado propio.

Sin embargo, la metáfora de Cloud o Nube es demasiado romántica para dejarla escapar, así que aprovechando todo el marasmo de aplicaciones destinadas a la Web 2.0, donde el trabajo ya no se realiza en el escritorio de uno sino en la Web y en servidores ajenos, los difusores de los beneficios de la Web 2.0 decidieron quedarse con este término convirtiendo casi todo el trabajo que se realiza en la Web en trabajo que se realiza en la Nube.

Nube porque nuestros documentos (Google Docs o Zoho), correo electrónico (Gmail o Hotmail), fotografías (Flickr o Microsoft Live), vídeos (YouTube o Dalealplay) e incluso marcadores se quedaban en sitios webs, en ordenadores y servidores ajenos a los usuarios, cambiando nuestra forma de trabajar y permitiendo que nuestros trabajos y datos personales los gestionasen otros.

En fin que si la Web es sólo una parte de Internet, aunque utilicemos estos términos casi de forma indistinta, es posible que la Nube pase a ser un sinónimo de la Web a pesar de que sólo se trate de un subconjunto de ella, subconjunto al mismo tiempo de la Web 2.0; pero en realidad no importará en exceso porque la máquina deberá seguir funcionando.

¿Para cuándo la Nube 2.0?

9 comentarios

Las folksonomías en los blogs de Biblioteconomía y Documentación

Las folksonomías, además de convertirse en una de las palabras más odiadas por los internautas, disponen de distintos puntos débiles bien conocidos. Así esta forma de clasificar la información hereda todos los problemas bien conocidos por los documentalistas de los vocabularios no controlados. De esta manera, al utilizar el tagging nos enfrentamos a la ambigüedad, polisemias, sinonimias y falta de control a la hora de describir de forma específica o más general las mismas cosas.

Concretamente, tenemos ambigüedad porque diferentes usuarios aplican términos a las mismas informaciones de forma completamente distinta, polisemia ante la utilización de las mismas palabras para designar objetos o conceptos distintos, sinonimia porque distintas palabras pueden ser utilizadas para definir las mismas cosas y, finalmente, sobre la especificidad de los términos, porque un usuario experto puede definir una información como AJAX o javascript, olvidándose de indicar lenguajes de programación que un usuario no-experto puede utilizar a la hora de recuperar información sobre esta temática.

Además, la utilización del tagging es tan abierta que no otorga una guía de uso a la hora de aplicarlas, cómo deben usarse, la puntuación a utilizar, el orden de las palabras, si se deben usar plurales en vez de singulares, si se deben usar palabras compuestas sobre las simples, si se deben añadir sinónimos, etc.

Recientemente, se han publicado dos textos científicos que hacen referencia al uso que se hace de las folksonomías en los blogs de Biblioteconomía y Documentación a los que os recomendamos echarles un vistazo. En el primero de ellos, Etiquetado libre frente a lenguajes documentales. Aportaciones en el ámbito de Biblioteconomía y Documentación, su autor Luis Rodríguez Yunta realiza una reflexión muy interesante sobre el uso de las folksonomías dentro de distintas herramientas de la denominada Web 2.0 por parte de los profesionales de la información:

Los profesionales de la Documentación han sido tradicionalmente valedores del empleo de lenguajes controlados, por su consistencia en la representación sistemática del análisis documental de contenido y su capacidad para combinar búsquedas genéricas y específicas. Sin embargo, a partir de las herramientas de la web social, el etiquetado también está siendo aplicado por los propios documentalistas y bibliotecarios. Parece oportuno reflexionar sobre este hecho ¿Se trata de una renuncia a valores tradicionales de la disciplina? ¿O es una adaptación a las demandas de nuevas generaciones de usuarios? ¿Hay un cambio de paradigma en la percepción de las herramientas de recuperación?

Por otro lado, en la revista Library & Information Science Research se publica el artículo Librarians and information scientists in the blogosphere: An exploratory analysis en el que se realiza un análisis de las etiquetas más utilizadas en los 30 blogs de Biblioteconomía y Documentación dentro del ámbito anglosajón para determinar los temas que más se abordan dentro de la biblioblogosfera inglesa.

Un comentario

EE UU se dispone a regular a los blogs y el Social Media

No es la primera vez que se realizan intentos para tratar de legislar lo que se publica dentro de la blogosfera o de la Web Social. En su momento, la Unión Europea ya propuso la creación de un registro de blogs, aunque finalmente desechó la idea ante el gran revuelo que supuso aquella idea. Incluso Tim O’Reilly trató de que se estableciese un código de conducta para la blogosfera que fue muy comentado y contestado que finalmente quedó en nada ante la imposibilidad de alcanzar algún tipo de acuerdo. En esta ocasión, la polémica nos llega desde los Estados Unidos donde la FTC (Federal Trade Commission) se plantea comenzar a regular los blogs y el Social Media (Facebook o Twitter) al considerar que estos son, en realidad, más una herramienta de marketing que un medio de comunicación y que promete en acabar de la misma forma que las dos circunstancias señaladas anteriormente. Desde la FTC, se argumenta que se está tratando de actualizar las directrices para la defensa de los consumidores aprobadas hace treinta años, de modo que se ajusten a la realidad actual donde los consumidores acuden cada vez más a la Red para informarse.

Concretamente, el punto de mira de la FTC se centra en aquellos blogs que aceptan la publicación de lo que se denomina posts patrocinados, que son textos donde el bloguer recibe una compensación, en especie o monetaria, por comentar sus experiencias con determinado producto o servicio. Dentro de este tipo de informaciones, existen distintas variantes que van desde la total libertad del bloguer para comentar su experiencia basándose en su opinión personal y otras donde el fabricante especifica las recomendaciones que el bloguer debería de plasmar en el su texto. De este modo, el regulador estadounidense abre la puerta para que las webs dedicadas al Social Media puedan ser denunciadas por los consumidores si publican o alojan informaciones falsas sobre los productos que se reseñen.

Por supuesto que la polémica ha saltado a la blogosfera americana que ya se pregunta si las autoridades estadounidenses comenzarán a considerar a los bloguers como criminales por escribir este tipo de textos o qué harán con el resto de blogs que no se encuentran alojados dentro del territorio de su jurisdicción. En definitiva, la conclusión es que se tiene la impresión de que la FTC está intentando regular estos medios como si se tratase de publicaciones impresas sin contemplar otras consideraciones que obviamente les sobrepasan y que no son posibles de controlar dentro de un mundo interconectado.

5 comentarios

En tiempos de crisis, crecen los agujeros negros en la Web 2.0

Una de las principales críticas que siempre se han realizado a los medios de comunicación que se desplazaron a la Web desde sus productos impresos consistía en que tendían a no realizar enlaces. De hecho, siguen mostrándose incómodos a la hora de hacerlo, temiendo quizás que los lectores se marchasen al encontrar un sitio web mucho más rico, reduciendo su permanencia en su sitio web. No cabe duda de que las noticias de los medios son las que más enlacen reciben desde los distintos servicios de la Web 2.0, ya se trate desde los blogs, marcadores sociales o desde sistemas de filtrado social de noticias, por lo que contemplar a estas webs como agujeros negros (Webs que reciben muchos enlaces pero que no realizan ninguno) estaba más que justificado.

Los internatuas siempre se han mostrado un tanto molestos con estas prácticas, sobre todo si se trata de una noticia que necesita de ampliación de información citando la fuente original (Por ejemplo un informe o un estudio), sin embargo en tiempos de crisis los webmasters también están descubriendo que la economía de las webs y los enlaces recíprocos que Google contribuyó a construir se está comenzando a resquebrajar lentamente. The Guardian advertía a principios de 2007 que la Wikipedia se estaba convirtiendo en un agujero negro al incluir dentro de sus enlaces externos el atributo nofollow, con este atributo Google no cuenta el enlace realizado hacia una página web externa en términos de posicionamiento. Por otro lado, recientemente, Twitter ha implementado este atributo en los enlaces que se hagan dentro de ella convirtiéndose a su vez en otro agujero, aunque en este caso parece que Google sugirió que se realizase este cambio a pesar de que no se sabe a ciencia cierta qué sucederá en el posicionamiento de los resultados de esta herramienta de microblogging en un futuro.

Pero aún hay más. Otros dos estandartes de la Web actual, la red social Facebook y el sistema de filtrado social de información más popular en Estados Unidos Digg han decido poner en implementar lo que se denomina iFrame que consiste en la utilización de marcos que engloban los contenidos de otras webs. Es decir, si un usuario hace clic en un enlace externo dentro de estas dos webs, el usuario será redireccionado hacia una página con una barra superior que puede llegar confundir al usuario respecto la autoría y el origen de la información que está visualizando (Os dejo, un ejemplo). De esta manera, también se persigue que el usuario permanezca mucho más tiempo dentro de Digg y que no se marche.

Esto es muy similar a lo buscado en un principio por los medios de comunicación, aunque dándole obviamente una vuelta de tuerca y creando una gran controversia dentro de la Web sobre este movimiento de Digg. Por otra parte, y para mayor escarnio de los webmasters, Digg ha implementado un acortador de URLs de tal manera que no muestra los enlaces hacia las páginas webs promocionadas dentro de su sitio, convirtiéndose además en otro agujero negro.

Comentarios cerrados

Web sociabiliza tu vida (hasta el extremo)

No hace mucho, una amiga me preguntaba si podía darse de baja de Facebook horrorizada por la potencialidad de la herramienta. No es algo que debería sorprendernos, algunos podemos abrazarla sin muchos miramientos, sin detenernos en lo que hacemos o lo que hacen por nosotros, pero lo cierto es que ella no se sentía muy cómoda con ese descontrol de datos y, lo peor de todo, la falta de criterio de algunas personas a la hora de publicar y compartir información dentro de ella.

Sin embargo, mi amiga no puede huir de sólo de Facebook y considerar que los bits no la alcanzarán algún día, que la memoria digital se puede estirar hasta el infinito sin que nosotros podamos hacer gran cosa para evitarlo. No cabe duda, cada día somos más digitales y nos exponemos queriendo o sin ser conscientes a la curiosidad de los demás. Es probable que desnudemos nuestros pensamientos en una falsa privacidad como si los datos volcados no fuesen a ir más allá de los lugares donde se alojan o no se encontrasen bajo el escrutinio público. Es curioso, pero en la sociedad actual la exposición se busca y casi es necesaria de formas completamente insospechadas en contraposición de la privacidad tan anhelada y defendida durante el siglo XX. Las nuevas generaciones quieren ser analizadas y diseccionadas, aceptadas por los demás en una sociedad terriblemente competitiva. Así, por ejemplo, en Estados Unidos se ha detectado una moda entre adolescentes denominada Sexting en la que se fotografías semidesnudos y se envían la imagen los unos a los otros. Obviamente, algunas de estas imágenes llegan a un destinatario no deseado o simplemente acaban en la Red para mayor sonrojo de los incautos y alarma de las autoridades.

Pero es que este comportamiento expositivo está llegando a límites difícilmente imaginables hasta hace bien poco. Un reflejo de ello lo encontramos en el uso que hacen los famosos estadounidenses de Twitter. Así, no es difícil encontrar a Lindsay Lohan (aka LiLo) tratando de desahogarse por una ruptura sentimental o que Jennifer Aniston decida abandonar a su novio porque está enganchado a este microblogging. A este ritmo, las revistas rosas de EEUU van a tener difícil lanzar exclusivas sobre sus famosos.

Aunque no cabe duda de que la pareja Twitter más popular actualmente son Demi Moore y Ashton Kutcher y por diversos motivos. El primero es que Kutcher publicó en la Red una fotografía de su mujer planchando (¿Quién podría habérselo imaginado?) y ante el enfado monumental de ésta, Kutcher solicitó ayuda a su red de seguidores (Followers) para que Moore le perdonase. Dicho y hecho, la democracia Twitter funcionó y la pareja consiguió hacer las paces por referéndum. Así que no os extrañéis que en un futuro vuestras parejas, o vosotros mismos, tengáis que someteros a la voluntad popular, más allá del círculo más íntimo de amigos, para decidir sobre estas lindeces en Twitter o en Facebook, quién sabe.

Finalmente, el segundo motivo consiste en que la actriz consiguió atajar un intento de suicidio de una fan que así lo twitteó en su cuenta. De esta forma, Moore se convirtió en la heroína del día, aunque confiamos en que los fans, porque los hay de todos los tipos, no empiecen a asediar con sus peticiones a sus adorados ídolos, porque de lo contrario abandonarán esa proximidad que actualmente están demostrando. En fin, parece ser que en Internet una persona está a menos de Seis Grados de Separación de otra, sólo a dos clics para que alguien le preste un poco de atención.

Un comentario

De L’Encyclopédie a la Wikipedia, cambiando la difusión del conocimiento de la Humanidad

L’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers, dirigida por los filósofos franceses Denis Diderot y Jean d’Alembert, representa la obra que trata de resumir el movimiento de la Ilustración desarrollado durante el siglo XVIII. Se trata de un texto cuyo objetivo pasaba por tratar el resumen de los principales conocimientos que la Humanidad había acumulado hasta el siglo XVIII y que, curiosamente, se incluyó dentro del Index Librorum Prohibitorum por elogiar dentro del mismo a pensadores protestantes y desafiar el dogma católico, clasificando la religión como una rama de la filosofía, no como el último recurso del conocimiento y de la moral.

Puede que los mismísimos Diderot y d’Alembert no hiciesen otra cosa que descubrirse ante una de las mayores obras colectivas jamás concebidas por la Humanidad, un lugar donde cualquiera pudiese compartir sus conocimientos y si estos fuesen erróneos pudiesen ser cambiados y si estos quedasen desfasados actualizados en pocos segundos. Es posible que pasemos de considerar que si algo no está en Internet no exista, como hacíamos durante la década anterior, a que si algo o alguien no se encuentra en la Wikipedia, no es lo suficientemente importante.

No hace falta señalar que los caminos de la Wikipedia no han sido sencillos, ya señalamos aquí sus dificultades iniciales, sus puntos oscuros, los intentos de prohibición de su uso en colegios y administraciones públicas por su supuesta inexactitud y sencilla manipulación. Frente a los ataques que ha sufrido sobre su contenido, el argumentario de sus defensores pasa por aprender a utilizar sus recursos, así como los de la Web en general, contrastar los datos, en definitiva, e ir con pies de plomo a la hora de republicar su información. Y no estamos señalando algo que sólo competa a estudiantes y profesores, sino que otros colectivos, como los profesionales de la comunicación, deberían comenzar a alzar el mea culpa, confundiendo fuentes y considerando que el modelo de la Wikipedia es extensible a otros proyectos, digámoslo así, con otros objetivos mucho más lúdicos.

Las enciclopedias, así como otros productos editoriales similares como los vocabularios y diccionarios, puede que sean los primeros caídos en la guerra editorial en la era que se inauguró con la Web. Puede que la Wikipedia sea la cabeza visible de la terrible transformación y de sus caminos futuros, pero no podemos negar que las editoriales de estos productos ya se percataron de que las cosas estaban cambiando. Las grandes enciclopedias analógicas ya abrieron sus contenidos de forma tímida, sin querer perder el control sobre el producto final, invitando a la participación de los ciudadanos de la Red, aunque puede que tengan que adoptar medidas mucho más agresivas en un futuro no tan lejano tal y como ya lo ha comenzado a hacer la Encyclopaedia Britannica.

La Britannica se las ha visto y deseado con la Wikipedia, como por ejemplo cuando trataron de comparar la calidad de sus contenidos y no salió tan bien parada como les hubiese gustado a sus editores en el famoso artículo de la revista Nature, pero puede que descubriendo que se encuentra perdiendo la partida ha comenzado a dar tímidos avances hacia la filosofía 2.0. No debemos olvidar que si deseamos consultar la Britannica debemos pagar por ello, sin embargo puede que consciente de que en Internet sólo se es popular si tus contenidos son accesibles, los editores consideraron oportuno abrir sus contenidos de forma limitada a los bloggers a través de Britannica Webshare. Este movimiento ha sido reforzado recientemente con la posibilidad brindada a sus lectores para que puedan editar los contenidos de la enciclopedia, aunque por supuesto que los textos no sufrirán ninguna variación hasta que las modificaciones sean revisadas por un equipo de expertos y finalmente aprobadas, claro.

¿Podría la Britannica desaparecer? Puede ser que disponiendo de una buena base de usuarios disponga del sustento suficiente para soportar las nuevas tensiones del mercado, sin embargo la guerra no va a ser sencilla. La mismísima Microsoft ha considerado cerrar su Enciclopedia Encarta tras 16 años de actualizaciones. Debemos resaltar que la Encarta no era una gran enciclopedia en cuanto a contenidos en sus inicios, de hecho Microsoft la adquirió tras recibir la negativa de la Britannica para licenciar sus contenidos en CD-Rom, pero a mediados de la década de los 90 era muy popular por su interactividad y contenidos audiovisuales junto a las posibilidades interactivas que ofrecía a sus usuarios. La traslación a la web no fue sencilla para esta enciclopedia y, de hecho, la falta de un modelo de negocio claro para el futuro ha pesado mucho para que Microsoft considerase su abandono.

El fin de la Encarta ha traído la aparición de distintos análisis. Puede que la Wikipedia entienda mejor a los internautas y ofrezca el producto que ellos necesitan, pero de lo que no cabe duda de que la influencia de esta Enciclopedia 2.0 bien depende de otro actor hasta ahora no mencionado: Google. Y es que el buscador también lo ha intentado con su enciclopedia colaborativa Knol, pero obviamente la naturaleza de la enciclopedia de Google es bien distinta y no ha llegado a cuajar. Sin embargo, los internautas han dispuesto del tiempo para que sus recelos y sospechas se levantasen cuando descubrieron que los artículos de Knol posicionaban mejor y más rápido que otros. También debemos señalar que el propio Google puede funcionar como un diccionario si utilizamos el atributo define, pero lo que no debemos pasar por alto es que la propia Web es un gran repositorio de informaciones de todo tipo que puede funcionar como una gran enciclopedia. Claro que este marasmo de informaciones no disponen del discurso estructurado de las enciclopedias de antaño, obligándonos a discurrir un poco más de lo que consideramos necesario, pero ante esta saturación de informaciones buscamos una marca a la que aferrarnos, aunque mañana el escenario haya cambiado completamente.

Comentarios cerrados

En la mesa redonda “Libros y lectores 2.0 ” en Valencia

El próximo 9 de marzo a las 19h estáis invitados a participar en la mesa redonda Libros y lectores 2.0 que se celebrará en la Fnac de Valencia en el marco de la presentación del libro publicado por Javier Celaya La empresa en la Web 2.0. Dentro de la mesa, se debatirán aspectos sobre el impacto de las nuevas tecnologías en el mundo del libro, su futuro (el impreso y el digital), los nuevos hábitos de lectura en pantallas, la transformación de las bibliotecas dentro del marco de la Web 2.0, el papel de las nuevas tecnologías en el fomento de la lectura, etc.

Los componentes de la mesa serán:

  • Javier Celaya, socio fundador de Dosdoce.com, que actuará como moderador de la mesa.
  • Jorge Serrano-Cobos, especialista en diseño de sistemas de información, usabilidad y accesibilidad y socio de Masmedios.com.
  • Javier Leiva, Profesor de Información y Documentación en la Universidad de Vic y socio fundador de Catorze.
  • Marcos Ros-Martín, coautor de este blog.

También podéis ampliar información en Facebook y apuntaros.

2 comentarios