Saltar al contenido →

Categoría: Internet

Las folksonomías en los blogs de Biblioteconomía y Documentación

Las folksonomías, además de convertirse en una de las palabras más odiadas por los internautas, disponen de distintos puntos débiles bien conocidos. Así esta forma de clasificar la información hereda todos los problemas bien conocidos por los documentalistas de los vocabularios no controlados. De esta manera, al utilizar el tagging nos enfrentamos a la ambigüedad, polisemias, sinonimias y falta de control a la hora de describir de forma específica o más general las mismas cosas.

Concretamente, tenemos ambigüedad porque diferentes usuarios aplican términos a las mismas informaciones de forma completamente distinta, polisemia ante la utilización de las mismas palabras para designar objetos o conceptos distintos, sinonimia porque distintas palabras pueden ser utilizadas para definir las mismas cosas y, finalmente, sobre la especificidad de los términos, porque un usuario experto puede definir una información como AJAX o javascript, olvidándose de indicar lenguajes de programación que un usuario no-experto puede utilizar a la hora de recuperar información sobre esta temática.

Además, la utilización del tagging es tan abierta que no otorga una guía de uso a la hora de aplicarlas, cómo deben usarse, la puntuación a utilizar, el orden de las palabras, si se deben usar plurales en vez de singulares, si se deben usar palabras compuestas sobre las simples, si se deben añadir sinónimos, etc.

Recientemente, se han publicado dos textos científicos que hacen referencia al uso que se hace de las folksonomías en los blogs de Biblioteconomía y Documentación a los que os recomendamos echarles un vistazo. En el primero de ellos, Etiquetado libre frente a lenguajes documentales. Aportaciones en el ámbito de Biblioteconomía y Documentación, su autor Luis Rodríguez Yunta realiza una reflexión muy interesante sobre el uso de las folksonomías dentro de distintas herramientas de la denominada Web 2.0 por parte de los profesionales de la información:

Los profesionales de la Documentación han sido tradicionalmente valedores del empleo de lenguajes controlados, por su consistencia en la representación sistemática del análisis documental de contenido y su capacidad para combinar búsquedas genéricas y específicas. Sin embargo, a partir de las herramientas de la web social, el etiquetado también está siendo aplicado por los propios documentalistas y bibliotecarios. Parece oportuno reflexionar sobre este hecho ¿Se trata de una renuncia a valores tradicionales de la disciplina? ¿O es una adaptación a las demandas de nuevas generaciones de usuarios? ¿Hay un cambio de paradigma en la percepción de las herramientas de recuperación?

Por otro lado, en la revista Library & Information Science Research se publica el artículo Librarians and information scientists in the blogosphere: An exploratory analysis en el que se realiza un análisis de las etiquetas más utilizadas en los 30 blogs de Biblioteconomía y Documentación dentro del ámbito anglosajón para determinar los temas que más se abordan dentro de la biblioblogosfera inglesa.

Un comentario

EE UU se dispone a regular a los blogs y el Social Media

No es la primera vez que se realizan intentos para tratar de legislar lo que se publica dentro de la blogosfera o de la Web Social. En su momento, la Unión Europea ya propuso la creación de un registro de blogs, aunque finalmente desechó la idea ante el gran revuelo que supuso aquella idea. Incluso Tim O’Reilly trató de que se estableciese un código de conducta para la blogosfera que fue muy comentado y contestado que finalmente quedó en nada ante la imposibilidad de alcanzar algún tipo de acuerdo. En esta ocasión, la polémica nos llega desde los Estados Unidos donde la FTC (Federal Trade Commission) se plantea comenzar a regular los blogs y el Social Media (Facebook o Twitter) al considerar que estos son, en realidad, más una herramienta de marketing que un medio de comunicación y que promete en acabar de la misma forma que las dos circunstancias señaladas anteriormente. Desde la FTC, se argumenta que se está tratando de actualizar las directrices para la defensa de los consumidores aprobadas hace treinta años, de modo que se ajusten a la realidad actual donde los consumidores acuden cada vez más a la Red para informarse.

Concretamente, el punto de mira de la FTC se centra en aquellos blogs que aceptan la publicación de lo que se denomina posts patrocinados, que son textos donde el bloguer recibe una compensación, en especie o monetaria, por comentar sus experiencias con determinado producto o servicio. Dentro de este tipo de informaciones, existen distintas variantes que van desde la total libertad del bloguer para comentar su experiencia basándose en su opinión personal y otras donde el fabricante especifica las recomendaciones que el bloguer debería de plasmar en el su texto. De este modo, el regulador estadounidense abre la puerta para que las webs dedicadas al Social Media puedan ser denunciadas por los consumidores si publican o alojan informaciones falsas sobre los productos que se reseñen.

Por supuesto que la polémica ha saltado a la blogosfera americana que ya se pregunta si las autoridades estadounidenses comenzarán a considerar a los bloguers como criminales por escribir este tipo de textos o qué harán con el resto de blogs que no se encuentran alojados dentro del territorio de su jurisdicción. En definitiva, la conclusión es que se tiene la impresión de que la FTC está intentando regular estos medios como si se tratase de publicaciones impresas sin contemplar otras consideraciones que obviamente les sobrepasan y que no son posibles de controlar dentro de un mundo interconectado.

5 comentarios

En tiempos de crisis, crecen los agujeros negros en la Web 2.0

Una de las principales críticas que siempre se han realizado a los medios de comunicación que se desplazaron a la Web desde sus productos impresos consistía en que tendían a no realizar enlaces. De hecho, siguen mostrándose incómodos a la hora de hacerlo, temiendo quizás que los lectores se marchasen al encontrar un sitio web mucho más rico, reduciendo su permanencia en su sitio web. No cabe duda de que las noticias de los medios son las que más enlacen reciben desde los distintos servicios de la Web 2.0, ya se trate desde los blogs, marcadores sociales o desde sistemas de filtrado social de noticias, por lo que contemplar a estas webs como agujeros negros (Webs que reciben muchos enlaces pero que no realizan ninguno) estaba más que justificado.

Los internatuas siempre se han mostrado un tanto molestos con estas prácticas, sobre todo si se trata de una noticia que necesita de ampliación de información citando la fuente original (Por ejemplo un informe o un estudio), sin embargo en tiempos de crisis los webmasters también están descubriendo que la economía de las webs y los enlaces recíprocos que Google contribuyó a construir se está comenzando a resquebrajar lentamente. The Guardian advertía a principios de 2007 que la Wikipedia se estaba convirtiendo en un agujero negro al incluir dentro de sus enlaces externos el atributo nofollow, con este atributo Google no cuenta el enlace realizado hacia una página web externa en términos de posicionamiento. Por otro lado, recientemente, Twitter ha implementado este atributo en los enlaces que se hagan dentro de ella convirtiéndose a su vez en otro agujero, aunque en este caso parece que Google sugirió que se realizase este cambio a pesar de que no se sabe a ciencia cierta qué sucederá en el posicionamiento de los resultados de esta herramienta de microblogging en un futuro.

Pero aún hay más. Otros dos estandartes de la Web actual, la red social Facebook y el sistema de filtrado social de información más popular en Estados Unidos Digg han decido poner en implementar lo que se denomina iFrame que consiste en la utilización de marcos que engloban los contenidos de otras webs. Es decir, si un usuario hace clic en un enlace externo dentro de estas dos webs, el usuario será redireccionado hacia una página con una barra superior que puede llegar confundir al usuario respecto la autoría y el origen de la información que está visualizando (Os dejo, un ejemplo). De esta manera, también se persigue que el usuario permanezca mucho más tiempo dentro de Digg y que no se marche.

Esto es muy similar a lo buscado en un principio por los medios de comunicación, aunque dándole obviamente una vuelta de tuerca y creando una gran controversia dentro de la Web sobre este movimiento de Digg. Por otra parte, y para mayor escarnio de los webmasters, Digg ha implementado un acortador de URLs de tal manera que no muestra los enlaces hacia las páginas webs promocionadas dentro de su sitio, convirtiéndose además en otro agujero negro.

Comentarios cerrados

De L’Encyclopédie a la Wikipedia, cambiando la difusión del conocimiento de la Humanidad

L’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers, dirigida por los filósofos franceses Denis Diderot y Jean d’Alembert, representa la obra que trata de resumir el movimiento de la Ilustración desarrollado durante el siglo XVIII. Se trata de un texto cuyo objetivo pasaba por tratar el resumen de los principales conocimientos que la Humanidad había acumulado hasta el siglo XVIII y que, curiosamente, se incluyó dentro del Index Librorum Prohibitorum por elogiar dentro del mismo a pensadores protestantes y desafiar el dogma católico, clasificando la religión como una rama de la filosofía, no como el último recurso del conocimiento y de la moral.

Puede que los mismísimos Diderot y d’Alembert no hiciesen otra cosa que descubrirse ante una de las mayores obras colectivas jamás concebidas por la Humanidad, un lugar donde cualquiera pudiese compartir sus conocimientos y si estos fuesen erróneos pudiesen ser cambiados y si estos quedasen desfasados actualizados en pocos segundos. Es posible que pasemos de considerar que si algo no está en Internet no exista, como hacíamos durante la década anterior, a que si algo o alguien no se encuentra en la Wikipedia, no es lo suficientemente importante.

No hace falta señalar que los caminos de la Wikipedia no han sido sencillos, ya señalamos aquí sus dificultades iniciales, sus puntos oscuros, los intentos de prohibición de su uso en colegios y administraciones públicas por su supuesta inexactitud y sencilla manipulación. Frente a los ataques que ha sufrido sobre su contenido, el argumentario de sus defensores pasa por aprender a utilizar sus recursos, así como los de la Web en general, contrastar los datos, en definitiva, e ir con pies de plomo a la hora de republicar su información. Y no estamos señalando algo que sólo competa a estudiantes y profesores, sino que otros colectivos, como los profesionales de la comunicación, deberían comenzar a alzar el mea culpa, confundiendo fuentes y considerando que el modelo de la Wikipedia es extensible a otros proyectos, digámoslo así, con otros objetivos mucho más lúdicos.

Las enciclopedias, así como otros productos editoriales similares como los vocabularios y diccionarios, puede que sean los primeros caídos en la guerra editorial en la era que se inauguró con la Web. Puede que la Wikipedia sea la cabeza visible de la terrible transformación y de sus caminos futuros, pero no podemos negar que las editoriales de estos productos ya se percataron de que las cosas estaban cambiando. Las grandes enciclopedias analógicas ya abrieron sus contenidos de forma tímida, sin querer perder el control sobre el producto final, invitando a la participación de los ciudadanos de la Red, aunque puede que tengan que adoptar medidas mucho más agresivas en un futuro no tan lejano tal y como ya lo ha comenzado a hacer la Encyclopaedia Britannica.

La Britannica se las ha visto y deseado con la Wikipedia, como por ejemplo cuando trataron de comparar la calidad de sus contenidos y no salió tan bien parada como les hubiese gustado a sus editores en el famoso artículo de la revista Nature, pero puede que descubriendo que se encuentra perdiendo la partida ha comenzado a dar tímidos avances hacia la filosofía 2.0. No debemos olvidar que si deseamos consultar la Britannica debemos pagar por ello, sin embargo puede que consciente de que en Internet sólo se es popular si tus contenidos son accesibles, los editores consideraron oportuno abrir sus contenidos de forma limitada a los bloggers a través de Britannica Webshare. Este movimiento ha sido reforzado recientemente con la posibilidad brindada a sus lectores para que puedan editar los contenidos de la enciclopedia, aunque por supuesto que los textos no sufrirán ninguna variación hasta que las modificaciones sean revisadas por un equipo de expertos y finalmente aprobadas, claro.

¿Podría la Britannica desaparecer? Puede ser que disponiendo de una buena base de usuarios disponga del sustento suficiente para soportar las nuevas tensiones del mercado, sin embargo la guerra no va a ser sencilla. La mismísima Microsoft ha considerado cerrar su Enciclopedia Encarta tras 16 años de actualizaciones. Debemos resaltar que la Encarta no era una gran enciclopedia en cuanto a contenidos en sus inicios, de hecho Microsoft la adquirió tras recibir la negativa de la Britannica para licenciar sus contenidos en CD-Rom, pero a mediados de la década de los 90 era muy popular por su interactividad y contenidos audiovisuales junto a las posibilidades interactivas que ofrecía a sus usuarios. La traslación a la web no fue sencilla para esta enciclopedia y, de hecho, la falta de un modelo de negocio claro para el futuro ha pesado mucho para que Microsoft considerase su abandono.

El fin de la Encarta ha traído la aparición de distintos análisis. Puede que la Wikipedia entienda mejor a los internautas y ofrezca el producto que ellos necesitan, pero de lo que no cabe duda de que la influencia de esta Enciclopedia 2.0 bien depende de otro actor hasta ahora no mencionado: Google. Y es que el buscador también lo ha intentado con su enciclopedia colaborativa Knol, pero obviamente la naturaleza de la enciclopedia de Google es bien distinta y no ha llegado a cuajar. Sin embargo, los internautas han dispuesto del tiempo para que sus recelos y sospechas se levantasen cuando descubrieron que los artículos de Knol posicionaban mejor y más rápido que otros. También debemos señalar que el propio Google puede funcionar como un diccionario si utilizamos el atributo define, pero lo que no debemos pasar por alto es que la propia Web es un gran repositorio de informaciones de todo tipo que puede funcionar como una gran enciclopedia. Claro que este marasmo de informaciones no disponen del discurso estructurado de las enciclopedias de antaño, obligándonos a discurrir un poco más de lo que consideramos necesario, pero ante esta saturación de informaciones buscamos una marca a la que aferrarnos, aunque mañana el escenario haya cambiado completamente.

Comentarios cerrados

¿Apocalipsis SEO? Google va a apostar por las Marcas en sus resultados

Parece ser que últimamente Google, aunque también el resto de compañías con los buscadores más importantes Yahoo y Microsoft, disponen de más poder a la hora de desarrollar estándares para nuestras páginas web que el mismísimo W3C. Por supuesto que seguir las recomendaciones del W3C tampoco es que hayan sido seguidas a pies juntillas por las grandes empresas informáticas. Sin ir más lejos, Microsoft no ha sido del gusto de seguir los dictados del consorcio y bien conocidos son los quebraderos de cabeza que los diseñadores web han sufrido a la hora de desarrollar páginas web porque los chicos de Redmond no se han arrugado a la hora de saltárselos en el desarrollo de su Internet Explorer.

No me sorprende la influencia de Google sobre los webmasters y sobre los cambios de la estructura de la Web, bajo el paraguas del combate del Spam y el contenido duplicado han sido capaces de marcar sus dictados para tratar de hacerles frente con relativo éxito claro. En un primer lugar, nos sugirieron la utilización de la etiqueta rel=”nofollow” que debía ser insertada de forma casi obligatoria en los comentarios cuando los blogs comenzaban a expandirse para evitar el Spam – Fundamentalmente, la utilización de esta etiqueta señalaba a los bots de Google que no debían seguir estos enlaces y de esta manera no promocionar las páginas web de destino –. También, nos propusieron que situásemos dentro de nuestras webs un fichero en XML denominado Sitemap que listaba todas las páginas de un sitio web de forma jerárquica, de tal manera que facilita las tareas de rastreo de los bots que no tienen que seguir todos y cada uno de los enlaces de un sitio para recuperar su contenido. Y recientemente los principales buscadores nos proponían la utilización de la etiqueta link rel=”canonical” para evitar la penalización por el contenido duplicado, puesto que esta etiqueta señala a los buscadores cual es la página principal que dispone del contenido frente a otras que podrían contenerlo como Archivos o Categorías. Obviamente, la adopción de todas estas etiquetas ha resultado masiva haciendo un poco más sencilla la tarea a Google de “organizar la información del mundo”, a la vez que se facilitaba nuestras tareas para aparecer en las primeras páginas de resultados de Google, aunque parece que desde Mountain View las cosas van a cambiar para los pequeños editores.

El pasado noviembre el buscador realizó una actualización en su algoritmo, la Google Florida update, aunque en ámbitos SEO esta actualización, aparentemente, no tuvo excesivas implicaciones a primera vista, lo cierto es que esto no es del todo cierto. De hecho, desde entonces se ha detectado que muchas páginas web que utilizaban técnicas básicas SEO han ido desaparecido de las primeras páginas de resultados frente a otras, tal vez, entrando en consideración la nueva política de Google a la hora de devolver resultados en las búsquedas. Eric Schmidt, CEO de la compañía, señaló hacia dónde se dirige Google:

Internet se está convirtiendo en un agujero putrefacto donde reina la información falsa. Tenemos que encontrar indicativos sólidos de credibilidad, y las marcas (marcas comerciales) son la solución, no el problema.
Las Marcas son una buena forma de salir de ese agujero de información falsa.
Estamos totalmente conectados a las marcas. Están tan fundamentalmente conectadas con el ser humano que no hay marcha atrás. Tiene que tener un componente genético.

Es decir, que los pequeños editores lo van a tener un poco más difícil a la hora de posicionarse dentro del algoritmo de Google, mientras que el buscador va a intentar ofrecer puntos de credibilidad a las informaciones editadas por los medios de comunicación y las empresas posicionadas en otros ámbitos junto al resto de consideraciones. ¿Es este el principio del fin de los SEO?

Comentarios cerrados

¿Batacazo en los ingresos Adsense?

Cuando decidimos incluir publicidad en nuestro blog, lo hicimos en primer lugar para curiosear, para probar cosas nuevas y , como dijimos entonces, para disponer de una estadística más; y segundo, cómo no, quitarnos de encima el coste de mantenimiento de nuestro blog. Entonces, al igual del 90% de los pequeños editores de Internet, nos decantamos por Google y su Adsense por tratarse de uno de los servicios más confiables disponibles en el mundo publicitario en Web y lo cierto es que la experiencia ha sido al menos divertida (con la cancelación de nuestra cuenta y todo).

El hecho es que disponer de una cuenta en Adsense, ha abierto un poco la temática de nuestro blog, vigilantes sobre la publicidad y los modelos de financiación de los bloguers y pequeños editores, preocupados por el mundo SEO y SEM, pero lo que no me esperaba comprobar era la tremenda caída de los ingresos que se iban a dar. Porque no nos podemos llevar a engaño, somos un blog muy modesto, no esperamos grandes retribuciones, pero la denunciada caída del 60% del CTR parece que se va a quedar pequeña. Sólo tendríamos que echarle un vistazo a la evolución de las cifras del eCPM (Acrónimo de coste efectivo por cada mil impresiones y se usa para medir el rendimiento de los bloques de anuncios) en gráficos comparativos de distintos países.

En el caso español (que os recojo), aunque podéis consultar otros, es significativo y puede desembocar hacia que los usuarios de Adsense apuesten por otros modelos publicitarios huyendo de la cierta opacidad de Google (Qué es lo que el anunciante paga, qué es lo que Google se queda y qué es lo que le toca al editor nunca ha estado muy claro) y sus extrañas políticas de uso. En nuestro caso, hemos contemplado la posibilidad de eliminar la publicidad porque realmente, a pesar de que los clics puedan incrementarse o mantenerse, obviamente no percibimos el retorno como compensatorio o también podemos decantarnos por probar otros modelos publicitarios como el de TradeDoubler que nos recomendaron.

Ante las denuncias de caídas, Google se ha defendido, por supuesto, asegurando que las fluctuaciones en los ingresos son normales, pero que en los tiempos de incertidumbre económica, mucho más dramáticas, que no a todos los sectores o segmentos les afectan igual ni durante el mismo tiempo, por lo que no a todos los sitios web se encontrarán afectados en igual medida.

De momento, en nuestro caso, esperaremos y comprobaremos cuál es la evolución, cómo les va afectando esta situación a los blogs y lo que van comentado sobre este asunto. Pero no es descartable que volvamos a ser un blog limpio de publicidad a lo largo de estos meses. Para ello aprovisionamos hace poco.

8 comentarios

Cuando Google falla

Durante el año 2007, el servidor de Google.com sólo estuvo inaccesible durante 7 minutos – tan sólo superado por Yahoo.com que estuvo accesible durante todo los días sin caídas –, sin embargo Google se encontró con su pantalla azul de la muerte, haciendo referencia a la pantalla que se muestra cuando el sistema operativo Windows se queda colgado, el pasado 31 de enero entre las 15:30 y 16:30 hora española cuando todos y cada uno de los resultados de Google aseguraban que todos los sitios y páginas web disponían de malware. Esto supone que Google no permitía acceder a ninguna página web a través de él y, ante cualquier búsqueda, remitía siempre a una página de aviso sobre el peligro que suponía que el internauta accediese al recurso informativo resultado de una consulta.

Durante una hora, el buscador de Google se volvió, literalmente, loco durante el proceso de actualización en la noche del viernes al sábado [en Estados Unidos] el fichero con la lista de URLs consideradas con ‘badware’ que consulta Google a través del sitio web especializado StopBadWare.org. Según ha asegurado la compañía, se trató de un error humano, atribuido al uso de una barra “/ ” y que declaraba que toda la web era maliciosa, aunque hubo un cruce de acusaciones previo entre Google y StopBadware sobre la responsabilidad del error que finalmente decayó en el buscador que admitió su fallo.

Aunque el fallo se haya tratado como un hecho puntual, realizado durante las tareas de mantenimiento del buscador justo en el momento de menor tráfico en Internet, creo que no se ha analizado con suficiente profundidad la incidencia. De hecho, durante una hora, muchas personas se quedaron casi sin Internet, con su fuente de consulta completamente colapsada y sin permitirles el acceso a sus los recursos web que solicitaban. Si Google acapara el 80% del tráfico mundial en el negocio de las búsquedas, ¿qué sucedió durante ese lapso de tiempo? ¿Las visitas decayeron de forma generalizada como si el Pagerank de todas las páginas se hubiesen convertido en cero? ¿Utilizaron los internautas otros buscadores? ¿Qué sucedió con los ingresos publicitarios de las webs? ¿Desaparecieron, se mantuvieron? ¿Qué hubiese sucedido si el fallo se hubiese producido durante una de las horas de mayor actividad del buscador?

De momento, no se han publicado datos. Pero, ante el fallo de Google, la reacción de la blogosfera y de los medios de comunicación fue descubrir la fragilidad de los datos que se sitúan en los servidores de Mountain View y de lo que se ha pasado a denominar La Nube (Cloud Computing). Como acción más inmediata y para evitarnos disgustos, se ha sugerido la necesidad de realizar copias de seguridad de todos los datos personales que se almacenan en los servidores de Google, pero se sigue obviando la verdadera cuestión de fondo que es ¿cuál fue el alcance real de esa hora en blanco? Por supuesto que existen precedentes, en mayo de 2005, el buscador se quedó inaccesible durante 15 minutos por un error interno, por otro lado, YouTube quedó colapsado durante horas el pasado febrero de 2008 cuando el gobierno de Pakistán prohibió el acceso al sitio y desvió el tráfico provocando un efecto en cadena. Lo que nos deja con la incertidumbre de lo peor de todo, ¿existe una alternativa al buscador y sus principales servicios?

5 comentarios