Saltar al contenido →

Etiqueta: Sindicación de Contenidos (RSS)

El RSS ha muerto… ¿Lo podemos enterrar ya?

Son las 7.30 de la mañana. Mientras espero en la parada del Metro, me uno al ritual de los pasajeros que aguardan la llegada del próximo tren. Deberíamos llamarnos “los cabizbajos”, la inmesa mayoría tenemos la mirada clavada en el teléfono móvil. Absortos, ajenos a lo que pasa alrededor.

Es posible que mis próximos compañeros de viaje no sigan ni de lejos mi dieta informativa, más preocupados por otros menesteres seguramente más interesantes como Whatsapps y Facebooks. Personalmente, primero, me dirijo al diario El País, posteriormente a mi lector de RSS –Feedly tras la muerte de Google Reader- y posteriormente me paseo por Twitter.

Al RSS se le ha matado tantas veces que parece destinado a desaparecer sólo por insistencia. Desde el anuncio de cierre de Bloglines en 2010, aunque al final no sucedió y fue rescatado in extremis, ya se preconizaba la muerte de ese sistema de difusión de la información. Han pasado cuatro años y las hecatombes sobre el RSS se han ido sucediendo. Desde el abandono del sistema publicitario de Feedburner por parte de Google (en realidad una lenta agonía puesto que no recibe una actualización desde hace años), la ocultación que hace Twitter de sus RSS, el ya comentado cierre de Google Reader que supuso todo un terremoto dentro de la Web y el surgimiento de otras alternativas como Feedly que han tratado con relativo éxito y algún que otro problema rellenar el hueco dejado por Google.

Pero no nos dejemos engañar. Al RSS cada vez le amartillan más clavos en el ataúd. Los propios sitios web más interesados en las visitas que en la influencia que puedan llegar a tener -¡ay!, las métricas- y Google que lentamente va cerrando puertas a su entorno vallado, por ejemplo en YouTube, (lo que es lícito claro). Admitámoslo, el RSS está destinado a las élites, a los profesionales que se encargan muy mucho de escoger lo que leen y cuándo lo leen. Desgraciadamente, nadie va a gastar recursos para un puñado de personas que saben lo que quieren y cuándo lo quieren, sin interferencias.

Habrá gente que asegura que cada vez acude menos a su lector de feeds, que prefiere otras vías de comunicación como Twitter o Facebook. Por supuesto, claro que sí. Es la manera de no sentirse culpable por no poder leerlo todo, de no sentirse infoxicado ante tal cantidad de información o simplemente porque se ahorra una preocupación menos. Twitter es más inmediato, más rápido, más social y más sencillo. Pero no es eso. No es lo que buscamos. No queremos dejar ser informados al azar, queremos saber y sólo pudiendo elegir las fuentes de información, filtrando esa información (ahora lo llaman curación) y también compartiéndola

Si vamos a matar al RSS hagámoslo, pero que parezca un accidente. Seguramente más de uno llorará por él.

5 comentarios

La eterna batalla entre la información «pull» y la información «push»

Me quieren enterrar otra vez el formato RSS. El formato deseado por muchos documentalistas y que cruzan los dedos porque una página disponga de él. Muchos todavía no hemos aprendido a configurarlo correctamente y ya lo quieren jubilar esos grandes gurús que lo consideran como un objeto del pasado, glorioso, puede ser, pero pasado. En Internet al contrario que la vida real aquello de «cualquier tiempo del pasado fue mejor» no aplica.

En esta ocasión, el debate lo iniciaron ya hace un par de meses Facebook y Twitter al jubilarlo dentro de sus sistemas de difusión de contenidos. Las cuentas de usuario ya no distribuyen RSS como lo venían haciendo y ha sido a raíz de que  estas dos grandes empresas, tan populares actualmente, deciden finiquitar el RSS, el debate se instaura de nuevo. ¿Son los RSS necesarios?

Personalmente considero que, más allá de los formatos que tan rápido pasan por ser sustituidos por otros – De hecho, al RSS se le acusa de no haber evolucionado mucho desde que está entre nosotros -, la batalla se debería centrar entre la difusión de la información de una forma pull o push. Actualmente se considera, y creo que de una forma errónea y soy bastante excéptico sobre ello,  que la información debe de hallarnos. Es decir, que si una noticia es realmente relevante debe de aparecer en nuestras pantallas o dispositivos móviles de forma machacona y existente fruto de un filtrado informativo social (¿Alguien sabe dónde está Digg ahora?). Una información debe de ser Trending Topic impuesto de forma social. Por ejemplo, en Twitter una historia debe encontrarnos gracias a que las personas que seguimos la «promueven», la difunden y la retuitean hasta que nos alcanza o llama la atención.

Claro que entraríamos en el debate de los verdaderos intereses que tienen las personas que seguimos en Twitter y sus finalidades. Recuerdo perfectamente un correo electrónico dentro de una lista de distribución – sí, todavía existen y son muy activas -, de un usuario que pedía a los profesionales que no mezclasen los mensajes personales con los profesionales en Twitter. Desgraciadamente, y personalmente, yo busco información personal en Twitter, a saber, intereses, hechos, filtrado de noticias… No es recomendable que una persona se centre demasiado en lo profesional, publicando todo lo que encuentra en la Web como se se tratase de un  weblog, porque simplemente no le seguiría nadie.

No me interesa seguir a, por ejemplo, a El País o al Levante-EMV en Twitter. No quiero información excesiva en mi Time Line en el sitio de microblogging, simplemente porque la atención es el verdadero valor que tenemos cuando nos encontramos en Internet y prefiero seguir a personas en Twitter a las marcas ya las dejo para la web o para el RSS. En Twitter, encontramos información Push, muy candente, que es extremadamente relevante para muchos, pero existe otra tipo de información que es relevante para nosotros y para pocas personas más.

Porque uno de los aspectos muy positivos del RSS es la capacidad de seguir una publicación que nos interesa de forma constante. Extraemos (Pull) esa información porque en general nos interesa casi todo lo que se publica allí, no tenemos que esperar que alguien la promocione. Es una decisión personal, una fuente de información valiosa a la que atendemos cuando realmente tenemos un momento y donde no es necesario estar atento 24/7 para encontrarla.

2 comentarios

El ocaso de Feedburner (y de los Feeds)

Una de las “maravillas” que popularizaron los blogs es la sindicación de contenidos a través de sus distintos formatos. La posibilidad de recoger los contenidos de innumerables web sin tener que visitarlos uno a uno cada día a través del navegador (o hora tras hora dependiendo de la web), nos permitía leer las nuevas actualizaciones de sitios web de publicación irregularde forma automatizada. Para los usuarios más avanzados de la Web, la implementación de los RSS en las webs supusieron un avance en la lucha contra la infoxicación, aunque más de uno acabaría sepultado de nuevo por ella por su falta de mano izquierda a la hora de gestionar aquella avalancha.

Hoy en día, la sindicación, uno de los estandartes de la Web 2.0, languidece mientras la recomendación impone su reinado. Twitter o Facebook redirigen muchísimo tráfico, mientras los Feeds nunca llegaron a ser asimilados por el gran público posiblemente debido a que permanecía un tanto ajeno a sus posibilidades. En el apogeo de la blogosfera, Feedburner se erigió como el mejor servicio externo para la distribución de feeds y muchos bloguers lo abrazaron en primer lugar porque disminuía la presión del tráfico en sus servidores, en segundo porque ofrecía estadísticas y en un tercero porque permitía la suscripción a través de email.

El futuro parecía caminar hacia la distribución de los contenidos a través de esta vía y Google apostó por ella, desarrollando su propio agregador vía web (Google Reader), además de ofrecer su abrazo del oso a la compañía que mantenía Feedburner adquiriéndola. Sin embargo, desde entonces no se produjeron mejoras significativas en el servicio desde Mountain View, salvo la posibilidad de incrustar publicidad en los Feeds.

Actualmente, el abandono parece total. Además de que algunos suscriptores nos han informado que las actualizaciones por email en ocasiones no llegan a su destino, los picos de lectores que muestran las estadísticas del servicio fluctúan de forma dramática, suponiendo en ocasiones más del 50% de los mismos. Ni siquiera el servicio parece fiable a la hora de aportar estadísticas y las alternativas apenas existen. Es probable que a muchos administradores les toque volver a nuestros feeds nativos, aquellos que nuestros sistemas de gestión de contenidos nos otorguen olvidándose de Feedburner, puesto que si empieza a tener caídas, el servicio dejará (aún más) de tener sentido.

Los feeds pasarán a ser meros enchufes de las webs de Social Media o afines, desvirtualizando su concepción de la web productora de contenidos hacia la persona interesada, encaminándose hacia la máquina (Las webs, Facebook, Twitter, etc.)

11 comentarios

El robo de contenidos web (Content scrapping) no es un buen negocio

Copy & PasteNo es la primera vez que hablo de ello, aunque es una de las cosas que más me enerva como editor web. Como sabréis, el término anglosajón es Content Scrapping, del que se pueden encontrar infinidad de entradas, y en castellano se ha traducido, de forma muy directa, como robo de contenidos. La sindicación de contenidos (RSS), un tanto denostada últimamente gracias a la irrupción del Social Media, fue una de las principales innovaciones que trajo la Blogosfera. La difusión de una nueva forma de recuperar la información de los sitios web sin tener que estar consultándolas constantemente, un buen ejemplo del concepto pull & push, fue una buena oportunidad para mejorar la fidelización de lectores para pequeñas publicaciones electrónicas.

Aparentemente, los grandes medios nunca acabaron de apostar por esta tecnología y prefirieron ofrecer sus RSS capadas con el titular y un pequeño extracto del texto, fundamentalmente, el primer párrafo. Podríamos discutir si se trata realmente de una componente mercantilista, una necesidad para aumentar el número de visitantes de la página web; o de uso, si generas mucho contenido y de diversa índole es mejor ofrecerlo resumido y que el lector decida qué le interesa leer realmente. Pero imagino que se conjugan distintos factores.

Sin embargo, desde aquí siempre invitamos a ofrecer los feeds completos como un premio a la fidelización a los lectores, a pesar de que la tentación de que otras webs “enchufen” nuestros contenidos a través de nuestros feeds sea irrefrenable y los republiquen. Personalmente, aunque es probable que discrepéis, que una web duplique mi contenido no es un halago. Lo fuese si me preguntase y yo le diese mi visto bueno. No me malinterpretéis, está bien que se republique una información, un texto (nosotros lo hacemos), al menos demuestra interés; que se reconvierta y se reelabore, aumenta la difusión de la información, pero redifundir contenidos de forma completa sin ni siquiera consultar, no me parece correcto. No me está bien que el editor web tenga que descubrirlo, que deba solicitar al webmaster o al administrador del sitio que redistribuye los contenidos a que cese su actividad. Esto no debería funcionar así, pero desgraciadamente en la mayoría de los casos lo hace.

Recientemente, El Mundo publicaba una nota muy interesante en la que se afirmaba que se podía redistribuir (Copiar y pegar) un artículo periodístico completo respetando el derecho de cita, pero que si se hacía con todos los contenidos y de una forma constante, si ambas partes buscaban un beneficio económico, la frontera de lo legal era claramente traspasada. Por otra parte, desde el punto de vista tecnológico y de difusión, Google lo tiene claro, no es una buena idea alimentar un sitio web con contenido copiado, así que los afectados que no se preocupen demasiado, que sitúen un enlace hacia el contenido original y el tiempo (en términos de posicionamiento y visitas) les dará la razón.

Sin embargo, para aquellos que no pueda refrenar su indignación sobre el robo de contenidos que puedan sufrir a través de sus feeds pueden hacer varias cosas:

  1. Como señalamos anteriormente, solicitar al webmaster que redifunde los contenidos que cese su actividad.
  2. Situar varios enlaces en sus feeds hacia el contenido original, así como un pequeño aviso de no redistribución de contenidos (Esto ahuyentará a la mayoría y en WordPress tenemos a nuestra disposición algunos buenos plugins para ello).
  3. Acciones tecnológicas concretas para los usuarios más avanzados, como bloqueo de las IPs o dominios de los Scrappers (Aunque hay que meterse en el fichero .htaccess del servidor donde tienes alojada la publicación), aunque para que esto sea efectivo habrá que dejar de utilizar, en la mayoría de los casos, el servicio de Feedburner.
10 comentarios

¿Cuántos lectores de RSS podrías tener hoy?

Una de las cosas que más me sorprende de Feedburner es que no ha habido ningún servicio capaz de hacerle sombra. Sí, existen innumerables webs que son capaces de gestionar feeds, desde agregadores a generadores, pero el servicio que ofrece Feedburner – normalizar el formato del fichero RSS, dar una versión legible para las personas en su caso, ofrecer estadísticas sobre los suscritos, servicios añadidos como la suscripción al mismo por correo electrónico y, la más importante, bajar el estrés de nuestro servidor a la hora de servir información a los bots – no ha sido igualado hasta ahora. La popularidad del mismo llegó a ser tan importante que Google se fijó en él y decidió su adquisición en mayo de 2007 por 100 millones de dólares tras muchos rumores.

Desde entonces, el proceso de innovación y de mejora dentro del servicio ha permanecido bastante plano llegando a considerarse que simplemente Google lo estaba dejando morir. Este hecho puede ser que sea achacable a la nunca sencilla integración dentro de la macroestructura de Google, como bien les ha sucedido a muchas compañías adquiridas por el gigante, y en ocasiones contradictorias, puesto que una de las últimas propuestas por parte de Feedburner fue la de ofrecer un sistema de estadísticas para páginas web que, obviamente, se enfrentaba con el superior producto Google Analytics. En cualquier caso, de lo que no cabe duda, es que Google adquirió este servicio para rentabilizar los contenidos que gestiona insertando su popular programa publicitario, Adsense, dentro de los textos servidos por infinidad de pequeños sitios web.

De hecho, el blog oficial de Feedburner, Burning Questions, fue cerrado junto la apertura de uno sustitutivo con la denominación Adsense for Feeds, toda una declaración de principios. Dos años después, Google nos urge en migrar las cuentas de acceso de Feedburner hacia una Google Account para poder seguir utilizándolo. Sin embargo, aunque el proceso es bastante sencillo, no deja de ser en ciertos aspectos traumático. Así, por ejemplo, a la hora de mostrar las estadísticas de suscriptores, el servicio sufre fluctuaciones dramáticas (en ocasiones de un día para otro se puede llegar a perder un 40% de tus suscriptores), más allá de los “apagones” que de vez en cuando Feedburner sufre por los principales agregadores RSS disponibles on-line, fundamentalmente Google Reader (!) y Bloglines.

Lo cierto es que más allá de las situaciones puntuales antes señaladas, la excepción se está convirtiendo en una constante, siendo casi imposible saber a ciencia cierta cuántos suscriptores disponemos en cada momento, por lo que el servicio comienza a no aportar el valor añadido del que en su momento disponía. Por otro lado, al gestionar los contenidos a través de Feedburner perdemos cierto control sobre los contenidos de los feeds, porque si bien Feedburner nos advierte de los Unfrequent uses, no nos permite bloquearlos, por lo que nos impide, por ejemplo, restringir los abusos que realizan los Content Scrappers, por poner un ejemplo.

Sin embargo, el abandono de este servicio a otro plantea ciertas dificultades. Por un lado, debemos encontrar un sistema de estadísticas fiable, que en el caso de los blogs gestionados con WordPress bien podría servirnos el plugin oficial WordPress Stats, sin embargo la redirección de los feeds si no se ha sido cuidadoso desde un principio -señalando una URL dentro de nuestro dominio que finalmente redireccionase al servicio de Feedburner-, puede llegar a ser confusa para nuestros lectores y para nosotros mismos que debemos advertirles y sugerirles el esfuerzo del cambio. Lo que nunca llega a ser suficiente para que permanezcan junto a nosotros.

3 comentarios

Sobre la duplicación de contenidos de tu web

Estos últimos días he estado enfrascado en un debate completamente apasionante, muy instructivo, a la vez que divertido, sobre la redifusión de los contenidos de un blog. Desde luego que el tema nos dio para mucho y bien podrían publicarse aquí algunos argumentos interesantes que se pronunciaron, pero aquí nos conformaremos con incidir sobre el tema que nos preocupaba cuando descubrimos la redifusión de los contenidos de nuestro blog: Su duplicación y su posible incidencia en Google.

Los bloguers, al igual que todos los autores, somos especialmente sensibles cuando se encuentran su trabajo en otros sitios web, sean cuales sean las características de los mismos. Aunque muchos adoptan licencias Creative Commons para tratar de fijar sus políticas a la hora de transmitir sus obras, podemos decir que estas licencias son un tanto flexibles y su aplicación depende del momento y las circunstancias del momento. Así, en este misma bitácora, disponemos de una licencia Creative Commons que permite copiar, distribuir y comunicar públicamente la obra; y hacer obras derivadas siempre que se reconozca los créditos de la misma de manera especificada por el autor. Además, al reutilizar o distribuir la obra, tiene que dejar bien claro los términos de la licencia de esta obra, mientras que alguna de estas condiciones puede no aplicarse si no se obtiene el permiso del titular de los derechos de autor y nada en esta licencia menoscaba o restringe los derechos morales del autor.

De hecho, apoyándose en nuestra licencia, ya os contamos el hecho de que Wikilearning estaba redifundiendo nuestros contenidos, algo que nos parecía correcto, sin embargo, el debate que anteriormente os citaba se debía a que un sitio web esta redistribuyendo nuestros contenidos de forma completa y sin nuestro permiso gracias a nuestros feeds. Antes de avanzar, debemos señalaros que el arte del plagio en la Web se denomina Web Scraping y hay formas más o menos graves de esta actividad. No hace rebuscar mucho para encontrar muchos ejemplos en la Blogosfera y os cito algunos a modo de introducción El plagio en los blogs, a modo de actuación Qué hacer cuando duplican nuestro contenido o Qué hacer y cómo enterarte cuando te copian contenido, o a modo de venganza, El increíble caso del blog menguante. Estrictamente, nosotros no nos encontrábamos en un caso de plagio, pero había otros elementos que nos preocupaban.

En general, los bloguers no están para muchas batallas y se conforman con que les reconozcan el trabajo mediante un enlace, en nuestro caso, a pesar de que tenemos los feeds preparados para evitar situaciones desagradables y en este caso de redifusión se nos reconocía el trabajo, queríamos ir un poco más allá. Fundamentalmente, no nos gustaba que se redistribuyese nuestro trabajo de forma indiscriminada y a través de textos completos para evitar la duplicación de nuestros contenidos en la Web porque todos sabemos que Google puede llegar a penalizarnos.

Siempre he considerado que el diálogo siempre es más ilustrativo, así que nos inclinamos por él. Huelga decir que no siempre podemos ser escuchados y siempre quedan otras herramientas para evitar este tipo de situaciones, pero las considero bastante desagradables y yo trataría de no usarlas, porque al final las víctimas son nuestros lectores y, por extensión, nosotros mismos.

De forma específica, recientemente Google editó una guía muy básica para editores web, Optimización para Motores de Búsqueda – Guía de Google para Principiantes, en la que se nos da algunos consejos sobre la duplicidad de contenidos. Así, en el texto se nos indica como consejo:

Crea contenido único y original. Nuevo contenido no sólo hará que tus usuarios actuales vuelvan a tu sitio web, sino que además atraerá nuevas visitas. Evita:

  • rehacer (o copiar) contenido que ya existe, pues aportará muy poco valor añadido a los usuarios
  • tener versiones duplicadas o muy parecidas en tu sitio web (más en contenido duplicado)

Ofrece contenido y servicios exclusivos. Plantéate crear un servicio nuevo y útil y que ningún otro sitio web ofrece. Podrías incluso escribir un artículo de investigación, publicar una exclusiva o sacar provecho de las cualidades de tus usuarios. Puede que otros sitios web tengan falta de recursos o pericia para hacer estas cosas.

Es decir, el contenido original es lo que hace que tus visitantes te lean, te sigan y se suscriban a tus feeds, si pueden encontrarlo por otras vías de forma sistemática, pueden dejar de visitarte. Por otro lado, en la página dedicada al Contenido Duplicado en Google (inglés), se nos señala:

Syndicate carefully: If you syndicate your content on other sites, Google will always show the version we think is most appropriate for users in each given search, which may or may not be the version you’d prefer. However, it is helpful to ensure that each site on which your content is syndicated includes a link back to your original article. You can also ask those who use your syndicated material to block the version on their sites with robots.txt.

Por lo tanto, hay que tener mucho cuidado a la hora de sindicar los contenidos hacia otros sitios web, porque dependiendo de la búsqueda Google podría indicar una página web u otra, y aunque Google considera que un enlace de retorno es suficiente, también señala la necesidad de bloquear los robots hacia las páginas sindicadas para que el contenido no aparezca duplicado.

Finalmente y para vuestra información, os comentaré que diálogo hubo y cada cual expuso sus puntos de vista de forma completamente cordial y razonada. Desgraciadamente, ninguno pudo llevarse el gato al agua y quedó bastante claro que nuestras posturas divergían, pero que se respetaban por lo que esta vez nuestro punto de vista fue respetado sin palabras altisonantes, algo, al fin y al cabo, completamente esperable entre colegas.

Un comentario

La publicidad en los feeds, el turno de Feedburner & Adsense

Un rumor recorre la Web estos días, la blogosfera todavía no se ha teñido de preocupación, puesto que la amenaza no se ha cumplido. Algunos consideran que la controversia está apunto de inundar los foros, se cruzarán enlaces, se rellenarán cajas de comentarios y se alzarán voces en contra y pro del próximo movimiento de Google. Personalmente, todavía estoy a la espera porque no me lo acabo de creer, pero todo parece indicar que Feedburner incluirá enlaces publicitarios vía Adsense le guste al editor del medio o no.

Los feeds son considerados por los románticos de la blogosfera como el último reducto donde no deberían aparecer mensajes publicitarios. Dentro de la controversia de hace unos años, estéril todo sea dicho, de si los blogs debían desarrollar modelos para su rentabilización, se consideró que la sindicación de contenidos era exclusiva de los suscriptores y, la limpieza de contenidos publicitarios. un premio hacia los lectores más fieles. Sí, los feeds eran el último lugar donde la información podía evitar la intoxicación informativa de las campañas de marketing. Huelga decir que los feeds se vieron inundados también por la publicidad al cabo del tiempo. Los post patrocinados, la polémica del mes, son el caso extremo de la contaminación publicitaria, pero también la colocación de publicidad contextual e incluso banners dentro de cada post.

Sin embargo, la aparición de publicidad era una elección soberana del editor del blog. Hace ya unos años se debatió mucho sobre el modelo de negocio de los agregadores de feeds por Web. Algunos de ellos cerraron al no poder capitalizar los esfuerzos técnicos que este esfuerzo merecía y muchos bloguers consideraron que no era procedente que los agregadores utilizasen publicidad contextual para monetizar las visitas de sus usuarios, al fin y al cabo, los contenidos eran suyos, así que se creían con derecho a decidir si colocar publicidad en ellos o no. Ahora Feedburner decide sacar provecho a los feeds que controla, una cifra que no puede dejar indiferente 1,570,012 feeds de 882,989 editores a fecha de hoy, situando publicidad en ellos. Por supuesto que Google deja la puerta abierta a todos aquellos que se quieran marchar, simplemente tienen que dejar de utilizar el servicio.

Don’t be evil pregona la compañía de Mountain View, pero reflexiona sobre el hecho de realizar un movimiento monopolístico, mueve una palanca para comenzar a sacar provecho de un servicio que no dispone de competencia que pueda hacerle sombra y que la inmensa mayoría de aquellos que lo prueban se quedan. No hace falta decir que Feedburner ofrece desde hace tiempo la posibilidad a los editores de situar los códigos javascript publicitarios dentro de los feeds que gestiona para que estos puedan obtener ingresos por su esfuerzo, pero además dispone de una ingente cantidad de servicios, además de posibilidades, muy interesantes para los bloguers:

  • Estadísticas de los feeds. Número de suscriptores, número de lecturas, evolución en el tiempo de éstas, que nos permiten ajustar los contenidos porque nos ofrecen datos de aquellos que tienen mayor impacto en nuestros lectores.
  • Estadísticas de los suscriptores por mail. Para aquellos tradicionalistas, o simplemente desconocedores de las ventajas de los feeds, ofrece un servicio de suscripción a los contenidos de un sitio por correo electrónico, enviando servicios de alertas.
  • Estadísticas para un sitio web. Al igual que Google Analytics o servicios similares, podemos conocer cuántos visitantes tienen nuestros sitios web al día y datos bien conocidos por todos.
  • Centralización. Podemos concentrar todos los feeds que genera automáticamente WordPress hacia un único feed, el que gestiona Feedburner, para evitar la dispersión de nuestros lectores.
  • Control sobre el estado del feed. Si se encuentra caído, tiene errores de codificación.
  • Servicio de Ping a los sitios encargados de seguir la actualización de las bitácoras como Technorati.
  • Servicio de optimización como que el feed sea lo más compatible posible para los distintos navegadores, que añada distintas opciones de interactividad para nuestros lectores o que facilite la suscripción a los distintos agregadores de feeds.
  • Además, permite que el feed no sea indexado por los bots de los buscadores evitando las duplicidades de contenido que posteriormente nos podrían penalizar o la opción de incluir una cláusula de licencia sobre uso de contenidos Creative Commons.

Así pues, el panorama futuro pasa porque todas las cuentas Feedburner sean trasladadas a Google Acounts, un movimiento con vista a aumentar el control de la información que se publica en la Red, para ir localizando a los editores de contenido -¿No les parecía suficiente Analytics?- y a sus lectores. Google tiene muchos tentáculos y la competencia que puede hacerle sombra sólo se dedica a pelearse por sus sobras.

8 comentarios