Saltar al contenido →

Mes: febrero 2009

¿Apocalipsis SEO? Google va a apostar por las Marcas en sus resultados

Parece ser que últimamente Google, aunque también el resto de compañías con los buscadores más importantes Yahoo y Microsoft, disponen de más poder a la hora de desarrollar estándares para nuestras páginas web que el mismísimo W3C. Por supuesto que seguir las recomendaciones del W3C tampoco es que hayan sido seguidas a pies juntillas por las grandes empresas informáticas. Sin ir más lejos, Microsoft no ha sido del gusto de seguir los dictados del consorcio y bien conocidos son los quebraderos de cabeza que los diseñadores web han sufrido a la hora de desarrollar páginas web porque los chicos de Redmond no se han arrugado a la hora de saltárselos en el desarrollo de su Internet Explorer.

No me sorprende la influencia de Google sobre los webmasters y sobre los cambios de la estructura de la Web, bajo el paraguas del combate del Spam y el contenido duplicado han sido capaces de marcar sus dictados para tratar de hacerles frente con relativo éxito claro. En un primer lugar, nos sugirieron la utilización de la etiqueta rel=”nofollow” que debía ser insertada de forma casi obligatoria en los comentarios cuando los blogs comenzaban a expandirse para evitar el Spam – Fundamentalmente, la utilización de esta etiqueta señalaba a los bots de Google que no debían seguir estos enlaces y de esta manera no promocionar las páginas web de destino –. También, nos propusieron que situásemos dentro de nuestras webs un fichero en XML denominado Sitemap que listaba todas las páginas de un sitio web de forma jerárquica, de tal manera que facilita las tareas de rastreo de los bots que no tienen que seguir todos y cada uno de los enlaces de un sitio para recuperar su contenido. Y recientemente los principales buscadores nos proponían la utilización de la etiqueta link rel=”canonical” para evitar la penalización por el contenido duplicado, puesto que esta etiqueta señala a los buscadores cual es la página principal que dispone del contenido frente a otras que podrían contenerlo como Archivos o Categorías. Obviamente, la adopción de todas estas etiquetas ha resultado masiva haciendo un poco más sencilla la tarea a Google de “organizar la información del mundo”, a la vez que se facilitaba nuestras tareas para aparecer en las primeras páginas de resultados de Google, aunque parece que desde Mountain View las cosas van a cambiar para los pequeños editores.

El pasado noviembre el buscador realizó una actualización en su algoritmo, la Google Florida update, aunque en ámbitos SEO esta actualización, aparentemente, no tuvo excesivas implicaciones a primera vista, lo cierto es que esto no es del todo cierto. De hecho, desde entonces se ha detectado que muchas páginas web que utilizaban técnicas básicas SEO han ido desaparecido de las primeras páginas de resultados frente a otras, tal vez, entrando en consideración la nueva política de Google a la hora de devolver resultados en las búsquedas. Eric Schmidt, CEO de la compañía, señaló hacia dónde se dirige Google:

Internet se está convirtiendo en un agujero putrefacto donde reina la información falsa. Tenemos que encontrar indicativos sólidos de credibilidad, y las marcas (marcas comerciales) son la solución, no el problema.
Las Marcas son una buena forma de salir de ese agujero de información falsa.
Estamos totalmente conectados a las marcas. Están tan fundamentalmente conectadas con el ser humano que no hay marcha atrás. Tiene que tener un componente genético.

Es decir, que los pequeños editores lo van a tener un poco más difícil a la hora de posicionarse dentro del algoritmo de Google, mientras que el buscador va a intentar ofrecer puntos de credibilidad a las informaciones editadas por los medios de comunicación y las empresas posicionadas en otros ámbitos junto al resto de consideraciones. ¿Es este el principio del fin de los SEO?

Comentarios cerrados

La caída de Gmail y las debilidades del “Cloud Computing”

Todo parece indicar que este 2009 está siendo especialmente problemático para Google a nivel de gestión. Si finalizando enero cometía un error a la hora de actualizar la base de datos de sitios web dañinos que dejaba en fuera de juego su buscador (sin excesivas repercusiones gracias sobretodo a que se trataba de un sábado), el pasado 24 de febrero dejaba a los usuarios de su servicio de correo electrónico, Gmail, y otros servicios sin acceso vía web durante tres horas y media debido a un error durante las tareas de mantenimiento rutinario en un centro de datos del mismo. Desgraciadamente, la caída del servicio se produjo durante el mediodía de una jornada laboral en Europa, por lo que no pasó desapercibido. Es curioso, pero los dos sucesos me cogieron delante de un ordenador y pude sufrir sus efectos, a pesar de que si bien el primer error, el del buscador, lo achaqué a la página web a la que intentaba acceder, en el segundo me percaté de que algo grave estaba pasando con Google y sus servidores.

De hecho, de Gmail me trasladé inmediatamente al buscador para comprobar hasta dónde llegaba el desaguisado, aunque por fortuna el buscador se encontraba en perfecto funcionamiento porque, de otro modo , sí que nos hubiésemos encontrado frente a un problema y el “pánico” que se ha llegado a señalar que sacudió a los usuarios del servicio de email de Google se hubiese extendido y de qué manera sobre toda la Web. En este caso, sí que nos hubiésemos encontrado frente a frente la gran dependencia que la economía de la Web dispone de Google y las conclusiones habrían sido otras, claro.

Sin embargo, la caída de los servidores de Gmail conduce necesariamente al replanteamiento de la nueva tendencia de este año, el Cloud Computing, que desde luego no lo va a tener fácil después de este incidente. Obviamente, se trata de un asunto de escala. Los defensores del Cloud Computing -entendamos esto como el establecimiento de herramientas de productividad (Office, comunicación y demás) en servicios en la Web- argüirán que el coste del mantenimiento de estas herramientas dentro de una empresa es mayor que dejar que sean los técnicos del servicio web los que se encarguen de ello. El problema, además de los problemas de dejar datos confidenciales a recaudo de otra empresa, es que si hay una caída de los servidores, como ha sucedido en el caso de Gmail, el hecho puntual se convierte global. De este modo, en vez de encontrarnos con que el problema lo tiene una sola empresa, nos trasladamos a un marco donde la incidencia la sufren distintas organizaciones, relentizando y dificultando las transacciones económicas y la productividad de los trabajadores.

Obviamente, el posible impacto de una caída de los servidores de un servicio de Cloud Computing dependen en buena medida de la urgencia y de la finalidad del servicio mismo. En mi caso, por ejemplo, Gmail sólo me sirve para fines personales por lo que la incidencia de que el correo electrónico se encontrase inaccesible durante tres horas fue mínima. Sin embargo, si utilizamos esta plataforma con fines corporativos, la dimesión del problema es otro. Por otro lado, Google además de Gmail ofrece otro tipo de herramientas como las destinadas a la edición de documentos, gestión de la información (Calendars por ejemplo) o la creación de internets corporativas básicas (Google Sites). ¿Podemos imaginarnos 1000 empresas sin poder acceder a sus respectivas intranets a la vez? ¿Y si además del problema de acceso, no disponemos de un back-up?

Por otro lado, el error que se ha producido en Gmail era de acceso vía web, pero se podía trabajar con él a través de los servicios POP e IMAP (aunque también se podía trabajar con él off-line gracias a Google Gears) por lo que aquellos que tenían sus aplicaciones de correo electrónico de escritorio configuradas, o los que accedían vía móvil, no sufrieron la incidencia, además de que ningún correo electrónico se perdió o pudo ser contestado. Sin embargo, el Cloud Computing a pesar de disponer de muchas ventajas como el menor coste de mantenimiento y de gestión, no debería ser confiado a tareas críticas de las organizaciones y no sólo por la individualidad de una sola, sino por el conjunto que quedarían inoperativas.

6 comentarios

Nuevos bloguers, viejos errores

Me comienza a dar la impresión que la biblioblogosfera se comienza a mover de nuevo, nuevos blogs se abren tanto por parte de instituciones que se tratan de amoldar a la Biblioteca 2.0 como por particulares que desean comenzar con su tarea de personal branding. Lo cierto es que después de malos augurios que por supuesto tenían sus razones de peso en su atrevimiento de cómo se desarrollarían los acontecimientos, aparentemente la biblioblogosfera reverdece, confío que tomando el impulso que se merece.

Este texto no persigue señalar las políticas editoriales que cada uno debería adoptar en su blog, por supuesto que las metas y los objetivos a alcanzar son puntos que cada uno se traza y evalúa cada cierto tiempo, pero considero necesario resaltar aquí dos errores de peso que he venido comprobando y que se presentan con cierta reincidencia:

  1. Sobre la configuración de los feeds. Aunque parezca lo contrario, obtener un lector fiel es tremendamente complicado. En un lugar donde la competencia está a un solo clic, que una persona de forma consciente decida seguir nuestros textos a través de la sindicación de contenidos es un punto a favor de nuestra tarea diaria y debemos cuidar qué hacemos con nuestros feeds y cómo los configuramos. Lo primero que desea un lector es no tener que seguir enlaces, es decir, no quiere consultar un feed a través de su agregador para descubrir que tiene que desplazarse hacia el sitio web para acabar leyendo su contenido completo. Sí, ofrecer los contenidos capados en nuestra sindicación puede suponer un aumento momentáneo de nuestras visitas, pero lo que nosotros buscamos con los feeds es la fidelización. Nuestros lectores no disponen del tiempo ni de los deseos para ir saltando desde el agregador hacia nuestra web y, por ello, una de las razones por las que perdemos potenciales lectores es precisamente no ofrecer los feeds con los contenidos completos. En otro ámbito, se situarían los grandes blogs o los feeds de los medios de comunicación donde la actualización es constante, dependiendo de los casos, aquí sí que podría estar justificado ofrecer los contenidos capados precisamente por la ingente cantidad de contenidos a publicar. En definitiva, si ya has convencido a un internauta para que te siga, preocúpate de cuidarlo más allá de aumentar el tamaño de tus logs.
  2. Promoción de los contenidos más allá del blog. Vale, tienes un blog, ahora lo que deseas son visitas, ¿cuál es la mejor manera de promocionar tus contenidos? Desde mi punto de vista, y mucho más dentro de nuestro ámbito temático, la constancia y la paciencia. Si las demuestras – junto con unos buenos contenidos, claro-, si tus seguidores saben qué se van a encontrar cada vez que saben de una actualización, seguramente no se irán.
    La utilización de otro tipo de herramientas como la promoción social de noticias, en nuestra área temática tenemos el caso de Documenea, también puede ser interesante, aunque cuidado si eres muy insistente y no sabes seleccionar adecuadamente los contenidos que quieres promocionar, porque los administradores te podrían considerar como spammer y podrías ser baneado. Por otro lado, y desgraciadamente, la utilización de listas de distribución por correo electrónico para la promoción de blogs está sufriendo ciertos abusos. de un tiempo a esta parte Por supuesto que está bien promocionar el lanzamiento de un blog, está bien comentar algún artículo del que nos sintamos especialmente orgullosos, pero no podemos caer en las prácticas de spammer de que en cada actualización debamos de dar aviso en las listas. Además, si lo hacemos, tampoco considero correcto hacer llegar un extracto del contenido y un enlace hacia la información completa, porque los usuarios de estas listas están dados de alta en una lista de distribución, no se han agregado a tus contenidos. Pueden llegar a aceptar que les remitas tus noticias si las consideras muy relevantes, pero si lo haces envíaselas enteras y no les hagas seguir enlaces.
4 comentarios

Facebook mete la pata por enésima vez con la privacidad de sus usuarios

Los medios de comunicación han transmitido la reculación de Facebook como una batalla ganada por los usuarios, pero ¿es que nunca vamos a aprender que los mercados son conversaciones? ¿Dónde quedan las cacareadas La Conversación o la Inteligencia Colectiva? ¿No debería Facebook precisamente por tratarse de una Red Social, por ser una empresa nacida por y para Internet, contemplar todos estos aspectos antes de empantanarse en el cambio unilateral de las Condiciones de uso de su sitio web? ¿No deberían aceptar los usuarios esas modificaciones como un nuevo contrato a firmar? En cualquier caso, no deberíamos cometer el error de caer en la sorpresa por este desliz acometido por Mark Zuckerberg, porque desde luego no hay dos sin tres.

En esta ocasión, Facebook realizaba una pequeña modificación en el contrato de las Condiciones de uso, según el cual la Red Social se reservaba el uso de todos los materiales (incluyendo la identidad) que un usuario pudiese subir o utilizar dentro de su web, aunque esto ya lo hacía antes del escándalo, incluso si el usuario se daba de baja. El blog Consumerist daba la voz de alarma en el texto Las nuevas condiciones de uso de Facebook: “Podemos hacer lo que queramos con tu contenido para siempre” – Facebook’s New Terms Of Service: «We Can Do Anything We Want With Your Content. Forever.» Y la reacción no se hizo esperar sobrepasando a la empresa de tal manera que sus directivos han constituido un grupo llamado Declaración de Derechos y Deberes de Facebook mediante el cual los usuarios pueden aportar ideas para una nueva propuesta, más respetuosa con la información personal de los internautas. Es decir, los responsables de la empresa se retractan pero seguirán intentando “jugar”, si se quiere esta expresión, con la información con la que les estamos alimentando continuamente.

Pero este gran error, se conjuga con otros de igual o peor calado en la búsqueda de rentabilización de la ingente cantidad de información que está recogiendo y gestiona de sus usuarios y que es muy reticente a borrar de sus bases de datos. De hecho, hace aproximadamente un año, se descubrió que no había manera de darse de baja de forma definitiva de Facebook (Con el borrado de los datos que esto supone), sino que sólo podías desactivar la cuenta. La empresa se defendió arguyendo que no se borraban los datos por si en algún momento el usuario cambiaba de opinión y quería retornar a la Red Social, argumento que curiosamente también ha desempolvado en esta ocasión asegurando que los datos permanecían en la Red para que los amigos que todavía permanecían dentro de ella pudiesen recuperar los elementos textuales y audiovisuales que hubiesen dejado en ella. Por supuesto que, desde Facebook, tuvieron que desandar el camino y aceptar que los usuarios pudiesen darse de baja de forma completa y definitiva cuando ellos deseasen.

De forma previa a esta polémica, la empresa lanzó Facebook Beacon, un sistema que se intercambiaba información de usos y comportamientos de los usuarios de Facebook a otras empresas de tal manera que éstas pudiesen realizar campañas de marketing dentro de ella. Así, por ejemplo, se dio el caso de una usuaria que adquirió una cafetera a través de una web y Facebook informó a todos sus contactos de la compra, así como dónde la había comprado. Obviamente, no existió consentimiento por parte de la usuaria ni de, primero, que la web compartiese información con Facebook, ni que posteriormente esta información se redistribuyese con los contactos, lo que provoca un serio conflicto entre la privacidad y el control de la información que diseminamos dentro de esta Red Social sobre la que Facebook parece insistir en esta ocasión.

2 comentarios

¿Batacazo en los ingresos Adsense?

Cuando decidimos incluir publicidad en nuestro blog, lo hicimos en primer lugar para curiosear, para probar cosas nuevas y , como dijimos entonces, para disponer de una estadística más; y segundo, cómo no, quitarnos de encima el coste de mantenimiento de nuestro blog. Entonces, al igual del 90% de los pequeños editores de Internet, nos decantamos por Google y su Adsense por tratarse de uno de los servicios más confiables disponibles en el mundo publicitario en Web y lo cierto es que la experiencia ha sido al menos divertida (con la cancelación de nuestra cuenta y todo).

El hecho es que disponer de una cuenta en Adsense, ha abierto un poco la temática de nuestro blog, vigilantes sobre la publicidad y los modelos de financiación de los bloguers y pequeños editores, preocupados por el mundo SEO y SEM, pero lo que no me esperaba comprobar era la tremenda caída de los ingresos que se iban a dar. Porque no nos podemos llevar a engaño, somos un blog muy modesto, no esperamos grandes retribuciones, pero la denunciada caída del 60% del CTR parece que se va a quedar pequeña. Sólo tendríamos que echarle un vistazo a la evolución de las cifras del eCPM (Acrónimo de coste efectivo por cada mil impresiones y se usa para medir el rendimiento de los bloques de anuncios) en gráficos comparativos de distintos países.

En el caso español (que os recojo), aunque podéis consultar otros, es significativo y puede desembocar hacia que los usuarios de Adsense apuesten por otros modelos publicitarios huyendo de la cierta opacidad de Google (Qué es lo que el anunciante paga, qué es lo que Google se queda y qué es lo que le toca al editor nunca ha estado muy claro) y sus extrañas políticas de uso. En nuestro caso, hemos contemplado la posibilidad de eliminar la publicidad porque realmente, a pesar de que los clics puedan incrementarse o mantenerse, obviamente no percibimos el retorno como compensatorio o también podemos decantarnos por probar otros modelos publicitarios como el de TradeDoubler que nos recomendaron.

Ante las denuncias de caídas, Google se ha defendido, por supuesto, asegurando que las fluctuaciones en los ingresos son normales, pero que en los tiempos de incertidumbre económica, mucho más dramáticas, que no a todos los sectores o segmentos les afectan igual ni durante el mismo tiempo, por lo que no a todos los sitios web se encontrarán afectados en igual medida.

De momento, en nuestro caso, esperaremos y comprobaremos cuál es la evolución, cómo les va afectando esta situación a los blogs y lo que van comentado sobre este asunto. Pero no es descartable que volvamos a ser un blog limpio de publicidad a lo largo de estos meses. Para ello aprovisionamos hace poco.

8 comentarios

Cuando Google falla

Durante el año 2007, el servidor de Google.com sólo estuvo inaccesible durante 7 minutos – tan sólo superado por Yahoo.com que estuvo accesible durante todo los días sin caídas –, sin embargo Google se encontró con su pantalla azul de la muerte, haciendo referencia a la pantalla que se muestra cuando el sistema operativo Windows se queda colgado, el pasado 31 de enero entre las 15:30 y 16:30 hora española cuando todos y cada uno de los resultados de Google aseguraban que todos los sitios y páginas web disponían de malware. Esto supone que Google no permitía acceder a ninguna página web a través de él y, ante cualquier búsqueda, remitía siempre a una página de aviso sobre el peligro que suponía que el internauta accediese al recurso informativo resultado de una consulta.

Durante una hora, el buscador de Google se volvió, literalmente, loco durante el proceso de actualización en la noche del viernes al sábado [en Estados Unidos] el fichero con la lista de URLs consideradas con ‘badware’ que consulta Google a través del sitio web especializado StopBadWare.org. Según ha asegurado la compañía, se trató de un error humano, atribuido al uso de una barra “/ ” y que declaraba que toda la web era maliciosa, aunque hubo un cruce de acusaciones previo entre Google y StopBadware sobre la responsabilidad del error que finalmente decayó en el buscador que admitió su fallo.

Aunque el fallo se haya tratado como un hecho puntual, realizado durante las tareas de mantenimiento del buscador justo en el momento de menor tráfico en Internet, creo que no se ha analizado con suficiente profundidad la incidencia. De hecho, durante una hora, muchas personas se quedaron casi sin Internet, con su fuente de consulta completamente colapsada y sin permitirles el acceso a sus los recursos web que solicitaban. Si Google acapara el 80% del tráfico mundial en el negocio de las búsquedas, ¿qué sucedió durante ese lapso de tiempo? ¿Las visitas decayeron de forma generalizada como si el Pagerank de todas las páginas se hubiesen convertido en cero? ¿Utilizaron los internautas otros buscadores? ¿Qué sucedió con los ingresos publicitarios de las webs? ¿Desaparecieron, se mantuvieron? ¿Qué hubiese sucedido si el fallo se hubiese producido durante una de las horas de mayor actividad del buscador?

De momento, no se han publicado datos. Pero, ante el fallo de Google, la reacción de la blogosfera y de los medios de comunicación fue descubrir la fragilidad de los datos que se sitúan en los servidores de Mountain View y de lo que se ha pasado a denominar La Nube (Cloud Computing). Como acción más inmediata y para evitarnos disgustos, se ha sugerido la necesidad de realizar copias de seguridad de todos los datos personales que se almacenan en los servidores de Google, pero se sigue obviando la verdadera cuestión de fondo que es ¿cuál fue el alcance real de esa hora en blanco? Por supuesto que existen precedentes, en mayo de 2005, el buscador se quedó inaccesible durante 15 minutos por un error interno, por otro lado, YouTube quedó colapsado durante horas el pasado febrero de 2008 cuando el gobierno de Pakistán prohibió el acceso al sitio y desvió el tráfico provocando un efecto en cadena. Lo que nos deja con la incertidumbre de lo peor de todo, ¿existe una alternativa al buscador y sus principales servicios?

5 comentarios

La evolución del costo-beneficio de la Web 2.0

No puedo dejar de comentaros el hecho de que me sorprende mucho el cambio de actitud que se está adoptando en la Web 2.0 sobre la rentabilización de los contenidos que hasta hace bien poco se consideraba que el internauta ofrecía a los demás de forma completamente altruista. De hecho, me parece terriblemente curioso que ante esta crisis económica los medios y los webdospuntocerocentristas consideren la adopción de medidas similares cuando bien sabemos todos que son visiones cortoplacistas que ya probaron otros y fracasaron.

Porque como bien recoge Nieves González, la corriente que actualmente se está generando sobre el futuro de la Web, abandonemos ya el 2.0 y lleguemos al 3.0, pasa por la consideración de que los contenidos generados por los usuarios deben evolucionar hacia activos generados por los usuarios. Es decir, ya no es suficiente que los usuarios generen contenidos, sino que deben de generar valor, activos para el sitio web que visitan. Pero, ¿cómo se consigue eso? Pues sencillamente, según este razonamiento, los contenidos creados por los usuarios de forma gratuita decrecerán, mientras que los de pago aumentarán.

Vaya, hasta ahora creíamos que construíamos una Web de forma colaborativa y completamente altruista, conformándonos con el reconocimiento de la Comunidad o de la Red Social que se generaba alrededor nuestro como handicap, y ahora debemos enfocarnos hacia la generación de valor económico y a la recompensa de los usuarios que generan realmente contenidos valiosos para nuestro sitio web para la construcción de una denominada Web 3.0.

Hace poco, esto simplemente hubiese resultado un insulto dentro de la blogosfera. De hecho, tampoco hay que retrotraerse en exceso para recordar los tiempos en los que el hecho de que un bloguer pusiese publicidad en su blog era contemplado como algo completamente censurable, como si mantener un blog fuese algo que naciese de una persona que publicaba lo que realmente pensaba de forma independiente y que se debiese a su comunidad.

Pero, desgraciadamente, los tiempos han cambiado. Los A-List bloguers abandonaron la blogosfera, considerando que tal vez ya estuviese muerta. Puede ser que buscasen nuevos nichos donde mantener la Conversación, donde hacerse realmente fuertes manteniendo su influencia pero sin dedicarle excesivo tiempo y esfuerzos a un medio muy sacrificado. Por otro lado, la Web 2.0 ya no es buenrollista, su mecenas Google se encuentra en aprietos (imaginemos el resto de Webs que dependen de él) y ha comenzado el recorte presupuestario, la cancelación de proyectos y como, antes de la Web 2.0, el tráfico no es suficiente, hay que generar dinero.

El costo-beneficio ha cambiado para los administradores de los sitios web como para los usuarios. Es el momento de premiar los mejores usuarios 2.0 pero pagándoles,  los que generen valor, hay que diseñar mejores servicios pero que sean de pago y el resto que sufran la selección natural. Ya no hay compadreo, la espadas se encuentran en alto y no es suficiente con mostrar una comunidad, unas páginas servidas, unos tiempos de permanencia en el sitio. Hay que demostrar un balance saneado y (algunos) usuarios que paguen.

¿Y los usuarios? ¿Considerarán que es el tiempo de obtener beneficios por los contenidos que van dejando por toda la Web 2.0? ¿Seguirán pagando a WordPress por alojar sus blogs? ¿Permitirán a La Coctelera situar publicidad en los contenidos que ellos generan? ¿Les publicitarán o los abandonarán? ¿Los usuarios decidirán abandonar la Wikipedia a su suerte porque no obtienen nada a cambio?

¿Y las empresas? ¿Serán las redes de blogs comerciales de medios de comunicación, de empresas de nanoaudiencias el futuro de la blogosfera (Pagar a los bloguers)? ¿Pagarán las empresas a profesionales de creación de contenidos para mantener actualizadas sus web, para que creen contenidos dentro de la Web 2.0 para dejarlas en la mejor situación posible?

¿O es que simplemente ya lo estábamos haciendo sin percatarnos y la Web 2.0 dejó de ser lo que nosotros creímos que era desde hace tiempo?

2 comentarios