Saltar al contenido →

Etiqueta: Google

La Blogosfera ante la crisis económica (3) – Google siempre defenderá su buscador

El sistema actual sobre el que se fundamenta Internet, y más aún tras la adquisición de DoubleClick por parte de Google, podría definirse más bien como maquiavélico. Por un lado, tenemos una empresa que otorga ratios de tráfico muy elevados a distintas tipologías de sitios web, es el mejor en su campo hoy por hoy desde luego, mientras que, por otro, obtiene su financiación mediante la generación de otro tipo de tráfico mediante la compraventa de enlaces y palabras clave. En términos de medios de comunicación, Google otorgaría dos tipos de publicidad, la pagada (Adwords, adsense y otros modelos) y la blanca (cuando un medio habla de ti sin haberle pagado por ello) mediante las búsquedas que realizan los internautas dentro o a través de él. El sistema es perfecto para Google, pero a la vez obliga a los dueños de los sitios web a subyugarse a él y a su modelo de negocio, puesto que Google hará todo lo que esté en su mano para defender su producto estrella: Su buscador.

No debemos olvidar que la empresa Google nació como un buscador y, a pesar de que durante los últimos años se haya comportado más como un metamedio, comprando y desarrollando servicios y aplicaciones, sus fundadores Larry Page y Sergei Brin son plenamente conscientes de que su principal producto y valor son sus orígenes y, por ello, una de sus mayores preocupaciones es que los resultados de éste no se degraden. Teniendo en cuenta la cuota de mercado que dispone Google en las búsquedas globales en Internet, no es de extrañar que sea uno de los mayores proveedores de tráfico a las webs que la conforman.

De hecho, la famosa barrita verde, el indicador que sirve para otorgar una serie de pesos a las páginas web dentro de la Red, el Pagerank, es una de las mayores preocupaciones de los webmasters y el incremento de su valor, aplicando una serie de estrategias, una de los objetivos de los SEOs. En el mismo momento que el buscador otorga pesos a los distintos sitios web, los está valoralizando, estableciendo una suerte de oferta y demanda dependiendo de su utilidad, contenido y popularidad. El PageRank se fundamenta (Además de otras variables) por el número de enlaces que una web recibe, pero también de dónde provienen y su Pagerank. Es decir, el Pagerank es transmitible o conectivo de unos sitios web a otros, por lo que no es lo mismo recibir un enlace de una web que tiene un PageRank 3 que 6.

Los modelos publicitarios que comentábamos en los textos anteriores buscan, más allá de la recomendación del bloguer, el enlace a una página web. De hecho, las empresas están dispuestas a pagar cierto monto económico para que las enlaces, por lo que el modelo sobre el que se fundamenta Google, supuestamente democrático, se desvirtúa completamente cuando se ofrece la posibilidad de comprar enlaces dentro de textos otorgando valor económico a las webs dependiendo del valor del Pagerank y no en forma de publicidad contextual como éste ofrece. Google advirtió severamente que los enlaces comprados debían utilizar el valor nofollow, es decir, que el enlace pagado indicase a los bots del buscador (Agentes informáticos que indexan la web) que no debían seguirlo o tenerlo en cuenta. Obviamente, las empresas de pago de enlaces indicaron que esto no debía hacerse, pero no dispusieron de margen de maniobra cuando el buscador movió ficha.

El pasado mes de octubre, Google penalizó a las webs y blogs que utilizaban el modelo de pago por enlaces y Payperpost. La sangría derivada de esto fue un momento duro para la blogosfera y sitios webs muy influyentes descubrieron que habían perdido hasta dos puntos en el valor del PageRank. No hace falta recordar que la disminución de este valor tiene un impacto muy significativo en el tráfico de los sitios webs, por lo que el número que asigna a las páginas web, tiene una importancia muy significativa a la hora de generar ingresos en éstas. El desconcierto era tan profundo que algún bloguer se planteaba la eterna cuestión del pago por contenidos, cuando todos nos felicitamos en el momento que los medios de comunicación se percataron que el cierre de contenidos no era el camino a seguir que el futuro de la prensa es libre y gratis.

Hay quien considera que la acción de Google fue positiva, puesto que servía para limpiar la Red puesto que las acciones publicitarias se habían convertido abiertamente en spamming, aunque otros podrán considerar que el poder del buscador es tan grande y su influencia sobre lo que sucede en la Red tan intensa que se le debería empezar a poner cota. Sin embargo, ¿es demasiado tarde para frenarle los pies a Google cuando se ha convertido en juez y parte?

2 comentarios

Are you buzzing? (1) – Midiendo la relevancia de un dominio en Internet

Buzz es un término de marketing que en su traducción al castellano corresponde a zumbido. El concepto de Buzz Marketing se utilizaría, por tanto, cuando queremos que una idea o un producto se comente mucho, produciendo un ruido de fondo constante. En pocas palabras que algo esté en boca de todos. Dependiendo de los medios utilizados, este Buzz podrá ser más o menos intenso, más o menos prolongado en el tiempo y su traslación a Internet correspondería a que en muchos sitios web se hablase al mismo tiempo sobre lo que queremos vender o promocionar. Sin embargo, como en el mundo real, en Internet existen sitios webs más o menos influyentes, más o menos visitados, más o menos relevantes dependiendo de su público y nuestro objetivo con estos textos es dar algunas herramientas para precisamente evaluar esta importancia relativa. Pero, ¿quién pone la relevancia a un sitio web? ¿Por qué unos sitios son más importantes que otros? ¿Cómo averiguar si un sitio web tiene mucho tráfico o poco?

En España, se utilizan fundamentalmente dos metodologías para la evaluación y comparativa controlada de audiencias en la Red. Una la desarrolla OJD (Oficina de Justificación de la Difusión), mientras que la segunda es Nielsen Ratings, aunque hay que indicar que estas dos oficinas de medición de audiencias se centran en sitios web con mucho tráfico como medios de comunicación, redes de blogs y distintas empresas. Pero, ¿qué sucede con el resto de webs?

Alexa compone un ranking de los sitios web más visitados gracias a los internautas que instalan su barra de herramientas (Toolbar) de forma desinteresada. Obviamente, Alexa recopila información de navegación de las personas que instalan su herramienta por lo que su difusión y uso siempre ha estado cuestionada primero por la privacidad y luego por su implantación en los navegadores, por lo que las cifras aportadas nunca han sido consideradas del todo fiables.

Así pues si no podemos conocer la audiencia real de un sitio web, a no ser que sus estadísticas sean públicas, debemos buscar otros medios para conocer la relevancia de un sitio web como, por ejemplo, el número de enlaces que recibe una página web. Debemos señalar que el primero que trató de categorizar los sitios web según su importancia fue, cómo no, Google y su Pagerank. Obviando otras consideraciones, Google dispuso un sistema democrático según el cual cuantos más enlaces recibiese un sitio web mayor importancia debería disponer a ojos de los internautas. De este modo, estableció un ranking de 0 a 10 mediante el cual categorizó las webs según su relevancia. Por supuesto que, hoy en día, la barrita verde de Google parece tener menos peso que antaño, nuevas variables se conjugan en su algoritmo, sin embargo sigue siendo un referente para muchas personas, incluyendo a los propios webmasters.

Averiguar cuál es el Pagerank de una página web es bastante sencillo (es una información que Google publica) a través de la instalación de la Google Toolbar o utilizando servicios que nos ofrecen distintas páginas web como MiPagerank. Pero el Pagerank es la suma de los distintos Pageranks de los datacenters de Google, es decir, no tiene porqué ser uniforme y nos puede servir de guía para un futuro en nuestro objetivo de ir aumentándolo a lo largo del tiempo. Sin embargo, por distintas razones, Google puede llegar penalizarnos disminuyéndolo siguiendo una serie de criterios, pero en la Red disponemos de otras herramientas para evaluar el posible peso de un sitio web en un momento determinado y, por lo tanto, de un dominio.

Así, por ejemplo, disponemos del Genuine Site Rank donde se nos calcula qué Pagerank deberíamos tener dependiendo de una serie de parámetros, o Web Site Grader donde aportando una serie de palabras clave junto a dominios de nuestra competencia se nos realiza un estudio comparativo de nuestra relevancia respecto a ellos o CuWhois donde se aglutinan una serie de herramientas para la obtención de una serie de estadísticas de nuestro dominio incluyendo el valor monetario que nuestro sitio web, junto el valor que podríamos obtener si quisiéramos vender enlaces desde nuestras páginas. Se tratan, por supuesto, de distintas herramientas SEO que bien pueden ayudarnos a la hora de mejorar el comportamiento de nuestros visitantes unido a los resultados que los buscadores pueden arrojar sobre ellos en un momento determinado.

Comentarios cerrados

Todo bloguer tiene que ser un poco SEO (Algunos consejos)

Un bloguer cuando decide escribir lo hace para ser leído, es decir, desea que sus ideas transciendan un poco más allá de su círculo de allegados y recibir de esta forma visitas en su bitácora. Al principio, dependiendo de la tipología del blog, puede querer que se trate de un puñado de visitantes para, posteriormente, ir un poco más allá. Obviamente, una de las fuentes principales de tráfico en Internet son los buscadores, Google fundamentalmente, así que los bloguers pronto decidimos comenzar  a trabajar para que Google nos sitúe en los primeros puestos de los resultados, para ser encontrados.

Esta pequeña actividad, que la mayoría de bloguers laboriosos realizamos casi sin percatarnos, aunque es práctica frecuente en Internet, se denomina "Posicionamiento en Buscadores" o, según su denominación anglosajona más conocida, Search Engine Optimization (SEO). Fundamentalmente, los SEOs deben preocuparse de:

  • Conseguir que otras webs de temática relacionada enlacen con tu web.
  • Darse de alta en directorios web importantes.
  • Crear contenidos con textos que contienen frases con que buscan los usuarios web los servicios y/o productos de este sitio.
  • Hacer nuestra web lo más accesible posible.
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página.
  • Enlazar internamente las páginas de nuestro sitio de manera ordenada y clara.
  • Actualizar la página con contenido original de calidad.
  • Intercambio de contenido.

Por supuesto que estas técnicas son muy básicas e incluso los buscadores nos ofrecen algunos consejos para el posicionamiento de nuestras webs, por ejemplo ésta es la página de Google, pero debemos de advertir que las actividades de los SEO pueden variar a lo largo del tiempo debido, fundamentalmente, a los cambios que realizan los buscadores para mejorar sus algoritmos y de esta manera sus resultados. Estos cambios en los algoritmos no son conocidos por todos, ni mucho menos, así que los SEOs deben hacer sus cábalas y desplegar una serie de actividades para adaptarse a los continuos cambios en los algoritmos de los buscadores e incluso a las evoluciones propias de la Red. Así, para este año recién comenzado, los SEO tienen algunos nuevos retos a los que enfrentarse:

Afortunadamente, para aquellos que utilizamos WordPress como gestor de contenidos, podemos utilizar alguno de los muchos plugins SEO existentes para mejorar nuestro posicionamiento de forma automática si no deseamos realizar muchas de estas tareas, aunque siempre tenemos que tener presentes algunos consejos para nuestra labor de mantenimiento de nuestras bitácoras:

  • ‘Humaniza’ tus permalinks: unos enlaces permanentes que aporten información fácilmente reconocible por el ser humano (palabras, fechas…).
  • Elimina las ‘www’ de tu dominio preferido: el dominio preferido es aquel que reconocen los buscadores como el principal.
  • Crear y remitir sitemaps.
  • Añade metatags al header.
  • Ofrece buenas páginas de impresión.
  • Genera etiquetas en los contenidos: muchos buscadores y, en especial Technorati, dan prioridad a las etiquetas (tags) y construyen sobre ellas búsquedas especializadas.

Por cierto, ¿quién dijo que mantener un blog iba a ser una tarea sencilla?

7 comentarios

¿Googlepolio en búsquedas? Pues sí… A vueltas con la cuota de mercado de los buscadores

Hace poco os comentamos que Google aparentemente nos había penalizado, para la composición de aquel texto me dispuse a hallar la cuota de mercado y, por tanto, la penetración que tenía Google en el mercado español para argumentar nuestra pérdida de visitantes. Lo cierto es que me costó encontrar un dato fiable y, de aquella búsqueda, os ofrecí una cifra inexacta pues afirmé entonces que Google disponía del 90% del mercado de búsquedas en España. Reconozco que rebajé un poco la cuota, puesto que según se afirma en el artículo Google y las cuotas de mercado el porcentaje se sitúa en un 99%.

Sinceramente, el dato me pareció un tanto escandaloso, ¿dónde quedaba la compentecia (Yahoo, MSN o Ask)? El profesor Enrique Dans en su reciente artículo ¿Es Google un monopolio? detallaba las distintas cuotas de mercado de las que dispone Google, no debemos olvidar que es su principal actividad, en el Globo:

Pero ¿es realmente Google un monopolio? En algunas de las actividades que realiza, como la búsqueda, la pregunta recibe una respuesta diferente según dónde sea planteada. Para un español, un alemán o un holandés, la respuesta es afirmativa: en los tres casos, la penetración de búsquedas hechas en Google supera el 90%. Sin embargo un chino diría que no, dado que Google representa tan solo el 21%, claramente por detrás de Baidu, el buscador dominante. En Japón, la penetración de Google es inferior a la mitad de la que posee Yahoo! En Corea del Sur, Google es prácticamente un desconocido, un competidor completamente minoritario, que sólo se utiliza en un 1.7% de las búsquedas realizadas. En el país más conectado del mundo, Google todavía lo tiene todo por hacer. Aún así, el caso de Corea del Sur, aunque preocupante y prioritario para Google, no deja de ser moderadamente anecdótico: en todo el mundo, el porcentaje de búsquedas realizadas en Google sobre el total ronda el 65%.

Hay quien cree que Google obtuvo su éxito en España, a parte de sus buenos resultados ante las distintas cadenas de búsqueda, debido a la sencillez de su interfaz (Hay que recordar que muchos utilizábamos en España una irrisoria conexión a 56 kbs en plena esfervescencia puntocom) frente a las recargadas páginas de buscadores patrios como el de Terra u Ozú. Debemos señalar que, dependiendo de los estudios a los que acudamos, la cifra puede variar hacia arriba o hacia abajo, aunque nunca descendiendo del 90% de cuota y aclarando nuestras dudas al respecto del poder de Google en la Internet hispana. Así, por ejemplo, desde Webrankinfo nos ofrecen un cuadro con los hábitos de búsqueda de los europeos por países basándose en datos de comScore:

Se afirma que la información es poder y los puntos de a través se accede a ella son importantes. Desde luego que, en España, deberíamos comenzar a plantearnos nuestro hábitos informacionales a la hora de buscar y recuperar documentación en la Red (Y en esto también debemos implicarnos los profesionales de la información) porque no sólo de Google debería de vivir el internauta.

8 comentarios

Ahora que ya no nos encontráis… ¿Penalizados por Google?

You think you’re lovely, I know that you’re wrong.
God made me ugly, so don’t string me along.
Give me the good stuff, I’ll leave you the rest,
Send me the good stuff and I’ll put you to the test,
I’m going to

Stop messing around, cos what have you found
On the dirty ground.

Stop de I am Kloot

Hace tres años que andamos por aquí, publicando, hablando, reflexionando y tratando de comprender un poco de cómo funciona esto de la blogosfera y de Internet. Creímos que lo conocíamos un poquito todo, las escaladas de visitas, de comentarios, nuestras bajadas creativas, algunas alegrías, de gente que venía y se iba; pero durante todo este tiempo, cumplimos 1146 días en la Red, sólo nos faltaba una cosa: Que Google se olvidase de nosotros.

La situación en la que nos encontramos es nueva y extraña. Hasta ayer, crees que estás en cierta posición, que tendrás cierta audiencia todos los días, una media lo llaman, y de repente no sabes bien a santo de qué, Google decide que en realidad no vales tanto, que tus contenidos no son mejores que otros. Entonces descubres qué es volver al pasado y ser un desconocido, de nuevo.

Si este sitio web viviese de las esperanzas de ciertas ganancias derivadas de la publicidad, francamente, nos habríamos llevado las manos a la cabeza, habríamos tratado de ser buenos, revisado el sitio de arriba abajo y tratar de hacer las paces con los Googlebots y el algoritmo para que nos devolviesen a la situación en la que nos encontrábamos. Pero, no nos gusta eso, Google es al fin y al cabo un algoritmo frío, matemático y calclulador, que ha considerado que no somos lo suficiente relevantes; así que nos gusta más comentarlo y argumentarlo. Es cierto, puede que tengamos algún enlace roto, es probable que hayamos cometido el pecado de tener la información duplicada (Versión normal – Versión Texto), pero lo cierto es que no hemos cometido ningún pecado nuevo, seremos reincidentes, mas no nos merecemos el purgatorio o el Sandbox de Google.

Desenchufados a las 10 de la noche

Nuestras estadísticas son públicas, así que sabréis que el 80% de nuestras visitas provienen de los resultados que genera Google ante una cadena de búsqueda. Esto no es de extrañar, ya que el buscador posee el 90% del mercado en España, así que deja poco margen para la competencia. Si el 80% de nuestras visitas provienen de Google, es sencillo detectar cuándo se produjo su cambio de consideración del buscador respecto a nosotros. Comprobamos nuestras estadísticas y las cosas nos marcharon bien hasta ayer, 26 de junio, a las 22h que se produjo un bajón considerable en nuestros visitantes.

Si comparamos las estadísticas de ayer con las de hoy, comprobaréis que la escabechina ha sido realmente importante disponiendo hoy de sólo el 33% del tráfico que tuvimos ayer.

Penalizaciones en Google

No somos los primeros ni vamos a ser los últimos, pero obviamente no podemos hacer otra cosa que esperar a que las cosas se vayan arreglando y poniendo en su sitio. Nuestro Pagerank sigue siendo el que era, es decir 5, y no creemos que debamos tener razones para que la situación varíe, puesto que no hemos realizado ningún cambio en la web ni ninguna acción para mejorar nuestra valoración. Por lo tanto, seguiremos tal y como estamos, esperando que esto dure una semana y no un mes y que en breve se solucione.

Actualización (29/6/2007) – Aparentemente, las cosas han vuelto a la normalidad y volvemos a estar en las posiciones en las que nos encontrábamos antes del incidente. Gracias a todos por vuestro interés en nuestros desvelos.

20 comentarios

La importancia del número de referencias en Google

Enrique Dans publicaba, en su columna de Libertad Digital, un artículo muy interesante sobre Ley de Impulso a la Sociedad de la Información (LISI), bajo el título La SGAE, la ley y Torquemada, y el subterfugio empleado por la SGAE para incluir un artículo polémico en el texto que debía pasar por el Consejo de Ministros. El revuelo levantando entre los Internautas y las empresas de telecomunicaciones provocó que finalmente fuese sido retirado, no sin algunos escepticismos sobre lo que realmente sucedería después y sobre la redacción del articulado.

En cualquier caso, y a pesar de la importancia que tiene esta ley para el futuro del funcionamiento de Internet y la Sociedad de la Información en España, no es el objetivo de este texto abordar este tema. De hecho, hoy queremos señalar el uso que se realiza de los resultados que devuelve Google ante una consulta para el refuerzo de una idea a la hora de defender una tesis. Así pues, pongamos el ejemplo del texto de Dans antes citado como ilustrativo:

Fray Tomás de Torquemada fue nombrado Inquisidor General por Isabel de Castilla y Fernando de Aragón en el año 1482. En su momento calificado de "martillo de herejes, luz de España, salvador de su país y honor de su orden", Torquemada y la Inquisición se convirtieron en el sinónimo de la crueldad, la tortura y el fanatismo al servicio de unas ideas. Nadie nunca tuvo tanto poder para, al margen de toda supervisión, imponer sus bárbaros criterios a toda una sociedad, algo que ha dejado una huella indeleble en la imagen de España en el mundo. La frase "nobody expects the Spanish Inquisition" tiene casi cien mil resultados en Google). […]

2 comentarios

Google Scholar, ¿a hombros de gigantes?

No me hizo falta acudir a Google Dirson, un blog especializado en todo lo relativo a Google, para descubrir que el buscador específico de artículos científicos, llamado Google Scholar en su versión anglosajona, de la empresa de California se encontraba disponible en español. Lo curioso es que, al llevarlo al castellano, sus responsables han decidido rebautizarlo con el nombre de Google Académico, por lo que tiene cierta lógica que el lema de la versión inglesa (Stand on the shoulders of giants), tuviese que ser o bien traducido o bien eliminado. Parece ser que la traducción ha sido la elección que se ha adoptado, por lo que el lema del Google Académico queda como "A hombros de gigantes".

Esta anécdota no tuviese la menor importancia, si no fuese porque Standing on the shoulders of giants es una frase frecuentemente atribuida a Isaac Newton (If I have seen a little further it is by standing on the shoulders of Giants) que en realidad tiene precedentes anteriores. De hecho, la frase es una metáfora de enanos mirando encaramados a los hombros de un gigante de forma que ellos puede ver más allá y a una mayor distancia. Sin embargo, el primer antecedente de la metáfora se atribuye a Bernard of Chartres que la utilizó en el siglo XII y que posteriormente utilizarían Didacus Stella, Robert Burton y George Herbert antes que Newton y, consecuentemente, que se hiciese famosa.

Pero, por lo visto, la idea de los enanos y los gigantes gusta mucho en el mundo anglosajón, así las monedas de dos libras esterlinas tienen la frase grabada en sus cantos como homenaje al físico. Por otro lado, la cita ha sido utilizada en la música en diversas ocasiones. Primero, por el grupo estadounidense R.E.M., que en la canción King of Birds utiliza la rima "standing on the shoulders of giants / leaves me cold", y segundo por el grupo británico Oasis que la utilizó para bautizar su tercer disco, Standing on the Shoulder of Giants, lanzado en febrero de 2000.

Así pues, Google quiere ver más allá de lo obvio de Internet, de la información que los medios de comunicación publican, la que subimos diariamente las personas o las empresas. Google tiene un proyecto mucho más ambicioso que todo eso, quiere encaramarse a los hombros de los científicos y de los académicos, quiere hacer de esta información (libros, tesis, publicaciones, resúmenes o informes especializados) un aparte para poder ver más allá. Ahora en castellano, claro.

5 comentarios