Saltar al contenido →

Categoría: Buscadores Web

Googlelizados, 10 años del nacimiento de una revolución /2

Uno de los mayores problemas para una empresa que fundamenta su negocio en un buscador es tratar de lidiar su principal función, mostrar resultados relevantes, con sus ingresos, resultados derivados de la publicidad. La compañía de Mountain View siempre fue consciente de que si mezclaba los resultados pagados con los resultados que su algoritmo ofrecía, los usuarios comenzarían a buscar fuentes alternativas de consulta, por lo que su decisión fue no mezclar lo uno con lo otro.

Conscientes de que la compañía necesitaba encontrar una viabilidad económica para su expansión, en el año 2000, lanzaría Google Adwords, un sistema publicitario que coloca enlaces pagados según un sistema de puja de determinadas palabras clave dentro de la página de resultados, pero diferenciando claramente lo que son los resultados de la publicidad de forma clara y concisa. De esta forma, Google evitaba «contaminar» sus resultados con spam «autogestionado», mientras mantenía su reputación como un buscador que ofrecía los enlaces más relevantes frente a una ecuación de búsqueda determinada.

Hasta el año 2003, Google intentó generar un modelo de negocio viable mediante su sistema Adwords que a principios de 2002 realizaría mejoras a través la implantación del coste por clic (CPC) – En el modelo de CPC, el anunciante no paga en función de audiencia que ve un anuncio, sino en función del usuario que responde al anuncio, realizando un clic y manifestando así su interés en visitar la web del anunciante para saber más -. Sin embargo, no fue hasta 2003 cuando Google dio un salto en sus políticas publicitarias con el lanzamiento de Google Adsense que permitía a cualquier editor acceder a la red de anunciantes de Google mediante la inserción de un simple código en sus páginas web.

Es bastante significativo que hasta 2003, Google trató únicamente de lanzar buscadores paralelos a su buscador principal. De esta manera, Google lanzaría Google Images (2001), Google News y Froogle (Un buscador específico para productos de consumo en venta en la Web y rebautizado como Google Product Search) en 2002. Como se puede observar, todos ellos trataban de ser hubs, distribuidores de tráfico web, aunque pronto los responsables del buscador se percataron que para mejorar sus ingresos, donde había que trabajar y lanzar nuevos productos era en los servicios y en los contenidos propios. En esta dirección, en 2003 se lanzaría Google Print (2003) que evolucionaría hasta convertirse en un proyecto de digitalización de libros que traería no pocos quebraderos de cabeza a la compañía y se rebautizaría como Google Books; se adquiriría Blogger (2003) el gestor de blogs más popular del momento, Orkut (2004) una red social que es bastante popular en la comunidad brasileña aunque en el resto de países se ha visto desplazada por otras; y, la verdadera revolución, se lanzaría Gmail (2004) que adentraba al buscador en terrenos que desconocía y daba un completo golpe de efecto en la gestión de correos gratuitos enfrentándose a dos gigantes: Hotmail y Yahoo.

Aunque Google ha sido contemplado como un Gran Hermano del siglo XXI desde sus inicios,sobretodo por la caducidad de sus Cookies,  el lanzamiento de Gmail desató una grave polémica que comenzaría a socavar la imagen que se tenía de la compañía hasta ese momento, puesto Google deseaba rentabilizarlo incluyendo publicidad contextual Adsense. Para ello, el sistema necesariamente debía leer los mensajes de correo electrónico, lo que fue interpretado por muchos como una violación de la privacidad de sus usuarios. Ante esto Google arguyó que el sistema estaba completamente automatizado, por lo que nadie vería violentada su privacidad por la utilización del servicio de correo electrónico gratuito.

Gmail fue la punta de lanza de lo que devendría después puesto que, a partir de entonces, Google concentra sus esfuerzos en la generación de fuentes de información Google Maps (2005), compra de Writely (2006) un procesador de textos on-line que evolucionaría en Google Docs, Google Calendar (2006); así como la recogida de información por sus usuarios y personalización de servicios, Historial Web, Google Analytics, iGoogle o Google Bookmarks (2005), Google Reader (2005). Aunque también lanzaba buscadores mucho más específicos, como Google Blogsearch en clara competición con Technorati el referente entonces como buscador de la blogosfera, Google Patents o Google Finance (2006).

Comentarios cerrados

Googlelizados, 10 años del nacimiento de una revolución /1

Google desbancó a la competencia gracias a su calidad, sin tener necesidad de gastarse un dólar en publicidad, todo gracias al boca-boca de los internautas que simplemente lo abrazaron según lo fueron descubriendo. Puede que algunos consideren que Google dispuso de mucha suerte, aunque en realidad sus fundadores sabían lo que estaban haciendo y lo mejor es que todo les marchó sobre ruedas desde un principio.

Nos encontramos a finales de los años 90, en esa época nos hallamos ante una Web donde se exigían cada vez más recursos tecnológicos para indexar páginas web, donde la información crecía de forma exponencial y donde los spammers se encontraban a sus anchas colocando sus páginas va´cías y rebosantes de publicidad en las primeras posiciones de los buscadores existentes. Los mejores motores de búsqueda -Incluyendo al más eficiente por entonces, Altavista– se veían desbordados ante la avalancha de información junto a la basura que se generaba día tras día, mostrándose incapacitados para ofrecer lo que los internautas deseaban: Páginas relevantes frente a sus ecuaciones de búsqueda.

En el año 1998, todavía era posible mantener actualizado de una forma manual mediante editores directorios de sitios web de calidad sin casi obviar ninguna página de relevancia, como por ejemplo Yahoo!, los portales  web causaban furor, creciendo de forma exorbitada siendo concebidos como lugares donde un usuario se mantuviese atrapado disponiendo de infinidad de servicios y posibilidades. Por otro lado, las conexiones a Internet eran realmente lentas, insufribles para un internauta de la década actual, incapaces de procesar la cantidad de páginas recargadas que se diseñaban y se lanzaban sin considerar apenas las dotes de navegación de los usuarios y, algo más importante aún, su paciencia.

El motor de búsqueda Backrub desarrollado por Sergey Brin y Larry Page nació concebido para analizar la web e indexarla desde una aproximación revolucionaria, considerándola como una suerte de democracia de contenidos. Si Tim Berners-Lee diseñó un sistema de información (La World Wide Web) mediante el cual todos documentos relacionados pudiesen estar conectados mediante enlaces, Page y Brin descubrieron todo un sistema democrático dentro de él. De este modo, creyeron que las mejores páginas web sobre un tema debían encontrarse muy enlazadas por páginas de contenido similar, por lo que comenzaron a asignar pesos a los sitios web otorgándoles relevancia mediante un baremo denominado Pagerank. De este modo, iban más allá de las palabras clave incluidas en el HTML (Meta-datos) que tan fáciles habían resultado de explotar por los spammers. El salto desde la universidad de Stanford, donde Page y Brin habían realizado sus estudios, hacia el mundo empresarial se realizó mediante una cantidad inicial de 100.000$  cuyo destinatario era una compañía no constituída todavía bajo la denominación de Google Inc. El resto ya es historia.

Una visión, una imagen

Es probable que la buena imagen que dispone Google actualmente por parte de la comunidad internauta se deba a que tanto Brin y Page surgiesen del ámbito universitario y no dejasen en ningún momento el pilotaje de su nave. Bajo dos frases sencillas Organizar toda la información del mundo y No seas malo (Don’t be evil) construyeron una cultura corporativa que hasta ahora no ha sido manchada a pesar de las suspicacias levantadas y las críticas recibidas. Su manera de concebir la web, de comprender lo que quieren los internautas en todo momento mientras se lo ofrecían, y no dejar que las presiones económicas y empresariales les desviasen de los productos y servicios diseñados; constituyen un punto más a su favor en la construcción de una marca sin reproche y que tiene mucho a su favor para seguir creciendo durante los próximos diez años.

Porque Google, nacida en septiembre de 1998, no se lanzó a la carrera del capital-riesgo para salir inmediatamente en bolsa durante la Burbuja.com. Infinidad de empresas tecnológicas se abalanzaron en una carrera epara la obtención de fondos que después no pudieron devolver. Algunas de ellas simplemente estaban vacías, mientras que otras fracasaron porque se adelantaron a su tiempo. Sin embargo. Brin y Page, junto al CEO de Google Eric Schmidt, arrumbaron su proyecto confiando en él y esperando mejores oportunidades (Google no comenzó a cotizar en bolsa hasta agosto de 2004), a la vez que buscaban un modelo de negocio para lo que aparentemente no lo tenía: Sólo un buscador. Sin embargo, la adquisición de la compañía Applied Semantics y el desarrollo de una plataforma para la venta de publicidad contextual a empresas (Adwords) junto al desarrollo de una plataforma de publicidad contextual para sitios webs (Adsense) sin querer asaltar a los internautas ni ser intrusivo como se hacía con las pop-ups, le abrió las puertas para hallar un modelo de negocio viable y seguir creciendo.

Sin embargo, Page y Brin no se encantaron con las alabanzas recibidas y siguieron trabajando. Conscientes de que su mayor y mejor producto era el buscador, se centraron en su perfeccionamiento, así como la mejora de su algoritmo para evitar que los spammers mejorasen sus técnicas de posicionamiento dentro de él. Google se convertiría muy pronto en el buscador de referencia, el que (En general) no devolvía ruido ante una consulta y si no estaba en Google no se existía. Con el tiempo, Google representaría para una generación la idea abstracta de lo que es la Web, páginas interconectadas sin ningún orden, amontonadas, apiladas en una actualización y adición sin fin que podían ser ordenadas en una lista sorprendentemente útil. Hoy en día, muchas personas no sabrían moverse por la Web sin este motor de búsqueda.

Durante estos diez años, Google ha desarrollado motores de búsqueda específicos, tratando de categorizar los diversos contenidos que disponía la web. Nació de esta forma Google News para la actualización constante de medios de comunicación, Google Images, Froogle (Un intento fallido de realizar un buscador comparativo de productos en venta en la web), Google Scholar para artículos científicos o Google Blogs Search. Sin embargo, Google pronto se percató que no podía contentarse con ser un mero distribuidor de contenidos, a la vez que sacaba réditos de la publicidad contextual, pronto se dio cuenta que necesitaba controlar también los contenidos.

Un comentario

Google, el medio de comunicación del siglo XXI (1) – Formas de visitar una web

Una de las cosas que más nos gustan a los editores de páginas web, imagino que para eso nos pagan -aunque aquí eso está mal visto-, es comprobar cuántas visitas conseguimos generar a lo largo del día. Nos gusta conocer de dónde provienen nuestros lectores, por dónde se entretienen dentro de nuestras webs, cuánto tiempo permanecen, las rutas que siguen, etc. Esto, a un nivel profesional, se le denomina Web Analytics y, a pesar de que en nuestro caso sólo sirve para hinchar el orgullo, es un asunto muy serio que se tiene en cuenta dentro de la mayoría de las organizaciones que se dedican a la generación de contenidos para la Web. Fundamentalmente, las visitas hacia un sitio web se generan a través de cinco fuentes:

  • Introduciendo la dirección web de memoria en la barra de direcciones de un navegador web. Respecto a esto un apunte breve, últimamente se está detectando que los internautas utilizan cada vez los cuadros de texto de los buscadores como meras barras de direcciones, es decir, que introducen las URL en ellas para hacer dos veces clic o simplemente escriben la denominación del sitio web que quieren visitar. Es decir, la barra de direcciones de los navegadores parece estar cayendo en desuso.
  • Mediante un marcador (o bookmark) a través de las opciones para la gestión de estos que ofrecen los propios navegadores o, recientemente, sitios web que tienen este fin como del.icio.us.
  • Mediante un enlace. Sencillamente, un editor de un sitio web, sea el que sea, considera relevante lo que hemos señalado en cierto momento o, mejor, nos recomienda la visita por los contenidos que albergamos. Es decir, nos da un voto recomendándonos como fuente de información sobre cualquier temática y deriva la atención de sus lectores hacia nuestra web.
  • La sindicación de contenidos. La última en llegar y tal vez la más interesante puesto que aporta un valor añadido respecto a los marcadores para los editores web. Gracias a ellos, podemos llegar a saber qué audiencia tenemos y detectar qué contenidos son los más interesantes para nuestros lectores, así como poder seguir las tendencias de interés que despierta nuestro sitio web.
  • Un buscador. Obviamente, la búsqueda es una de las actividades preferidas de los internautas y, por lo tanto, una de las fuentes de tráfico más importantes de las que disponemos, aunque uno de los objetivos de todo webmaster es depender cada vez menos de los buscadores por razones de dependencia.

La más poderosa, en cuanto a tráfico e influencia, sin duda alguna la última; las que crean marca las cuatro primeras. Obviamente, todas se encuentran interrelacionadas y son dependientes. Las cuatro primeras buscan la fidelización del usuario, es decir, que nos busquen como generadores de contenidos y sitios web de referencia, mientras que la última, a pesar de que pueda parecer residual, es la que nos obliga a hacer algo más en la Red, a ir un paso más allá a la hora de crear los contenidos y preocuparnos por posicionarnos para que los buscadores sean los que nos coloquen más arriba, que nos promocionen y nos hagan publicidad. En definitiva que nos envíen el tráfico, porque no todo es hacer marca en la Web.

Los medios de comunicación descubrieron tarde que la cabecera, su marca, no es vital en la Red, que sus modelos de suscripción, sus modelos cerrados fracasaban estrepitosamente dentro de ella. Teniendo presente que la distancia de la competencia más inmediata se encuentra a tan sólo un clic, en Internet, se da la competencia pura y perfecta y los medios deben doblegarse precisamente ante alguien que no era productor de contenidos sino conductor de audiencias: Google.

Un comentario

Are you buzzing? (1) – Midiendo la relevancia de un dominio en Internet

Buzz es un término de marketing que en su traducción al castellano corresponde a zumbido. El concepto de Buzz Marketing se utilizaría, por tanto, cuando queremos que una idea o un producto se comente mucho, produciendo un ruido de fondo constante. En pocas palabras que algo esté en boca de todos. Dependiendo de los medios utilizados, este Buzz podrá ser más o menos intenso, más o menos prolongado en el tiempo y su traslación a Internet correspondería a que en muchos sitios web se hablase al mismo tiempo sobre lo que queremos vender o promocionar. Sin embargo, como en el mundo real, en Internet existen sitios webs más o menos influyentes, más o menos visitados, más o menos relevantes dependiendo de su público y nuestro objetivo con estos textos es dar algunas herramientas para precisamente evaluar esta importancia relativa. Pero, ¿quién pone la relevancia a un sitio web? ¿Por qué unos sitios son más importantes que otros? ¿Cómo averiguar si un sitio web tiene mucho tráfico o poco?

En España, se utilizan fundamentalmente dos metodologías para la evaluación y comparativa controlada de audiencias en la Red. Una la desarrolla OJD (Oficina de Justificación de la Difusión), mientras que la segunda es Nielsen Ratings, aunque hay que indicar que estas dos oficinas de medición de audiencias se centran en sitios web con mucho tráfico como medios de comunicación, redes de blogs y distintas empresas. Pero, ¿qué sucede con el resto de webs?

Alexa compone un ranking de los sitios web más visitados gracias a los internautas que instalan su barra de herramientas (Toolbar) de forma desinteresada. Obviamente, Alexa recopila información de navegación de las personas que instalan su herramienta por lo que su difusión y uso siempre ha estado cuestionada primero por la privacidad y luego por su implantación en los navegadores, por lo que las cifras aportadas nunca han sido consideradas del todo fiables.

Así pues si no podemos conocer la audiencia real de un sitio web, a no ser que sus estadísticas sean públicas, debemos buscar otros medios para conocer la relevancia de un sitio web como, por ejemplo, el número de enlaces que recibe una página web. Debemos señalar que el primero que trató de categorizar los sitios web según su importancia fue, cómo no, Google y su Pagerank. Obviando otras consideraciones, Google dispuso un sistema democrático según el cual cuantos más enlaces recibiese un sitio web mayor importancia debería disponer a ojos de los internautas. De este modo, estableció un ranking de 0 a 10 mediante el cual categorizó las webs según su relevancia. Por supuesto que, hoy en día, la barrita verde de Google parece tener menos peso que antaño, nuevas variables se conjugan en su algoritmo, sin embargo sigue siendo un referente para muchas personas, incluyendo a los propios webmasters.

Averiguar cuál es el Pagerank de una página web es bastante sencillo (es una información que Google publica) a través de la instalación de la Google Toolbar o utilizando servicios que nos ofrecen distintas páginas web como MiPagerank. Pero el Pagerank es la suma de los distintos Pageranks de los datacenters de Google, es decir, no tiene porqué ser uniforme y nos puede servir de guía para un futuro en nuestro objetivo de ir aumentándolo a lo largo del tiempo. Sin embargo, por distintas razones, Google puede llegar penalizarnos disminuyéndolo siguiendo una serie de criterios, pero en la Red disponemos de otras herramientas para evaluar el posible peso de un sitio web en un momento determinado y, por lo tanto, de un dominio.

Así, por ejemplo, disponemos del Genuine Site Rank donde se nos calcula qué Pagerank deberíamos tener dependiendo de una serie de parámetros, o Web Site Grader donde aportando una serie de palabras clave junto a dominios de nuestra competencia se nos realiza un estudio comparativo de nuestra relevancia respecto a ellos o CuWhois donde se aglutinan una serie de herramientas para la obtención de una serie de estadísticas de nuestro dominio incluyendo el valor monetario que nuestro sitio web, junto el valor que podríamos obtener si quisiéramos vender enlaces desde nuestras páginas. Se tratan, por supuesto, de distintas herramientas SEO que bien pueden ayudarnos a la hora de mejorar el comportamiento de nuestros visitantes unido a los resultados que los buscadores pueden arrojar sobre ellos en un momento determinado.

Comentarios cerrados

Todo bloguer tiene que ser un poco SEO (Algunos consejos)

Un bloguer cuando decide escribir lo hace para ser leído, es decir, desea que sus ideas transciendan un poco más allá de su círculo de allegados y recibir de esta forma visitas en su bitácora. Al principio, dependiendo de la tipología del blog, puede querer que se trate de un puñado de visitantes para, posteriormente, ir un poco más allá. Obviamente, una de las fuentes principales de tráfico en Internet son los buscadores, Google fundamentalmente, así que los bloguers pronto decidimos comenzar  a trabajar para que Google nos sitúe en los primeros puestos de los resultados, para ser encontrados.

Esta pequeña actividad, que la mayoría de bloguers laboriosos realizamos casi sin percatarnos, aunque es práctica frecuente en Internet, se denomina "Posicionamiento en Buscadores" o, según su denominación anglosajona más conocida, Search Engine Optimization (SEO). Fundamentalmente, los SEOs deben preocuparse de:

  • Conseguir que otras webs de temática relacionada enlacen con tu web.
  • Darse de alta en directorios web importantes.
  • Crear contenidos con textos que contienen frases con que buscan los usuarios web los servicios y/o productos de este sitio.
  • Hacer nuestra web lo más accesible posible.
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página.
  • Enlazar internamente las páginas de nuestro sitio de manera ordenada y clara.
  • Actualizar la página con contenido original de calidad.
  • Intercambio de contenido.

Por supuesto que estas técnicas son muy básicas e incluso los buscadores nos ofrecen algunos consejos para el posicionamiento de nuestras webs, por ejemplo ésta es la página de Google, pero debemos de advertir que las actividades de los SEO pueden variar a lo largo del tiempo debido, fundamentalmente, a los cambios que realizan los buscadores para mejorar sus algoritmos y de esta manera sus resultados. Estos cambios en los algoritmos no son conocidos por todos, ni mucho menos, así que los SEOs deben hacer sus cábalas y desplegar una serie de actividades para adaptarse a los continuos cambios en los algoritmos de los buscadores e incluso a las evoluciones propias de la Red. Así, para este año recién comenzado, los SEO tienen algunos nuevos retos a los que enfrentarse:

Afortunadamente, para aquellos que utilizamos WordPress como gestor de contenidos, podemos utilizar alguno de los muchos plugins SEO existentes para mejorar nuestro posicionamiento de forma automática si no deseamos realizar muchas de estas tareas, aunque siempre tenemos que tener presentes algunos consejos para nuestra labor de mantenimiento de nuestras bitácoras:

  • ‘Humaniza’ tus permalinks: unos enlaces permanentes que aporten información fácilmente reconocible por el ser humano (palabras, fechas…).
  • Elimina las ‘www’ de tu dominio preferido: el dominio preferido es aquel que reconocen los buscadores como el principal.
  • Crear y remitir sitemaps.
  • Añade metatags al header.
  • Ofrece buenas páginas de impresión.
  • Genera etiquetas en los contenidos: muchos buscadores y, en especial Technorati, dan prioridad a las etiquetas (tags) y construyen sobre ellas búsquedas especializadas.

Por cierto, ¿quién dijo que mantener un blog iba a ser una tarea sencilla?

7 comentarios

El fondo «digital» de Google Books

El proyecto de digitalización de fondos bibliotecarios de Google, Google Books, avanza a una media de 3000 libros escaneados diarios y se encuentran disponibles para cualquiera que desee consultarlos e incluso descargarlos en formato PDF si los derechos de autor se han extinguido. Sin embargo, el proceso no es perfecto al realizarse manualmente y algunos de los trabajadores de Google dejan su impronta dactilar en los libros que son digitalizados.

The Sydney Morning Herald nos informaba que podemos encontrar una muestra de estos errores en, por ejemplo, el número de 1885 de The Gentleman Magazine o en The Trial and Death of Socrates de Platón. Google ha replicado esta información asegurando que el sistema no es perfecto por su proceso y que la web no está ideada como un lugar para que los usuarios leyesen a través de la pantalla.

Uno de los dedos del escaneo de Google

2 comentarios

¿Googlepolio en búsquedas? Pues sí… A vueltas con la cuota de mercado de los buscadores

Hace poco os comentamos que Google aparentemente nos había penalizado, para la composición de aquel texto me dispuse a hallar la cuota de mercado y, por tanto, la penetración que tenía Google en el mercado español para argumentar nuestra pérdida de visitantes. Lo cierto es que me costó encontrar un dato fiable y, de aquella búsqueda, os ofrecí una cifra inexacta pues afirmé entonces que Google disponía del 90% del mercado de búsquedas en España. Reconozco que rebajé un poco la cuota, puesto que según se afirma en el artículo Google y las cuotas de mercado el porcentaje se sitúa en un 99%.

Sinceramente, el dato me pareció un tanto escandaloso, ¿dónde quedaba la compentecia (Yahoo, MSN o Ask)? El profesor Enrique Dans en su reciente artículo ¿Es Google un monopolio? detallaba las distintas cuotas de mercado de las que dispone Google, no debemos olvidar que es su principal actividad, en el Globo:

Pero ¿es realmente Google un monopolio? En algunas de las actividades que realiza, como la búsqueda, la pregunta recibe una respuesta diferente según dónde sea planteada. Para un español, un alemán o un holandés, la respuesta es afirmativa: en los tres casos, la penetración de búsquedas hechas en Google supera el 90%. Sin embargo un chino diría que no, dado que Google representa tan solo el 21%, claramente por detrás de Baidu, el buscador dominante. En Japón, la penetración de Google es inferior a la mitad de la que posee Yahoo! En Corea del Sur, Google es prácticamente un desconocido, un competidor completamente minoritario, que sólo se utiliza en un 1.7% de las búsquedas realizadas. En el país más conectado del mundo, Google todavía lo tiene todo por hacer. Aún así, el caso de Corea del Sur, aunque preocupante y prioritario para Google, no deja de ser moderadamente anecdótico: en todo el mundo, el porcentaje de búsquedas realizadas en Google sobre el total ronda el 65%.

Hay quien cree que Google obtuvo su éxito en España, a parte de sus buenos resultados ante las distintas cadenas de búsqueda, debido a la sencillez de su interfaz (Hay que recordar que muchos utilizábamos en España una irrisoria conexión a 56 kbs en plena esfervescencia puntocom) frente a las recargadas páginas de buscadores patrios como el de Terra u Ozú. Debemos señalar que, dependiendo de los estudios a los que acudamos, la cifra puede variar hacia arriba o hacia abajo, aunque nunca descendiendo del 90% de cuota y aclarando nuestras dudas al respecto del poder de Google en la Internet hispana. Así, por ejemplo, desde Webrankinfo nos ofrecen un cuadro con los hábitos de búsqueda de los europeos por países basándose en datos de comScore:

Se afirma que la información es poder y los puntos de a través se accede a ella son importantes. Desde luego que, en España, deberíamos comenzar a plantearnos nuestro hábitos informacionales a la hora de buscar y recuperar documentación en la Red (Y en esto también debemos implicarnos los profesionales de la información) porque no sólo de Google debería de vivir el internauta.

8 comentarios