Saltar al contenido →

Etiqueta: Buscadores Web

Los buscadores de Internet mienten

Cada vez con mayor frecuencia, los medios de comunicación exponen en las noticias los resultados que el Buscador, dejémoslo así, ofrece ante una consulta para apoyar la importancia de cierta tendencia, fenómeno emergente o personaje popular. Esta costumbre ya fue objeto de nuestra reflexión en un texto anterior, pero considero conveniente volver sobre ella para afirmar que estos datos se sustentan sobre unas mentiras intencionadas.

Una mentira que forma una estrategia de marketing de los tres buscadores principales (Google, Yahoo! y Bing -Antiguo Live, antiguo MSN-) para intentar capturar usuarios ofreciendo una mayor cantidad de resultados. No debemos olvidar que la tarea de indexar toda la Web constituye una tarea titánica que nunca se puede llegar a conseguir. De hecho, durante mucho tiempo Google señalaba la cantidad de páginas que tenía indexadas en sus bases de datos, hasta que retiró el dato de su página principal. El hecho es que la exhaustividad en esa obtención de información se antojaba como un componente más para demostrar la veracidad de los datos trasladando la idea quien tuviese la base de datos más grande podría ofrecer, al fin y al cabo, mejores resultados.

La semana pasada asistí a la jornada Innovadores sistemas de vigilancia tecnológica impartida por Prudencio Herrero celebrada en la Cámara de Comercio de Valencia que me demostró que todavía existen personas con una visión crítica de la tecnología que nos rodea. A modo de juego, nos enseñó la gran mentira de los buscadores donde lo importante es la apariencia.

El ejercicio que nos propuso pasó por buscar de distintas maneras el concepto de Vigilancia Tecnológica en sus distintas vertientes:

  • vigilancia tecnologica
  • vigilancia tecnológica
  • “vigilancia tecnologica”
  • “vigilancia tecnológica”

Las búsquedas se debían acometer en distintos buscadores en sus distintas formas, obteniendo resultados sorprendentes. En primer lugar, debíamos comparar los resultados ante los distintos términos en cada uno de los buscadores, para posteriormente compararlos:

Google

Yahoo!

Bing

vigilancia tecnologica

2.080.000

3.750.000

315.000

vigilancia tecnológica

615.000

3.490.000

315.000

vigilancia tecnologica”

157.000

925.000

1.810.000

vigilancia tecnológica”

158.000

826.000

1.810.000

Como podemos comprobar, los resultados se demuestran como un tanto dispares dependiendo de cómo acometamos la búsqueda y, sin embargo, completamente falsos y sin poder comprobarlos, porque en general los buscadores no nos dan más allá de los primeros 1000 resultados.

Así pues, porqué no buscar algo más específico, probemos con el libro de Pere Escorsa y Ramón Maspons, “De la Vigilancia Tecnológica y la Inteligencia Competitiva” utilizando la ecuación vigilancia tecnológica escorsa maspons y comprobemos hasta dónde llegamos. Debemos tener en cuenta que llegado a cierto punto, los buscadores nos invitan a realizar las búsquedas de nuevo sin que se eliminen ciertos resultados muy similares que son omitidos automáticamente, pero aún así desde la cantidad inicial que se nos ofrece hasta la real recuperada correspondiente a la última página, los resultados van menguando.

Resultados iniciales

Resultados reales (Última página de resultados)

Resultados sin omisiones

Resultados reales sin omisiones (Última página de resultados)

Google

885

271

876

491

Yahoo!

921

195

921

421

Bing

316

181

No procede

No procede

NOTA: La muestra se realizó el 30 de junio de 2009 en los sitios web:

2 comentarios

¿Será el 2009 el año que nos rebelamos contra Google?

Nos disponemos a cerrar el año 2008, confiando que el venidero no sea tan mal año como algunos agoreros aseguran debido a la crisis económica. En la Red, a pesar de las buenas intenciones de algunos, los apretones y los ajustes presupuestarios están ya al orden del día. Aquellos proyectos a los que se les asignaba un valor, descubrirán que en realidad valen la mitad, simplemente porque a día de hoy el panorama es completamente distinto al que nos habíamos acostumbrado en estos últimos cuatro. Es curioso el argumentario que se ofrece para el ajuste a la baja de innumerables proyectos, sea tan similar al del crack de la Burbuja.com de principios de siglo, que fue y es: «No te puedes centrar en generar tráfico tan sólo, también tienes que desarrollar un proyecto económico viable».

Sin embargo, a diferencia del año 2000, la situación es bien distinta, con una crisis económica estructural, atacando a todos los sectores económicos sin distinción, contrayendo el consumo y afectando directamente al crecimiento económico de casi todos los países. Si bien, en aquella ocasión, se resumió la crisis tecnológica en que las prisas por ser los primeros en posicionarse dentro de un nuevo mercado, las malas gestiones y la mala previsión fue lo que derivó en aquel pinchazo bursátil y tecnológico, en esta ocasión, durante 2009, el chivo expiatorio va a ser otro: Google.

La economía en la Web, la generación de valor, ha cambiado completamente. Si en 2000 Google era un buscador entre el amplio abanico que se nos ofrecía en la Red, actualmente su cuota de mercado en campo de las búsquedas ha barrido completamente a su competencia. Por otro lado, Google ha sido capaz de desarrollar un modelo de negocio estableciendo todo un ecosistema económico para sí y para el resto de la Web mediante su sistema publicitario: Adwords para los anunciantes y Adsense para los editores. De este modo, Google ha desarrollado su principal fuente de ingresos a través de la publicidad en la Web y su gestión, pero a la vez ha alimentado al resto de webs ofreciéndoles participar de su tarta con una porción de la misma, aunque las webs nunca han sido conscientes qué porción era para Google y cual era el tamaño que les correspondía.

Sin embargo, durante 2008, la situación ha ido evolucionando. La imagen de Google y sus acciones están siendo son cada vez más contestadas y discutidas, llegando a enfrentarse con toda una industria. No nos referimos tan sólo a las suspicacias que levantan las actividades del buscador sobre la privacidad en sus usuarios, sino que se está yendo un paso más allá. De este modo, por un lado, tenemos a los pequeños editores, aquellos que contemplaron a Adsense como un sistema práctico y cómodo para rentabilizar sus esfuerzos a la hora de actualizar sus webs, pero que ahora contemplan con preocupación y frustación cómo los ingresos se ajustan cada vez más a su tráfico, descendiendo en algunos casos, mientras que en otros son baneados sin explicación ni razones suficientes, lo que les está conduciendo a plantearse otras alternativas publicitarias como el patrocinio. Es interesante señalar que los números sobre el dominio de Google en la publicidad dentro de las pequeñas webs son demoledores y, según la compañía Attributor, éste alcanzaría el 98% de las webs que actualmente disponen de algún tipo de publicidad.

Pero no sólo los editores están preocupados por el cambio en la tendencia de Google, desde el lado de los anunciantes, los que alimentan al buscador, las cosas tampoco se encuentran mejor. La crisis ha tocado al gigante de Mountain View y, necesitado de ingresos, ha aplicado una serie de políticas que se han considerado penalizadoras respecto a los usuarios de Adwords. Se ha llegado a un extremo que los anunciantes consideran que estas nuevas políticas están diseñadas para aumentar su gasto en publicidad, a pesar de que el retorno que preven respecto a esta nueva política del buscador va en contra de sus intereses con un tráfico de peor calidad. La situación ha generado tal malestar que se ha llegado al extremo de que los SEM, responsables de ajustar las campañas publicitarias en la Web, se han planteado un boicot a Google y aunque se contempla con cierto excepticismo desde el gremio sobre su éxito, lo cierto es que plantear una protesta contra el gigante es sintomático de que algo está cambiando.

Pero hay más, Google controla actualmente el 57% del mercado mundial de la publicidad en la Web y los grandes productores de información -Esto es editores y medios de comunicación- están acusando a la compañía californiana de canibalizar el ecosistema de la información dentro de ella. Según sus argumentos, por un lado, les provee de tráfico, mediante su buscador y su servicio de Google News, mientras que por otro les propone la gestión publicitaria a través de Adsense y Ad Manager, con estas dos premisas los grandes grupos multimedia consideran que el margen de ingresos publicitarios es tan ajustado que va en detrimento de sus intereses. Tanto es así que en Francia, pero no hay que olvidar Bélgica, los ánimos están tan revueltos que el responsable de Google News, Josh Cohen, tuvo que desplazarse hasta el país europeo para tratar de calmar los ánimos. Sin embargo, a corto plazo, es bastante probable que las aguas se embravezcan mientras la crisis económica se va endureciendo.

Para tratar de mejorar la situación, la discográfica Warner ha decidido retirar todos los vídeos de sus artistas desde el portal multimedia YouTube (Propiedad de Google). La razón principal para su abandono de esta Web es que el modelo de publicidad incrustrada dentro los vídeos aparentemente no funciona y los ingresos que la discográfica recibía de YouTube son considerados insuficientes e insostenibles a largo plazo para desarrollar un modelo empresarial viable. Además, tras este anuncio, se cree que el resto de discográficas secundarán la decisión de la Warner lo que podría inducir tanto a discográficas como a artistas y televisiones a comenzar a retirar contenidos, lo que dejaría a YouTube sin una parte importante de sus contenidos.

Como se puede comprobar, la situación en estos dos últimos meses de 2008 se ha complicado tremendamente para la multinacional de Mountain View, con innumerables frentes, que no parecen tener camino a solucionarse en un corto plazo. Aún habrá que esperar un poco para comprobar si la crisis sigue ampliándose o se mantiene estable, pero no cabe duda que nos adentramos a una nueva etapa en la que posición de Google va a ser cada vez más contestada y su imagen cada vez más en entredicho, ¿será el 2009 cuando cambiemos la visión que tenemos de Google?

2 comentarios

¿Boicot a Google?

Decididamente, la crisis comienza a pasar factura, el gigante tiene hambre y está dispuesto a llegar hasta donde haga falta para obtener dinero y seguir en funcionamiento. Lo que podemos encontrarnos son pequeños indicios, pero no cabe duda de que algo que está cambiando, ya que los usuarios han comenzado a plantearse la no utilización de sus servicios al descubrir ciertos comportamientos que consideran abusivos o fuera de lugar. Es posible que a lo que hoy en día estamos asistiendo puede que signifique el principio del final de la relación idílica de Google con los internautas, pero tenemos que tener en cuenta que nos encontramos ante una compañía que cotizando en bolsa en un año ha perdido el 52.77% del valor (Ahora mismo está cotizando a 318.10$), que ya ha decepcionado a los inversores a la hora de presentar sus resultados antes del pesado verano y que se encuentra en la tesitura de seguir apoyando a sus accionistas a pesar de poner en peligro su reputación.

En un principio, comenzaron los recortes dentro de su propia casa, acabando con la fortuna de los Googlers que poco a poco descubren que las cosas comienzan a ponerse un poco feas, que las comidas iban a dejar de ser gratuitas e ilimitadas y que los ajustes internos también deberían considerarse productivos. Pero los despidos y los ceses de los contratos laborales (se calcula que la cifra alcanzaría las 10.000 personas) no son, aparentemente, suficientes para saciar al gigante y Google parece bien dispuesto a seguir buscando financiación donde pueda obtenerla. De este modo, los directivos del buscador están comenzando a buscar alternativas para aumentar la inversión de los anunciantes en sus sistemas publicitarios mediante la instalación de Adsense en productos donde hasta ahora no se contemplaban o incluso en lugares que se desecharon por motivos de calidad de producto.

Es probable que la marca Google no vaya a resentirse en exceso de estos pequeños aprietos con los que se está encontrando, el hecho es que poco a poco, la imagen que tenían sus usuarios sobre el producto cool, como estaba considerando, poco a poco se va resquebrajando. Incluso no hace falta retrotraerse en exceso en el tiempo para ir descubriendo las pequeñas decepciones que Google está provocando con sus nuevas decisiones.

Los primeros ejemplos de esa búsqueda de nuevos fondos pasan por la ampliación del mercado de Adsense a Google News y Google Imágenes, servicios que hasta ahora no habían sido manchados con la publicidad, pero que recientemente se incluyeron dentro del servicio. Por otro lado, otras de las dos controvertidas decisiones adoptadas en California han sido la inclusión de un buscador embebido en YouTube o el aparente cambio de posición sobre la Neutralidad de la Red, algo que fue inmediatamente desmentido por Google, pero del que resta cierto runrún sobre la duda. Puede que el más gravoso para Google a nivel mediático haya sido este último, porque supondría un cambio significativo sobre la cultura del buscador en la Web, pero no ha sido esto lo que ha provocado la amenaza de boicot de los internautas.

De hecho, no se ha propuesto como un boicot, sino como una huelga a Google (sic) por parte de los SEM, los Search Engine Marketing, desde la que proponen la realización de una huelga de anunciantes de Adwords para el martes 13 de enero de 2009. En realidad, nos encontramos ante un boicot – Presión que se ejerce sobre una persona o entidad suprimiendo o dificultando cualquier relación con ella – y proponen la no utilización del sistema publicitario Adwords, que alimenta al sistema de publicación de anuncios Adsense, durante ese período de tiempo para mostrar su descontento sobre las últimas decisiones de Google sobre la inclusión de anuncios en distintas páginas y productos del buscador.

Fundamentalmente, los SEM se refieren a la inclusión de publicidad en Google Search Suggest, de momento sólo si utilizas el navegador Chrome, y sobre todo el hecho de que se pueda incluir Adsense en dominios en parking, esto es dominios que no tienen ninguna actividad, sin contenido y sin ninguna utilidad para el internauta corriente. Un despropósito para los SEM que consideran que es una medida casi a la desesperada de Google para obtener nuevas vías de servir anuncios, aumentar el número de clics pero de nula calidad para sus sitios, mientras aumentan los costes de los anunciantes.  Para más inri, esto es justo lo contrario que promete Adwords, publicar los anuncios dentro de sitios de web de calidad ajustándose a unas palabras clave determinadas, y de ahí la propuesta de boicot.

Que sí, la competencia es pura y perfecta en la Red, que aquellos que se encuentren disconformes que no utilicen el servicio, pero, ¿asistimos a un toque de atención a Google o el fin del Don’t be evil como eslogan de la compañía?

5 comentarios

Creando un buscador específico para tu blog (o web)

Aunque pueda parecer en un primer momento innecesario, un buscador es una opción que debería hallarse obligatoriamente en todo blog. Fundamentalmente, para los propios autores, que siempre andan rebuscando entre sus textos ya publicados para hacer referencias a temas pasados o, incluso, a la hora de retomar una materia aparcada que vuelve a estar candente. Pero también para los lectores que si son un tanto proactivos, andarán pensando “esto ya lo leí en…” o “creo que lo leí en…” e incluso si son buenos lectores, seguramente acudirán a tu sitio web para buscarlo y si, por desgracia, no lo son, siempre podrán disparar un tanto a ciegas para ver si Google, su providencia, les devuelve la información perdida en el fondo del pajar.

Huelga decir que hoy en día todos los gestores de contenidos o CMS suelen incorporar una caja de búsqueda de forma preconfigurada que posibilita la búsqueda en su base de datos. Por ejemplo, con mejores o peores resultados, WordPress nos ofrece la opción de búsqueda dentro de su gestor de contenidos, e incluso facilitándonos un tutorial para generar una página de resultados de búsqueda personalizada para nuestra web. Desgraciadamente, estos sistemas no suelen acertar ante nuestras exigencias y, finalmente, según vayamos incorporando y publicando contenidos estas herramientas predeterminadas nos resultarán insuficientes, acabando nuestras búsquedas a partir de la página principal de cualquier buscador. Así pues, ¿por qué no incorporar la fuerza bruta de Google en nuestras webs como un servicio añadido para nuestros usuarios?

Tareas de preparación e indexación

La inclusión de una caja de búsqueda para nuestro sitio web no es una tarea excesivamente complicada como veremos, ya que sólo tenemos que incluir una pieza de código HTML dentro del código fuente de nuestra página web. Sin embargo, debemos tener presente ciertas aspectos previos para que Google indexe bien nuestros contenidos y, de esta manera, facilitar que nuestros resultados se ajusten precisamente a lo que nosotros deseamos que se recupere junto a la máxima pertinencia de los mismos.

Así, como buenos webmasters, en el caso de que nuestro blog se encuentre alojado en un dominio propio, deberemos editar y colocar el fichero robots.txt en el directorio raíz de nuestra página web. Este fichero, muy sencillo en su configuración, nos es útil a la hora de determinar qué directorios pueden o no pueden indexar los bots y arañas de los buscadores. De esta manera, nos aseguramos de que si subimos textos en formato pdf, por ejemplo, aparezcan en los resultados de búsqueda, mientras que si lo que queremos es que cierto contenido permanezca oculto podamos señalar que esos contenidos no sean recuperables mediante un buscador.

Otro de los aspectos a tener muy en cuenta cuando queremos utilizar a Google en nuestro sitio web es tener disponible en nuestro servidor un fichero Sitemap. Este fichero realiza un listado de todas las páginas disponibles en nuestro sitio en formato XML, organizadas de forma jerárquica y que deberemos dar de alta en el sitio Webmaster Tools de Google para que los bots tengan disponibles todos los contenidos de las páginas y no tengan que ir rastreándolos con los fallos en lo que esto puede derivar, lo que les facilita su trabajo y por supuesto que el nuestro.

Generando el código de la caja de búsquedas

Realizado todo este trabajo preparatorio, acomodando nuestros contenidos a lo que queremos que sea recuperable, simplemente debemos de realizar la inserción del código HTML de nuestra caja de búsqueda en nuestra web. Anteriormente, la inserción de código se realizaba mediante un texto más o menos estándar que podíamos encontrar fácilmente en cualquier sitio web destinada a la programación en HTML. Básicamente, el texto decía así:

<!-- SiteSearch Google -->
<FORM method=GET action="http://www.google.com/search">
<input type=hidden name=ie value=UTF-8>
<input type=hidden name=oe value=UTF-8>
<TABLE bgcolor="#FFFFFF"><tr><td>
<A HREF="http://www.google.com/">
<IMG SRC="http://www.google.com/logos/Logo_40wht.gif"border="0" ALT="Google">
</A>
</td>
<td>
<INPUT TYPE=text name=q size=31 maxlength=255 value="">
<INPUT type=submit name=btnG VALUE="Buscar en sitio">
<font size=-1>
<input type=hidden name=domains value="
http://www.tunombrededominio.com"><br><input type=radio name=sitesearch value=""> WWW <input type=radio name=sitesearch value="TU NOMBRE DE DOMINIO" checked> TU NOMBRE DE DOMINIO<br>
</font>
</td></tr></TABLE>
</FORM>
<!-- SiteSearch Google -->

Hoy en día, el proceso de gestión de esos pequeños buscadores se encuentra muy simplificado, gracias sobre todo al propio interés de Google puesto que la inserción de estos pequeños códigos le reporta ingresos muy interesantes fundamentalmente por la publicidad insertada en los resultados de búsqueda. De esta forma, es posible crear y gestionar innumerables motores de búsqueda personalizados en el sitio web Google Coop creando motores de búsquedas específicos para sitios web o, por ejemplo, creando motores de búsqueda temáticos agrupando las búsquedas para distintas webs. Finalmente, si disponemos de una cuenta Adsense, Google nos ofrece la posibilidad de compartir los ingresos que puedan generar las consultas a nuestra web mediante la opción Adsense para la búsqueda que genera el código necesario para nuestra caja de búsqueda, pero con incluyendo nuestro identificador de afiliado.

7 comentarios

La publicidad en los feeds, el turno de Feedburner & Adsense

Un rumor recorre la Web estos días, la blogosfera todavía no se ha teñido de preocupación, puesto que la amenaza no se ha cumplido. Algunos consideran que la controversia está apunto de inundar los foros, se cruzarán enlaces, se rellenarán cajas de comentarios y se alzarán voces en contra y pro del próximo movimiento de Google. Personalmente, todavía estoy a la espera porque no me lo acabo de creer, pero todo parece indicar que Feedburner incluirá enlaces publicitarios vía Adsense le guste al editor del medio o no.

Los feeds son considerados por los románticos de la blogosfera como el último reducto donde no deberían aparecer mensajes publicitarios. Dentro de la controversia de hace unos años, estéril todo sea dicho, de si los blogs debían desarrollar modelos para su rentabilización, se consideró que la sindicación de contenidos era exclusiva de los suscriptores y, la limpieza de contenidos publicitarios. un premio hacia los lectores más fieles. Sí, los feeds eran el último lugar donde la información podía evitar la intoxicación informativa de las campañas de marketing. Huelga decir que los feeds se vieron inundados también por la publicidad al cabo del tiempo. Los post patrocinados, la polémica del mes, son el caso extremo de la contaminación publicitaria, pero también la colocación de publicidad contextual e incluso banners dentro de cada post.

Sin embargo, la aparición de publicidad era una elección soberana del editor del blog. Hace ya unos años se debatió mucho sobre el modelo de negocio de los agregadores de feeds por Web. Algunos de ellos cerraron al no poder capitalizar los esfuerzos técnicos que este esfuerzo merecía y muchos bloguers consideraron que no era procedente que los agregadores utilizasen publicidad contextual para monetizar las visitas de sus usuarios, al fin y al cabo, los contenidos eran suyos, así que se creían con derecho a decidir si colocar publicidad en ellos o no. Ahora Feedburner decide sacar provecho a los feeds que controla, una cifra que no puede dejar indiferente 1,570,012 feeds de 882,989 editores a fecha de hoy, situando publicidad en ellos. Por supuesto que Google deja la puerta abierta a todos aquellos que se quieran marchar, simplemente tienen que dejar de utilizar el servicio.

Don’t be evil pregona la compañía de Mountain View, pero reflexiona sobre el hecho de realizar un movimiento monopolístico, mueve una palanca para comenzar a sacar provecho de un servicio que no dispone de competencia que pueda hacerle sombra y que la inmensa mayoría de aquellos que lo prueban se quedan. No hace falta decir que Feedburner ofrece desde hace tiempo la posibilidad a los editores de situar los códigos javascript publicitarios dentro de los feeds que gestiona para que estos puedan obtener ingresos por su esfuerzo, pero además dispone de una ingente cantidad de servicios, además de posibilidades, muy interesantes para los bloguers:

  • Estadísticas de los feeds. Número de suscriptores, número de lecturas, evolución en el tiempo de éstas, que nos permiten ajustar los contenidos porque nos ofrecen datos de aquellos que tienen mayor impacto en nuestros lectores.
  • Estadísticas de los suscriptores por mail. Para aquellos tradicionalistas, o simplemente desconocedores de las ventajas de los feeds, ofrece un servicio de suscripción a los contenidos de un sitio por correo electrónico, enviando servicios de alertas.
  • Estadísticas para un sitio web. Al igual que Google Analytics o servicios similares, podemos conocer cuántos visitantes tienen nuestros sitios web al día y datos bien conocidos por todos.
  • Centralización. Podemos concentrar todos los feeds que genera automáticamente WordPress hacia un único feed, el que gestiona Feedburner, para evitar la dispersión de nuestros lectores.
  • Control sobre el estado del feed. Si se encuentra caído, tiene errores de codificación.
  • Servicio de Ping a los sitios encargados de seguir la actualización de las bitácoras como Technorati.
  • Servicio de optimización como que el feed sea lo más compatible posible para los distintos navegadores, que añada distintas opciones de interactividad para nuestros lectores o que facilite la suscripción a los distintos agregadores de feeds.
  • Además, permite que el feed no sea indexado por los bots de los buscadores evitando las duplicidades de contenido que posteriormente nos podrían penalizar o la opción de incluir una cláusula de licencia sobre uso de contenidos Creative Commons.

Así pues, el panorama futuro pasa porque todas las cuentas Feedburner sean trasladadas a Google Acounts, un movimiento con vista a aumentar el control de la información que se publica en la Red, para ir localizando a los editores de contenido -¿No les parecía suficiente Analytics?- y a sus lectores. Google tiene muchos tentáculos y la competencia que puede hacerle sombra sólo se dedica a pelearse por sus sobras.

8 comentarios

Google, el medio de comunicación del siglo XXI (1) – Formas de visitar una web

Una de las cosas que más nos gustan a los editores de páginas web, imagino que para eso nos pagan -aunque aquí eso está mal visto-, es comprobar cuántas visitas conseguimos generar a lo largo del día. Nos gusta conocer de dónde provienen nuestros lectores, por dónde se entretienen dentro de nuestras webs, cuánto tiempo permanecen, las rutas que siguen, etc. Esto, a un nivel profesional, se le denomina Web Analytics y, a pesar de que en nuestro caso sólo sirve para hinchar el orgullo, es un asunto muy serio que se tiene en cuenta dentro de la mayoría de las organizaciones que se dedican a la generación de contenidos para la Web. Fundamentalmente, las visitas hacia un sitio web se generan a través de cinco fuentes:

  • Introduciendo la dirección web de memoria en la barra de direcciones de un navegador web. Respecto a esto un apunte breve, últimamente se está detectando que los internautas utilizan cada vez los cuadros de texto de los buscadores como meras barras de direcciones, es decir, que introducen las URL en ellas para hacer dos veces clic o simplemente escriben la denominación del sitio web que quieren visitar. Es decir, la barra de direcciones de los navegadores parece estar cayendo en desuso.
  • Mediante un marcador (o bookmark) a través de las opciones para la gestión de estos que ofrecen los propios navegadores o, recientemente, sitios web que tienen este fin como del.icio.us.
  • Mediante un enlace. Sencillamente, un editor de un sitio web, sea el que sea, considera relevante lo que hemos señalado en cierto momento o, mejor, nos recomienda la visita por los contenidos que albergamos. Es decir, nos da un voto recomendándonos como fuente de información sobre cualquier temática y deriva la atención de sus lectores hacia nuestra web.
  • La sindicación de contenidos. La última en llegar y tal vez la más interesante puesto que aporta un valor añadido respecto a los marcadores para los editores web. Gracias a ellos, podemos llegar a saber qué audiencia tenemos y detectar qué contenidos son los más interesantes para nuestros lectores, así como poder seguir las tendencias de interés que despierta nuestro sitio web.
  • Un buscador. Obviamente, la búsqueda es una de las actividades preferidas de los internautas y, por lo tanto, una de las fuentes de tráfico más importantes de las que disponemos, aunque uno de los objetivos de todo webmaster es depender cada vez menos de los buscadores por razones de dependencia.

La más poderosa, en cuanto a tráfico e influencia, sin duda alguna la última; las que crean marca las cuatro primeras. Obviamente, todas se encuentran interrelacionadas y son dependientes. Las cuatro primeras buscan la fidelización del usuario, es decir, que nos busquen como generadores de contenidos y sitios web de referencia, mientras que la última, a pesar de que pueda parecer residual, es la que nos obliga a hacer algo más en la Red, a ir un paso más allá a la hora de crear los contenidos y preocuparnos por posicionarnos para que los buscadores sean los que nos coloquen más arriba, que nos promocionen y nos hagan publicidad. En definitiva que nos envíen el tráfico, porque no todo es hacer marca en la Web.

Los medios de comunicación descubrieron tarde que la cabecera, su marca, no es vital en la Red, que sus modelos de suscripción, sus modelos cerrados fracasaban estrepitosamente dentro de ella. Teniendo presente que la distancia de la competencia más inmediata se encuentra a tan sólo un clic, en Internet, se da la competencia pura y perfecta y los medios deben doblegarse precisamente ante alguien que no era productor de contenidos sino conductor de audiencias: Google.

Un comentario

Are you buzzing? (1) – Midiendo la relevancia de un dominio en Internet

Buzz es un término de marketing que en su traducción al castellano corresponde a zumbido. El concepto de Buzz Marketing se utilizaría, por tanto, cuando queremos que una idea o un producto se comente mucho, produciendo un ruido de fondo constante. En pocas palabras que algo esté en boca de todos. Dependiendo de los medios utilizados, este Buzz podrá ser más o menos intenso, más o menos prolongado en el tiempo y su traslación a Internet correspondería a que en muchos sitios web se hablase al mismo tiempo sobre lo que queremos vender o promocionar. Sin embargo, como en el mundo real, en Internet existen sitios webs más o menos influyentes, más o menos visitados, más o menos relevantes dependiendo de su público y nuestro objetivo con estos textos es dar algunas herramientas para precisamente evaluar esta importancia relativa. Pero, ¿quién pone la relevancia a un sitio web? ¿Por qué unos sitios son más importantes que otros? ¿Cómo averiguar si un sitio web tiene mucho tráfico o poco?

En España, se utilizan fundamentalmente dos metodologías para la evaluación y comparativa controlada de audiencias en la Red. Una la desarrolla OJD (Oficina de Justificación de la Difusión), mientras que la segunda es Nielsen Ratings, aunque hay que indicar que estas dos oficinas de medición de audiencias se centran en sitios web con mucho tráfico como medios de comunicación, redes de blogs y distintas empresas. Pero, ¿qué sucede con el resto de webs?

Alexa compone un ranking de los sitios web más visitados gracias a los internautas que instalan su barra de herramientas (Toolbar) de forma desinteresada. Obviamente, Alexa recopila información de navegación de las personas que instalan su herramienta por lo que su difusión y uso siempre ha estado cuestionada primero por la privacidad y luego por su implantación en los navegadores, por lo que las cifras aportadas nunca han sido consideradas del todo fiables.

Así pues si no podemos conocer la audiencia real de un sitio web, a no ser que sus estadísticas sean públicas, debemos buscar otros medios para conocer la relevancia de un sitio web como, por ejemplo, el número de enlaces que recibe una página web. Debemos señalar que el primero que trató de categorizar los sitios web según su importancia fue, cómo no, Google y su Pagerank. Obviando otras consideraciones, Google dispuso un sistema democrático según el cual cuantos más enlaces recibiese un sitio web mayor importancia debería disponer a ojos de los internautas. De este modo, estableció un ranking de 0 a 10 mediante el cual categorizó las webs según su relevancia. Por supuesto que, hoy en día, la barrita verde de Google parece tener menos peso que antaño, nuevas variables se conjugan en su algoritmo, sin embargo sigue siendo un referente para muchas personas, incluyendo a los propios webmasters.

Averiguar cuál es el Pagerank de una página web es bastante sencillo (es una información que Google publica) a través de la instalación de la Google Toolbar o utilizando servicios que nos ofrecen distintas páginas web como MiPagerank. Pero el Pagerank es la suma de los distintos Pageranks de los datacenters de Google, es decir, no tiene porqué ser uniforme y nos puede servir de guía para un futuro en nuestro objetivo de ir aumentándolo a lo largo del tiempo. Sin embargo, por distintas razones, Google puede llegar penalizarnos disminuyéndolo siguiendo una serie de criterios, pero en la Red disponemos de otras herramientas para evaluar el posible peso de un sitio web en un momento determinado y, por lo tanto, de un dominio.

Así, por ejemplo, disponemos del Genuine Site Rank donde se nos calcula qué Pagerank deberíamos tener dependiendo de una serie de parámetros, o Web Site Grader donde aportando una serie de palabras clave junto a dominios de nuestra competencia se nos realiza un estudio comparativo de nuestra relevancia respecto a ellos o CuWhois donde se aglutinan una serie de herramientas para la obtención de una serie de estadísticas de nuestro dominio incluyendo el valor monetario que nuestro sitio web, junto el valor que podríamos obtener si quisiéramos vender enlaces desde nuestras páginas. Se tratan, por supuesto, de distintas herramientas SEO que bien pueden ayudarnos a la hora de mejorar el comportamiento de nuestros visitantes unido a los resultados que los buscadores pueden arrojar sobre ellos en un momento determinado.

Comentarios cerrados
Usamos Cookies - Utilizando este sitio o cerrando este mensaje aceptas nuestra política de Cookies.
Aceptar Cookies
x