Saltar al contenido →

Etiqueta: Web

Eric Schmidt, el hombre que puede reinar

Reclamado hace ocho años por los fundadores de Google, Sergei Brin y Larry Page, la figura de Eric Schmidt se ha ido agrandando con el tiempo según la estrategia global que seguía Google iba variando e insertándose y asentándose en casi todos los sectores de la tecnología. Estos sectores ya exceden los propios terrenos de la Web, como el de la telefonía con el desarrollo de forma abierta sistema operativo Android para móviles o el del sistema operativo Google Chrome para ordenadores. Esta tendencia expansiva de Google ya ha obligado a Schmidt a abandonar el consejo de Apple que ve a Google como un serio competidor para su teléfono iPhone y su estrategia dentro del mundo de la telefonía, así como en propio de los ordenadores debido a Chrome.

En la entrevista El futuro de los negocios según Google de la revista HSM Management (V.3 N.5, sept-oct 2009), Schmidt nos ofrece algunos destellos sobre su visión global de cómo va a funcionar el mundo respecto a su relación con la tecnología, así de cómo él trata de sacar lo mejor de cada uno de su equipo de trabajo.

Lo primero que hace Schmidt es desechar la teoría de la Larga Cola en favor de las más tradicionales Powerlaws (en el texto traducida como Ley de Poder) desde un punto de vista empresarial. Porque, según la visión de Schmidt, las empresas obtienen la mayoría de sus ingresos de unos pocos productos e Internet tenderá a realizar una concentración de marcas. Las marcas, los negocios y las figuras públicas serán cada vez más globales por lo que la tendencia será a rentabilizarla frente al resto.

Otra de sus interesantes reflexiones en el texto es el efecto red provocado por la vida digital que acentuará que todos los procesos vayan más rápido. Para Schmidt, cuando todas las personas estén conectadas y hablando entre sí, el ciclo de vida de los productos, las innovaciones, la información se transmitirán y se desarrollarán a mayor velocidad. Por supuesto que es consciente de que esto para nosotros puede suponer un problema debido al estrés que nos puede provocar, sin embargo actualmente hay toda una generación creciendo a esa velocidad y lo ven como algo completamente normal. Sus futuros líderes comprenderán cómo organizar ese mundo y el resto sólo podremos adaptarnos a él o simplemente sentarnos a contemplarlo.

Uno de los efectos de lo anterior es que las compañías ya no pueden ser controladoras de sus consumidores, deben dejar fluir la información y tratar de hablar con sus clientes. Para Schmidt, los grupos saben tomar mejores decisiones que los individuos, aunque puntualiza que deben estar integrados con las personas más inteligentes e interesantes, de ahí la teoría de la eSabiduría donde una empresa puede operar sobre la base del consenso con sus usuarios. Uno de los puntos fuertes de Google, remacha.

Por otro lado, el objetivo de Google es convertirse en un sistema innovador a escala, pasando a definir qué supone para Google cada una de esas palabras. Así, innovador es hacer cosas que sorprendan a los demás, sistemático es conseguir que se sistematice el enfoque provocando que se innove de verdad y escala a más de uno. De esta manera, Schmidt considera que Google dispone de una cartera suficiente de nuevos proyectos que confía en que alguno tenga éxito.

Sin embargo, el proceso de innovación sólo puede producirse si existe comunicación entre los distintos departamentos involucrados en cada proyecto. Esto se debe a la naturaleza de la tecnología donde la mayoría de las empresas cada vez serán más complejas, tendrán más productos y de mayor variedad. Para mantener la barrera competitiva hacen falta productos más flexibles, escalables, diferenciados y globales; y para ello Google trata de evitar las estructuras divisionales y unidades de negocio. De esta manera, se fomenta los vínculos informales de la cultura abierta y se trata de alentar la colaboración entre departamentos. De esta manera, se busca que los trabajadores se autoorganicen detectando los problemas más importantes.

Comentarios cerrados

Los buscadores de Internet mienten

Cada vez con mayor frecuencia, los medios de comunicación exponen en las noticias los resultados que el Buscador, dejémoslo así, ofrece ante una consulta para apoyar la importancia de cierta tendencia, fenómeno emergente o personaje popular. Esta costumbre ya fue objeto de nuestra reflexión en un texto anterior, pero considero conveniente volver sobre ella para afirmar que estos datos se sustentan sobre unas mentiras intencionadas.

Una mentira que forma una estrategia de marketing de los tres buscadores principales (Google, Yahoo! y Bing -Antiguo Live, antiguo MSN-) para intentar capturar usuarios ofreciendo una mayor cantidad de resultados. No debemos olvidar que la tarea de indexar toda la Web constituye una tarea titánica que nunca se puede llegar a conseguir. De hecho, durante mucho tiempo Google señalaba la cantidad de páginas que tenía indexadas en sus bases de datos, hasta que retiró el dato de su página principal. El hecho es que la exhaustividad en esa obtención de información se antojaba como un componente más para demostrar la veracidad de los datos trasladando la idea quien tuviese la base de datos más grande podría ofrecer, al fin y al cabo, mejores resultados.

La semana pasada asistí a la jornada Innovadores sistemas de vigilancia tecnológica impartida por Prudencio Herrero celebrada en la Cámara de Comercio de Valencia que me demostró que todavía existen personas con una visión crítica de la tecnología que nos rodea. A modo de juego, nos enseñó la gran mentira de los buscadores donde lo importante es la apariencia.

El ejercicio que nos propuso pasó por buscar de distintas maneras el concepto de Vigilancia Tecnológica en sus distintas vertientes:

  • vigilancia tecnologica
  • vigilancia tecnológica
  • “vigilancia tecnologica”
  • “vigilancia tecnológica”

Las búsquedas se debían acometer en distintos buscadores en sus distintas formas, obteniendo resultados sorprendentes. En primer lugar, debíamos comparar los resultados ante los distintos términos en cada uno de los buscadores, para posteriormente compararlos:

Google

Yahoo!

Bing

vigilancia tecnologica

2.080.000

3.750.000

315.000

vigilancia tecnológica

615.000

3.490.000

315.000

vigilancia tecnologica”

157.000

925.000

1.810.000

vigilancia tecnológica”

158.000

826.000

1.810.000

Como podemos comprobar, los resultados se demuestran como un tanto dispares dependiendo de cómo acometamos la búsqueda y, sin embargo, completamente falsos y sin poder comprobarlos, porque en general los buscadores no nos dan más allá de los primeros 1000 resultados.

Así pues, porqué no buscar algo más específico, probemos con el libro de Pere Escorsa y Ramón Maspons, “De la Vigilancia Tecnológica y la Inteligencia Competitiva” utilizando la ecuación vigilancia tecnológica escorsa maspons y comprobemos hasta dónde llegamos. Debemos tener en cuenta que llegado a cierto punto, los buscadores nos invitan a realizar las búsquedas de nuevo sin que se eliminen ciertos resultados muy similares que son omitidos automáticamente, pero aún así desde la cantidad inicial que se nos ofrece hasta la real recuperada correspondiente a la última página, los resultados van menguando.

Resultados iniciales

Resultados reales (Última página de resultados)

Resultados sin omisiones

Resultados reales sin omisiones (Última página de resultados)

Google

885

271

876

491

Yahoo!

921

195

921

421

Bing

316

181

No procede

No procede

NOTA: La muestra se realizó el 30 de junio de 2009 en los sitios web:

2 comentarios

Las cuatro leyes matemáticas de las Redes Sociales

[…] En la economía de las redes sociales a través del ordenador, [se] han formulado cuatro leyes de crecimiento matemáticas fundamentales: la ley de Sarnoff, la ley de Moore, la ley de Metcalfe y la ley de Reed. Todas ellas tratan sobre la influencia del desarrollo tecnológico en el valor.

La ley de Sarnoff surgió a partir del desarrollo de las redes radiofónicas y televisivas a comienzos del siglo XX, redes en las que una fuente central mide desde un pequeño número de emisoras a un gran número de receptores. David Sarnoff […] concluyó lo más evidente: el valor de las redes de difusión es proporcional al número de espectadores.

La tan manida ley de Moore es el motivo por el que la miniaturización electrónica ha impulsado la hiperevolución de la electrónica, los ordenadores y las redes. […] La previsión de Moore era que el número de elementos [transistores que pueden introducirse dentro de un circuito integrado] se duplicaría cada dieciocho meses en el futuro. […] Sin las eficiencias descritas por la ley de Moore, el PC, Internet y los teléfonos móviles serían excesivamente grandes, caros y poco inteligentes. […]

Metcalfe […] formuló la ley que lleva su nombre que describe el crecimiento de valor en las redes. El principio es sencillo y se basa en una propiedad matemática fundamental de las redes: el número potencial de conexiones entre nodos crece más rápidamente que el número de nodos. El valor total de una red en la que cada nodo puede conectarse con todos los demás equivale al cuadrado del número de nodos. Si hay dos nodos, cada uno con un valor de una unidad, el valor de la unión de ambos nodos es de cuatro unidades. Cuatro nodos interconectados, cada uno con valor de una unidad, equivalen a dieciséis unidades cuando se ponen en red, y cien nodos equivalen a cien veces cien, es decir, diez mil. Cuando el valor crece exponencialmente con respecto al número de nodos, la consecuencia matemática se traduce en impulso económico: la conexión de dos redes crea mucho más valor que la suma de sus valores respectivos como redes independientes. […]

La ley de Reed demuestra que el valor de la red (una red informática junto a la comunicación humana) no crece en proporción al cuadrado de los usuarios, sino exponencialmente. Esto significa que la fórmula es dos elevado a la potencia del número de nodos, en lugar de elevar este número al cuadrado. El valor de dos nodos es cuatro según ambas leyes, pero el valor de diez nodos es cien (diez elevado al cuadrado) en la ley de Metcalfe y 1024 (dos elevado a diez) en la ley de Reed. […] Esto explica que las redes sociales, creadas por correo electrónico y otras comunicaciones sociales, hayan expandido el crecimiento de la red más allá de las comunidades de ingenieros, hasta el punto de incluir toda clase de grupos de interés. La ley de Reed es el enlace entre las redes informáticas y las redes sociales.

RHEINGOLD, Howard. Multitudes inteligentes. La próxima revolución social. Barcelona: Gedisa, 2004. pp. 85 – 87

2 comentarios

¿Batacazo en los ingresos Adsense?

Cuando decidimos incluir publicidad en nuestro blog, lo hicimos en primer lugar para curiosear, para probar cosas nuevas y , como dijimos entonces, para disponer de una estadística más; y segundo, cómo no, quitarnos de encima el coste de mantenimiento de nuestro blog. Entonces, al igual del 90% de los pequeños editores de Internet, nos decantamos por Google y su Adsense por tratarse de uno de los servicios más confiables disponibles en el mundo publicitario en Web y lo cierto es que la experiencia ha sido al menos divertida (con la cancelación de nuestra cuenta y todo).

El hecho es que disponer de una cuenta en Adsense, ha abierto un poco la temática de nuestro blog, vigilantes sobre la publicidad y los modelos de financiación de los bloguers y pequeños editores, preocupados por el mundo SEO y SEM, pero lo que no me esperaba comprobar era la tremenda caída de los ingresos que se iban a dar. Porque no nos podemos llevar a engaño, somos un blog muy modesto, no esperamos grandes retribuciones, pero la denunciada caída del 60% del CTR parece que se va a quedar pequeña. Sólo tendríamos que echarle un vistazo a la evolución de las cifras del eCPM (Acrónimo de coste efectivo por cada mil impresiones y se usa para medir el rendimiento de los bloques de anuncios) en gráficos comparativos de distintos países.

En el caso español (que os recojo), aunque podéis consultar otros, es significativo y puede desembocar hacia que los usuarios de Adsense apuesten por otros modelos publicitarios huyendo de la cierta opacidad de Google (Qué es lo que el anunciante paga, qué es lo que Google se queda y qué es lo que le toca al editor nunca ha estado muy claro) y sus extrañas políticas de uso. En nuestro caso, hemos contemplado la posibilidad de eliminar la publicidad porque realmente, a pesar de que los clics puedan incrementarse o mantenerse, obviamente no percibimos el retorno como compensatorio o también podemos decantarnos por probar otros modelos publicitarios como el de TradeDoubler que nos recomendaron.

Ante las denuncias de caídas, Google se ha defendido, por supuesto, asegurando que las fluctuaciones en los ingresos son normales, pero que en los tiempos de incertidumbre económica, mucho más dramáticas, que no a todos los sectores o segmentos les afectan igual ni durante el mismo tiempo, por lo que no a todos los sitios web se encontrarán afectados en igual medida.

De momento, en nuestro caso, esperaremos y comprobaremos cuál es la evolución, cómo les va afectando esta situación a los blogs y lo que van comentado sobre este asunto. Pero no es descartable que volvamos a ser un blog limpio de publicidad a lo largo de estos meses. Para ello aprovisionamos hace poco.

8 comentarios

¿Será el 2009 el año que nos rebelamos contra Google?

Nos disponemos a cerrar el año 2008, confiando que el venidero no sea tan mal año como algunos agoreros aseguran debido a la crisis económica. En la Red, a pesar de las buenas intenciones de algunos, los apretones y los ajustes presupuestarios están ya al orden del día. Aquellos proyectos a los que se les asignaba un valor, descubrirán que en realidad valen la mitad, simplemente porque a día de hoy el panorama es completamente distinto al que nos habíamos acostumbrado en estos últimos cuatro. Es curioso el argumentario que se ofrece para el ajuste a la baja de innumerables proyectos, sea tan similar al del crack de la Burbuja.com de principios de siglo, que fue y es: «No te puedes centrar en generar tráfico tan sólo, también tienes que desarrollar un proyecto económico viable».

Sin embargo, a diferencia del año 2000, la situación es bien distinta, con una crisis económica estructural, atacando a todos los sectores económicos sin distinción, contrayendo el consumo y afectando directamente al crecimiento económico de casi todos los países. Si bien, en aquella ocasión, se resumió la crisis tecnológica en que las prisas por ser los primeros en posicionarse dentro de un nuevo mercado, las malas gestiones y la mala previsión fue lo que derivó en aquel pinchazo bursátil y tecnológico, en esta ocasión, durante 2009, el chivo expiatorio va a ser otro: Google.

La economía en la Web, la generación de valor, ha cambiado completamente. Si en 2000 Google era un buscador entre el amplio abanico que se nos ofrecía en la Red, actualmente su cuota de mercado en campo de las búsquedas ha barrido completamente a su competencia. Por otro lado, Google ha sido capaz de desarrollar un modelo de negocio estableciendo todo un ecosistema económico para sí y para el resto de la Web mediante su sistema publicitario: Adwords para los anunciantes y Adsense para los editores. De este modo, Google ha desarrollado su principal fuente de ingresos a través de la publicidad en la Web y su gestión, pero a la vez ha alimentado al resto de webs ofreciéndoles participar de su tarta con una porción de la misma, aunque las webs nunca han sido conscientes qué porción era para Google y cual era el tamaño que les correspondía.

Sin embargo, durante 2008, la situación ha ido evolucionando. La imagen de Google y sus acciones están siendo son cada vez más contestadas y discutidas, llegando a enfrentarse con toda una industria. No nos referimos tan sólo a las suspicacias que levantan las actividades del buscador sobre la privacidad en sus usuarios, sino que se está yendo un paso más allá. De este modo, por un lado, tenemos a los pequeños editores, aquellos que contemplaron a Adsense como un sistema práctico y cómodo para rentabilizar sus esfuerzos a la hora de actualizar sus webs, pero que ahora contemplan con preocupación y frustación cómo los ingresos se ajustan cada vez más a su tráfico, descendiendo en algunos casos, mientras que en otros son baneados sin explicación ni razones suficientes, lo que les está conduciendo a plantearse otras alternativas publicitarias como el patrocinio. Es interesante señalar que los números sobre el dominio de Google en la publicidad dentro de las pequeñas webs son demoledores y, según la compañía Attributor, éste alcanzaría el 98% de las webs que actualmente disponen de algún tipo de publicidad.

Pero no sólo los editores están preocupados por el cambio en la tendencia de Google, desde el lado de los anunciantes, los que alimentan al buscador, las cosas tampoco se encuentran mejor. La crisis ha tocado al gigante de Mountain View y, necesitado de ingresos, ha aplicado una serie de políticas que se han considerado penalizadoras respecto a los usuarios de Adwords. Se ha llegado a un extremo que los anunciantes consideran que estas nuevas políticas están diseñadas para aumentar su gasto en publicidad, a pesar de que el retorno que preven respecto a esta nueva política del buscador va en contra de sus intereses con un tráfico de peor calidad. La situación ha generado tal malestar que se ha llegado al extremo de que los SEM, responsables de ajustar las campañas publicitarias en la Web, se han planteado un boicot a Google y aunque se contempla con cierto excepticismo desde el gremio sobre su éxito, lo cierto es que plantear una protesta contra el gigante es sintomático de que algo está cambiando.

Pero hay más, Google controla actualmente el 57% del mercado mundial de la publicidad en la Web y los grandes productores de información -Esto es editores y medios de comunicación- están acusando a la compañía californiana de canibalizar el ecosistema de la información dentro de ella. Según sus argumentos, por un lado, les provee de tráfico, mediante su buscador y su servicio de Google News, mientras que por otro les propone la gestión publicitaria a través de Adsense y Ad Manager, con estas dos premisas los grandes grupos multimedia consideran que el margen de ingresos publicitarios es tan ajustado que va en detrimento de sus intereses. Tanto es así que en Francia, pero no hay que olvidar Bélgica, los ánimos están tan revueltos que el responsable de Google News, Josh Cohen, tuvo que desplazarse hasta el país europeo para tratar de calmar los ánimos. Sin embargo, a corto plazo, es bastante probable que las aguas se embravezcan mientras la crisis económica se va endureciendo.

Para tratar de mejorar la situación, la discográfica Warner ha decidido retirar todos los vídeos de sus artistas desde el portal multimedia YouTube (Propiedad de Google). La razón principal para su abandono de esta Web es que el modelo de publicidad incrustrada dentro los vídeos aparentemente no funciona y los ingresos que la discográfica recibía de YouTube son considerados insuficientes e insostenibles a largo plazo para desarrollar un modelo empresarial viable. Además, tras este anuncio, se cree que el resto de discográficas secundarán la decisión de la Warner lo que podría inducir tanto a discográficas como a artistas y televisiones a comenzar a retirar contenidos, lo que dejaría a YouTube sin una parte importante de sus contenidos.

Como se puede comprobar, la situación en estos dos últimos meses de 2008 se ha complicado tremendamente para la multinacional de Mountain View, con innumerables frentes, que no parecen tener camino a solucionarse en un corto plazo. Aún habrá que esperar un poco para comprobar si la crisis sigue ampliándose o se mantiene estable, pero no cabe duda que nos adentramos a una nueva etapa en la que posición de Google va a ser cada vez más contestada y su imagen cada vez más en entredicho, ¿será el 2009 cuando cambiemos la visión que tenemos de Google?

2 comentarios

La depreciación del link

Ejemplo de publicidad intrusiva en la WebComo profesionales de la información, no hay publicidad que nos debería molestar más que aquella que está incluida dentro del texto sin posibilidad de diferenciar qué es contenido incluido por el autor y cuál por las agencias publicitarias (O que la diferencia sea mínima como el doble subrayado). Aunque ya la nombré, de pasada, en el texto La Blogosfera ante la crisis económica – Otros tipos de publicidad, la violación que supone la inclusión de un enlace patrocinado dentro del texto de un artículo de un sitio web de forma aleatoria y automática, ajena a los deseos del autor, me merece la consideración de que se trata de una degradación del texto y del sitio web que la sustenta. Porque Tim Berners-Lee concibió la Web como un sistema de información en el que todos los documentos estuviesen interconectados, haciéndose referencia y pudiendo acceder a ellos de una forma sencilla e inmediata. Pero el enlace, el link, el sistema democrático que Google utilizó, y todavía se utiliza, para medir la popularidad de ciertas páginas web, se encuentra ahora en un momento de debilidad y amenaza.

No hace falta que señalemos que no estamos en contra de la publicidad, al fin y al cabo es el modelo de monetización que tienen los contenidos que aquí publicamos, pero una cosa es recomendar sitios web de forma perfectamente clara en cajas perfectamente diferenciadas de que son publicidad o enlaces publicitarios y otra cosa es que se nos engañe, por definirlo de alguna manera, invitándonos a visitar webs que han comprado las palabras que utilizamos en nuestros textos, pero que no necesariamente amplían o profundizan los textos sobre los que se hallan. Si los medios de comunicación huyen, en general, de utilizar enlaces hacia otras páginas web porque pierden tráfico, gran error porque lo único que se pierde es perspectiva, no alcanzo a comprender el porqué algunos utilizan estos sistemas que simplemente no aportan gran valor a sus informaciones.

Ya criticamos en su momento el Autolink de Google disponible en su Toolbar (Barra de Herramientas) como un elemento intrusivo en la navegación de aquellas personas que se instalasen el software, ahora no podemos salvo señalar, tal y como hace José Antonio Millán, que este tipo de publicidad además de ser completamente invasiva, se aleja mucho de lo que debe ser considerado un sitio web que aporta valor añadido a sus lectores, que va más allá de lo que debe ser considerado contenido y publicidad, distorsionando el mensaje y la voluntad que tenía el autor del texto a la hora de redactarlo. Confiamos que, finalmente, este tipo de publicidad no se generalice puesto que la navegación en la Red sería completamente vacía, sin sentido y llena de ruido.

3 comentarios

Are you buzzing? (1) – Midiendo la relevancia de un dominio en Internet

Buzz es un término de marketing que en su traducción al castellano corresponde a zumbido. El concepto de Buzz Marketing se utilizaría, por tanto, cuando queremos que una idea o un producto se comente mucho, produciendo un ruido de fondo constante. En pocas palabras que algo esté en boca de todos. Dependiendo de los medios utilizados, este Buzz podrá ser más o menos intenso, más o menos prolongado en el tiempo y su traslación a Internet correspondería a que en muchos sitios web se hablase al mismo tiempo sobre lo que queremos vender o promocionar. Sin embargo, como en el mundo real, en Internet existen sitios webs más o menos influyentes, más o menos visitados, más o menos relevantes dependiendo de su público y nuestro objetivo con estos textos es dar algunas herramientas para precisamente evaluar esta importancia relativa. Pero, ¿quién pone la relevancia a un sitio web? ¿Por qué unos sitios son más importantes que otros? ¿Cómo averiguar si un sitio web tiene mucho tráfico o poco?

En España, se utilizan fundamentalmente dos metodologías para la evaluación y comparativa controlada de audiencias en la Red. Una la desarrolla OJD (Oficina de Justificación de la Difusión), mientras que la segunda es Nielsen Ratings, aunque hay que indicar que estas dos oficinas de medición de audiencias se centran en sitios web con mucho tráfico como medios de comunicación, redes de blogs y distintas empresas. Pero, ¿qué sucede con el resto de webs?

Alexa compone un ranking de los sitios web más visitados gracias a los internautas que instalan su barra de herramientas (Toolbar) de forma desinteresada. Obviamente, Alexa recopila información de navegación de las personas que instalan su herramienta por lo que su difusión y uso siempre ha estado cuestionada primero por la privacidad y luego por su implantación en los navegadores, por lo que las cifras aportadas nunca han sido consideradas del todo fiables.

Así pues si no podemos conocer la audiencia real de un sitio web, a no ser que sus estadísticas sean públicas, debemos buscar otros medios para conocer la relevancia de un sitio web como, por ejemplo, el número de enlaces que recibe una página web. Debemos señalar que el primero que trató de categorizar los sitios web según su importancia fue, cómo no, Google y su Pagerank. Obviando otras consideraciones, Google dispuso un sistema democrático según el cual cuantos más enlaces recibiese un sitio web mayor importancia debería disponer a ojos de los internautas. De este modo, estableció un ranking de 0 a 10 mediante el cual categorizó las webs según su relevancia. Por supuesto que, hoy en día, la barrita verde de Google parece tener menos peso que antaño, nuevas variables se conjugan en su algoritmo, sin embargo sigue siendo un referente para muchas personas, incluyendo a los propios webmasters.

Averiguar cuál es el Pagerank de una página web es bastante sencillo (es una información que Google publica) a través de la instalación de la Google Toolbar o utilizando servicios que nos ofrecen distintas páginas web como MiPagerank. Pero el Pagerank es la suma de los distintos Pageranks de los datacenters de Google, es decir, no tiene porqué ser uniforme y nos puede servir de guía para un futuro en nuestro objetivo de ir aumentándolo a lo largo del tiempo. Sin embargo, por distintas razones, Google puede llegar penalizarnos disminuyéndolo siguiendo una serie de criterios, pero en la Red disponemos de otras herramientas para evaluar el posible peso de un sitio web en un momento determinado y, por lo tanto, de un dominio.

Así, por ejemplo, disponemos del Genuine Site Rank donde se nos calcula qué Pagerank deberíamos tener dependiendo de una serie de parámetros, o Web Site Grader donde aportando una serie de palabras clave junto a dominios de nuestra competencia se nos realiza un estudio comparativo de nuestra relevancia respecto a ellos o CuWhois donde se aglutinan una serie de herramientas para la obtención de una serie de estadísticas de nuestro dominio incluyendo el valor monetario que nuestro sitio web, junto el valor que podríamos obtener si quisiéramos vender enlaces desde nuestras páginas. Se tratan, por supuesto, de distintas herramientas SEO que bien pueden ayudarnos a la hora de mejorar el comportamiento de nuestros visitantes unido a los resultados que los buscadores pueden arrojar sobre ellos en un momento determinado.

Comentarios cerrados