Saltar al contenido →

Etiqueta: Blogs

EE UU se dispone a regular a los blogs y el Social Media

No es la primera vez que se realizan intentos para tratar de legislar lo que se publica dentro de la blogosfera o de la Web Social. En su momento, la Unión Europea ya propuso la creación de un registro de blogs, aunque finalmente desechó la idea ante el gran revuelo que supuso aquella idea. Incluso Tim O’Reilly trató de que se estableciese un código de conducta para la blogosfera que fue muy comentado y contestado que finalmente quedó en nada ante la imposibilidad de alcanzar algún tipo de acuerdo. En esta ocasión, la polémica nos llega desde los Estados Unidos donde la FTC (Federal Trade Commission) se plantea comenzar a regular los blogs y el Social Media (Facebook o Twitter) al considerar que estos son, en realidad, más una herramienta de marketing que un medio de comunicación y que promete en acabar de la misma forma que las dos circunstancias señaladas anteriormente. Desde la FTC, se argumenta que se está tratando de actualizar las directrices para la defensa de los consumidores aprobadas hace treinta años, de modo que se ajusten a la realidad actual donde los consumidores acuden cada vez más a la Red para informarse.

Concretamente, el punto de mira de la FTC se centra en aquellos blogs que aceptan la publicación de lo que se denomina posts patrocinados, que son textos donde el bloguer recibe una compensación, en especie o monetaria, por comentar sus experiencias con determinado producto o servicio. Dentro de este tipo de informaciones, existen distintas variantes que van desde la total libertad del bloguer para comentar su experiencia basándose en su opinión personal y otras donde el fabricante especifica las recomendaciones que el bloguer debería de plasmar en el su texto. De este modo, el regulador estadounidense abre la puerta para que las webs dedicadas al Social Media puedan ser denunciadas por los consumidores si publican o alojan informaciones falsas sobre los productos que se reseñen.

Por supuesto que la polémica ha saltado a la blogosfera americana que ya se pregunta si las autoridades estadounidenses comenzarán a considerar a los bloguers como criminales por escribir este tipo de textos o qué harán con el resto de blogs que no se encuentran alojados dentro del territorio de su jurisdicción. En definitiva, la conclusión es que se tiene la impresión de que la FTC está intentando regular estos medios como si se tratase de publicaciones impresas sin contemplar otras consideraciones que obviamente les sobrepasan y que no son posibles de controlar dentro de un mundo interconectado.

5 comentarios

¿Cuántos lectores de RSS podrías tener hoy?

Una de las cosas que más me sorprende de Feedburner es que no ha habido ningún servicio capaz de hacerle sombra. Sí, existen innumerables webs que son capaces de gestionar feeds, desde agregadores a generadores, pero el servicio que ofrece Feedburner – normalizar el formato del fichero RSS, dar una versión legible para las personas en su caso, ofrecer estadísticas sobre los suscritos, servicios añadidos como la suscripción al mismo por correo electrónico y, la más importante, bajar el estrés de nuestro servidor a la hora de servir información a los bots – no ha sido igualado hasta ahora. La popularidad del mismo llegó a ser tan importante que Google se fijó en él y decidió su adquisición en mayo de 2007 por 100 millones de dólares tras muchos rumores.

Desde entonces, el proceso de innovación y de mejora dentro del servicio ha permanecido bastante plano llegando a considerarse que simplemente Google lo estaba dejando morir. Este hecho puede ser que sea achacable a la nunca sencilla integración dentro de la macroestructura de Google, como bien les ha sucedido a muchas compañías adquiridas por el gigante, y en ocasiones contradictorias, puesto que una de las últimas propuestas por parte de Feedburner fue la de ofrecer un sistema de estadísticas para páginas web que, obviamente, se enfrentaba con el superior producto Google Analytics. En cualquier caso, de lo que no cabe duda, es que Google adquirió este servicio para rentabilizar los contenidos que gestiona insertando su popular programa publicitario, Adsense, dentro de los textos servidos por infinidad de pequeños sitios web.

De hecho, el blog oficial de Feedburner, Burning Questions, fue cerrado junto la apertura de uno sustitutivo con la denominación Adsense for Feeds, toda una declaración de principios. Dos años después, Google nos urge en migrar las cuentas de acceso de Feedburner hacia una Google Account para poder seguir utilizándolo. Sin embargo, aunque el proceso es bastante sencillo, no deja de ser en ciertos aspectos traumático. Así, por ejemplo, a la hora de mostrar las estadísticas de suscriptores, el servicio sufre fluctuaciones dramáticas (en ocasiones de un día para otro se puede llegar a perder un 40% de tus suscriptores), más allá de los “apagones” que de vez en cuando Feedburner sufre por los principales agregadores RSS disponibles on-line, fundamentalmente Google Reader (!) y Bloglines.

Lo cierto es que más allá de las situaciones puntuales antes señaladas, la excepción se está convirtiendo en una constante, siendo casi imposible saber a ciencia cierta cuántos suscriptores disponemos en cada momento, por lo que el servicio comienza a no aportar el valor añadido del que en su momento disponía. Por otro lado, al gestionar los contenidos a través de Feedburner perdemos cierto control sobre los contenidos de los feeds, porque si bien Feedburner nos advierte de los Unfrequent uses, no nos permite bloquearlos, por lo que nos impide, por ejemplo, restringir los abusos que realizan los Content Scrappers, por poner un ejemplo.

Sin embargo, el abandono de este servicio a otro plantea ciertas dificultades. Por un lado, debemos encontrar un sistema de estadísticas fiable, que en el caso de los blogs gestionados con WordPress bien podría servirnos el plugin oficial WordPress Stats, sin embargo la redirección de los feeds si no se ha sido cuidadoso desde un principio -señalando una URL dentro de nuestro dominio que finalmente redireccionase al servicio de Feedburner-, puede llegar a ser confusa para nuestros lectores y para nosotros mismos que debemos advertirles y sugerirles el esfuerzo del cambio. Lo que nunca llega a ser suficiente para que permanezcan junto a nosotros.

3 comentarios

¿Batacazo en los ingresos Adsense?

Cuando decidimos incluir publicidad en nuestro blog, lo hicimos en primer lugar para curiosear, para probar cosas nuevas y , como dijimos entonces, para disponer de una estadística más; y segundo, cómo no, quitarnos de encima el coste de mantenimiento de nuestro blog. Entonces, al igual del 90% de los pequeños editores de Internet, nos decantamos por Google y su Adsense por tratarse de uno de los servicios más confiables disponibles en el mundo publicitario en Web y lo cierto es que la experiencia ha sido al menos divertida (con la cancelación de nuestra cuenta y todo).

El hecho es que disponer de una cuenta en Adsense, ha abierto un poco la temática de nuestro blog, vigilantes sobre la publicidad y los modelos de financiación de los bloguers y pequeños editores, preocupados por el mundo SEO y SEM, pero lo que no me esperaba comprobar era la tremenda caída de los ingresos que se iban a dar. Porque no nos podemos llevar a engaño, somos un blog muy modesto, no esperamos grandes retribuciones, pero la denunciada caída del 60% del CTR parece que se va a quedar pequeña. Sólo tendríamos que echarle un vistazo a la evolución de las cifras del eCPM (Acrónimo de coste efectivo por cada mil impresiones y se usa para medir el rendimiento de los bloques de anuncios) en gráficos comparativos de distintos países.

En el caso español (que os recojo), aunque podéis consultar otros, es significativo y puede desembocar hacia que los usuarios de Adsense apuesten por otros modelos publicitarios huyendo de la cierta opacidad de Google (Qué es lo que el anunciante paga, qué es lo que Google se queda y qué es lo que le toca al editor nunca ha estado muy claro) y sus extrañas políticas de uso. En nuestro caso, hemos contemplado la posibilidad de eliminar la publicidad porque realmente, a pesar de que los clics puedan incrementarse o mantenerse, obviamente no percibimos el retorno como compensatorio o también podemos decantarnos por probar otros modelos publicitarios como el de TradeDoubler que nos recomendaron.

Ante las denuncias de caídas, Google se ha defendido, por supuesto, asegurando que las fluctuaciones en los ingresos son normales, pero que en los tiempos de incertidumbre económica, mucho más dramáticas, que no a todos los sectores o segmentos les afectan igual ni durante el mismo tiempo, por lo que no a todos los sitios web se encontrarán afectados en igual medida.

De momento, en nuestro caso, esperaremos y comprobaremos cuál es la evolución, cómo les va afectando esta situación a los blogs y lo que van comentado sobre este asunto. Pero no es descartable que volvamos a ser un blog limpio de publicidad a lo largo de estos meses. Para ello aprovisionamos hace poco.

8 comentarios

Nos integramos en la ‘Red de Blogs de levante-emv.com’

Aún recuerdo la primera vez que crucé las puertas del diario Levante-EMV para encararme a una de mis primeras entrevistas de trabajo. Bien podría relataros aquí lo que en aquel despacho se dijo y mis impresiones de entonces, qué sucedió tras la entrevista, cómo acabaría mi carrera profesional desarrollándose dentro del periódico y algunas de mis anécdotas como trabajador. Tal vez lo que más os pueda interesar es que aquel día sufría una otitis que arrastraría durante dos semanas y que a día de hoy todavía me pregunto cómo acabé tan bien parado. Aunque puede ser que en realidad puede que ya lo haya hecho.

Hoy el diario Levante es como una segunda universidad para mí, me he formado y he crecido en muchos aspectos, personal y profesionalmente, guardo gratos recuerdos y muchas amistades en él y, de alguna extraña manera, todavía me tiene enganchado. Así que no es de extrañar que, al final, nuestros caminos se hayan vuelto a cruzar, esta vez en la Red, y confío que se trate de una experiencia muy provechosa para ambos.

Hace ya un tiempo que me percaté de la oferta que el diario realizaba en su búsqueda de bloguers para comenzar a crear su propia red de blogs al igual que otros medios habían comenzado a hacer. Huelga decir que, en aquel momento, nos auto-excluimos, puede ser que conscientes de que el ámbito temático que desarrollamos en esta bitácora no fuese de especial interés para el periódico. Sin embargo, la entrevista a Lluís Cucarella, el director de su edición digital, aparecida en el blog 233Grados me invitó a replantearme el hecho de ofrecernos para colaborar con el diario.

Siendo conscientes de que un título como El Documentalista Enredado puede llegar a no invitar a sus lecturas a los neófitos en nuestro ámbito temático, lo hicimos con un poco de escepticismo. De hecho, Lluís me confesaba que no sabía cómo íbamos a cuadrar dentro de los contenidos de un diario regional como Levante-EMV; pero lo cierto es que una vez repasados algunos de nuestros textos, descubrió que nuestra amplitud temática era suficientemente para poder atraer a sus lectores y que nuestra colaboración fuese satisfactoria.

Hay que señalar que este acuerdo no supone ninguna cortapisa sobre lo que debamos a publicar, por lo que nuestra línea editorial va a seguir siendo la misma. Como venimos haciendo hasta ahora ,os ofreceremos un poco de nuestras lecturas, nuestras experiencias, nuestras reflexiones, nuestras actividades y lo que se nos vaya ocurriendo, por lo que nuestros lectores habituales apenas se percatarán de ningún cambio de relevancia salvo la presencia de un nuevo pequeño logotipo en nuestra cabecera.

Actualización (2/2/2009): El diario Levante-EMV recoge nuestra incorporación e historia en su edición de hoy.

5 comentarios

Creando un buscador específico para tu blog (o web)

Aunque pueda parecer en un primer momento innecesario, un buscador es una opción que debería hallarse obligatoriamente en todo blog. Fundamentalmente, para los propios autores, que siempre andan rebuscando entre sus textos ya publicados para hacer referencias a temas pasados o, incluso, a la hora de retomar una materia aparcada que vuelve a estar candente. Pero también para los lectores que si son un tanto proactivos, andarán pensando “esto ya lo leí en…” o “creo que lo leí en…” e incluso si son buenos lectores, seguramente acudirán a tu sitio web para buscarlo y si, por desgracia, no lo son, siempre podrán disparar un tanto a ciegas para ver si Google, su providencia, les devuelve la información perdida en el fondo del pajar.

Huelga decir que hoy en día todos los gestores de contenidos o CMS suelen incorporar una caja de búsqueda de forma preconfigurada que posibilita la búsqueda en su base de datos. Por ejemplo, con mejores o peores resultados, WordPress nos ofrece la opción de búsqueda dentro de su gestor de contenidos, e incluso facilitándonos un tutorial para generar una página de resultados de búsqueda personalizada para nuestra web. Desgraciadamente, estos sistemas no suelen acertar ante nuestras exigencias y, finalmente, según vayamos incorporando y publicando contenidos estas herramientas predeterminadas nos resultarán insuficientes, acabando nuestras búsquedas a partir de la página principal de cualquier buscador. Así pues, ¿por qué no incorporar la fuerza bruta de Google en nuestras webs como un servicio añadido para nuestros usuarios?

Tareas de preparación e indexación

La inclusión de una caja de búsqueda para nuestro sitio web no es una tarea excesivamente complicada como veremos, ya que sólo tenemos que incluir una pieza de código HTML dentro del código fuente de nuestra página web. Sin embargo, debemos tener presente ciertas aspectos previos para que Google indexe bien nuestros contenidos y, de esta manera, facilitar que nuestros resultados se ajusten precisamente a lo que nosotros deseamos que se recupere junto a la máxima pertinencia de los mismos.

Así, como buenos webmasters, en el caso de que nuestro blog se encuentre alojado en un dominio propio, deberemos editar y colocar el fichero robots.txt en el directorio raíz de nuestra página web. Este fichero, muy sencillo en su configuración, nos es útil a la hora de determinar qué directorios pueden o no pueden indexar los bots y arañas de los buscadores. De esta manera, nos aseguramos de que si subimos textos en formato pdf, por ejemplo, aparezcan en los resultados de búsqueda, mientras que si lo que queremos es que cierto contenido permanezca oculto podamos señalar que esos contenidos no sean recuperables mediante un buscador.

Otro de los aspectos a tener muy en cuenta cuando queremos utilizar a Google en nuestro sitio web es tener disponible en nuestro servidor un fichero Sitemap. Este fichero realiza un listado de todas las páginas disponibles en nuestro sitio en formato XML, organizadas de forma jerárquica y que deberemos dar de alta en el sitio Webmaster Tools de Google para que los bots tengan disponibles todos los contenidos de las páginas y no tengan que ir rastreándolos con los fallos en lo que esto puede derivar, lo que les facilita su trabajo y por supuesto que el nuestro.

Generando el código de la caja de búsquedas

Realizado todo este trabajo preparatorio, acomodando nuestros contenidos a lo que queremos que sea recuperable, simplemente debemos de realizar la inserción del código HTML de nuestra caja de búsqueda en nuestra web. Anteriormente, la inserción de código se realizaba mediante un texto más o menos estándar que podíamos encontrar fácilmente en cualquier sitio web destinada a la programación en HTML. Básicamente, el texto decía así:

<!-- SiteSearch Google -->
<FORM method=GET action="http://www.google.com/search">
<input type=hidden name=ie value=UTF-8>
<input type=hidden name=oe value=UTF-8>
<TABLE bgcolor="#FFFFFF"><tr><td>
<A HREF="http://www.google.com/">
<IMG SRC="http://www.google.com/logos/Logo_40wht.gif"border="0" ALT="Google">
</A>
</td>
<td>
<INPUT TYPE=text name=q size=31 maxlength=255 value="">
<INPUT type=submit name=btnG VALUE="Buscar en sitio">
<font size=-1>
<input type=hidden name=domains value="
http://www.tunombrededominio.com"><br><input type=radio name=sitesearch value=""> WWW <input type=radio name=sitesearch value="TU NOMBRE DE DOMINIO" checked> TU NOMBRE DE DOMINIO<br>
</font>
</td></tr></TABLE>
</FORM>
<!-- SiteSearch Google -->

Hoy en día, el proceso de gestión de esos pequeños buscadores se encuentra muy simplificado, gracias sobre todo al propio interés de Google puesto que la inserción de estos pequeños códigos le reporta ingresos muy interesantes fundamentalmente por la publicidad insertada en los resultados de búsqueda. De esta forma, es posible crear y gestionar innumerables motores de búsqueda personalizados en el sitio web Google Coop creando motores de búsquedas específicos para sitios web o, por ejemplo, creando motores de búsqueda temáticos agrupando las búsquedas para distintas webs. Finalmente, si disponemos de una cuenta Adsense, Google nos ofrece la posibilidad de compartir los ingresos que puedan generar las consultas a nuestra web mediante la opción Adsense para la búsqueda que genera el código necesario para nuestra caja de búsqueda, pero con incluyendo nuestro identificador de afiliado.

7 comentarios

Sobre la duplicación de contenidos de tu web

Estos últimos días he estado enfrascado en un debate completamente apasionante, muy instructivo, a la vez que divertido, sobre la redifusión de los contenidos de un blog. Desde luego que el tema nos dio para mucho y bien podrían publicarse aquí algunos argumentos interesantes que se pronunciaron, pero aquí nos conformaremos con incidir sobre el tema que nos preocupaba cuando descubrimos la redifusión de los contenidos de nuestro blog: Su duplicación y su posible incidencia en Google.

Los bloguers, al igual que todos los autores, somos especialmente sensibles cuando se encuentran su trabajo en otros sitios web, sean cuales sean las características de los mismos. Aunque muchos adoptan licencias Creative Commons para tratar de fijar sus políticas a la hora de transmitir sus obras, podemos decir que estas licencias son un tanto flexibles y su aplicación depende del momento y las circunstancias del momento. Así, en este misma bitácora, disponemos de una licencia Creative Commons que permite copiar, distribuir y comunicar públicamente la obra; y hacer obras derivadas siempre que se reconozca los créditos de la misma de manera especificada por el autor. Además, al reutilizar o distribuir la obra, tiene que dejar bien claro los términos de la licencia de esta obra, mientras que alguna de estas condiciones puede no aplicarse si no se obtiene el permiso del titular de los derechos de autor y nada en esta licencia menoscaba o restringe los derechos morales del autor.

De hecho, apoyándose en nuestra licencia, ya os contamos el hecho de que Wikilearning estaba redifundiendo nuestros contenidos, algo que nos parecía correcto, sin embargo, el debate que anteriormente os citaba se debía a que un sitio web esta redistribuyendo nuestros contenidos de forma completa y sin nuestro permiso gracias a nuestros feeds. Antes de avanzar, debemos señalaros que el arte del plagio en la Web se denomina Web Scraping y hay formas más o menos graves de esta actividad. No hace rebuscar mucho para encontrar muchos ejemplos en la Blogosfera y os cito algunos a modo de introducción El plagio en los blogs, a modo de actuación Qué hacer cuando duplican nuestro contenido o Qué hacer y cómo enterarte cuando te copian contenido, o a modo de venganza, El increíble caso del blog menguante. Estrictamente, nosotros no nos encontrábamos en un caso de plagio, pero había otros elementos que nos preocupaban.

En general, los bloguers no están para muchas batallas y se conforman con que les reconozcan el trabajo mediante un enlace, en nuestro caso, a pesar de que tenemos los feeds preparados para evitar situaciones desagradables y en este caso de redifusión se nos reconocía el trabajo, queríamos ir un poco más allá. Fundamentalmente, no nos gustaba que se redistribuyese nuestro trabajo de forma indiscriminada y a través de textos completos para evitar la duplicación de nuestros contenidos en la Web porque todos sabemos que Google puede llegar a penalizarnos.

Siempre he considerado que el diálogo siempre es más ilustrativo, así que nos inclinamos por él. Huelga decir que no siempre podemos ser escuchados y siempre quedan otras herramientas para evitar este tipo de situaciones, pero las considero bastante desagradables y yo trataría de no usarlas, porque al final las víctimas son nuestros lectores y, por extensión, nosotros mismos.

De forma específica, recientemente Google editó una guía muy básica para editores web, Optimización para Motores de Búsqueda – Guía de Google para Principiantes, en la que se nos da algunos consejos sobre la duplicidad de contenidos. Así, en el texto se nos indica como consejo:

Crea contenido único y original. Nuevo contenido no sólo hará que tus usuarios actuales vuelvan a tu sitio web, sino que además atraerá nuevas visitas. Evita:

  • rehacer (o copiar) contenido que ya existe, pues aportará muy poco valor añadido a los usuarios
  • tener versiones duplicadas o muy parecidas en tu sitio web (más en contenido duplicado)

Ofrece contenido y servicios exclusivos. Plantéate crear un servicio nuevo y útil y que ningún otro sitio web ofrece. Podrías incluso escribir un artículo de investigación, publicar una exclusiva o sacar provecho de las cualidades de tus usuarios. Puede que otros sitios web tengan falta de recursos o pericia para hacer estas cosas.

Es decir, el contenido original es lo que hace que tus visitantes te lean, te sigan y se suscriban a tus feeds, si pueden encontrarlo por otras vías de forma sistemática, pueden dejar de visitarte. Por otro lado, en la página dedicada al Contenido Duplicado en Google (inglés), se nos señala:

Syndicate carefully: If you syndicate your content on other sites, Google will always show the version we think is most appropriate for users in each given search, which may or may not be the version you’d prefer. However, it is helpful to ensure that each site on which your content is syndicated includes a link back to your original article. You can also ask those who use your syndicated material to block the version on their sites with robots.txt.

Por lo tanto, hay que tener mucho cuidado a la hora de sindicar los contenidos hacia otros sitios web, porque dependiendo de la búsqueda Google podría indicar una página web u otra, y aunque Google considera que un enlace de retorno es suficiente, también señala la necesidad de bloquear los robots hacia las páginas sindicadas para que el contenido no aparezca duplicado.

Finalmente y para vuestra información, os comentaré que diálogo hubo y cada cual expuso sus puntos de vista de forma completamente cordial y razonada. Desgraciadamente, ninguno pudo llevarse el gato al agua y quedó bastante claro que nuestras posturas divergían, pero que se respetaban por lo que esta vez nuestro punto de vista fue respetado sin palabras altisonantes, algo, al fin y al cabo, completamente esperable entre colegas.

Un comentario

Tu cuenta de AdSense de Google ha sido inhabilitada

Hace ya unos meses os anunciábamos que íbamos a insertar publicidad dentro de los contenidos de este blog. Como muchos blogs antes que nosotros, insertamos publicidad como un experimento, como una curiosidad para comprobar hasta dónde se llegaba y cómo funcionaba, aunque otros descubrieron que la publicidad dentro de un blog podía llegar a tener sentido y poder rentabilizar la gestión del formato con algunos ingresos adicionales. No nos engañemos, son muy pocos los bloguers que tienen ingresos interesantes por la inserción de mensajes publicitarios en su sitio, mientras que el resto nos conformamos con generar los suficientes como para que el servidor nos pueda resultar gratuito.

Nuestra elección, además de tener una implantación en el mercado español muy importante, fue Google Adsense. El sistema era sencillo, respaldado por una compañía grande, con una buena cantidad de empresas anunciantes y lo considerábamos como la mejor opción para la generación de ingresos por nuestros contenidos y nuestra temática. Desde un principio, fuimos conscientes de que no queríamos dedicarnos a la realización de post patrocinados ni similares, otras opciones que se habían desarrollado dentro de la Blogosfera, por lo que Adsense nos pareció una opción bastante cómoda atendiendo a nuestras expectativas.

Pues bien, la semana pasada Adsense nos comunicaba que nos deshabilitaba la cuenta, que retiraban de su red de webs y que si deseábamos una reconsideración de esta decisión por parte de Google debíamos ponernos en contacto con ellos a través de un formulario un tanto parco. El hecho es que la semana andaba demasiado atareado para encargarme de estos asuntos, que pueden llegar a ser graves atendiendo las características de otros sitios web, pero lo cierto es que nuestra inhabilitación me pareció una falta de tacto completa por parte de Google.

Porque si bien es cierto que no somos nada ni en cuanto a visitas, ni en cuanto a contenidos, ni del interés que podamos despertar dentro de la blogosfera, desde nuestra parte no habíamos realizado ninguna acción ilegal, ni éramos conscientes de ella, ni habíamos detectado ninguna actividad anómala en nuestro servidor. Además, desde Google no se tuvo la más mínima consideración a la hora de cortar el servicio sin advertirnos del fraude que se estaba produciendo y sin explicaciones nos mandaron un correo tipo Cease & Desist sin ningún aviso previo.

Obviamente, la comunicación con Google es posible, como ya hemos señalado, y tratamos de solucionarlo como bien pudimos. Algo que se hizo con una gran celeridad, es cierto, sin embargo a partir de ese momento hemos comenzado a considerar la realización de otras actividades publicitarias como la integración dentro de una red de blogs más grande (Lo cual no es descartable) o la búsqueda de patrocinadores que puede que nos suponga los mismos ingresos que actualmente estamos recibiendo con el programa publicitario de Google. En fin, que puede ser que la próxima vez nos tengamos que buscar la publicidad por otro lado.

9 comentarios