Saltar al contenido →

Categoría: Internet

El declive de la Wikipedia

La Wikipedia es uno de los ejemplos por antonomasia de la Web 2.0, de la web colaborativa y, por supuesto, de la sabiduría de las masas (Wisdom of the crowd). Son muchos los servicios a terceros que la utilizan como fuente de información empezando por las dos tecnológicas más grandes Google y Apple (Siri). Sin embargo, el éxito y el impacto más que evidente de la Wikipedia son extraños, ya que este proyecto se ha mantenido por una organización sin ánimo de lucro que intermitentemente solicita ayuda a sus usuarios y colaboradores para poder mantener su funcionamiento. La Wikipedia provocó que Microsoft tuviese que cerrar Encarta, mientras que Google lo intentó con su enciclopedia Knol. Las enciclopedias tradicionales se han debatido entre el modelo freemium como el caso de la enciclopedia Britannica que mantiene algunos textos abiertos con publicidad a la vez que mantiene un sistema de suscripción por $70.

Recientemente, la publicación MIT Technology Review publicaba un texto denunciando la agonía de la Wikipedia. Desde 2007, según la publicación, la Wikipedia ha perdido hasta un tercio de sus colaboradores (siempre refiriéndose a su versión inglesa) pasando durante este período de 51.000 a 31.000 y las bajas siguen ascendiendo. Un debate que se mantiene desde 2009 y al que se añaden otros como que esta bajada no ayuda a tapar las miserias de una enciclopedia que ha crecido de forma inorgánica y cuyos artículos frívolos disponen de mayor dedicación que aquellos que son más complejos o que existan más entradas dedicadas a la Antártida que a muchos países africanos. Por otro lado, la calidad de la Wikipedia, atendiendo al criterio de las 1000 entradas que toda enciclopedia debería tener, no pasa de una calidad media.

Sin embargo, los achaques de la Wikipedia no son exclusivos. Cualquier comunidad on-line que disponga de un impacto tan relevante como la enciclopedia colaborativa sufre de ciertas disfuncionalidades como un exceso de burocracia. Para tratar de atajarlo, se incide en que satisfacer a los usuarios más activos es importante, pero no vital y que son estos los que deberían ayudar a los nuevos a adaptarse al medio en vez de tratar de penalizarles.

En 2005, cuando la Wikipedia supuso una bocanada de aire fresco tras el batacazo de las tecnológicas en 2001, comenzó su gran popularidad. Aumentaron sus colaboradores de forma exponencial al mismo tiempo que lo hacían los actos de vandalismo y de falsas entradas (hoax). Para tratar de atajar esas malas actuaciones, desde la organización de la enciclopedia se programaron una serie de bots que se dedicaban a vigilar las modificaciones de las entradas y, ante cualquier alarma, debían avisar a los bibliotecarios. El problema se atajó pronto, sin embargo, este nuevo proceder provocó que los nuevos miembros que se agregaban a la Wikipedia descubriesen que añadir nuevos conocimientos era bastante complicado.

Por otro lado, si los expertos en una materia trataban de realizar aportaciones, descubrían cómo sus esfuerzos podían ser modificados por otros casi inmediatamente. Al final, poder agregar contenidos en la Wikipedia pasó de «la enciclopedia que cualquiera puede editar» a la que «cualquiera que entienda las reglas, socialice, esquive el muro impersonal de rechazo semiautomatizado y siga queriendo contribuir […], puede editar».

Para añadir más leña al fuego, editar la Wikipedia no es sencillo ya que utiliza un lenguaje de marcado (de programación por así decirlo) propio. Desde la enciclopedia, se trató de atajar esa dificultad añadiendo un editor visual que facilitase la tarea, pero los editores tradicionales se rebelaron ya que ese editor aparecía por defecto. Se inició una lucha por su desactivación en la que se buscaban sus fallos y se ponían al descubierto, mientras se justificaba su falta de necesidad, lo que empeoraba la usabilidad de edición de la misma. Parece que, finalmente, podría resultar que los peores enemigos de la Wikipedia son aquellos que se encuentran dentro de ella.

Un comentario

Amazon’s clandestine pack

Muy entretenida la descripción que se hace en Business Week del departamento de Inteligencia Competitiva de Amazon en un largo extracto del libro dedicado a Jeff Bezos The Secrets of Bezos: How Amazon Became the Everything Store. En una simplificación, parece que los analistas de Amazon, además de comportarse como James Bond (sic) y ser definido como grupo clandestino, adquieren productos por toda la Red y se dedican a cronometrar cuánto tardan en recibir la mercancía. Para la empresa estadounidense, un cronómetro y una conexión a Internet es suficiente para establecer un departamento de estas características. Aunque hay que señalar que en la siguiente página se demuestra que el grupo se dedica a algo más que comprar trastos por toda la Web.

Amazon has a clandestine group with a name worthy of a James Bond film: Competitive Intelligence. The team, which operated for years within the finance department under longtime executives Tim Stone and Jason Warnick, focuses in part on buying large volumes of merchandise from other online retailers and measuring the quality and speed of their services—how easy it is to buy, how fast the shipping is, and so forth. The mandate is to investigate whether any rival is doing a better job than Amazon and then present the data to a committee of Bezos and other senior executives, who ensure that the company addresses any emerging threat and catches up quickly.

2 comentarios

Evitando la infoxicación

Desgraciadamente, no existen curas para la infoxicación. Las razones de nuestra ansiedad pueden ser variadas o podemos tratar de sobrellevarla; sin embargo, hoy en día la única forma que podríamos evitarla sería desconectándonos de Internet y convertirnos en una especie de paria social. En cualquier caso, no debemos sucumbir bajo esa ansiedad provocada por el descontrol que sentimos a la hora de recibir tantos estímulos informativos. El control de la información no debe pasar por recibir toda la información de calidad que podamos, sino más bien poder controlar ese flujo de información y sentirnos cómodos con él.

La infoxicación no es un fenómeno reciente ni mucho menos. Alain Toffer popularizó el concepto de “sobrecarga informativa (information overload o infobesity)” en 1970, aunque mucho antes, James G. Miller, en 1960, describió siete técnicas (ha implementar en organizaciones) con las que evitar el consumo intensivo de información ante una avalancha de ella.

  1. Omisión. Como no se puede consumir toda la información que se recibe, lo mejor es ignorarla.
  2. Error. Tratar de responder a los estímulos informativos sin prestarle excesiva atención.
  3. Colas. Poner la información en cola hasta poder prestarle la atención que se merecerían.
  4. Filtrado. Similar a la omisión, aunque en este caso se desecha una parte de la información y se les aplican prioridades para discriminar las unas de las otras.
  5. Empleo de canales paralelos. Se trata de encargar a distintas personas el seguimiento de cada canal de información y que realicen un filtrado.
  6. Aproximación. Tratar de procesar la información de una forma limitada o somera (Skimming).
  7. Escape. Hacer que el consumo de esa información se convierta en el problema de otras personas.

A lo largo del tiempo, se ha prestado especial énfasis a las colas, el empleo de canales paralelos y la aproximación como las mejores maneras de procesar la información. Sin embargo, actualmente, el filtrado es la que más atención ha recibido sobretodo gracias a los recientes desarrollos de la Web 2.0 (Social media, RSS, configuración de alertas, filtrado social de noticias, etc.)

Un comentario

Del outsourcing científico al Science as a Service (SCIaaS)

La revolución de la Web 2.0 nos trajo el concepto de “Cloud Computing” y, por ende, “Software as a Service (SaaS)”. Nuevas palabras que, aunque similares, definen y añaden pequeños matices especificando y diferenciando distintas formas de trabajar. El SaaS y la “Nube” son modelos de distribución de software a los que se accede a través de un navegador e Internet, pero donde el soporte lógico y los datos que se manejan se alojan en servidores de una compañía de tecnologías de información y comunicación. Las principales ventajas de la contratación de SaaS por las empresas son la reducción de costos de entrada en nuevas formas de trabajo y de software, el fomento de la cooperación entre trabajadores, así como favorecer su movilidad.

El concepto de “Science as a service”, rescatado por Renee DiResta y sugerido por Bill St. Arnaud a través del artículo “Accelerating and Democratizing Science through Cloud Based Services” de Ian Foster; trata de aglutinar todos los conceptos anteriores en una nueva manera de hacer Ciencia. La SCIaaS pretende suponer un ahorro de tiempo sin comprometer la calidad de la investigación científica y abarca tanto la contratación de investigadores de forma muy flexible, el alquiler de instalaciones de forma que supongan un ahorro de costos y el desarrollo de la Ciencia de una manera más eficiente, creativa y colaborativa.

Obviamente, lo que se propone en los textos antes citados es el desarrollo de un nuevo modelo de outsourcing que en el campo científico surgió ya en la década de los años 80 y es utilizada sobretodo en el ámbito farmacéutico. Sin embargo, el outsourcing científico desarrollado hasta la fecha es un tanto opaco y bastante caro, además de difícil de encontrar.

Los nuevos modelos desarrollados a calor de la Web 2.0, así como los modelos B2B y B2C pueden ayudara redefinir este outsourcing a través de la creación de Marketplaces donde las instalaciones, los equipos y los profesionales ofrezcan sus servicios a empresas y organizaciones para hacer Ciencia. El ejemplo es el sitio web Science Exchange donde se ofertan y demandan servicios de este tipo de forma abierta y transparente. Este nuevo modelo se encuentra todavía en un estado embrionario, pero ¿sera éste un nuevo modelo de “Open Innovation”?

Comentarios cerrados

Big Data, Twitter y la Library of Congress

No dudéis que el Big Data va a ser trending topic este año. Habrá discusiones de si el término se utilizaba previamente o si simplemente es una buena idea de marketing, ¿no las hubo antes?, pero las discusiones terminológicas en ocasiones obvian la eficiencia y el desarrollo efectivo de las ideas.

Uno de los proyectos más apasionante en torno al Big Data que actualmente se están desarrollando se sitúan justamente en el ámbito bibliotecario. En abril de 2010, the Library of Congress (LoC) de Estados Unidos y Twitter llegaban a un acuerdo para que ésta se hiciese cargo del archivo de todos los tweets que almacenaba la empresa. En total, en ese momento, la biblioteca nacional estadounidense se hacía cargo de 170.000 millones de tweets públicos, 130 terabytes de información que crecían a un ritmo de 140 millones de tweets al día pero que actualmente lo hace más rápido, en torno a 500 millones.

El proyecto, además de la preservación, era ambicioso queriendo poner a disposición de los investigadores una basta fuente documental de hechos desarrollados los últimos años como la Primavera Árabe y que habían utilizado Twitter como correa de transmisión. Desde el punto de vista, periodístico, social e histórico, Twitter se presenta como una fuente primaria basta, pero de datos en crudo, de información dispersa que hay que ir hilvanando para poder obtener conclusiones.

Para tratar de hacer viable la recuperación de información, la LoC ha utilizado técnicas de Big Data desde distintos enfoques. Sin embargo, la biblioteca ha declarado su frustración a la hora de hacer viable la recuperación de la información considerando que las técnicas actuales no están tan avanzadas como la tecnología para crear y distribuir esos datos. Desde la LoC, afirman que si hoy en día las grandes empresas son incapaces de obtener resultados relevantes para las cantidades de información que generan dentro de su actividad diaria, qué puede hacer una organización pública con un presupuesto limitado.

El archivo de Twitter está planteado para que sólo pueda ser utilizado por investigadores, de momento 400 personas han declarado su interés por usarlo, sin embargo la situación actual no es muy prometedora, puesto que al lanzar una consulta, el sistema tardaría 24 horas en ofrecer resultados. Para poder mejorar la eficiencia del sistema, desde la LoC afirman que sería necesaria la inversión de una cantidad mayor de recursos de los que la institución no dispone actualmente, además de existir restricciones presupuestarias por la situación económica actual, por lo que la viabilidad del proyecto a la hora de ofrecer una herramienta útil de recuperación de la información es incierta en un corto plazo.

 

Comentarios cerrados

Revisando las cloacas de Internet

Desgraciadamente, para nuestra sociedad, no todas las profesiones son iguales aunque se traten para el bien común. De hecho, se considera que hay profesiones que son dignas de elogio como el médico o el profesor; mientras que existen otras profesiones que aparentemente no son tan agradables y que se asume que alguien debería irremediablemente hacer como son el caso de enterrador o pocero. Internet es un fiel reflejo de nuestra sociedad, en ocasiones a nuestro pesar, y por supuesto que también existen trabajos que alguien debe de realizar seguramente a su pesar.

Una de ellas, aunque resulte sorprendente, podría ser revisor de aplicaciones en la App Store de Apple. En ella, distintos ingenieros informáticos se dedican a revisar una a una las aplicaciones que se envían para su distribución dentro de la App Store. El drama de estos informáticos consiste en que Apple sigue una política férrea en cuanto a las aplicaciones destinadas a la pornografía y esto en ocasiones no es tenido cuenta por los desarrolladores que incansablemente lanzan aplicaciones de este tipo para su revisión. El resultado es la denuncia de Mike Lee, antiguo ingeniero senior de Apple, respecto al trabajo que realizan los revisores que tienen que estar filtrando continuamente aplicaciones dedicadas a los genitales masculinos.

Desde luego que existen trabajos aún peores, aunque parezcan igual de inocentes. Como, por ejemplo, revisor de resultados de Google. He de señalar que esta situación la viví personalmente, cuando trabajé durante unos meses como Quality Rater para Google. Mi trabajo consistía en revisar los resultados que ofrecía el algoritmo ante distintas consultas y, en ocasiones, los resultados eran bastante desagradables. Debo decir que en ese momento no eran tan duros, ni siquiera se acercaban al relato que un subcontratado de Google denunció hace unas semanas.

Él tuvo que enfrentarse a escenas de decapitaciones, zoofilia o pederastia. Escenas que empezaron a turbarle tan profundamente que necesitó asistencia psicológica y finalmente fue despedido a los nueve meses. Estos infames contenidos deben ser dados de baja a las 24 horas de su denuncia, pero obviamente se generan continuamente y, por lo visto, en YouTube es aún peor.

Por lo visto, la miseria humana también alcanza las herramientas que utilizamos todos los días de forma casi inconsciente.

Comentarios cerrados

La dicotomía del grupo PRISA: «El Huffington Post» y «El País», dos productos diferenciados para los nuevos tiempos

No son buenos tiempos para los medios de comunicación. En España, la llegada de la crisis económica los ha situado en serios aprietos económicos debido a que durante los años de bonanza muchos de ellos habían apostado por aventuras multimedia de las que algunos han tenido que desinvertir para sobrevivir. Las noticias de Expedientes de Regulación de Empleo (EREs) en los medios y agencias de comunicación de todo color político y soporte de difusión se suceden mes a mes. Mientras, las perspectivas no mejoran en ningún sentido, indicando las previsiones que se producirá un empeoramiento de la situación de los balances de situación de las empresas editoras al menos hasta que pase el verano.

Sin embargo, a pesar de tratarse de un sector en una reconversión industrial brutal, existen apuestas por la experimentación y los nuevos formatos. Tanto de periodistas muy activos en la Internet española como medios de comunicación que surgen de o bien periodistas afectados por estos EREs o bien de nuevos periodistas recién salidos de las facultades de información tratan de establecerse de forma independiente y con bajas inversiones. Pero también las grandes empresas editoras arriesgan con nuevos formatos, eso sí, extienden cheques y adquieren know-how y marcas. Éste es el caso del grupo PRISA y su El Huffington Post (HuffPo).

El grupo PRISA adquiere a Arianna Huffington no sólo la marca y la plantilla, además del 50% de la sociedad creada para albergar el proyecto empresarial del HuffPo español, si no también su know-how de forma que los periodistas de su versión americana enseñan a sus homólogos españoles cuáles han sido sus casos de éxito.

Desgraciadamente el nacimiento del HuffPo no podría traer sino polémica. Su versión americana nació de la agenda de Arianna Huffington y las redes de contactos que ya tenía establecidos previamente. De esta manera, invitó a personajes populares a abrir su blog dentro de su sitio web, el HuffPo, para posteriormente incorporar a profesionales. El HuffPo americano dispone de una plantilla de 200 personas a los que habría que añadir los miles de colaboradores que no cobran por su trabajo pero que publican sus textos e informaciones dentro del HuffPo y que se sintieron profundamente molestos cuando Arianna vendió su nuevo medio de comunicación a AOL por lo que cobró una buena suma, mientras que sus colaboradores no vieron un dólar.

En el caso español, tras la agitación y propaganda desarrollada por PRISA, para la adquisición de la marca y su puesta en marcha en el ámbito hispano (el HuffPo tiene ediciones en Francia, Gran Bretaña y espera establecerse en breve en Canadá e Italia) del nuevo medio sólo pudo provocar recelos y desconfianzas de un proyecto que bebía de las fuentes de su hermana mayor americana. Una plantilla de ocho periodistas con un buen puñado de colaboradores que no cobrarían por sus trabajos. Algunos consideraron que el HuffPo atacaba a los periodistas y una forma de entender la profesión lo que encendió los ánimos en la Red.

PRISA, editora de uno de los diarios más importantes de España, no quería tirar piedras sobre su propio tejado. El HuffPo era una nueva forma de generar audiencias e información, pero no podía ser competencia directa de El País en cuanto calidad. De hecho, El País dispone de una muy buena red de blogs de expertos y colaboradores. Su primer día en la Red atrajo muchas miradas y también infinidad de críticas empezando por el montaje de la fotografía que abría su portada que algunos consideraron de muy baja calidad. El cineasta Alex de la Iglesia hizo llegar ese malestar que percibía a través de Twitter a Montserrat Domínguez. Muchos profesionales de la comunicación están molestos con este nuevo proyecto que venía a sumarse a un sector enfermo como puntilla. Finalmente, tengo que reseñar aquí las distintas misivas que se entrecruzaron Montserrat Domínguez y el periodista Javier Pérez de Albéniz del medio digital  Cuarto Poder con réplicas y contra réplicas:

Espadas en alto para un sector demasiado vapuleado por demasiados frentes. En cualquier caso, el HuffPo español no sólo tiene que enfrentarse a los recelos de todo un colectivo, si no que hay que tener presente que España como mercado no es Estados Unidos, que el HuffPo nació en 2005 y han pasado siete años desde entonces; y que hacerse un hueco a la sombra de El País va a ser terriblemente complicado aunque se trate de diferenciar productos. Y más teniendo presente el estado de ánimo del sector informativo español, en el que incluso para el Consejero Delegado de PRISA, Juan Luis Cebrián, los medios de comunicación están muertos ya.

Un comentario