sociedad — 15 Febrero, 2012 at 9:00

Lo que Internet esconde (II parte)

by
Ir a la primera parte.

La burbuja de filtros

http://www.plataformaarquitectura.cl/2010/11/29/la-burbuja-de-lo-intrascendente/
Foto de www.plataformaarquitectura.cl

El código de la nueva red es bastante sencillo. Los filtros de nueva generación vigilan las cosas que nos gustan —basándose en lo que hemos hecho o lo que les gusta a las personas semejantes a nosotros— y después extrapolan la información.

Son capaces de hacer predicciones, para crear y modelar constantemente: quienes somos, qué hacemos y lo que queremos.

Juntos, filtran un universo de información específica para cada uno de nosotros, una “burbuja de filtros” que altera la manera en que entramos en contacto con las ideas y la información.

 

De un modo u otro todos siempre hemos elegido las cosas que nos interesan e ignorado el resto. Pero la burbuja de filtros introduce tres nuevas dinámicas.

En primer lugar, estamos solos en su interior. Un canal de cable dedicado a quienes les interesa específicamente, por ejemplo el golf, tiene otros espectadores que comparten cosas en común. Sin embargo, en la burbuja estamos solos. En una época en que la información compartida es la base de experiencias compartidas, la burbuja de filtros es una fuerza centrífuga que nos divide.

En segundo lugar, la burbuja es invisible. La mayor parte de las personas que consulta fuentes de noticias de derecha o de izquierda sabe que esa información está dirigida a quienes tienen una orientación política determinada. Pero Google no es tan transparente. No nos dice qué piensa o por qué nos muestra los resultados que vemos.

Nosotrxs no decidimos lo que vemos, y sobre todo, no aparece todo lo que se publica.

No sabemos si está haciendo suposiciones acertadas o no sobre nosotros, ni siquiera si las está haciendo. Mi amigo, que buscaba noticias acerca de BP, no tiene ni idea de por qué encontró información acerca de las inversiones, no es un agente de bolsa. Dado que no hemos elegido los criterios con que los sitios filtran la información entrante y saliente, es fácil imaginar que la que nos llega a través de la burbuja es objetiva y neutral. Pero no es así. De hecho, desde el interior de la burbuja es casi imposible darse cuenta de cuánta información existe.

Finalmente, nosotros no decidimos entrar en la burbuja. Cuando vemos Fox News o leemos The New Statesman, ya hemos decidido que filtro utilizar para interpretar el mundo. Es un proceso activo, y como si nos pusieramos voluntariamente un par de lentes de colores, sabemos muy bien que las opiniones de los periodistas condicionan nuestra percepción del mundo. Pero en el caso de los filtros personalizados no hacemos el mismo tipo de elección. Vienen a nosotros, y dado que se perfeccionan, será cada vez más difíciles evitarlos. El fin del espacio público.

La personalización se basa en un acuerdo económico. A cambio del servicio que ofrecen los filtros, regalamos a las grandes empresas una enorme cantidad de datos sobre nuestra vida privada.

 

Eli Pariser en Democracy Now!:1

“La burbuja de los filtros: lo que Internet te oculta”2

 

 

Estas empresas cada vez están más dispuestas a usarlos para tomar decisiones. Pero no tenemos ninguna garantía de que los traten cuidadosamente, y cuando sobre la base de estos datos se toman decisiones que nos afectan negativamente, nadie nos lo dice. La burbuja de filtros puede influir sobre nuestra capacidad de elegir cómo queremos vivir. Según Yochai Benkler, profesor de derecho en Harvard y estudioso de la nueva economía de la red, para ser artífices de nuestras vidas debemos ser conscientes de las alternativas.

Cuando entramos en la burbuja de los filtros, permitimos a las empresas que la construyen elegir qué alternativas podemos considerar. Nos ilusionamos con ser dueños de nuestro destino, pero

la personalización puede producir una especie de determinismo de la información, en que lo que hemos cliqueado en el pasado determina lo que vamos a ver en el futuro, una historia diseñada para repetirse indefinidamente.

Nos exponemos a permanecer atascados en una versión estática y cada vez más reducida de nosotros mismos, una especie de círculo vicioso.

El Capital Social

También hay consecuencias más amplias. Robert Putnam en su Capital social y el individualismo, el libro sobre la decadencia del sentido cívico en América, afronta el problema del agotamiento del ‘capital social’, es decir, de los lazos de confianza y reciprocidad que llevan a las personas a devolverse favores y a colaborar para resolver problemas comunes.

Putnam identifica dos tipos de capital social: “El espíritu de grupo”, que, por ejemplo, se crea entre los ex estudiantes de la propia Universidad, y el “sentido de la comunidad”, que, por ejemplo, se crea cuando personas diversas se encuentran en una asamblea pública. Este segundo tipo de capital es muy potente: si lo acumulamos, tenemos más probabilidades de encontrar un puesto de trabajo o alguien dispuesto a invertir en nuestra empresa, porque nos permite atender a tantas redes diversas.

http://davidruyet.wordpress.com/2011/09/14/friedman-xviii/
Foto de davidruyet.wordpress.com

Todos esperabamos que Internet fuera una gran fuente de capital de este segundo tipo. En el apogeo de la burbuja tecnológica hace diez años, Thomas L. Friedman escribía que internet se convertiría en “una comunidad de vecinos”. Esta idea fue la base de su libro Las raíces del futuro: “Internet se convertirá en un gran dispositivo con que contará el sistema de la globalización hasta hacer el mundo cada día más pequeño y veloz”.

Friedman tenía en mente un especie de aldea global en la que los niños africanos y los hombres de negocios de Nueva York formarían una sola comunidad. Pero no es eso lo que está pasando. Nuestros vecinos virtuales se parecen cada vez más a los reales, y nuestros vecinos reales se parecen cada vez más a nosotros.

Tenemos cada vez más “espíritu de grupo” pero poquísimo “sentido de la comunidad”. Y esto es importante porque del sentido de comunidad nace nuestra idea de un “espacio público” en el que tratamos de resolver los problemas que van más allá de nuestros intereses personales.

Normalmente tendemos a reaccionar a una serie de estímulos muy limitados: leemos antes una noticia sobre sexo, política, violencia, famosos, o que nos hace reir. Este es el tipo de contenido que entra más fácilmente en la burbuja de filtros. Es fácil hacer clic en “me gusta” y aumentar la visibilidad del post de un amigo que ha participado en una maratón o ha hecho una receta de sopa de cebolla.

Pero es mucho más difícil hacer clic en “me gusta” en un artículo titulado “Ha sido el mes más sangriento de los últimos dos años en Darfur”. En un mundo personalizado, hay pocas probabilidades de que cuestiones importantes, complejas y desagradables, llamen nuestra atención.

Todo esto no seria particularmente preocupante si la información que entra y sale de nuestro universo personal solo tuviera que ver con productos de consumo. Pero cuando la personalización también incumbe a nuestros pensamientos surgen otros problemas.

No existe el algoritmo de la ética periodística.

La democracia depende de la capacidad de los ciudadanos para hacer frente a puntos de vista diferentes. Cuando sólo nos ofrece información que refleja nuestras opiniones, Internet limita esta confrontación. Aunque si a veces se nos hace cómodo para ver lo que queremos, en otras ocasiones es importante que no sea así.
Foto de insidetiger.blogspot.com

 

Como los viejos guardianes de las puertas de la ciudad, los técnicos que escriben nuevos códigos tienen el enorme poder de determinar lo que sabemos del mundo. Pero a diferencia de aquellos guardianes, los de hoy no se sienten defensores del bien público. No existe el algoritmo de la ética periodística.

Una vez Mark Zuckerberg, el fundador de Facebook, dijo a sus colegas que para un usuario “una ardilla que muere en su jardín puede ser más relevante que todas las personas que mueren en África”. En Facebook, la “relevancia” es prácticamente el único criterio que determina lo que ven los usuarios. Concentrarse en las noticias más relevantes a nivel personal, como la ardilla muerta, es una gran estrategia de mercado pero nos deja ver sólo nuestro jardín y no las personas que sufren, mueren o luchan por la libertad en otros lugares.

 

No es posible volver al antiguo sistema de los guardianes, y tampoco sería justo, pero si ahora son los algoritmos los que toman las decisiones y determinan lo que vemos, debemos estar seguros de que las variables de que disponemos van más allá de la estrecha “relevancia” personal. Deben hacernos ver Afganistán y Libia, no solo Apple y nuestro cantante favorito.

Como consumidores no es difícil determinar lo que para nosotros es irrelevante o poco interesante. Pero lo que es bueno para un consumidor no tiene por qué serlo para un ciudadano. No quiere decirse que lo que aparentemente nos gusta sea lo que realmente queremos, y mucho menos que sea lo que debemos saber para ser ciudadanos informados de una comunidad o un país.

“Es nuestro deber como ciudadanos estar informados también sobre las cosas que parecen no merecer nuestro interés”, según el experto en tecnología Clive Thompson. El crítico Lee Siegel lo dice de otra manera: “Los clientes siempre tienen razón, las personas no”.

Lobotomía global.

La era de la personalización está poniendo todas nuestas expectativas en Internet. Los creadores de la red han imaginado algo más grande y más importante que un sistema mundial para compartir imágenes de nuestro gato. El manifiesto de Electronic Frontier Foundation al inicio de los años 90, hablaba de una “cultura de la mente en el ciberespacio”, una especie de metacerebro global. Pero los filtros personalizados cambian las sinapsis del cerebro. Sin saberlo, nos estamos haciendo una lobotomía global.
Hombre de negocios mirando gráfica.
Foto de contenidosweb.

 

Los primeros entusiastas de Internet, como el creador de la web Tim Berners-Lee, esperaban que la red sería una nueva plataforma desde la cual afrontar juntos los problemas del mundo.

Creo que todavía puede serlo, pero antes debemos mirar entre bastidores, comprender qué fuerzas están impulsando la dirección actual.

Tenemos que desenmascarar el código y sus responsables, a quienes nos han dado la personalización.

Si “código es ley”, como ha declarado el fundador de Creative Commons Larry Lessig, es importante comprender lo que están intentando hacer los nuevos legisladores. Debemos saber qué creen los programadores de Google y Facebook. Debemos entender qué fuerzas sociales y económicas están detrás de la personalización, cuáles son inevitables y cuáles no. Y tenemos que pensar qué significa todo esto para la política, la cultura y nuestro futuro. Las empresas que utilizan los algoritmos deben asumir esta responsabilidad. Deben dejarnos el control de lo que vemos, diciéndonos claramente cuándo están personalizando y permitiéndonos modificar nuestros filtros.

Pero también nosotros debemos hacer nuestra parte, aprender a “conocer los filtros” para usarlos bien y pedir contenidos que aumenten nuestros horizontes, incluso cuando sean desagradables. Es por nuestro interés colectivo que tenemos que asegurarnos que internet expresa todo su potencial de medio revolucionario. Pero no podrá hacerlo si permanecemos encerrados en nuestro mundo online personalizado.

Eli Pariser

Nació en 1980 en Lincolnville, Maine. Ha sido el director de MoveOn.org, que agrupa los movimientos de base de la izquierda estadounidense, y uno de los fundadores de Avaaz, una organización que apoya campañas para el medio ambiente y la democracia en todo el mundo. En febrero de 2011 tuvo lugar una Conferencia Ted sobre la burbuja de filtros, con el argumento de su libro The filter bubble.

Ted Talk sobre la burbuja de filtros. Eli Pariser.

 

TG Facebook Comments

6 Comments

  1. ñOCO Le bOLO

    Una entrada que debiera ser leída por todos los usuarios de la red, para saber en que mundo nos estamos metiendo y actuar reponsablemente.

Leave a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *