Blog

Facebook y el monopolio la información: ¿Cómo controlar la opinión desde una habitación oscura?

El 27 de julio de 2017 a las 20:53, mientras preparaba la cena y escuchaba las noticias con la televisión de fondo, entré a Facebook y leí:

“Argentina = Corrupistán”

Recién había terminado una votación en la Cámara de diputados que definiría la expulsión de un ex ministro sospechado de corrupción, ahora en un cargo de legislador nacional. La sesión había sido convocada por el oficialismo en el Gobierno durante el receso invernal del Congreso durante de una reñida campaña electoral de medio término. Pero había fracasado. El acusado, señalado por inhabilidad moral para ejercer la política, seguiría en su banca. Sus denunciantes no habían reunido los dos tercios de los votos necesarios.

Desde Europa, una antigua compañera de trabajo argentina con quien ahora mantengo contacto de Facebook, estaba indignada. Siguiendo las noticias del sur del mundo desde su pueblo armonioso con su marido inglés, mi vieja amistad explicaba su furia en el muro a otra extranjera curiosa por su enojo:

“Es que en mi país hacer las cosas bien está subvalorado. Lo fundamental es hacerlas menos mal. Mediocrity suits us well (La mediocridad nos calza bien)”.

En la cocina, me limpié el pulgar con el repasador y lo llevé a la pantalla del celular. Lo moví indecisa. Podía hacer clic en el botón “Comentar” y escribirle algo como “¿No debería ocuparse la Justicia de determinar si es culpable o no? ¿Dónde queda la separación de poderes que a los republicanos les gusta tanto?”. Mi acotación sería honesta: probablemente, ese ministro tuviera que dar algunas explicaciones en los tribunales, pero la puesta en escena de esa noche era una más de las teatralizaciones de la política que escondían otros temas más urgentes. Esa era mi opinión en mi cocina porteña. La de ella, en su living francés, era otra.

A esa lejanía política también respondía mi ira, mi arrebato por comentar su comentario despectivo. Con mis modales de lado, mi sinceridad le quería arruinar su muro con algo así: “¿Qué opinás vos, desde tu platea lejana y cómoda, sobre nuestros espectáculos locales? ¿Quién te asignó el lugar del emperador para criticar nuestro coliseo autóctono?”.

Dejé que la irritación se fuera y opté por entrar a los perfiles de cada persona que había anotado un “Me gusta” en su comentario de desprecio a nuestro país.

El primero era un indignado crónico de las corrupciones argentinas, que publicaba encuestas de procedencia dudosa mientras se mostraba feliz en casinos de Dubai. El segundo era un amante de la vida gauchesca y los caballos que publicaba memes de la ex presidenta argentina con siliconas extra large y la comparaba con Adolf Hitler. La tercera era jugadora compulsiva de Bubble Epic y compartidora serial de solicitadas de change.org: para remover las menciones al Che Guevara en Rosario, para desalojar las protestas sociales, para salvar los bosques. El siguiente era un fotógrafo iraquí de zonas en conflicto que parecía vivir ahora en Londres. Una serbia, también amante de la fotografía, sin ideología visible. Una alemana o austríaca sin permisos de privacidad para conocer más sobre ella. Y una amiga en común, también argentina y propensa a la indignación fácil frente a la corrupción ajena, parte del rincón de las amistades residuales que conservamos en Facebook. ¿Qué tenía que ver yo con todos ellos? ¿Qué tenían que ver mis ideas con ellos?

Antes de comentar, volví a recorrer el muro: algunos paisajes lindos, más pedidos a change.org por motivos ecológicos y una nota del New York Times sobre las mujeres que reivindican su derecho a no ser madres. En los comentarios, la inglesa Amanda decía:

“Sobre todo, cuando viajo por el tercer mundo, las mujeres no tienen idea. Me preguntan cómo he vivido tantos años sin un hombre. ¡Muy feliz!”.

Tercer mundo. Colonialismo. Superioridad cultural. “Lo que faltaba”, pensé. Cerré el Facebook y me serví un poco vino. Mientras acomodaba los platos conté los años en que no veía a esa ¿amiga? Debían ser ocho. Nuestras vidas, incluso nuestras ideas, seguro habían tomado caminos distintos. Me cuestioné entonces por perder tiempo en responder a su comentario y por entender la sociología de los contactos que avalaban su postura con un like, sin saber mucho de nuestro país. Lo mejor era eliminarla de Facebook y terminar con el problema. Pero no lo hice. En cambio, repasé ideas viejas, tal vez aprendidas en la escuela o en la universidad, acerca de exponerse a pensamientos distintos al propio. Me hice preguntas bien intencionadas sobre la pluralidad y la tolerancia, de esas que tanto les gustan a los panelistas de televisión. Revisé mis argumentos para convivir con la diferencia. Hasta que llegué a una pregunta extrema: ¿Qué pasaría si sacamos de nuestra vista todo lo que nos molesta, ahora que la tecnología nos da la opción de personalizar nuestros muros y pantallas y evitar lo que nos molesta?

Por suerte, el monólogo racional duró poco. En unos segundos había vuelto a mi normalidad. Nunca fui de las que creen en la fábula del acuerdo democrático unívoco ni en la fe de “tirar todos para el mismo lado”. Tampoco, que en las redes sociales todo tenga que ser diálogo, paz y una humanidad sin grietas. Las luchas y los conflictos que llevan al cambio son mi fe política.  Sin embargo, frente al celular, mirando el comentar, el responder o el eliminar, me sucede lo mismo que a muchos. Me quedo unos segundos en silencio, pienso en los pro y los contra, en “terminar con una amistad” (por más virtual que sea), en conversar y llegar a un acuerdo. Pienso hasta en perder tiempo y preguntarle a la otra persona por qué escribe eso.

Mi duda sobre si comenzar o no una discusión en las redes sociales es común a mucha gente. Desde que consumimos cada vez más información a través de ellas, nuestras opiniones políticas también están allí.

Durante un tiempo, las redes sociales se nos presentaron como un espacio de diálogo para conocer más opiniones y mejorar el mundo. La famosa idea de la  “democratización” acompañó a internet y presentó a la Red como un nuevo territorio donde podía reinar la paz. Pero el mito se derrumbó a medida que las redes se transformaron en otro espacio de lucha. La visión liberal de los ciudadanos más conectados como una forma de evitar las guerras -herencia de la tradición kantiana y las instituciones como la ONU- abrió paso a una concepción más realista, donde la humanidad -legado hobbesiano y luego marxista- se enfrenta en conflictos, que las redes hoy no hacen más que reflejar.

“La guerra se hace viral: Las redes sociales están siendo usadas como armas a lo largo del mundo”, se aterraba en una tapa de 2016 The Atlantic, una de las publicaciones de análisis periodístico más importantes del mundo. “La guerra, como lo dijo el famoso teórico militar del siglo XIX, Carl von Clausewitz, es simplemente la continuación de la política por otros medios. Las redes sociales, al democratizar la difusión de la información y borrar los límites del tiempo y la distancia, expandieron los medios, llevando el alcance de la guerra hacia lugares que no veíamos desde el advenimiento del telégrafo”, escribían los autores del artículo ilustrado con un pajarito de Twitter tomado como rehén con una granada atada a su cuerpo frágil.

Fue especialmente en el mundo anglosajón donde la violencia de las redes creó un pánico moral que se preguntó si la mezcla de la tecnología con la política no sería un trago demasiado peligroso para la paz. La alerta escaló durante 2016 y 2017. Pero más allá del síntoma, la preocupación también nos permitió hacernos nuevas preguntas respecto de cómo las redes sociales cambiaron la relación entre los medios y la sociedad.

 

Facebook, el guardián oscuro de la información

La información está concentrada en grandes monopolios. La red social Facebook y el motor de búsqueda de Google hoy son los nuevos guardianes o gatekeepers de las noticias. El concepto de gatekeepers, instituido por el psicólogo social Kurt Lewin en 1943, se usa desde entonces para entender que lo que publican los medios pasa por una serie de filtros de poder: directores, propietarios, editores, periodistas y anunciantes. Qué información se publica o cuál no, en qué lugar, con qué despliegue e importancia, en qué sección, depende de esas relaciones de poder más que de una objetividad periodística.

Ese poder de regular lo que vemos o no como noticias es una de las razones por las que Mark Zuckerberg es uno de los hombres más influyentes del mundo y su marca, Facebook, se volvió más valiosa que otras antes icónicas como General Electric, Marlboro o Coca-Cola. Con esta última bebida, además, la red social tiene una hermandad en el secreto. En 1886, el farmacéutico de Knoxville John Pemberton patentó la fórmula secreta de la Coca-Cola y construyó su imperio en base a una serie de ingredientes que sólo él conocía. En 2003, el neoyorkino Mark Elliot Zuckeberg creó una empresa a partir de un sitio de fotos de estudiantes y un algoritmo que permanece oculto pero que se volvió esencial para la vida de sus dos mil millones de usuarios en el mundo.

Además de Computación, Zuckerberg estudió Psicología. La clave de la adicción que ejerce Facebook sobre nuestra atención está en el corazón de su interfaz y su código. “Está diseñado para explotar las vulnerabilidades de la psicología humana”, dijo Sean Parker, el primer presidente de la empresa. “Las redes sociales se diseñan pensando ¿Cómo consumir la mayor cantidad de tiempo y atención posible de los usuarios? Eso se hace dándote un poquito de dopamina cada tanto, cuando alguien pone me gusta o comenta una foto o un posteo. Eso te lleva a querer sumar a vos tu propio contenido, para conseguir un feedback de validación social”, explicó Parker. Desde esos inicios hasta hoy, ese poder se amplificó tanto que hoy ya se habla de las redes sociales como de una nueva epidemia de tabaquismo, que por ahora avanza sin gran preocupación pero quizá sea un futuro problema de salud pública. Los efectos negativos en nuestra salud mental y física ya están comprobados en estudios científicos a gran escala de universidades de todo el mundo, y también  por el propio departamento de Ciencia de Datos de Facebook en sus experimentos de manipulación de nuestras emociones.

El siguiente riesgo de la gran red social -y tal vez el que logre desacralizar su lugar positivo en nuestras vidas- es su impacto en la sociedad y la política.

Facebook hoy es el sitio al que 2200 millones de personas -un tercio del mundo- entramos todos los días para informarnos, ver qué están haciendo los demás, encontrar pareja, quejarnos del clima, de los precios, de los políticos o publicar una foto de sus hijos o su gato. También llegamos a nuestros muros para encontrar información, que ya no buscamos únicamente en la televisión o tipeando el nombre de un sitio de noticias, sino tomando el atajo de un lugar donde está todo y todos. Conscientes de este poder, los políticos y sus asesores de campaña también alimentan a la gran red social con sus mensajes.

Facebook es el tercer sitio y la primera red social más visitada del planeta. En Argentina, es el sitio número 1 en visitas, algo que se repite en Perú, Ecuador, Paraguay, Colombia, México, Guatemala, El Salvador, Costa Rica, Panamá, República Dominicana, Jamaica, Honduras, Trinidad y Tobago, Marruecos, Egipto, Senegal, Libia, Túnez, Ghana, Costa de Marfil, Burkina Faso, Argelia, Sudán, Yemen, Qatar, Arabia Saudita, Jordania, Líbano, Kuwait, Irak, Serbia, Albania, Bosnia-Herzegovina, Pakistán, Afganistán, Azerbaiyán, Georgia, Nepal, Bangladesh, Sri Lanka, Filipinas, Mongolia, Noruega e Islandia. En el resto del mapa domina Google, excepto en China donde lo hace Badiu, en Rusia donde lo hace Yandex, y en Japón y Taiwán donde reina Yahoo!

Si le sumamos sus otras propiedades, WhatsApp (1.300 millones de usuarios) e Instagram (700 millones), sus interacciones llegan a las de 4.000 millones de personas y sus ganancias se incrementan. Sus usuarios pasan cada vez más tiempo en esas plataformas, por lo tanto, ven más avisos publicitarios, que equivalen al 63 por ciento de los ingresos de la compañía.  La gente se siente tan cómoda dentro de la plataforma que la interacción aumenta cuantas más personas se unen a ella, al contrario de lo que le sucede a otras compañías con sus productos, en los que el interés decae luego de la novedad inicial. En 2012, cuando Facebook llegó a mil millones de usuarios, el 55 por ciento de ellos lo utilizaban todos los días. En 2017, con dos mil millones, el uso diario trepó al 66 por ciento. Y su número de consumidores sigue creciendo un 18 por ciento al año.

En junio de 2017, cuando pasó la meta de más de dos mil millones de personas conectadas a su matrix de la atención permanente, Zuckerberg hizo un anuncio: la misión de su empresa dejaría de ser “hacer al mundo más abierto y conectado” y pasaría a ser “dar a la gente el poder de construir comunidad y acercar al mundo”. El cambio no fue casual. Con tanto poder, el dueño de la red social también comenzó a sentir sobre sus hombros una gran responsabilidad. Él mismo empezaba a entender que tanto poder junto también significaba una posibilidad de hacer el mal. Y él quería quedar del lado del bien.

Pero ya era tarde. Con el crecimiento de su corporación, llegaron las críticas a su rol en la sociedad y como causante de algunos problemas de la política y democracia. La capacidad de su compañía para segmentar los públicos a partir de preferencias detalladas, que podían llegar a incluir odio racial, sexual y religioso, y manipulación de las personas para hacerlas creer en noticias falsas o votar a candidatos en base a mentiras lo ubicó en el banquillo de los acusados.

La herramienta de publicidad más poderosa de la historia también podía ser usada para conducir a la sociedad por caminos oscuros. También, y especialmente, porque su empresa se negaba a dar a conocer la fórmula secreta con la que ordena la información y nos muestra noticias y publicidades. Ante cada acusación, Mark Zuckerberg y sus equipos de relaciones públicas se defendían y daban un paso adelante para corregir el daño. Pero a la siguiente evidencia de manipulación se descubrían nuevas formas en las que la empresa modificaba el algoritmo para maniobrar con los sentimientos de las personas.

Luego del triunfo de Donald Trump en las elecciones de 2016 en Estados Unidos, Facebook recibió la acusación más grave. O al menos la que recorrió el mundo más rápidamente. La red social fue señalada por haber contribuido a multiplicar las noticias falsas y, con ello, a aumentar la polarización de una sociedad ya dividida, especialmente por conflictos raciales. Más que unir a la sociedad, su diseño algorítmico nos hacía convivir con otros en burbujas cerradas y desde allí lanzar catapultas llenas de odio a los que no pensaran como nosotros.

La acusación unió a grupos muy distintos en un mismo frente. Los políticos, los periodistas, los medios y los mismos usuarios comenzaron a entender que, aun cuando les podía servir para sus fines particulares, el espacio de las redes tenía un lado oscuro plagado de mentiras y noticias falsas. El auge de las noticias falsas o la posverdad como palabra fetiche de la época se convirtieron en la explicación de todos los males, incluso de los problemas de la misma democracia. Los errores de la Matrix (el triunfo de un xenófobo como Trump o la inesperada victoria del separatismo inglés con el Brexit de la Unión Europea) parecían tener un culpable en internet, en especial en las redes sociales que profundizaban nuestros odios. Las propuestas para solucionar el problema llegaron, también, en cantidad y con urgencia: sumar editores humanos a los algoritmos, revisar la responsabilidad de la prensa y todo tipo de creadores de noticias difundiendo informaciones con distintos grados de falsedad, crear nuevas herramientas dentro de la misma plataforma para denunciar contenidos apócrifos, generar organizaciones ad-hoc para monitorear el comportamiento de la red social.

Sin embargo, pocos hablaron del verdadero problema que tiene Facebook: su falta de transparencia. Con noticias verdaderas o falsas provenientes de otros medios o fuentes externas a su plataforma, la empresa de Mark Zuckerberg todavía no explica cómo funciona su algoritmo, es decir, el mecanismo con el que decide qué vemos y qué no. Tampoco, por qué, con una frecuencia cada vez mayor, algunos contenidos desaparecen de los muros de sus usuarios sin infringir las normas (por ejemplo, sin publicar imágenes de violencia), dando sospecha a acciones de censura por motivos políticos o ideológicos.

Con estas dudas sobre sí y mientras el mundo debatía si Facebook se había vuelto peligrosamente grande en su poder de manipular nuestras ideas, durante 2017 Mark Zuckerberg se dedicó a recorrer cada uno de los 50 estados de su país. Como un candidato a presidente en campaña, visitó a una familia de granjeros en Blanchardville, Wisconsin, una comunidad de una iglesia metodista que había sufrido una masacre racial en Charleston, Carolina del Sur; participó de una reunión con adictos a la heroína en recuperación en Dayton, Ohio, y así continuó con cada lugar del Estados Unidos profundo, en especial llegando a iglesias y centros comunitarios donde, según sus palabras, quería ver cómo “vive, trabaja y piensa la gente sobre su futuro”. En medio de su día de trabajo en el cuartel general de Facebook en Menlo Park California, se subía a su avión privado con un pequeño grupo de colaboradores de su empresa y su ONG Chan Zuckerberg Initiative, para “reconectarse con las cosas que se le habían pasado de largo” en los diez años que dedicó a construir su imperio, y con esos viajes sumar algunas fotos humanas en su cuenta de Instagram @zuck, tras las crecientes acusaciones a la responsabilidad política de su compañía. Además, continuó con los actos de filantropía en educación, ciencias y salud en los países más pobres del planeta y tuvo a su segunda hija, August, a quien bautizó con nombre femenino del primer y más longevo emperador romano (y como él, especialista en disfrazar un régimen conservador con lenguaje republicano).

Con ese ruidoso plan de marketing desplegado para el gran público, Zuckerberg mantuvo el silencio sobre cómo su empresa maneja ese lugar en el que cada usuario vive 50 minutos de su día.

Mientras Zuckerberg decide si hace menos oscura su compañía, hay cuatro aspectos fundamentales que nos permiten comprender cómo Facebook nos está afectando políticamente.

El primero es tecnológico-económico y nos ayuda a entender cómo, al tiempo que el algoritmo de Facebook personaliza lo que vemos y nos ayuda a elegir la información más relevante para nosotros, también nos encierra en burbujas con consecuencias sociales, políticas y culturales.

El segundo son los efectos políticos, que nos permiten comprender cómo las redes sociales profundizaron nuestros prejuicios y cómo las plataformas tecnológicas nos están obligando a vivir en mundos cada vez más parecidos, limitando nuestra posibilidad de acceder a novedades o a opiniones distintas a las nuestras.

El tercero es el rol de las redes sociales como intermediarias de la información y cómo su gran poder concentrado está comenzando a afectar a la democracia, pero también generando nuevas formas activismo en los medios sociales.

El cuarto es la falta de transparencia de Facebook respecto de cómo usa su algoritmo para manipular nuestra vida, que convive con nuestra voluntad o falta de precaución para entregarle información.

 

Un problema viejo, un monopolio nuevo

¿Cuántas veces se mencionaron las palabras noticias falsas o posverdad entre 2016 y 2017? Arriesguen cualquier número que termine en “miles de millones” y acertarán. Las fake news fueron la explicación que todos (oficialismos y oposiciones, izquierdas y derechas, democráticos y autoritarios) encontraron para justificar los males del mundo, sus desgracias propias o los pecados ajenos. La conclusión de partidos gobernantes, oposiciones, expertos y analistas fue unívoca: “Internet y las redes sociales están destruyendo a la democracia”. Dentro de ellos, un culpable fue señalado por todos: “Facebook es el culpable de este mal”.

Si esos grupos tan distintos coincidieron en un mismo diagnóstico, ¿esa explicación no será también falsa, o al menos discutible? El tecnólogo bielorruso Evgeny Morozov dice que hay que tener cuidado con explicar todo con la lógica de las noticias falsas, que ya existían antes de las redes sociales. En cambio, señala, hay que prestar más atención a la época de gran concentración tecnológica y económica y cómo ella afecta lo que consumimos. “La narrativa de las noticias falsas es falsa en sí misma. Es una explicación frívola de un problema más complejo, que nadie quiere ver. El problema no son las noticias falsas, sino un capitalismo digital que hace rentable producir historias falsas que dejan muchas ganancias económicas”. Su explicación no es más que el viejo conflicto: si alguien concentra mucho poder, su capacidad de manipulación será peligrosa.

De La Ilíada y La Odisea en adelante, pasando por los relatos del historiador bizantino Procopio sobre los emperadores romanos, los pasquines europeos de la Edad Media hasta la Revolución Francesa y el posterior crecimiento de los periódicos modernos, nuestros relatos escritos de la historia siempre implicaron versiones, muchas veces contradictorias de un autor a otro, o incluso escritas por personas cuya identidad es difusa, como la de Homero. De la Antigüedad a nuestros días, los pueblos escriben sus historias porque necesitan fijar una identidad. Esos relatos, además de distintos entre sí, suponen traducciones y estructuras culturales tan diversas que incluso pueden desencadenar guerras. Como señala el historiador cultural Robert Darton, antes de las orgías sexuales de Hillary Clinton existieron todo tipo de difamaciones sobre la muerte de María Antonieta en la Francia de 1793, pero antes, en 1782, hasta los pastores ingleses publicaban historias desde sus iglesias y se peleaban de congregación en congregación. Las noticias falsas, entonces, pueden ser cualquier cosa menos nuevas. Su nacimiento, claro está, no sucedió con las redes sociales.

Otro problema viejo es cómo la información conforma nuestras opiniones políticas. Desde que existe el Estado moderno tenemos que discutir las cuestiones públicas y los funcionarios y grupos de poder influir en la opinión de los ciudadanos. La información antes circulaba en grupos reducidos de hombres de negocios, científicos o eruditos. Desde los pasquines a los diarios modernos, la prensa y las noticias crecieron en su importancia para definir los temas de importancia alrededor del mundo, también a medida que crecían los grupos sociales integrados a la sociedad y los niveles educativos. Hacia 1930 comenzaron los primeros debates sobre el papel de la prensa (hoy diríamos sobre el rol de los medios) y la opinión pública se constituyó como una disciplina de estudio. Desde entonces, con la famosa controversia entre el intelectual y periodista Walter Lippmann y el filósofo y psicólogo John Dewey, la discusión es más o menos la misma: ¿Los ciudadanos tomamos decisiones racionales en base a información o -en cambio- somos sujetos cuyas opiniones pueden ser fácilmente manipulables?

Lippman decía: el gran público es extremadamente maleable y actúa guiado por información falsa, por lo que las decisiones políticas debían ser tomadas por un grupo de personas lo suficientemente educado. Dewey sostenía que aceptar la tesis de Lippman significaba renunciar a la democracia y encerrarnos en una sociedad donde una élite más informada tomara las decisiones públicas. El debate vivió algunos años de calma cuando, desde la segunda mitad de siglo XX, la “objetividad de información” se adoptó como estándar ético en las redacciones. El modelo de la información neutral funcionaría como una barrera para dejar de lado los sesgos y opiniones personales.

Cuando, hacia principios del siglo XXI, internet comenzó a expandirse como un medio de información, su nacimiento auguró una nueva esperanza de desintermediación: que cualquier persona con un módem pudiera convertirse en productora de información además de consumidora. Ese relato del prosumidor de la internet 2.0 de principios de los años 2000 prometía expandir la frontera de la información. Sin embargo, así como alguna vez los medios de comunicación tradicionales se concentraron en grandes conglomerados de noticias, hoy internet también está concentrada. Los Cinco Grandes, entre ellos Facebook como el dueño de la red social más popular del universo, son los nuevos guardianes de la información. En 1941 Orson Welles retrató en El Ciudadano el poder desmedido del empresario de los medios William Randolph Hearst, dueño de 28 periódicos de circulación nacional en Estados Unidos, editoriales, radios y revistas, operador político y promotor de la prensa amarilla. En 2017, Mark Zuckerberg consolida un poder aún mayor y convirtió a su imperio en el nuevo gatekeeper todopoderoso de las noticias.

En 2011, cuando Facebook se perfilaba como uno de los grandes ganadores de internet, el activista y escritor Eli Pariser comenzó a advertir sobre los efectos negativos de poder. En su libro El filtro burbuja, Pariser sostiene que la prensa siempre enfrentó críticas por su falta de ética o sus daños a la  democracia. Pero las redes, que en algún momento fueron pensadas como una forma de expandir la influencia del público, se volvieron tan omnipotentes que, lejos de distribuir el poder en manos de los ciudadanos, se transformaron en los nuevos guardianes de la información. Con gran poder predictivo, Pariser nos alertaba sobre un nuevo peligro: si entre el siglo XX y el XXI habíamos logrado entender que los grandes medios como la televisión y los diarios no pueden ser objetivos, en nuestra era de redes sociales ellas tampoco pueden dar cuenta de los prejuicios de sus algoritmos.

La tesis de Pariser es que las redes nos imponen nuevas cámaras de ecos o burbujas de filtros donde las decisiones ya no sólo las toman personas, sino máquinas. Las burbujas creadas por redes sociales son programadas con inteligencia artificial, a la cual –como explicábamos en el capítulo anterior de este libro- todavía no le estamos demandando la misma ética que a los medios. “La pantalla de tu computadora es cada vez más una especie de espejo unidireccional que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que cliqueas”, dice Pariser.

La lógica que promueve las burbujas en las redes es a la vez tecnológica y económica y responde a una palabra clave: personalización.

Alguna vez, internet fue anónima. Pero hoy responde a la lógica contraria: el negocio de los gigantes como Google, Facebook, Apple y Microsoft es saber todo sobre nuestros gustos para darnos lo que queremos hoy y predecir lo que vamos a querer mañana. Esto también se aplica a las noticias, donde el negocio de Facebook es observar lo que nos gusta y les gusta a nuestros amigos. Con esos datos y preferencias, aplica la lógica predictiva del machine learning y nos va encasillando. Su lógica, al filtrar todo por nosotros, nos coloca en burbujas.

Dicho esto, vale preguntarnos: ¿No estuvimos siempre un poco en nuestra propia burbuja? Pariser admite que sí, que siempre hemos consumido los medios que más se parecían a nuestros intereses y que ignoramos lo que nos molesta, aun cuando pueda ser información importante. Sin embargo, advierte que las burbujas de filtros introducen dinámicas a las que no nos habíamos enfrentado antes y con eso nos imponen cuatro consecuencias. La primera es la soledad: somos las únicas personas dentro de nuestras burbujas, al contrario de lo que sucedía cuando mirábamos un canal de cable que aunque estuviera dedicado a un contenido específico (películas clásicas, golf o animé) estaba disponible para muchas personas a la vez. La segunda es la falta de decisión: cuando elegíamos un diario o un canal de televisión ejercíamos una acción voluntaria -si queríamos ver noticias de derecha optábamos por Fox News-, pero las burbujas son, en cierto punto, involuntarias. La tercera consecuencia es la opacidad: los algoritmos Google y Facebook eligen por nosotros los criterios por los que filtran la información y no nos dicen cómo funcionan exactamente. Y por la lógica del aprendizaje automático toman en cuenta nuestras elecciones previas, es decir, eligen un sesgo por sobre otro, aun cuando ese sesgo pueda implicar discriminación o censura. El cuarto efecto es limitar nuestra visión del mundo: al elegir “lo que queremos” por nosotros, las burbujas reducen nuestros horizontes y nos impiden enterarnos de noticias a las que no le hubiéramos prestado atención o sorprendernos con cosas que no estaban bajo nuestra preferencia habitual.

Para Facebook, este funcionamiento implica ganancias enormes. Al darnos lo que queremos, todo el tiempo, basado en lo que ya nos gustaba, se asegura de que nos quedemos siempre dentro de sus muros. En un mundo abarrotado de información darnos información que nos interese nos ahorra vivir en un estado de elección constante. Quedarnos allí dentro de su plataforma es más cómodo; nuestra elección de pasar mucho tiempo mirando la pantalla es lógica. Sin embargo, nuestra relación con las empresas se basa en un trato: a cambio del servicio de filtrado, proporcionamos a las grandes empresas una enorme cantidad de información, con la consecuencia de someternos a un determinismo informativo donde lo que cliqueamos en el pasado determine lo que vamos a ver después, una especie de historial web que estamos condenados a repetir.

Para Facebook y los defensores de la personalización esto no es un problema. Al contrario, sostienen que ese mundo hecho a medida se ajusta a nosotros a la perfección y es un lugar donde nunca nos aburriremos con cosas que no queremos ver. Pero, previene Pariser, esto nos pueden llevar a la adicción, tal como explica la investigadora cultural Danah Boyd: “Nuestro cuerpo está programado para consumir grasas y azúcares porque son raros en la naturaleza. Del mismo modo, estamos biológicamente programados para prestar atención a las cosas que nos estimulan: contenidos que son groseros, violentos o sexuales, chismes humillantes u ofensivos. Si no tenemos cuidado, vamos a desarrollar el equivalente psicológico a la obesidad. Nos encontramos consumiendo el contenido que menos nos beneficie, a nosotros o a la sociedad en general”. En última instancia, señala, corre peligro la serendipia: “Un mundo construido sobre la base de lo que nos resulta familiar es un mundo en el que no hay nada que aprender”.

En términos políticos, la fórmula de Facebook y otros filtros informativos concentrados como Google News es aplicar la lógica de mercado a la elección de la información que consumimos. Pero esto puede ser peligroso. Como ciudadanos, muchas veces queremos evitar ciertas noticias desagradables, pero tal vez (y seguramente) sea bueno que las tengamos presentes. Quizá no sea cómodo ver cómo un piloto de avión que pasó cinco años fumigando un campo con glifosato hoy tiene su cuerpo deformado por las consecuencias cancerígenas de exponerse a agro tóxicos. Pero si no conocemos esas imágenes brutales tal vez nunca sepamos que Monsanto y otras empresas de la industria química nos están exponiendo a un genocidio silencioso a través de los alimentos que comemos. En otros casos, las noticias pueden no ser trágicas, sino simplemente informaciones diversas sobre el mundo, pero para Facebook pueden tratarse de contenidos incómodos y entonces decide esconderlas, como sucede por ejemplo cuando la empresa censura pezones femeninos (no lo hace con los masculinos) o cuerpos que escapan al estándar de belleza occidental blanca, heterosexual y delgada (las mujeres gordas, morochas, lesbianas o indígenas también reciben discriminación en su plataforma).

¿Es difícil salir de esta adicción a consumir todo el tiempo cosas que no nos molesten? Sí, incluso desde la cantidad de pasos que Facebook nos impone si queremos dar de baja nuestro perfil. Eso le sucedió a la periodista de The Guardian Arwa Mahdawi cuando, después de una visita para hablar de la metodología de publicidad en las oficinas de Facebook en Palo Alto se asustó de la cantidad de la información que la empresa había recabado sobre su vida y decidió cerrar su cuenta. Tras repetir varios clics hasta llegar al botón de desactivación, primero le preguntaron si quería especificar un “contacto de legado”, es decir, alguien que pudiera manejar su cuenta en caso de que ella muriera. “En otras palabras, Facebook te hace más fácil que tu cuenta sobreviva si te morís que si te querés tomar un recreo de la red social”. Luego de volver a hacer clic en desactivar e introducir nuevamente su clave, comenzaron a aparecer sus amigos más cercanos en la pantalla y la opción de dejarles un mensaje de despedida o para avisarles la razón por la que dejaba la red social. Incluso, le sugería frases ya escritas como “Estoy dedicando mucho tiempo en Facebook”, la opción de permanecer en la red pero recibiendo menos mensajes de la empresa y recién una nueva ventana para desactivar del todo su perfil. “Fueron diez clics. O para ponerlo en perspectiva: Puedo comprar dos cucarachas adultas de Madagascar en Amazon con un solo clic. Obviamente no lo haría, pero sé que algunas personas las compraron porque lo aprendí en un artículo de Facebook”, bromeó Mahdawi tras relatar el tiempo que había perdido consumiendo información irrelevante y su posterior periplo para salir de la red social, tras lo cual eliminó también la aplicación en su celular y admitió que su vida no se volvió automáticamente más productiva. Lo que sí cambió para ella es que está más aliviada, menos pendiente de acercarse todo el tiempo a una computadora o a un teléfono para ver si alguien respondió o publicó un mensaje, y más atenta a otros estímulos a su alrededor. Pero el relato de Mahdawi podría ser el de cualquiera de nosotros (el mío, por ejemplo) cuando dejamos las redes sociales al menos en su versión móvil. La adicción se reduce inmediatamente y las ganas de hacer o conocer otras cosas que no impliquen una pantalla se reactivan tras superar los primeros días de abstinencia.

En este dilema sobre vivir en el mundo real versus habitar un mundo amigable construido algorítmicamente, a Facebook no le conviene cambiar las cosas tal como están dadas. Como empresa, elige por nosotros lo que leemos, vende publicidad y gana dinero con esto. Pero, en última instancia, si una compañía resuelve nuestra dieta informativa, ¿cómo nos enteraríamos de lo que queda fuera de su decisión? O, al contrario, ¿con tanto poder, cómo podría no estar tentada de ejercer la censura sobre esa información que maneja de forma masiva?

 

Las burbujas políticas y los algoritmos

El politólogo Ernesto Calvo está de visita en Buenos Aires. Vive en Estados Unidos, donde trabaja como profesor en el Departamento de Gobierno y Política de la Universidad de Maryland y dirige el Observatorio de Redes Sociales. En los últimos años, se especializó en analizar los efectos de las redes sociales sobre la opinión política. Con su equipo de trabajo habitual, una notebook Dell con 16 gigas de RAM, disco sólido de un tera y conexión al web server de Amazon para procesar rápido los datos de las redes, sus estudios se nutren fundamentalmente de Twitter, una plataforma que le permite seguir y analizar en tiempo real el famoso se dice en las redes. Para conversar acerca de cómo funcionan las burbujas de filtros en Argentina y el mundo, me encontré con él durante las semanas del verano boreal en que descansa de sus cursos de política comparada, estadística y procesamiento de datos, reparte sus vacaciones porteñas con algunas reuniones en el Congreso argentino y dicta un curso intensivo sobre procesamiento estadístico en la facultad de Ciencias Exactas.

Calvo empezó antes que otros científicos sociales a estudiar cuantitativamente las redes sociales para entender sus efectos políticos. Formado en la Universidad de Buenos Aires, en las teorías sobre los acuerdos políticos en épocas donde no existía internet, Calvo tiene la virtud de los buenos politólogos: compara todo el tiempo y contextualiza, para salir rápido de los sentidos comunes. “En los autores que estudiamos en el siglo XX, como Habermas[1], no existía la situación de dialogar con miles de personas simultáneamente en formas distintas. Con las redes descubrimos que tenemos una infinidad de interacciones con una gran cantidad de individuos que persiguen distintos tipos de actividades”, explica Calvo como primera diferencia. Y luego advierte el primer error que tenemos que evitar para pensar en la discusión en las redes: “Algunas personas las usan para comunicarse, pero otras se conectan con fines expresivos y otras simplemente las usan como una forma de descarga, por ejemplo para insultar. Si pensamos a las redes desde alguna teoría pura de la comunicación, bueno, deberían ser democráticas. Pero sucede que en las redes hacemos infinidad de cosas, muchas de las cuales no tienen que ver con la política”.

Calvo derriba entonces un primer mito: el que dice que en las redes sociales podemos –o podríamos- debatir ideas. Al contrario, estamos en ellas por el confort. Las usamos como una almohada de ideas que se parecen a las nuestras, donde podemos descansar, o como un ring donde luchar sin salir siempre lastimados. “La principal actividad política en las redes sociales es evitar la disonancia cognitiva; es decir, disfrutar de un espacio donde otros piensan como yo. No tratamos de que el otro entienda ni nos provea de información nueva. Simplemente, disfrutamos con otro el hecho de compartir ciertas ideas o enojarnos juntos por otras”. Por esa razón, señala Calvo, la función principal de las redes cuando ponemos me gusta, damos favorito o retuiteamos algo, es dar una señal de afecto hacia la persona que dio la información original. Junto con esa preminencia de lo afectivo por sobre la información, agrega que tampoco en las redes le damos un valor importante a verificar qué es real y qué no lo es. “El hilo que conduce a la información política es el afecto. En nuestros estudios, comprobamos que esos vínculos muchas veces favorecen la propagación de noticias falsas en momentos de alta polarización. Sin embargo, si esa transmisión de algo que no es verdadero es cuestionada por un par o alguien de una comunidad, las personas empiezan a ser más cuidadosas”. Con esto, Calvo derriba el segundo mito: cuando corregimos algo no siempre lo hacemos en favor de la verdad. También lo hacemos para recibir la aceptación de otros a quienes consideramos cercanos.

Hechas estas primeras advertencias, Calvo dice que en el debate de las noticias falsas pueden plantearse objetivos y herramientas nobles para reducir las noticias falsas, pero que ellas van a existir hasta cierto punto en el que sean tolerables en términos de negocios. “El interés comercial de las empresas va a prevalecer. A Facebook o a Twitter no le conviene que vayamos todos los días a la guerra, que sus plataformas estén pobladas de contenido violento, porque la gente abandona esos espacios. Entonces por un lado se ocupan cada tanto de volver más tolerables esos lugares y, por el otro, la gente también tiene sus mecanismos propios para convivir en las redes, por ejemplo bloquear o silenciar usuarios, o conversar en grupos cerrados de Facebook, que son muy útiles”.

En sus estudios, Calvo observa algo que se suele dejar de lado en el debate: los usuarios de las redes sociales no somos siempre pasivos. Al contrario, con el tiempo vamos desarrollando acciones y aprendemos a administrar la masa de información y de contactos con la que interactuamos. Es decir, desarrollamos estrategias. “Algunos tenemos cuentas falsas para interactuar con ciertos usuarios de las redes con los que nos enojamos. Con ellos no queremos comunicarnos, sino descargarnos. Al igual que en los videojuegos, no es extraño que en las redes tengamos más de una identidad y comportamiento”.

– ¿La polarización en las redes es una consecuencia de la polarización política? ¿O estar en las redes hace que nos dividamos más? ¿Es el huevo o la gallina?

– Las dos cosas. Hicimos unos experimentos para ver si la gente se polariza después de mirar Twitter y vimos que sí. El efecto de las redes en la polarización es directo, por ejemplo mostrándole distintos tweets sobre sus candidatos y los de la oposición a la gente. Lo que cambia es el motivo. En Estados Unidos, lo que fragmenta la opinión es la cuestión racial y regional (norte-sur). En Argentina, en mis estudios observé que el momento de mayor polarización se produjo con el caso Nisman. Las narrativas de los dos grupos en pugna eran absolutamente distintas. En las redes, vivimos en comunidades cerradas. Hacemos lo mejor que podemos, pero si hay polarización, en las redes se potencia. Es muy difícil salir de esa lógica.

– Y desde la política o colectivamente como sociedad, ¿podemos generar algún mecanismo para limitar la falsedad en las redes?

La democracia requiere, por un lado, que se respete la preferencia de la mayoría. Y por lado, que no se violen las preferencias de las minorías. En las redes sociales tenemos lo mayoritario pero sin los controles de los sistemas de representación políticos. Entonces ahí la pregunta es: ¿cómo generamos reglas de protección democrática para las minorías que habitan las redes sociales?

 

El imperio de la atención y su rey presidenciable 

En los últimos años, Facebook es la principal fuente de noticias del mundo. Ya no escribimos la dirección de una web para leer unas noticias, luego otra, y así hasta que obtenemos la información necesaria. En cambio, el muro de nuestra red social se convirtió en el lugar en donde leemos, clasificadas según la fórmula de la empresa, las novedades. Según estudios de Ogilvy Media y Pew Research Center, con diferencias en las distintas regiones del mundo, entre el 40 y el 60 por ciento de las personas recurre a las redes para encontrar información, mientras no deja de utilizar los medios tradicionales, como la televisión, los diarios o la radio. En Argentina, estudios muestran que –después de la televisión- en el segmento de los jóvenes casi el 60 por ciento elige las redes para informarse.

Sin embargo, que las redes adquieran una mayor presencia en nuestros hábitos informativos no significa que el consumo de noticias se haya democratizado. Aun con internet, las jerarquías de ciertos actores permanecen y se refuerzan. Y no sólo eso: los medios sociales se convierten en nuevos “guardianes” de la información, junto con otros medios y actores que ya existían antes.

Para entender el poder que ejercen las redes sociales y los medios en cómo nos informamos, me encontré con Natalia Aruguete, especialista en comunicación política, profesora e investigadora de la Universidad Nacional de Quilmes y del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet). Tanto en sus estudios individuales como en los que desarrolló en conjunto con Ernesto Calvo, Aruguete se basa en sus estudios de veinte años sobre teorías de la comunicación pero también recurre al análisis pormenorizado de casos resonantes en redes sociales, como las repercusiones del movimiento y las marchas de #Niunamenos en contra de la violencia de género, los efectos políticos del #Tarifazo durante los primeros años del gobierno de Mauricio Macri, las consecuencias del fallo beneficiando con la ley del 2×1 a los genocidas de la dictadura por parte de la Corte Suprema de Justicia y la reacción social ante la desaparición forzada de Santiago Maldonado en agosto de 2017.

Aruguete señala que las redes sociales producen dos efectos sobre nuestras percepciones de las noticias: uno macro y uno micro. Por un lado, producto de los algoritmos y la concentración, refuerzan las cámaras de eco y las burbujas. Es decir que aunque pensemos que sí lo hacemos, nosotros no tomamos la decisión de acceder a cierta información y a otra no. Pero, por otro lado, en lo micro, cuando esa información finalmente llega a nosotros, reaccionamos de manera subjetiva a esa información. Esa reacción es emocional y se da profundizando la disonancia cognitiva, es decir, eligiendo lo que nos da más placer. Pero Aruguete explica que hay una diferencia respecto de cómo eso era pensado en 1940 o 1950: “Hoy, a partir de las jerarquías tan cerradas de las redes sociales, elegimos mucho menos. Y los medios tradicionales perdieron la influencia ‘monolítica’ que tenían antes. Hoy conviven con otras autoridades, por ejemplo, ciertos personajes influyentes en las redes o la aristocracia bloguera”.

A partir de sus estudios, Aruguete encontró que los medios tradicionales, como los diarios o la televisión, tienen un lugar muy importante en las redes sociales. “Los medios tradicionales no sólo están en las redes replicando lo que dicen en internet, sino que funcionan como autoridades en ella. Lo que dicen sigue siendo una palabra importante, como la palabra oficial del gobierno. Pero también, cuando un medio tradicional difunde una noticia a través de las redes esa información crece de una manera más rápida. Eso mismo sucede con los políticos: si se ocupan de un tema, otros también hablan de eso”. En este punto, la investigadora deja de lado la suposición de que los medios tradicionales perdieron importancia respecto de las redes sociales y explica que, sobre todo con los grandes medios su influencia se traslada a las redes sociales. También, funcionan como autoridades en el ecosistemas de las redes, amplificando temas o, al no mencionarlos, reduciendo su presencia en ellas. “En el oficialismo, Clarín o la La Nación son autoridades al igual que el presidente Macri o la vicepresidenta Michetti. En la oposición, pueden ser Página 12 o Cirstina Kirchner. A su vez, en ciertos temas, el análisis de las conversaciones en las redes nos muestra que ambas comunidades se mantienen muy polarizadas y no dialogan entre sí. Pero en otros temas, por ejemplo en Ni Una Menos, eso sí sucede: es un asunto que atraviesa más transversalmente a la sociedad”.

– Si en las redes hay jerarquías y estructuras, los trols y los fakes por los se ha genera tanto debate no tendrían tanta influencia como la que se les suele dar.

– Sí, en nuestros estudios vemos que los fakes, los trols o ese tipo de operaciones no tienen una capacidad tan grande de desviar la circulación de una información a largo plazo.

– Hace veinte años que estudiás los medios de comunicación. ¿Por qué se volvieron un tema de debate hoy las noticias falsas o la posverdad?

– La idea de que los medios no son objetivos fue una discusión periférica desde 1960. En los últimos años, la discusión de volvió más interesante, por ejemplo cuando el kirchnerismo en Argentina, por una disputa política, volvió a instalar la idea de que no existe objetividad en los medios y que tienen el poder de construir noticias y no solo difundirlas. Con las redes sociales también podemos volver a pensar en esa construcción. También en un diálogo: Trump tomó noticias falsas de los medios tradicionales, las llevó a las redes sociales y mucha gente las creyó. Tomó una fuerza de los medios tradicionales burlándose de él y utilizó a su favor.

La idea de que las redes democratizan la información es falsa.

Sí, totalmente. Antes se decía la televisión te muestra una sola cosa. Pero hoy las redes también seleccionan, por medio del algoritmo, lo que ves. El algoritmo es el nuevo seleccionador de la información. Sólo que todavía no sabemos bien cómo funciona.

 

La primera regla de Facebook: no hablar del algoritmo

La primera regla del Club de la Pelea es: Nadie habla sobre el Club de la Pelea, decía Brad Pitt antes de empezar la lucha en la película de David Fincher basada en el libro de Chuck Palaniuk. Con más énfasis, por si a alguien no le había quedado claro, repetía: “La segunda regla del Club de la Pelea es: Ningún miembro habla sobre el Club de la Pelea”. Al final, cuando llegaba al octavo mandamiento, decía: “La octava regla del Club de la Pelea es: Si esta es tu primera noche en el Club de la Pelea, tienes que pelear”. La lógica de Facebook con su algoritmo funciona igual. Dentro de la empresa y fuera de ella nadie habla del algoritmo. Es más, gran parte de la lógica de la compañía responde a no revelar la fórmula y una parte de su presupuesto se destina a financiar equipos de relaciones públicas, prensa y asuntos públicos para que realicen todo tipo de maniobras disuasorias para ocultar la receta. Sin embargo, mientras sostienen ese modelo opaco para afuera, las reglas de Facebook se aplican a todos los usuarios de Facebook que den “Aceptar” en sus términos y condiciones.

Pedirle a Facebook información sobre su algoritmo es una carrera imposible.

Mientras escribía este libro hice varios pedidos para que la empresa, a través de su departamento de prensa, su agencia de comunicación externa y su encargada de asuntos públicos para América Latina me concediera una entrevista, o al menos una charla para explicarme -como periodista especializada en el tema-, acerca de ese asunto. Con una amabilidad absoluta (llegué a creer que las encargadas de prensa y yo habíamos sido amigas en algún momento del pasado y yo no lo recordaba), las representantes de la empresa primero me pidieron “un poco más de información sobre el foco de la nota”, tras lo que alegaron repetidas dificultades para “coordinar la entrevista por un tema de agenda”. Al responderles que podía esperar a que la persona en cuestión despejara sus compromisos para recibirme, me escribieron con un “te quería dejar al tanto de que no tengo una previsión de tiempos” y me ofrecieron conversar con otra persona de la empresa. Respondí que sí, con gusto. Pero luego transcurrieron seis mails durante tres semanas en los que, por una razón u otra, el encuentro no podía concretarse.

En otro momento, pedí que me compartieran un material que ilustrara cómo funcionaba el algoritmo para explicarlo en una columna en un programa de televisión[2]. Facebook me respondió que “no contaba con ese material”. Pero mientras tanto, a través de las redes sociales, la misma empresa ofrecía esa información de manera privada a periodistas (profesionales o aficionados), influencers de redes sociales y personalidades del mundo del espectáculo. La compañía compartía esa información con ellos, por una razón económica: les interesaba que entendieran la lógica para generar contenidos patrocinados con publicidad.

La doble vara de Facebook es clara: ocultar la información de su fórmula para el gran público y compartirla con sus anunciantes. Están en su derecho, me dijo alguna vez un amigo periodista sobre el doble estándar de la empresa. En cierto punto, como empresa, lo están, acepté yo. Pero también, dada su influencia en los asuntos públicos, Facebook debería rendir cuentas sobre cómo maneja la información.

En favor de Facebook, la compañía alega que los usuarios de la red social no son coaccionados a unirse a ella, sino que prestan un acuerdo voluntario. Sin embargo, al sumarnos a la red los estudios demuestran que no leemos los términos y condiciones, y que si lo hiciéramos deberíamos estudiar entre 200 y 300 páginas por año, ya que periódicamente esas reglas son modificadas por las compañías.

Mientras Facebook se decide a adoptar una verdadera política de transparencia sobre la información que vemos y la que oculta, desde nuestro rol de usuarios activos deberíamos informarnos sobre cómo funciona la plataforma.

Los dos objetivos de Facebook son crecer y monetizar, es decir, obtener dinero a partir de la publicidad que recauda cada vez que alguien hace clic en sus anuncios.  Para esto, tiene que hacer que pasemos la mayor cantidad de tiempo posible en su plataforma y eso se logra haciéndonos sentir cómodos. Con ese objetivo, Facebook aplica en su plataforma un algoritmo llamado Edge Rank que hace que cada muro (o News Feed) sea personalizado, distinto para cada persona según sus gustos, pero sobre todo lo más confortable posible. Cada acción que realizamos se estudia al detalle para ofrecernos exactamente lo que nos gusta, tal como hacen en los restaurantes de tres estrellas Michelin, donde en la información de cada cliente se especifica con cuánta sal prefiere la ensalada, qué maridaje de vino prefiere para el pescado y a qué punto degusta mejor la carne.

El algoritmo Edge Rank toma en cuenta tres factores fundamentales.  El primero es la afinidad, es decir que si los amigos con los que más interactuamos prefieren unas noticias o contenidos a nosotros nos va a mostrar más esas cosas. El segundo es el tiempo, que implica que cuánto más rápido reaccionamos con alguna acción a un contenido, Facebook nos muestra más arriba y repetidamente esa información porque asume que es más interesante. Si en los primeros 15 minutos la gente reacciona mucho, para Facebook es un éxito y premia a ese contenido. El tercero es el peso, es decir que Facebook ubica más alto en el ranking los contenidos que tienen más likes, comentarios o compartidos. ¿Por qué? Porque supone que son los que más nos interesa. En la cuenta final de Facebook, lo que importa es la permanencia dentro de su ecosistema. Si eso implica estar expuestos a contenidos verdaderos, falsos, de procedencia cierta o dudosa, eso no incumbe a su diseño. O sí, pero se pasaba por alto en favor del éxito comercial. O así fue hasta 2016, cuando las quejas y las preguntas sobre la responsabilidad de la red social en la difusión de noticias falsas comenzaron a acumularse.

“Facebook, en algún momento una simple aplicación de celular, se volvió una fuerza política y cultural global, y las implicancias completas de esa transformación se hicieron visibles en 2016”, escribió Farhad Manjoo, analista tecnológico del New York Times. El propio Zuckerberg lo admitió: “Si miramos en la historia de Facebook, cuando empezamos, las noticias no eran parte de lo nuestro. Pero a medida que la red social creció y se volvió una gran parte de lo que la gente aprende del mundo, la compañía tuvo que ajustarse lentamente a su nuevo lugar en la vida de las personas”.

La empresa de Menlo Park California hoy tiene una audiencia más grande que cualquier cadena de televisión de Estados Unidos o de Europa, pero ese también es su talón de Aquiles y la razón por la que, ante los disgustos políticos, es señalada como responsable de desestabilizar la opinión de las democracias, que suponen en la información libre y accesible a todos una base esencial de su funcionamiento. Algunas universidades incluso llevaron adelante estudios para demostrarlo: el MIT y Harvard, después de analizar cómo se compartieron un millón doscientas cincuenta mil historias durante la campaña electoral de Estados Unidos de 2016, concluyeron que las redes sociales han creado y potenciado una “cámara de eco” de derecha. “La gente usa sitios como Facebook para encerrarse en burbujas auto-confirmatorias, en detrimento de la civilidad”, decía el estudio.

Luego de que Donald Trump se convirtiera en Presidente de Estados Unidos, se acusó al magnate de haberse valido del sistema de publicidad de Facebook -que permite segmentar las audiencias y decirle a cada persona lo que quiere leer- y combinarlo con la difusión de noticias falsas para convencer a los votantes a su favor. Para financiar su campaña presidencial, el republicano había recaudado menos de la mitad que Hillary Clinton. Pero se dio cuenta a tiempo y contrató a Brad Parscale, un experto en marketing digital que trabajó en una estrategia segmentada de micro-targeting: llegar a cada persona que pudiera multiplicar su mensaje. Finalizada la carrera, su estrategia le había generado 647 millones de menciones gratuitas en los medios, o el equivalente a haber gastado 2,6 billones de dólares. ¿Lo hizo con información verdadera? No siempre. Su equipo compartió encuestas propias haciéndolas pasar como sondeos serios, retuiteó informaciones falsas y nunca desmintió la mentira que más circuló: que el Papa Francisco apoyaba su candidatura.

La alerta, que llegó hasta Wall Street y Silicon Valley (cuya candidata, Clinton, había sido derrotada), sacudió al propio Mark Zuckerberg, dueño de la red social, que dedicó los siguientes comunicados públicos a hablar del combate a las noticias y la información falsa. Silicon Valley, poco comprometido con la política, tuvo que preguntarse si tenía algo que ver con el problema. Si el News Feed de Facebook era la fuente de información más importante en la historia de la civilización occidental, ¿ellos debían dar cuenta de sus consecuencias “no esperadas”? La primera respuesta de la empresa fue que su algoritmo Edge Rank no hacía más que basarse en lo que sus usuarios prefieren. Para deslindar su responsabilidad, la compañía planteaba que ella no podía responder por las preferencias “no democráticas” de sus clientes.

Sin embargo, con el tiempo Facebook reconoció que su crecimiento había tenido efectos políticos “no previstos” y algunos negativos. Facebook hizo algunos cambios en la plataforma para denunciar informaciones falsas y comenzó a contratar a editores humanos para poner los fines sociales de la información por delante de los comerciales. A fines de 2017 Mark Zuckerberg anunció que contrataría entre 10 y 20 mil personas en el mundo para moderar en forma detallada cada contenido problemático reportado por la comunidad. En octubre de ese año, en Essen, una zona industrial de Alemania, se inauguró una oficina con 500 empleados que cobran entre 10 y 15 euros la hora por revisar cada posteo, foto y video de la red social. Junto a otro espacio en el este de Berlín, el lugar es gestionado por la compañía Competence Call Center (CCC), a quien Facebook, PayPal e eBay, entre otras empresas tecnológicas, contratan para lidiar con la información que aportan cada día los usuarios a las plataformas. Con escritorios transparentes, sillas negras y monitores Dell, los trabajadores realizan un trabajo repetitivo muy similar al de quienes revisan imágenes de cámaras de seguridad en los centros de monitoreo. Según sus responsables, el trabajo de moderadores de contenidos de las grandes plataformas crecerá en su demanda en los próximos años, en áreas alejadas de las grandes áreas metropolitanas, tal como alguna vez se multiplicaron los call centers.

Meses después, en su mensaje de año nuevo de 2018, Zuckerberg compartió con sus seguidores su lista de propósitos: “Facebook tiene mucho trabajo por hacer. Ya sea para proteger a nuestra comunidad del abuso y del odio, defenderla de las interferencia de los Estados y hacer que el tiempo aquí sea bien usado”. En ese camino, admitió que estaban “cometiendo muchos errores” y que dedicaría su año a “resolver esos problemas juntos”. También, que se rodearía de más expertos en historia, cívica, filosofía política, medios y temas de gobierno, y que él mismo estaba preocupado por la cuestión de la centralización. “Hoy muchos perdieron la fe en esa promesa. Con el crecimiento de un pequeño grupo de grandes compañías tecnológicas –y gobiernos usando la tecnología para espiar a sus ciudadanos- mucha gente ahora cree que la tecnología centraliza el poder en vez de descentralizarlo”. Por primera vez, el creador de Facebook asumía, al menos en una declaración pública, que escuchaba las voces que se estaban alzando contra los Cinco Grandes.

La preocupación de Zuckerberg no era casual. En el último año, mientras él recorría el Estados Unidos profundo, se habían revelado investigaciones periodísticas y hasta se habían anunciado proyectos gubernamentales para luchar contra las noticias falsas. En enero de 2018, el presidente francés Emmanuel Macron presentó una ley para controlar, limitar y castigar, durante las campañas electorales, la difusión de informaciones falsas por parte de empresas extranjeras. El gobernante hizo referencia a las corporaciones dueñas de las redes sociales en conjunción con grandes medios, por ejemplo los rusos, que en su caso habían propagado todo tipo de engaños durante su campaña en mayo, ayudados por las plataformas online.

Las críticas también se sumaron desde otros países como Serbia, donde periodistas y activistas se unieron cuando Facebook eligió a ese país para experimentar quitando del muro de los usuarios todas las noticias de medios que no pagaran al menos un centavo para ser vistas. Para la prueba, la empresa también había elegido a Guatemala, Eslovaquia, Bolivia y Camboya, países “pequeños” en términos de usuarios, pero donde las personas que querían informarse a través de la plataforma de repente habían visto desaparecer todo el contenido noticioso no patrocinado. Es decir, que mientras Mark Zuckerberg se mostraba preocupado por los efectos políticos de sus acciones, su compañía no detenía sus planes para monetizar el contenido de distintas formas.

Pero el debate ya estaba planteado. Gobiernos, periodistas y activistas de todo el mundo comenzaron a sumarse en su preocupación por el poder de una empresa que de un día para el otro podía dejar sin noticias a todo un país. También, aunque en grupos más reducidos, empezó a preocupar el efecto de las burbujas sociales en las que las redes nos encierran, y su contribución a sociedades cada vez más polarizadas.

El tecno-optimismo de quienes antes sostenían que internet iba a ayudar a democratizar nuestras sociedades sumaba ejemplos de estar haciendo lo contrario. ¿Cómo mantendríamos las discusiones políticas a futuro, si las redes separaban nuestros diálogos? ¿Cómo haríamos visibles los abusos políticos o las movilizaciones si un gran poder podía quitarlas a todas de una pantalla con un cambio en un algoritmo?
La respuesta comenzó a surgir desde lo colectivo, a través de denuncias e investigaciones. El algoritmo podía seguir siendo una ley, pero tal vez, dentro de él, también había opción para cuestionar, denunciar y pedir explicaciones.

 

Descubrir lo oculto

María Riot tiene 26 años, es prostituta, o trabajadora sexual, como prefiere llamarse junto a sus compañeras de Ammar, la Asociación de Mujeres Meretrices de Argentina, donde milita. Feminista y luchadora por los derechos de otras compañeras, Riot es una personalidad en las redes sociales con 67 mil seguidores entre sus cuentas de Twitter e Instagram (al momento de escribir esta página). También tuvo y tiene cuentas en Facebook, aunque en esa red las cosas son más difíciles para ella: desde hace cinco años la empresa censura y cierra sus perfiles. Pero ella decidió enfrentar la compañía como parte de su lucha: “Mi idea es cambiar las cosas desde adentro, también en una red social”.

En agosto de 2017, Riot se convirtió en la primera persona que presentó una demanda contra Facebook en América Latina por eliminar un contenido que no infringía los términos y condiciones de la red social. El 11 de agosto Riot subió a su muro la foto de una sesión artística que había realizado con otros amigos y amigas. A los 15 minutos recibió un aviso donde se daba de baja la foto y su cuenta quedaba bloqueada por 30 días. “Conozco bien qué se puede hacer y qué no en las redes. En 2013 ya me habían dado de baja una cuenta por una campaña que hice contra la censura de pezones femeninos reemplazándolos con fotos de otros de varón”, recuerda. “En este caso, como conozco las reglas, tenía los pezones tapados. Tampoco uso las redes para vender mis servicios, sino para militar. Mi idea con esta demanda es demostrar que Facebook es arbitrario y discrimina”, dice Riot, que junto con su abogado Alejandro Mamani, especialista en derechos digitales, también inició una demanda por daños y perjuicios contra la empresa.

“Desde Facebook Argentina nos respondieron que ellos acá sólo tienen oficinas comerciales, que nos teníamos que dirigir a Irlanda. Durante 30 días no pude recibir mensajes ni usar mi cuenta, es decir, limitaron mi derecho a expresarme. Finalmente, me devolvieron el perfil cuando pasó ese tiempo, pero no por mi demanda”, cuenta la activista. Apenas restituido su perfil, la empresa envió un comunicado a los medios argentinos, que rápidamente la ayudaron a difundir el título en sus portadas. “Tras un nuevo análisis, determinamos que había sido removido por error. Pedimos disculpas por cualquier inconveniente causado”, declaró Facebook en una nota del diario Clarín con el subtítulo Fin de una disputa y una conclusión componedora: “Parece que esta historia llegó a su fin”.

“Cuando vi el comunicado que Facebook mandó a los medios me puse loca, porque el perfil volvió a estar activo porque ya había pasado un mes desde la baja y no por decisión de ellos. Eso nos motivó a seguir denunciando a la empresa en este caso y otros que puedan sucederle a otras personas”, dice Riot. Y señala que, con su acción, pudo ver a la compañía poniendo en marcha los mecanismos de una gran empresa para acallar el problema. “Claramente, a Facebook le molestó el ruido que hice, que llegara a las tapas de los medios del mundo y que yo diga que ellos censuran y promueven discursos de odio”, cuenta con energía y con la certeza de que su caso será precedente, en un momento en que la compañía enfrenta una oleada de demandas en el mundo por sus decisiones parciales respecto de qué elige mostrar en su plataforma.

Durante 2016 y 2017 la periodista y activista Julia Angwin, junto con un equipo de investigación del sitio Pro Publica, dio a conocer una serie de artículos que desnudaron la falta de transparencia del algoritmo de Facebook y el doble estándar de la empresa. Su trabajo también fue esencial para desenmascarar sus mecanismos corporativos y alentar a otros a sumar sus reclamos.

Angwin y su equipo revelaron que la plataforma publicitaria de Facebook permitía segmentar anuncios de venta y alquiler de casas solamente a blancos, excluyendo a personas de raza negra de las ofertas, asumiendo que son compradores menos atractivos. También dejaba que quienes pagaban quitaran de la segmentación a madres con niños en edad escolar, personas que utilizaban sillas de ruedas, inmigrantes argentinos e hispanoparlantes. A todos ellos se los podía, explícitamente, agrupar y eliminar de los destinatarios inmobiliarios de las plataformas, lo cual violaba la Ley de Acceso Justo a la Vivienda de Estados Unidos, que prohíbe publicar avisos que indiquen “cualquier preferencia, limitación o discriminación basada en la raza, el color, la religión, el sexo, el estatus familiar o el país de origen” de las personas interesadas. Sin embargo, en Facebook esto no sólo se podía hacer, sino que los anuncios eran aprobados por la plataforma, luego de revisarlos, en unos pocos minutos. Bajo sus propias normas, la red social podría haber rechazado estos anuncios. Sin embargo, su política prefería no perder los ingresos de esas publicidades a cambio de violar una ley.

En otra de sus investigaciones sobre la discriminación del algoritmo de Facebook, Pro Publica descubrió que la red social permitía publicar avisos segmentados a la categoría “odiadores de judíos”. Anteriormente, la compañía ya había recibido quejas y había quitado de su lista de publicidad a la categoría “supremacistas blancos”, luego de la oleada de ataques contra comunidades negras en todo Estados Unidos. Con el descubrimiento de Angwin, la empresa debió eliminar también las categorías antisemitas y prometió monitorear mejor los avisos publicados para que el mecanismo de inteligencia artificial no creara sesgos de odio. Sin embargo, en otro de sus trabajos, el equipo encontró que el algoritmo protegía a los hombres blancos de contenidos de odio, pero no generaba los mismos mecanismos de defensa para evitar que los vieran los niños de raza negra. Al escándalo se sumó la confirmación de que durante las elecciones presidenciales de Estados Unidos en 2016 Facebook había permitido la creación de avisos ocultos desde 470 cuentas rusas contra Hillary Clinton, con los que había ganado cerca de 28 mil millones de dólares. La compañía, que había intentado desestimar esta información durante un año, finalmente tuvo que aceptarla.

Estas historias demuestran que, por el momento, Facebook toma acciones para revertir sus errores solamente después de que se descubren una nueva manipulación o censura en su plataforma. Y que lo hace cuando estos hechos salen a la luz a través de investigaciones o denuncias externas. Mientras tanto, la empresa sigue ganando millones a través de los anuncios, sus equipos de relaciones con la comunidad cubren estos problemas con filantropía y sus departamentos de prensa organizan eventos publicitarios para periodistas amigos, mientras niegan información a los periodistas que les hacen preguntas concretas sobre el funcionamiento de su plataforma. Si Facebook dice estar comprometido contra la publicación de noticias falsas, ¿no debería promover la transparencia de la información empezando por su propia empresa?

Hasta que llegue el momento en que las promesas de Facebook se transformen en realidad, como usuarios y ciudadanos también podemos hacer algo. La primera tarea es entender cómo funcionan las redes y pedir explicaciones a las empresas cuando no sean transparentes en el manejo de los datos o tomen decisiones que afecten nuestras libertades. Las democracias en las que vivimos pueden tener problemas, pero estos serán menores si nos ocupamos de entender a quién le damos el poder y cómo lo usa. Si no lo hacemos, las consecuencias pueden ser graves, sobre todo para las minorías excluidas o para encontrar las noticias necesarias para tomar decisiones o votar en una elección.

Lo que está en juego no es la información verdadera de ayer o de hoy, sino que, si continuamos en este camino de oscuridad, no podremos diferenciar nada de lo que se publique en el futuro. A Facebook, por ahora, no le interesa hablar del algoritmo. Pero si a nosotros nos interesan las conversaciones públicas, tenemos que hacer visible eso que las empresas quieren esconder.

Cuando revelemos eso que otros no quieren que conozcamos, aquellos que todavía quieren oscuridad perderán su poder.

 

[1] Jürgen Habermas (1929), filósofo y sociólogo alemán, fue el miembro más eminente de la segunda generación de la Escuela de Frankfurt (iniciada en 1923 por un grupo de investigadores siguiendo las ideas de Hegel, Marx y Freud) y uno de los exponentes de la Teoría crítica desarrollada en el Instituto de Investigación Social. Entre sus aportes destacan la construcción teórica de la acción comunicativa y la democracia deliberativa.

[2] La Liga de la Ciencia, que se emitió durante 2017 por la TV Pública Argentina.

 

 

admin | 01.10.2018

0 Comentarios

Dejá tu comentario