Blog

Resultados: tecnopolitica

Las lecciones tecnopolíticas del affaire Facebook Cambridge Analytica

7 lecciones tecnopolíticas del affaire Facebook – Cambridge Analytica

Por Natalia Zuazo (Publicado en Infobae el 24 de marzo de 2018)

Hace una semana, una nueva investigación periodística descubrió un nuevo capítulo de manejos secretos de Facebook, la red social en la que participan dos mil millones usuarios en el mundo y 17 millones de personas conectadas en la Argentina. Con la revelación de que la consultora de big data inglesa Cambridge Analytica había usado los datos de 50 millones de usuarios que usaron su aplicación para hacerles llegar publicidad política, quedó otra vez en evidencia el poder de la empresa de Zuckerberg, que, junto con Google, domina el 85 por ciento el mercado de la publicidad digital. También, que, tal como algunos venimos sosteniendo desde hace años, le estamos dando a las grandes compañías de tecnología una fe comparable a la religión: confiamos tanto en ellas que no sólo no las cuestionamos sino que les damos un sí rápido cada vez que aceptamos sus términos y condiciones.

Antes de la investigación de la periodista de The Guardian y The Observer Carole Cadwalladr, Mark Zuckerberg venía siendo acorralado por otras denuncias a su compañía. Desde la manipulación de los temas en el muro de los usuarios, la propagación de las noticias falsas a través de su plataforma, pasando por la censura de imágenes artísticas o políticas y la incitación al racismo y la xenofobia a través de sus avisos publicitarios, la empresa debió admitir que su rol en la sociedad ya no era solamente tecnológico. Entre el triunfo de Donald Trump a fines de 2016 y los cuestionamientos hacia su posición monopólica en 2017, el líder de la red social tuvo que admitir que la herramienta que construyó a base de código informático y psicología del comportamiento estaba teniendo consecuencias negativas. “Facebook tiene mucho trabajo por hacer. Ya sea para proteger a nuestra comunidad del abuso y del odio, defenderla de las interferencias de los Estados y hacer que el tiempo aquí sea bien usado”, escribió el millonario como mensaje de Año Nuevo 2018. Esta semana, después del nuevo golpe, reafirmó la idea: “Tenemos la responsabilidad de proteger sus datos, y si no podemos entonces no merecemos servirle a la gente”.

El escándalo nos recordó, otra vez, que las redes no son un espacio democrático, sino concentrado en monopolios que están siendo poco controlados. También, que el modelo de negocios de la extracción de datos permanente sólo guiado por la lógica del mercado debe incorporar parámetros éticos. De otra manera, no sólo pierden los usuarios, sino también las empresas, en las que dejamos de depositar su confianza.  Finalmente, nos deja algunas lecciones, que nos permiten pensar el futuro.

 

1 Los monopolios digitales tienen mucho poder y eso es un problema

En este preciso instante, la mitad de las personas del mundo están conectadas a Google, Microsoft, Facebook, Apple y Amazon. En los últimos años, las grandes plataformas tecnológicas se convirtieron en las empresas más ricas del planeta sin usar la violencia. Su poder se consolidó gracias a los millones de usuarios como nosotros que les confían su atención y sus datos a través de teléfonos móviles y algoritmos. Hoy internet es un club de cinco grandes monopolios que generan desigualdad. Un puñado de corporaciones domina el mundo como antes lo hicieron las potencias coloniales.

Pero esto no siempre fue así. Hubo un tiempo donde había competencia.  En 2007, la mitad del tráfico de internet se distribuía entre cientos de miles de sitios dispersos por el mundo. Siete años después, en 2014, esa misma cifra ya se había concentrado en 35 empresas. Sin embargo, el podio todavía estaba repartido. Hoy, sin embargo, gracias a la lógica economía de las plataformas, unas pocas empresas concentran solas un mercado.

Como sucedió en otros momentos del mundo, es necesario controlar política y económicamente el poder de las grandes empresas para que sus decisiones no generen desigualdades. En el caso de Facebook, si su plataforma de noticias y publicidad puede convertirse en una herramienta de manipulación, hay que incrementar sus mecanismos de revisión de contenidos (hoy trabajan 750 personas en la compañía para esto) y volver más transparentes los criterios con los cuales se selecciona la información, para combinar los algoritmos (automatizados) con las decisiones humanas.

2 Tenemos que dejar de hablar de filtraciones

Si en la era de los autos autónomos, las encaminadas computadoras cuánticas y la geoingeniería seguimos suponiendo que los datos simplemente se filtran, entonces estamos mirando a una parte del mundo con mucho optimismo y a otra con un gran pesimismo. Tenemos que dejar de pensar que las compañías de tecnología cometen “errores” o actúan “sin intención” cuando nuestros datos son utilizados de manera ilegal o con un fin distinto para el que los entregamos. En cambio, nos toca ser más conscientes de que el modelo de negocios de internet mismo está basado en la acumulación de información. ¿Eso supone que no queda nada por hacer más que ceder los datos o que nos paguen por ellos para usarlos? No. Implica que, si estamos cediendo gran parte de nuestras vidas a actores poderosos, les pidamos que traten lo que les damos con más cuidado. El marketing ama la palabra filtraciones, pero no es más que un engaño para llamar la atención y evitar el verdadero problema: quién es responsable.

3 La solución es previa al problema

Facebook ya había tenido denuncias previas a las de Cambridge Analytica. En 2016 por manipular y suprimir noticias conservadoras, en 2017 por permitir que grupos rusos publicaran anuncios por 100 mil dólares para llegar a votantes estadounidenses, y ese mismo año por permitir a las agencias de publicidad segmentar contenidos a “odiadores de judíos” o personalizar productos a poblaciones negras. En cada caso, la empresa había comunicado sus acciones para solucionar los problemas, como sucedió en octubre de 2017 cuando Rob Goldman, el vicepresidente de Publicidad de la empresa anunció que no se permitiría “targuetizar” más con base en prejuicios raciales.

Sin embargo, en cada caso, las modificaciones sucedieron a posteriori de las revelaciones, como ocurrió también esta semana cuando Zuckerberg prometió una auditoría exhaustiva de todas las aplicaciones que recaban datos por medio de Facebook para analizar si los están utilizando de manera adecuada.  Resolver estos problemas en una red social donde los usuarios pasan un promedio de 50 minutos al día no es, está claro, una tarea sencilla. Pero una empresa con una base de clientes que equivale al 30 por ciento de las personas del mundo debería tener una política más cercana a la de la prevención que a la del control de daños.

4 Los usuarios no somos pasivos 

Si las empresas como Facebook no cuidan nuestros datos, pero sobre todo a quiénes comparten esa información, los usuarios –que también somos ciudadanos con derechos- podemos tomar la decisión de no interactuar más con ellas o de hacerlo de maneras diferentes.

Sea que decidamos abandonar una red social, pongamos límites a la cantidad o calidad de lo que publicamos,  o implementemos mecanismos de bloqueo o denuncia, nuestra decisión también vale y tiene un peso en la ecuación económica de las compañías.

Para que eso suceda, una herramienta sigue siendo fundamental: acceder a la información de cómo esas empresas operan y entender su funcionamiento técnico y económico. Si sólo contamos con unos pocos medios para informarnos o unas pocas opciones tecnológicas para elegir, eso será más difícil.

5 Hacer las cosas bien también puede generar un marketing positivo

Para las empresas tecnológicas, hacer las cosas bien también supone un beneficio. La transparencia respecto del manejo de los datos de los usuarios y la comunicación de sus políticas de privacidad, está empezando a ser, para muchas compañías, un argumento más de venta frente a sus clientes.

En Estados Unidos, lo demuestran pequeñas empresas de telecomunicaciones que ofrecen a sus clientes el plus del cuidado de sus datos. En Europa, ciudades como Barcelona están incorporando a los proveedores de conectividad y de servicios digitales una “marca de calidad” a quienes proponen un manejo ético de los datos. Avanzar con estos reconocimientos a otros modelos de negocios y tratamiento de los datos es un camino a seguir para mejorar nuestra relación también en términos de derechos del consumidor. De la misma manera en que le pedimos a la política mayores niveles de transparencia y comunicar mejor sus decisiones (ayudados, a su vez, por herramientas tecnológicas que nos permiten hacerlo), las compañías privadas necesitan dar más cuenta sobre sus acciones.

6 La solución es individual, pero sobre todo colectiva

Ante cada nuevo “escándalo” por la manipulación de nuestros datos personales, se repiten las preguntas: ¿Me tengo que ir de las redes? ¿Me tengo que resignar a que sepan todo de mí y perder la privacidad?

Frente a esas preguntas, la primera respuesta es individual. Revisar qué intercambios (por comodidad, por rapidez, por amor, por ego) hacemos antes de bajar un programa o dar aceptar en los términos y condiciones es un paso siempre necesario.

Sin embargo, después existe un paso colectivo, que nos excede como individuos, pero requiere de nosotros: desde las instituciones también deben controlarse los usos de la tecnología, considerando siempre el difícil límite de no atentar contra las libertades individuales.

El 25 de mayo de 2018, la Unión Europea pondrá en vigencia un nuevo Reglamento de Protección de datos personales. En el mismo, se establece, entre otras cosas, la necesidad de registrar las bases de datos, minimizar la cantidad de información que se puede pedir a la solamente la necesaria, el control del tiempo que se almacena la información y la posibilidad de revocar el permiso de uso de datos que dimos a una empresa u organismo (y llevarlos a otra empresa, si así lo decidimos), entre otras cosas. Con esa base, la solución al problema deja de ser solamente personal y se transforma en un derecho colectivo. Cuando la tecnología se politiza y es parte del debate público, deja de ser un problema privado y podemos tomar acciones sobre ella.

El futuro de la tecnología debe politizarse.

7 El buen periodismo todavía cuenta

En 2013, las revelaciones de Edward Snowden sobre la colaboración entre la Agencia Nacional de Seguridad de Estados Unidos (NSA) y las empresas tecnológicas como Yahoo, Google, Microsoft o Facebook que colaboraron para espiar a ciudadanos llegaron a la opinión pública gracias a la investigación colectiva de un grupo de periodistas de The Guardian y el Washington Post. Antes, la organización Wikileaks había desnudado abusos en las guerras de Irak y Afganistán y las operaciones de los banqueros y políticos más poderosos del mundo. En los últimos años, el Consorcio Internacional de Periodistas de Investigación, con los Panamá y los Paradise Papers, quitó el velo sobre las maniobras de evasión de líderes y empresarios mundiales a través de paraísos fiscales y empresas offshore.

En todos los casos, fueron equipos periodísticos los que mostraron lo que el poder financiero y político actuando en conjunto para ocultar distintas maniobras. Con esto, revirtieron la lógica actual del mundo: los ciudadanos que exponemos demasiado nuestros datos y los poderosos operando en la oscuridad. Son estos momentos, donde queda al descubierto quién se favorece y quién se perjudica, los que cambian el curso de la Historia.

 

Tecnopolítica 2017 en La Liga de la Ciencia

En 2017, fui columnista de la Liga de la Ciencia por la TV Pública Argentina. Conducido por Andrés Rieznik y Eugenia Lopez, producido por Claudio Martínez y El Oso Producciones, fue una buena oportunidad de mantenerme cerca de los medios mientras escribía mi segundo libro (que saldrá en 2018), además de conocer nuevos amigos 🙂

Varios de los temas serán también parte del próximo libro. Aquí, las columnas del año:

Julio – Ciberataques: y por qué también son una cuestión geopolítica

Agosto – De eso no se habla: ¿Cómo funciona el algoritmo de Facebook?

Septiembre – Cables submarinos: de Guerras de internet a la realidad

Octubre – Inteligencia artificial: ¿Por qué tenemos que empezar a preocuparnos por su ética?

Noviembre – Bitcoin: historia y futuro

Diciembre – Las burbujas de filtros en las redes sociales

Free basics y Facebook at work: cómo tercerizar la tecnopolítica

Mauricio Macri ama Facebook. Además de ser el presidente del mundo con más interacción en la red social, a pocos meses de asumir se reunió con la CEO de la empresa y anunció la implementación de dos proyectos de la compañía en Argentina. Críticas y alertas de una relación que también puede ser peligrosa.

David Runciman, profesor de ciencias políticas de Cambridge y periodista de The Guardian, dice que la habilidad clave de la nueva tecnocracia que domina al mundo es hacer contactos. Después de la Gran Depresión, en los años 30 del siglo XX, la anterior elite de ingenieros industriales tenía que darle productos a las masas para incluirse en la economía: ropa, comida, transporte, comunicaciones, vivienda. Los expertos eran los que hacían que las fábricas funcionaran para muchos: el conocimiento era poder. El resto de los políticos les rendían cuentas, bailaban tras sus hilos. Pero eso cambio. Hoy, quien tiene el timón es quien logra conseguir el dinero para que funcionen las empresas: la nueva tecnocracia reina porque consigue inversiones. Para eso, necesita entender el poder del dinero. Pero, sobre todo, precisa la habilidad para hacer contactos en el “alto mundo” de las finanzas.
(más…)

La tecnopolítica: el desafío de la próxima década

puntogov

Columna sobre Guerras de internet  y las Elecciones 2015 publicada en Puntogov, medio especializado en políticas públicas #TIC en Iberoamérica para interesados en Gobierno y Tecnología en la región.

El país tiene que preguntarse cuál es el rol que quiere para la tecnología. Tiene que haber una descripción ideológica sobre el futuro de la economía y de la tecnología”, dijo en videoconferencia desde Londres a Argentina el activista y fundador de WikiLeaks Julian Assange hace unos días, en el Foro de Cultura Digital. Bajo su autoridad la frase adquiere una importancia de axioma: ya no es una opción sino un deber tomar decisiones que nos lleven a nuestra independencia y desarrollo tecnológico.

Para lograrlo –eso sí- se necesitan decisiones que sólo la política puede tomar. Porque las opciones tecnológicas nunca son neutrales: todas involucran una ideología, aun (o aún más) las que no se toman. En los últimos años, nuestros gobiernos demostraron que es posible ejercer la autonomía, por ejemplo, frente a las presiones del sistema financiero internacional en su peor versión, los fondos butires. Nada sencillas las consecuencias de esa autonomía, claro. Pero nos hemos demostrado que salir de la inexorabilidad de seguir caminos trazados por otros es posible.
(más…)

Facebook, Cambridge Analytica y el backstage de un libro

Hace 20 años que soy periodista. Hace 10 que hago periodismo solamente de política y tecnología. En 2015, después de dos años de muchísimo trabajo, salió mi primer libro, Guerras de internet. Allí mi objetivo fue explicar, en un libro con rigor periodístico, investigaciones y narraciones atrapantes, cómo funciona internet, desde sus caños y cables hasta los conflictos como la privacidad, la vigilancia y las tecnologías que afectan nuestras vidas como ciudadanos con derechos y voluntad política.

El 30 de enero de 2018 entregué a la editorial Debate de Argentina mi segundo libro, Los dueños de internet. Saldrá en unos meses. Su contratapa dice esto:

En este preciso instante, la mitad de las personas están conectadas a Google, Microsoft, Facebook, Apple y Amazon. En los últimos años, las grandes plataformas tecnológicas se convirtieron en las empresas más ricas del planeta sin usar la violencia. Su poder se consolidó gracias a los millones de usuarios como nosotros que les confían su atención y sus datos a través de teléfonos móviles y algoritmos. Hoy internet es un club de cinco grandes monopolios que generan desigualdad. Un puñado de corporaciones domina el mundo como antes lo hicieron las potencias coloniales.

¿Cómo construyó Microsoft un imperio del conocimiento? ¿Cómo predice Google nuestros movimientos? ¿Cómo cimentó Facebook su poderío informativo? ¿Cómo maneja Uber el mundo del transporte? Pero sobre todo, ¿cómo podemos revertir esta situación? En este libro, la periodista especializada en tecnopolítica Natalia Zuazo se sumerge en el universo de estas grandes corporaciones para entender sus fines. Y cuenta otras historias donde la tecnología está siendo usada con otra lógica: la de una sociedad más equitativa.

Antes de que explotara la investigación de Cambridge Analytica, escribí para Los dueños un capítulo sobre Facebook, centrado en el monopolio de las noticias, la atención y los datos, abordado desde el problema que genera la poca transparencia del manejo de esa información. En el medio, me pidieron para Brando, una de las revistas en las que escribo sin interrumpción hace más de 10 años (junto con Le Monde Diplomatique Edición Cono Sur), una nota sobre la caida de Facebook. La nota salió a la imprenta el viernes 16 de marzo. El sábado 17 salió a la luz la investigación de The Guardian. Brando (parte del grupo La Nación) decidió entonces adelantar mi nota en la web y también la tapa, 10 días antes de que llegara a la calle. Aquí abajo copio la nota.

Si no leyeron todavía Guerras de internet, es un buen momento para hacerlo (si no lo encuentran en las librerías, hay ebook, o pueden escribir al formulario de contacto para que reclamemos a la editorial y lo manden a sus ciudades/pueblos), para entender de dónde vienen estas historias que hoy estallan. Y para retomar la actualidad de estas cuestiones en Los dueños de internet, al que pensé como el libro que continúa la saga desde un punto de vista económico, con mi mirada de siempre, la de cuestionar el manejo capitalita, vigilante y extractivista del mundo.

 

********

Facebook se volvió peligroso para todos, incluso para Zuckerberg

Antes de que estallara el escándalo de Cambridge Analytica , a Mark Zuckerberg lo acusaron de permitir la propagación de noticias falsas, la manipulación de opiniones políticas y la incitación al racismo a través de sus algoritmos. Él reconoció que la red social se le estaba yendo de las manos, pero ¿por qué sigue sin revelar cómo decide qué vemos y qué no en nuestros muros? ¿Qué nos oculta?

Mark Zuckerberg, el quinto hombre más rico del mundo, recordará 2017 como el año en que se volvió adulto. De su espíritu adolescente solo le quedó el uniforme: las remeras grises con las que sale de su “discreta” mansión de US$7 millones en Silicon Valley todas las mañanas. Durante el resto del día, el dueño de la red social y de un patrimonio de más de US$70.000 millones tuvo que aprender a esquivar las balas y a solucionar los problemas de un imperio.

“Facebook tiene mucho trabajo por hacer. Ya sea para proteger a nuestra comunidad del abuso y del odio, defenderla de las interferencias de los Estados y hacer que el tiempo aquí sea bien usado”, escribió como mensaje de Año Nuevo 2018 en el muro de la red social que él mismo creó, sin sospechar que tres meses después estallaría el escándaloque hoy lo tiene en los portales, tapas y redes del mundo. El año anterior, su compañía había alcanzado los 2.000 millones de usuarios conectados, es decir, el 30% de las personas del mundo. Pero el hito no lo encontró con espíritu festivo: el Zuck adulto parecía haberse dado cuenta de que manejar una empresa en la que cada persona pasa un promedio de 50 minutos por día era una cosa seria. Tal vez, incluso, se equiparaba a la responsabilidad de un líder mundial.

Tras más de una década sosteniendo que Facebook era una empresa de tecnología que no intervenía en cuestiones políticas o sociales, tuvo que admitir que su influencia superaba la red de conexiones universitarias que había montado en 2004. Admitió entonces que su compañía estaba cometiendo “muchos errores” y dijo que dedicaría su año a “resolver esos problemas juntos”. En su lista de propósitos para cumplir, se comprometió a rodearse de más expertos en historia, cívica, filosofía política, medios y temas de gobierno, además de seguir confiando en sus ingenieros y científicos de datos. Y, para sorpresa de todos los que venían alertando del problema de concentrar la tecnología en unas pocas empresas, escribió sobre las críticas a la gran centralización del poder de estas empresas, hoy alejadas del rol idealizado que alguna vez tuvieron como emancipadoras de las sociedades: “Hoy, muchos perdieron la fe en esa promesa”, admitió. “Con el crecimiento de un pequeño grupo de grandes compañías tecnológicas -y gobiernos que usan la tecnología para espiar a sus ciudadanos-, mucha gente ahora cree que la tecnología centraliza el poder en vez de descentralizarlo”. Por primera vez, el creador de Facebook asumía que escuchaba las críticas a su fenomenal poder.

Guerra en redes

La preocupación de Zuckerberg no era casual. En 2017, mientras él cumplía el recorrido que le había preparado su equipo de prensa por el Estados Unidos profundo en una campaña de marketing para mejorar su imagen, los problemas explotaban. Las batallas habían empezado en 2016, con el “escándalo de las tendencias”, que acusaba a su plataforma de manipular los temas de actualidad que los usuarios veían en sus muros. Luego, tras el triunfo de Donald Trump, el “problema de las noticias falsas” señaló a Facebook como uno de los responsables de dañar la democracia, al haber funcionado, entre otras cosas, como el intermediario para difundir campañas de publicidad pagadas por el gobierno ruso contra su país y como medio para difundir noticias falsas que beneficiaban al republicano (aunque en la empresa y en Silicon Valley, en general, la candidata preferida era la demócrata Hillary Clinton). El escándalo preocupó a dueños de medios, ONG y hasta a políticos, que anunciaron proyectos gubernamentales para luchar contra la diseminación de mentiras, con la red social como intermediaria (y beneficiaria del negocio). Durante 2017, también, la gran red social comenzó a enfrentar los resultados de otros hallazgos que desnudaban la poca transparencia de su algoritmo (la fórmula que ordena qué vemos y qué no vemos en nuestros muros) y casos de censura de contenidos reiterados, que pusieron a los abogados de la compañía a enfrentar los primeros juicios de este tipo.

En términos económicos, Facebook y Zuckerberg seguían ganando. El 2017 terminaría con ingresos de casi US$13.000 millones, es decir, un 48% más que el año anterior. Sin embargo, su hechizo había comenzado a romperse para la sociedad.

Las redes sociales, que alguna vez se nos habían presentado como un espacio de diálogo para conocer más opiniones y mejorar el mundo -la famosa idea de la “democratización” acompañó a la red en sus inicios-, empezaron a verse como otro espacio de enfrentamiento. “La guerra se hace viral: Las redes sociales están siendo usadas como armas a lo largo del mundo”, alertaba ya en 2016 una tapa de la revista The Atlantic. Ese año, tras el ascenso de Trump, el mundo anglosajón se sumergió en un pánico moral y se preguntó si la mezcla de la tecnología con la política no sería un trago letal para la democracia.

Facebook reconoció que su crecimiento había tenido efectos políticos “no previstos”. Hizo algunos cambios en la plataforma para denunciar informaciones falsas y comenzó a contratar a editores humanos para ubicar las metas sociales de la información por delante de los comerciales. A fines de 2017, Mark Zuckerberg anunció que contrataría entre 10 y 20.000 personas en el mundo para moderar en forma detallada cada contenido problemático reportado por la comunidad. En octubre de ese año, en Essen, una zona industrial de Alemania, se inauguró una oficina con 500 empleados que cobran entre ?10 y ?15 la hora por revisar cada posteo, foto y video de la red social. Junto a otro espacio en el este de Berlín, el lugar es gestionado por la compañía Competence Call Center (CCC), a quien Facebook, PayPal e eBay, entre otras empresas tecnológicas, contratan para lidiar con la información que aportan cada día los usuarios a las plataformas. Con escritorios transparentes, sillas negras y monitores Dell, los trabajadores realizan un trabajo repetitivo muy similar al de quienes revisan imágenes de cámaras de seguridad en los centros de monitoreo. Según sus responsables, el trabajo de moderadores de contenidos de las grandes plataformas crecerá en su demanda en los próximos años, tal como alguna vez se multiplicaron los call centers.

Pasados los primeros síntomas (“oh, en las redes son todas mentiras”), la preocupación dio paso a nuevas preguntas: ¿Cómo cambiaron las redes sociales la manera en que nos informamos? ¿Dónde encontrar la verdad, si también en ellas hay mentiras? ¿Será que nos hicimos adictos a las redes y tenemos que encontrar un nuevo equilibrio para vivir mejor? Junto con esas preguntas, algunos comenzamos a cuestionar otro aspecto, quizás el más peligroso de Facebook: la poca transparencia con la que maneja su enorme poder.

 

Problema viejo, monopolio nuevo

En nuestra época, la del imperialismo tecnológico, unos pocos monopolios concentran el poder: Microsoft, Google, Facebook, Uber. Los dueños de internet son plataformas y están reemplazando a los poderosos y millonarios de otras generaciones.

También la información y las noticias están concentradas. Facebook y Google son los nuevos guardianes o “gatekeepers” de las noticias y se llevan el 85% de los ingresos por publicidad digital del mundo. Ese poder de regular lo que vemos o no como noticias es una de las razones por las que Mark Zuckerberg es uno de los hombres más influyentes del mundo y su marca, Facebook, se volvió más valiosa que otras antes icónicas, como General Electric, Marlboro o Coca-Cola.

Facebook es el tercer sitio y la primera red social más visitada del planeta. En Argentina, es el sitio número uno en visitas, algo que se repite en casi toda América Latina, Europa y Asia. Si le sumamos sus otras propiedades, WhatsApp (1.300 millones de usuarios) e Instagram (700 millones), sus interacciones se acumulan en 4.000 millones de personas y sus ganancias se incrementan. Sus usuarios pasan cada vez más tiempo en esas plataformas, por lo tanto, ven más avisos publicitarios, que equivalen al 63% de los ingresos de la compañía. Los usuarios se sienten tan cómodos dentro de la plataforma que la interacción aumenta cuantas más personas se unen a ella, al contrario de lo que les sucede a otras compañías con sus productos, en los que el interés decae luego de la novedad inicial. En 2012, cuando Facebook llegó a 1.000 millones de usuarios, el 55% de ellos lo utilizaba todos los días. En 2017, con 2.000 millones, el uso diario trepó al 66%. Y su número de consumidores sigue creciendo un 18% al año.

En los últimos años, Facebook se convirtió en la principal fuente de noticias del mundo. El muro de nuestra red social es el lugar en donde leemos -clasificadas según la fórmula de la empresa- las novedades. Según estudios de Ogilvy Media y Pew Research Center, aunque no dejemos de utilizar los medios como la televisión, los diarios o la radio, el 40% y el 60% de las personas del mundo nos informamos por medio de las redes sociales. En Argentina, después de la televisión, el 60% de los jóvenes elige las redes para informarse.

Luego del triunfo de Trump en las elecciones de 2016 en Estados Unidos, Facebook recibió la acusación más grave, antesala del escándalo actual. La red social fue señalada por haber aumentado la polarización de una sociedad ya dividida, especialmente por conflictos raciales. Su diseño algorítmico nos hacía convivir con otros en burbujas cerradas y, desde allí, lanzar catapultas llenas de odio a los que no pensaran como nosotros. También, se la señaló como la culpable de expandir la epidemia de noticias falsas, una acusación que fue la excusa preferida de políticos y dueños de medios periodísticos para reclamar a la red social por su poder inusitado.

Facebook fue señalado como el responsable de llevarnos a una sociedad cada vez más dividida. En 2011, en su libro El filtro burbuja, el activista y escritor norteamericano Eli Pariser comenzó a advertir sobre las consecuencias de informarnos a través de medios sociales. Pariser sostiene que las redes nos imponen burbujas de filtros donde las decisiones ya no solo las toman personas, sino también algoritmos programados para mostrarnos lo que más nos gusta para que pasemos una gran cantidad de tiempo en ellas. Vivimos en mundos cómodos, donde leemos cosas que nos gustan y nos interesan, pero no necesariamente donde nos enteramos de cosas distintas o importantes. “La pantalla de tu computadora es cada vez más una especie de espejo unidireccional que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que cliqueás”, dice Pariser.

La lógica que promueve las burbujas en las redes es a la vez tecnológica y económica y responde a una palabra clave: personalización. Los dos objetivos de Facebook son crecer y monetizar, es decir, obtener dinero a partir de la publicidad que recauda cada vez que alguien hace clic en sus anuncios. Para esto, tiene que hacer que pasemos la mayor cantidad de tiempo posible en su plataforma, lo que se logra haciéndonos sentir cómodos. Para eso, Facebook aplica un algoritmo llamado Edge Rank que hace que cada muro (o News Feed) sea personalizado, distinto para cada persona según sus gustos. Cada acción que realizamos se estudia al detalle para ofrecernos exactamente lo que nos gusta, tal como hacen en los restaurantes de tres estrellas Michelin, donde en la información de cada cliente se especifica con cuánta sal prefiere la ensalada y a qué punto degusta mejor la carne. En la cuenta final de Facebook, lo que importa es la permanencia dentro de su ecosistema. Si eso implica estar expuestos a contenidos verdaderos, falsos, de procedencia cierta o dudosa, no incumbe a su diseño. O sí, pero se pasaba por alto en favor del éxito comercial. O así fue hasta 2016, cuando las quejas y las preguntas sobre la responsabilidad de la red social en la difusión de noticias falsas comenzaron a acumularse. Y entonces, además del dinero, empezó a importarle la verdad.

Con noticias verdaderas o falsas, la empresa de Mark Zuckerberg todavía no explica cómo funciona su algoritmo, es decir, el mecanismo con el que decide qué vemos y qué no. Tampoco por qué, con una frecuencia cada vez mayor, algunos contenidos desaparecen de los muros de sus usuarios sin infringir las normas (por ejemplo, sin publicar imágenes de violencia), dando sospecha a acciones de censura por motivos políticos o ideológicos.

Mejor no hablar del algoritmo

“La primera regla del Club de la Pelea es: Nadie habla sobre el Club de la Pelea”, decía Brad Pitt antes de empezar la lucha en la película de David Fincher basada en el libro de Chuck Palahniuk. Con más énfasis, por si a alguien no le había quedado claro, repetía: “La segunda regla del Club de la Pelea es: Ningún miembro habla sobre el Club de la Pelea”. La lógica de Facebook con su algoritmo funciona igual. Dentro de la empresa y fuera de ella nadie habla del algoritmo. Es más, gran parte de la lógica de la compañía responde a no revelar la fórmula, y una parte de su presupuesto se destina a financiar equipos de relaciones públicas para que realicen todo tipo de maniobras disuasorias para ocultar la receta. Sin embargo, mientras sostienen ese modelo opaco para afuera, las reglas de Facebook se aplican a todos los usuarios de Facebook que den “Aceptar” en sus términos y condiciones.

Pedirle a Facebook información sobre su algoritmo es una carrera imposible. Mientras escribía esta nota y mi próximo libro, hice varios pedidos para que la empresa, a través de su departamento de prensa, su agencia de comunicación externa y su encargada de asuntos públicos para América Latina me concediera una entrevista, o al menos una charla para explicarme -como periodista especializada en el tema- ese asunto. Con una amabilidad absoluta (llegué a creer que con las encargadas de prensa habíamos sido amigas en el pasado y yo no lo recordaba), las representantes de la empresa primero me pidieron “un poco más de información sobre el foco de la nota”, tras lo que alegaron repetidas dificultades para “coordinar la entrevista por un tema de agenda”. Al responderles que podía esperar a que la persona en cuestión despejara sus compromisos, me escribieron con un “te quería dejar al tanto de que no tengo una previsión de tiempos” y me ofrecieron conversar con otra persona de la empresa. Respondí que sí, con gusto. Pero luego transcurrieron seis mails durante tres semanas en los que, por una razón u otra, el encuentro no podía concretarse. También pedí que me compartieran un material que ilustrara cómo funcionaba el algoritmo. Facebook me respondió que “no contaba con ese material”. Pero mientras tanto, a través de las redes sociales, la misma empresa ofrecía esa información de manera privada a periodistas (profesionales o aficionados), influencers de redes sociales y personalidades del mundo del espectáculo. La compañía compartía esa información con ellos, por una razón económica: les interesaba que entendieran la lógica para generar contenidos patrocinados con publicidad. “Están en su derecho”, me dijo alguna vez un amigo periodista sobre el doble estándar de la empresa. En cierto punto, como empresa, lo están, acepté yo. Pero también, dada su influencia en los asuntos públicos, Facebook

Durante 2016 y 2017, la periodista y activista Julia Angwin, junto con un equipo de investigación del sitio Pro Publica, dio a conocer una serie de artículos que desnudaron la falta de transparencia del algoritmo de Facebook y el doble estándar de la empresa. Su trabajo también fue esencial para desenmascarar sus mecanismos corporativos.

Angwin reveló que la plataforma publicitaria de Facebook permitía segmentar anuncios de venta y alquiler de casas solamente a blancos, excluyendo a personas de piel negra de las ofertas, asumiendo que son compradores menos atractivos. También a madres con niños en edad escolar, personas en sillas de ruedas, inmigrantes argentinos e hispanoparlantes. A todos ellos se los podía, explícitamente, eliminar de los destinatarios inmobiliarios de las plataformas, lo cual violaba la Ley de Acceso Justo a la Vivienda de Estados Unidos, que prohíbe publicar avisos que indiquen “cualquier preferencia, limitación o discriminación basada en la raza, el color, la religión, el sexo, el estatus familiar o el país de origen” de las personas interesadas. Sin embargo, en Facebook esto no solo se podía hacer, sino que los anuncios eran aprobados por la plataforma, luego de revisarlos, en unos pocos minutos. Bajo sus propias normas, la red social podría haber rechazado estos anuncios. Sin embargo, su política prefería no perder los ingresos de esas publicidades a cambio de violar una ley.

Pro Publica también descubrió que la red social permitía publicar avisos segmentados a la categoría “odiadores de judíos”. Anteriormente, la compañía ya había recibido quejas y había quitado de su lista de publicidad a la categoría “supremacistas blancos”, luego de la oleada de ataques contra comunidades negras en todo Estados Unidos. Con el descubrimiento de Angwin, la empresa debió eliminar también las categorías antisemitas y prometió monitorear mejor los avisos publicados para que el mecanismo de inteligencia artificial no creara sesgos de odio. Sin embargo, en otro de sus trabajos, el equipo encontró que el algoritmo protegía a los hombres blancos de contenidos de odio, pero no generaba los mismos mecanismos de defensa para evitar que los vieran los niños negros. Al escándalo se sumó la confirmación de que, durante las elecciones presidenciales de Estados Unidos en 2016, Facebook había permitido la creación de avisos ocultos desde 470 cuentas rusas contra Hillary Clinton. La compañía, que había intentado desestimar esta información durante un año, finalmente tuvo que aceptarla.

Estas historias demuestran que, por el momento, Facebook toma acciones para revertir sus errores solamente después de que se descubre una nueva manipulación o censura en su plataforma. Y que lo hace cuando estos hechos salen a la luz a través de investigaciones o denuncias externas. Entre tanto, la empresa sigue ganando millones a través de los anuncios; sus equipos de relaciones con la comunidad cubren estos problemas con filantropía, y sus departamentos de prensa organizan eventos publicitarios para periodistas amigos, mientras niegan información a los periodistas que les hacen preguntas concretas sobre el funcionamiento de su plataforma. Si Facebook dice estar comprometido en la lucha contra la publicación de noticias falsas, ¿no debería promover la transparencia de la información empezando por su propia empresa?

Lo que está en juego no es la información verdadera de ayer o de hoy, sino que, si continuamos en este camino de oscuridad, no podremos diferenciar nada de lo que se publique en el futuro. A Facebook, por ahora, no le interesa hablar del algoritmo. Pero si a nosotros nos interesan las conversaciones públicas, tenemos que hacer visible eso que las empresas quieren esconder.

Facebook es como la dopamina

Además de Computación, Mark Zuckerberg estudió Psicología. La clave de la adicción que ejerce Facebook sobre nuestra atención está en el corazón de su interfaz y su código. “Está diseñado para explotar las vulnerabilidades de la psicología humana”, dijo Sean Parker, el primer presidente de la empresa. “Las redes sociales se diseñan pensando cómo consumir la mayor cantidad de tiempo y atención posible de los usuarios. Eso se hace dándote un poquito de dopamina cada tanto, cuando alguien pone me gusta o comenta una foto o un posteo. Eso te lleva a querer sumar a vos tu propio contenido, para conseguir un feedback de validación social”, explicó Parker. Desde esos inicios hasta hoy, ese poder se amplificó tanto que se habla de las redes sociales como de una nueva epidemia de tabaquismo, que por ahora avanza sin gran preocupación, pero que quizá en un futuro sea un problema de salud pública.

Los efectos negativos en nuestra salud mental y física ya están comprobados en estudios científicos a gran escala de universidades de todo el mundo, y también por el propio departamento de Ciencia de Datos de Facebook en sus experimentos de manipulación de nuestras emociones. Justin Rosenstein, el creador del botón “Me gusta” de la red social, admitió que su invento está teniendo efectos negativos. “Es muy común que los humanos desarrollen cosas con las mejores intenciones y que tengan consecuencias involuntarias negativas”, dijo, haciendo un mea culpa. Además de hacer que “todos estén distraídos todo el tiempo”, reconoció que el uso político de la plataforma, si no se controla, podría dañar seriamente la democracia. Como primera medida, Rosenstein, que también trabajó en Google, ya se borró de la red social. Con él, otros periodistas prestigiosos, como Farhad Manjoo del New York Times, están quitando las aplicaciones de sus teléfonos e iniciando un movimiento para dejar de usar las redes sociales como principal fuente de información.

Balance del 2016 tecnopolítico

Balance del año tecnopolítico: Magia, negocios y soberanías

El historiador inglés Eric Hobsbawn decía que el siglo XIX había sido largo: iniciado con la Revolución Francesa en 1789 y terminado con la Primera Guerra Mundial en 1914. 125 años donde Europa pasó del fin de la monarquía a los Estados capitalistas burgueses, con una gran guerra en el medio que estableció los ganadores del nuevo orden mundial. En cambio, decía, el siglo XX fue corto:  77 años desde 1914 hasta la caída del muro y el triunfo del capitalismo en 1991.

Sucede algo parecido con el 2016 tecnopolítico visto desde Argentina: al saludarlo desde el fin del camino, parece eterno. La forma en que el Gobierno macrista entiende el lugar del Estado en la iniciativa y el desarrollo de la tecnología y la ciencia explican gran parte de los cambios. El resto lo hace una fuerza mundial, que sigue creciendo y por ahora parece irrefrenable: la concentración de mercado –y por lo tanto de poder de decisión, marketing e influencia planetaria-  de las grandes empresas multinacionales de tecnología.

El año empezó a los pocos días de asumir el nuevo Gobierno de Cambiemos, cuando Mauricio Macri decretó la modificación en los organismos que regulan las telecomunicaciones en Argentina. Siguió con acercamientos a los grandes de la tecnología durante el verano. El invierno trajo la gran batalla: el intento de imponer el voto electrónico, un sistema rechazado en el mundo pero que el oficialismo argentino consideró moderno. Antes y después, el resto del año tuvo otras noticias donde la ciencia y la tecnología sufrieron, en especial, en conservar sus soberanías: los cambios en Conectar Igualdad, en Arsat y los recortes en el presupuesto del Conicet. Mientras tanto, en el mundo, las máquinas conectadas a la Red crearon pánico cuando comenzaron a atacar a la internet misma, la publicación de los Panamá Papers volvió a usar la transparencia contra la opacidad del poder, y el crecimiento de informaciones falsas y la posverdad nos alertaron sobre algo que se está saliendo de control en el mundo de las noticias, tanto como para cambiar una elección.

Aquí, el resumen 2016 de la tecnopolítica, desde algún lugar de Buenos Aires:

(más…)

El fraude electrónico

fraude_electronicoA cien años de la Ley Sáenz Peña, el voto electrónico que propone la reforma electoral de Cambiemos podría poner en riesgo una de las bases de la democracia: el secreto. ¿Del fraude patriótico al fraude electrónico?

Este año, en Argentina deberíamos celebrar el centenario de la primera elección presidencial bajo la Ley Sáenz Peña, es decir, la universalidad, igualdad y el secreto del voto. Festejaríamos el fin del fraude sistemático y el inicio de la República (interrumpida luego en los sucesivos golpes cívico-militares). Sin embargo, a partir del proyecto de reforma política presentado este año por Cambiemos, (más…)

Guerras de internet se presenta en Uruguay

guerras_CCEUY

El martes 29 de marzo, a las 19 horas, Guerras de internet será presentado en el Centro Cultural de España de Montevideo con una mesa debate en la que participarán Natalia Zuazo, Fabrizio Scorlini y Mariana Fossatti.

Bajo el título de “Tecnopolítica: el desafío del futuro”, en el encuentro se analizarán temas como Uber, Google for Education y Free Basics, además de tratar cuestiones como quién decide sobre la tecnología, cómo decidir sin caer en el tecno optimismo o la tecno paranoia extrema y quién controla los datos y las ganancias.

Participantes:

Natalia Zuazo (@nataliazuazo) es licenciada en Ciencia Política (UBA) y Magister en Periodismo (UTdT). Es autora del libro “Guerras de internet, un viaje al centro de la Red para entender cómo afecta tu vida” (Penguin Random House Mondadori Argentina, 2015). Escribe sobre tecnopolítica en Le Monde Diplomatique Edición Cono Sur, Brando y Ñ, entre otros medios. Su trabajo puede leerse en guerrasdeinternet.com

– Mariana Fossatti (@marfossatti) es socióloga y se especializa en TIC aplicadas al arte, la cultura y la educación. Forma parte del equipo de Creative Commons Uruguay y dirige Ártica Centro Cultural Online.

Fabrizio Scorlini (@Fscrollini) es  investigador en temas vinculados a transparencia, acceso a la información pública y datos abiertos. A su vez  es presidente de DATA Uruguay, una organización dedicada a la construcción de herramientas basadas en la información pública. Fabrizio ha contribuido a los debate sobre  regulación de la vigilancia y privacidad en Uruguay y mantiene un fuerte interés en este tema.

>>> Centro Cultural de España, Rincón 629, Montevideo, www.cce.org.uy<<<

(más…)

Encuesta Guerras de internet 2015: neutralidad, seguridad, derechos humanos

Como cierre de 2015, una encuesta sobre temas de tecnología y política, respondida por especialistas del tema. Los participantes pertenecen a distinas áreas y profesiones: desde especialistas en infraestructura, gobernanza y derechos de internet hasta periodistas y ciberactivistas de Argentina y América Latina.

Estas fueron las seis preguntas que respondieron los consultados:

1) ¿Cuál fue el tema o noticia más importante de 2015 vinculado a tecnopolítica (infraestructura, innovación, derechos)?
2) ¿Cuál fue el tema o noticia más negativo o preocupante?
3) ¿Cuál fue la noticia positiva o esperanzadora?
4) ¿Qué tema será importante o debería interesarnos más en 2016?:
5) ¿Qué libro o nota leíste que te haya aportado para entender mejor estos temas?
6) ¿A quién/es deberíamos seguir en Twitter si nos interesan estos temas?

A continuación, las respuestas:

PABLO M. FERNÁNDEZ, coordinador de innovación editorial en Chequeado y docente.

Tema o noticia más importante de 2015 vinculado a la tecnopolítica: Me parece que un tema como el ahora renombrado Internet.org, impulsado por Facebook, o el proyecto Loon de Google fue clave porque cruza todas las áreas de las que hablamos (infraestructura, innovación y derechos) y le suma mercado y política. Seguir estos temas me parece clave para cualquier que trabaje en algún área cercana a la tecnopolítica porque el día a día es muy interesante y evidencia relaciones que no suelen ser tan claras.

Tema o noticia más negativo o preocupante: 
Que todos estos temas no estén, en general, en medios masivos y, por lo tanto, no lleguen al día a día de un enorme grupo de personas muy afectadas por las acciones que discuten los especialistas.

Noticia positiva o esperanzadora: 
Algo horizontal: la cantidad de notas que brindan algo de equilibrio frente a los títulos vendedores de sistemas o tecnología como bitcoin, autos autónomos y un largo etc que incluso en el caso de que me parezcan interesantes no suelen verse tratadas desde un punto de vista crítico 100% necesario. Este enfoque que aplaudo no se ve tanto en medios masivos, pero es un paso que me da, algo, de esperanza.

Tema que será importante o debería interesarnos más en 2016:  Creo que falta *muchísimo* recorrer en cuanto a divulgación. Este sigue siendo un tema de especialistas que, en muchos casos, repele (a veces sin querer) a los que no lo son. Cualquier intento para mejorar esto será bienvenido por mi porque más allá de los paneles y debates en conferencias, en los que incluso a veces participo, me gustaría que este fuese un tema que se discuta a nivel masivo.

Libro o nota que me aportó para entender mejor estos temas: No place to hide, de Gleen Greenwald, lo empecé a fines de 2014 y lo finalicé durante 2015 (lo que no es poco para mi manera de leer saltando entre libros, notas, papers y más). Empecé Guerras de Internet en diciembre y es muy probable que esté en mi lista de lo mejor que leí en 2016.

A quién seguir en Twitter si nos interesan estos temas: 
Electronic Frontier Foundation, Boing Boing, Cory Doctorow, Evgeny Morozov y Natalia Zuazo.
(más…)

Contra el mito de la aldea global

BRANDO2

Hay tantas internets como países. Y tantas tecnologías como localmente decidamos usarlas. Contra los pronósticos del tecno-optimismo global, el mundo digital no es uno solo. Eso sí: mientras la política y los ciudadanos decidamos.

Listo, ya fue suficiente: dejemos de pensar a internet como el gran desarrollo de la aldea global. O, en todo caso, separemos las partes.

La Red es un sistema nervioso universal en su estructura técnica, esto es, en los caños que nos conectan de un lado al otro del planeta. También lo es –cada vez más- una Red global de empresas que dominan los contenidos: Google, Facebook, Yahoo! y Amazon no sólo concentran nuestras búsquedas, interacciones, mails, compras y entretenimiento diarios, sino que lo hacen con plataformas similares en cualquier rincón del mundo. También hay una unificación de nuestras costumbres digitales: las series online son nuestra nueva televisión, los smartphones nuestras mascotas virtuales sin las que ya no podemos vivir, los Instagrams nuestra adicción a contarlo todo en forma de realidad filtrada. Pero no es así ni igual en todo el mundo, ni en cada país, ni bajo las mismas plataformas. Internet no es una, ni se escribe con mayúscula. Hay tantas internets posibles que es momento de desmitificar el mapa. Pero eso sólo podemos hacerlo mirando de cerca y eligiendo entre distintas tecnologías, es decir, tratando a internet como a cualquier elección política. (más…)