Blog

¿Qué sabe Facebook de nosotros?

De repente, el virus del mensaje “No le permito a Facebook que use mis datos” volvió a multiplicarse en los muros. A propósito, comparto un extracto de Guerras de internet (específicamente, de las páginas 281 a 288 :)) donde explico por qué estos mensajes son inútiles y qué sabe Facebook de nosotros (aunque no lo queramos ver). ¡Que lo disfruten! (?) Y si quieren saber más, consigan su ejemplar aquí http://guerrasdeinternet.com/comprar/

Guerras de internet, capítulo IX: “Dar aceptar: Google, Facebook y WhatsApp se apropian de nuestros datos”

El 1º de diciembre de 2014, los muros de Facebook se poblaron de un mensaje misterioso que sin embargo todos pensaron que sería bueno compartir. Con terminología legal, los cuatro párrafos de la proclama, reclamaban que lo que cada uno publicaba desde ese momento en la red social era propiedad personal y que la empresa no tenía derechos sobre esos datos, fotos o textos. El pedido se basaba en que la compañía había optado por “incluir el software que permitirá el uso de mi información personal” y que, recurriendo al “código de la propiedad intelectual” cualquier uso que se hiciera de la información debía tener un consentimiento por escrito de su responsable. Entonces hacía un llamado: “Los que leen este texto pueden copiarlo y pegarlo en su muro de Facebook. Esto les permitirá ponerse bajo la protección de los derechos de autor. Por esta versión, le digo a Facebook que está estrictamente prohibido divulgar, copiar, distribuir, difundir, o tomar cualquier otra acción en mi contra sobre la base de este perfil y/o su contenido”. Y adelantaba una sanción: “La violación de mi privacidad es castigada por la ley (UCC 1-308 1- 308 1-103 y el Estatuto de Roma)”. Se invitaba entonces a todos los usuarios a publicar el texto y al final se advertía: “Si usted no ha publicado esta declaración al menos una vez estará tácitamente permitiendo el uso de elementos como sus fotos, así como la información contenida en la actualización de su perfil”.
 Cada vez que alguien reproducía el texto en su perfil, yo pasaba del asombro o la sonrisa a la certeza de que, si tantas personas estaban seguras de podían hacer ese reclamo a Facebook, era porque la mayoría de los usuarios no conocen las condiciones que aceptan para participar en las redes sociales. Nadie lee los términos y condiciones, pero además somos ingenuos en suponer que lo que dicen puede proteger algo de nuestra privacidad. Pero además, la multiplicación de esos cuatro párrafos dejaba en claro que las empresas que manejan las redes son muy exitosas en que creamos que, cuando participamos en ellas, todavía somos los dueños de nuestros datos. Que todos compartieran ese reclamo significaba que todavía no hay conciencia de que, al ser parte de Facebook, formamos parte de una máquina publicitaria donde nuestros datos construyen perfi les de consumidores para vendernos productos a través de la publicidad en su propia plataforma o en otras relacionadas. Pero, aún más: al estar en ellas integramos estudios sofisticados que se realizan con los datos que les ofrecemos a través de nuestro comportamiento online.

¿Qué sabe y puede hacer Facebook de nosotros cuando aceptamos sus términos y condiciones? Sabe dónde estamos, a través de la ubicación de nuestro dispositivo móvil. Recolecta información que le damos a otras empresas del grupo Facebook como Instagram o WhatsApp. Comparte nuestros datos con servicios de publicidad, medición y análisis, aclarando que siempre es información “que no permitan la identificación personal”. También, con proveedores de servicios, por ejemplo, los de infraestructura técnica (los servidores donde se guardan los datos), aunque aclara que “estos socios deben cumplir estrictas obligaciones de confidencialidad”. La red social recopila datos de pago como el número de nuestra tarjeta de crédito, la fecha de vencimiento, el código de seguridad y la información de facturación de pagos o transacciones realizadas a través de la empresa.

Facebook aclara que puede compartir nuestra información personal en respuesta a un requerimiento legal, como una orden de registro, orden judicial o citación de organismos, dentro o fuera de Estados Unidos. También puede acceder, conservar y compartir información cuando crea de buena fe que es necesario para evitar el fraude y otras actividades ilegales, para protegerse a ellos mismos o como parte de investigaciones gubernamentales. La compañía conserva información sobre las cuentas que se desactivan por incumplimiento de los términos de uso durante un año, como mínimo, para “evitar que se repitan conductas abusivas o infracciones a las condiciones de uso”. Para sus usuarios, de cualquier parte del mundo, que quieran reclamarle algún aspecto de su política de privacidad, el domicilio de la empresa está fijado en Irlanda, en el número 4 de Gran Canal Square, en Dublín.

Facebook es, después de Google, el segundo sitio más visitado del mundo. Creado en 2004, hoy cuenta con 1.350 millones de usuarios en el mundo, la misma cantidad de habitantes que el país más poblado: China. A ellos se le suman los 300 millones de usuarios de Instagram y los 600 millones de WhatsApp, dos empresas que adquirió en 2012 y 2014, respectivamente. El negocio de Facebook es acumular usuarios que utilicen activamente los servicios, lo cual le garantiza tener perfi les actualizados, saber de qué hablan, qué les gusta, con quién y sobre qué interactúan. Cuando Mark Zuckerberg creó la plataforma en su habitación de la Universidad de Harvard, sabía que una red donde los estudiantes pudieran coquetear y conocerse entre sí tenía que ser exitosa. Su invento superó ese objetivo y hoy también es una plataforma de expresión artística, política, un lugar de encuentro social, familiar y profesional. Pero su función primitiva sigue siendo la base de su éxito: Facebook se trata de que nos vean y ver a los otros.

En ese intercambio emocional Facebook tiene la razón de su éxito. Suponemos que nuestras acciones están siendo “vistas” por alguien más que nuestros contactos. Podemos intuir que al usar su servicio “gratuito” y hacer clic en sus publicidades la empresa está ganando dinero: 60 centavos de dólar (multiplicados por 1.300 millones de usuarios que permanecen un promedio de 40 minutos diarios en la red, la ganancia es millonaria). Intuimos que nada de lo que allí sucede es del todo privado. Sin embargo, en la negociación, preferimos aceptar sus condiciones y olvidar —o ignorar— las consecuencias.

No es sencillo culpar a los usuarios de caer en este canto de sirenas. Los “términos y condiciones” de los sitios de internet, las constituciones que determinan los derechos y las obligaciones dentro de esos espacios virtuales, son algo relativamente nuevo (en 1998 sólo el 14% de las web contaban con políticas de información). Pero, además, están construidos para proteger a los sitios, plataformas o aplicaciones, más que a los usuarios. Un estudio realizado por el escritor Marcus Moretti y el especialista en derechos digitales Michael Naughton sobre los 50 sitios más importantes de Estados Unidos determinó que, sumados, sus términos y condiciones ocuparían 145.641 palabras. Es decir, unas 250 carillas de Word. Pero, aún si los leyéramos, lo que encontraríamos serían una serie de precauciones legales para proteger a las empresas de juicios y multas, escritas con un lenguaje vago, para reducir sus riesgos. En el medio de esas palabras las empresas han ido introduciendo mecanismos que contribuyen a recabar información para la industria de la big data: hábitos de consumo, afiliaciones políticas, orientación sexual, creencias religiosas, historias médicas.

Aceptar los términos y condiciones de un sitio o una red social es lo mismo que firmar un contrato. Pero como requiere un paso tan sencillo como hacer clic no le damos la importancia necesaria. “Si Apple pusiera el texto completo de Mi Lucha de Hitler en los Términos de Servicio de iTunes igual lo aceptaríamos”, bromeó el conductor y periodista norteamericano John Oliver. Sin embargo, al hacerlo, estamos dando consenso a una situación en la que nos convertimos en consumidores no sólo de ese sitio, sino de todo un sistema de publicidad y servicios relacionados. Ése es uno de los grandes riesgos: con sólo decirnos que “otros sitios” usarán la información pueden hacer que sean muchos más. Por ejemplo, al aceptar las condiciones del sitio de noticias de The Huffington Post otras treinta y tres compañías tienen acceso a nuestros datos, según Disconnect App, una aplicación que permite bloquear los servicios de recolección de información de terceros. De los 50 sitios investigados por Moretti y Naughton, 48 recolectan datos para otros. Sólo nueve de ellos informan para quiénes. El resto, lo oculta a cada uno de sus usuarios que hace clic en aceptar.

Si quisiéramos leer los términos y condiciones de los sitios que usamos en un año tendríamos que dedicar entre 181 y 304 horas. Y repetir este procedimiento todos los años, ya que la mayoría de los sitios renuevan sus condiciones. Desde las compañías esto es pura estrategia: si los textos son largos y aburridos, entonces los consumidores no se van a molestar en leerlos o cuestionarlos. Lo cierto es que, en todo sitio que nos ofrezca un producto o contenido gratuito, nuestros datos serán utilizados, desde Facebook hasta sitios de pornografía con millones de usuarios diarios, como Xvideos o RedTube, cuyas políticas de privacidad, si las leyéramos, nos harían pensar dos veces en el placer inmediato que ofrecen sus servicios.

Pero además de escribir textos complejos para explicar algo muy simple (“usaremos tus datos para venderte cosas o para darles tus datos a otras empresas para que lo hagan”) las compañías como Facebook también estudian, a través de equipos propios de big data, los comportamientos de sus usuarios. Del tamaño de un país tan grande como China, Facebook es el laboratorio humano del comportamiento humano más extenso y diverso con que los investigadores pueden soñar. Si además esas personas permiten a la empresa que las estudien, el siguiente paso no debería sorprendernos.

Durante una semana de enero de 2012, el equipo de Facebook Data Science y un grupo de investigadores y científi cos de la Universidad de Cornell llevaron adelante un estudio que luego fue publicado en la prestigiosa revista Procedimientos de la Academia Nacional de Ciencias. Tomaron a 700 mil usuarios y los dividieron en dos grupos. Al primero le alteraron el algoritmo para que recibiera actualizaciones positivas, basadas en un filtro de palabras relacionadas (feliz, alegría, bueno). Al segundo, para leer lo contrario: noticias negativas, imágenes de tragedias, frases con la palabra “no”. Al terminar la semana tomaron nota de qué posteaban los usuarios de uno y otro grupo. El resultado fue obvio: quienes habían recibido estímulos positivos, publicaban cosas felices, y viceversa. El problema es que ninguna de las personas sometidas al estudio fue avisada —explícitamente— de que estaba siendo parte de él.

En junio de 2014, dos años después de la investigación, la experiencia se hizo pública. De inmediato, los medios, las redes sociales y otros científicos se lanzaron a criticarlo. Y Facebook tuvo que salir a dar explicaciones. “La investigación se realizó solamente durante una semana y ningún dato utilizado estaba ligado a una persona en particular”, dijo Isabel Hernández, vocera de Facebook. La empresa también se defendió diciendo que sólo se afectó al 0,04% de los usuarios y que su intención era mejorar el servicio para mostrar contenido más relevante.

El problema es que Facebook podía hacer este estudio, ya que sus usuarios lo habían autorizado cuando daban aceptar a los 9 mil caracteres (3 carillas de Word) de sus términos y condiciones. En todo ese palabrerío, la empresa mencionaba dos veces la palabra “investigación”, informándoles que podían ser parte de experimentos. Sin embargo, la revista Forbes reveló que la palabra “investigación” fue recién incluida en mayo de 2012, cinco meses después del estudio. Y la comunidad científica aclaró: existen reglas estrictas para que los participantes de un estudio brinden un consentimiento informado ante cada procedimiento. No existe algo así como un “consenso general”.

Pero Facebook no sólo hizo esta investigación. Su equipo de Data Science, un grupo de sociólogos e informáticos que se dedican a transformar la big data de la red en resultados sobre los comportamientos y las expectativas de los usuarios, trabaja “a plena luz del día”, da entrevistas y publica sus estudios en los medios. Esta vez, en lugar de estudiar si los enamorados bajan su nivel de interacción cuando se ponen de novios (algo que también habían hecho), alteró emociones sin consentimiento previo, algo con hipotéticas consecuencias (la depresión incrementa el riesgo cardíaco un 5%, por ejemplo). Cuando se conoció el estudio, el filósofo de la tecnología Jaron Lanier escribió en The New York Times: “Sería inimaginable que una empresa farmacéutica pudiera experimentar, aleatoriamente, con una droga, en cientos de miles de personas. Imaginen al investigador diciendo: ´Yo no sabía si te iba a afectar y no te molesté para hacerlo”.

La red social fue tan lejos que el profesor de la Universidad de Cornell Jeff Hancock, coautor del estudio, admitió a la revista The Atlantic: “El algoritmo de Facebook es algo raro que la gente no entiende. No lo hemos discutido mucho como sociedad. Hay un tema de confianza alrededor de las tecnologías”. El argumento de Hancock es que hasta sus propios alumnos no entienden cómo funciona ni siquiera el algoritmo de Google.

La falta de “objetividad” de Google, y también de Facebook, es un aspecto a veces olvidado, pero que también se relaciona con el manejo que las empresas realizan de nuestros datos. Un objetivo vital de ambas compañías es que permanezcamos la mayor cantidad de tiempo posible en sus ecosistemas. De esa forma, ellas se aseguran ganancias superiores. Pero, para lograrlo, necesitan alterar el mundo, es decir, mostrarnos lo que queremos ver (en términos de sus algoritmos, lo más “relevante”) durante más tiempo, rodearnos de estímulos agradables o al menos no conflictivos.

Ese mecanismo detectó el escritor y activista Eli Parisier cuando un día, al ingresar a su muro de Facebook, comenzó a ver que los comentarios de sus contactos con ideología conservadora estaban desapareciendo durante el agitado debate por la nueva ley de salud que impulsaba el presidente Barack Obama esos días. Él, un declarado progresista político, podría haberse alegrado de no leer toda clase de opiniones contrarias a su ideología. Sin embargo, decidió investigar y descubrió que Facebook había estado analizando que él hacía más veces clic en los links de sus amigos progresistas, y que por lo tanto éstos empezaban a aparecer más: si él tendía a actuar más ante ese estímulo, la red social quería que él viera más de ese contenido que del de los conservadores. El problema es que no le consultó si él estaba de acuerdo con esa edición “invisible” y algorítmica de su mundo. Pero Facebook lo había hecho, y puede hacerlo, a partir de nuestro consenso. Google también: prueben buscar una palabra y pídanle a uno o dos amigos que también la busquen y les manden una captura de pantalla de los resultados. Todos recibirán respuestas diferentes. La razón es que Google, Facebook y muchos otros sitios saben desde dónde buscamos, qué pensamos, qué nos gusta, qué edad, sexo, religión y orientación política tenemos. Si no, no sería posible que cada uno reciba un resultado distinto. “No hay más un Google estándar”, dice Eli Parisier, que a partir de su descubrimiento escribió The Filter Buble, donde explica que este mecanismo no sólo puede aplicarse a Google o Facebook, sino que es también utilizado por buscadores como Yahoo News o sitios de información como The Huffington Post o The New York Times.
El planteo de Parisier vuelve al problema de un mundo donde, a partir de los datos masivos que tienen las grandes empresa de tecnología sobre nosotros, el universo de lo que vemos, accedemos, leemos o podemos descubrir se reduce cada día a una serie de opciones más personalizadas pero también más restringidas. “La Red, que iba a permitir un mayor debate, que iba a contribuir con la democracia, resultó convertirse en lo contrario”, advierte el escritor.

El concepto de la burbuja de filtros que construimos cuando aceptamos el dominio de los algoritmos sobre nuestros datos no queda entonces sólo en una decisión individual. Es, también, un problema colectivo. Pero requiere de algo fundamental: nuestro consenso. Al igual que con una democracia, primero se necesita que elijamos vivir en ella y quienes nos representarán. Luego, que aceptemos y cumplamos las reglas que la delimitan. En las redes sociales acontece algo parecido: son un espacio público donde lo que decimos o mostramos no sólo puede verlo cualquiera, sino que además tiene relevancia para lo que nosotros mismos veremos en el futuro. La responsabilidad, en ese y otros ámbitos de la vida digital, es nuestra, como ciudadanos de las redes, un espacio más que habitamos.

Pero allí anida uno de los grandes conflictos: cómo aplicar la responsabilidad y el control cuando podemos tener en la mano un aparato que nos resuelva todo con un par de clics. Eso también sucede con los teléfonos móviles y sus aplicaciones, que bajamos y utilizamos sin preguntarnos demasiado a dónde van los datos que les damos a sus dueños.

admin | 23.02.2016

0 Comentarios

Dejá tu comentario