Cultura

Tanto el cine como las series de ciencia ficción populares a este lado del mundo -principalmente producciones gringas- han influenciado la frecuente asociación entre inteligencia artificial con robots y supercomputadoras capaces de dominar la tierra. Esto es, hasta cierta parte, verdadero... pero hay mucho más detrás.

 Por Camila Cordero y D. Vásquez

Desde el mensaje en Whatsapp que revisaste al despertar a la foto en Instagram a la que diste like; desde el estado que compartiste en Facebook hasta la dirección que buscaste en Maps para llegar a un lugar. Toda aplicación que usas, cada interacción en la plataforma y cada click que haces, están mediados por sistemas computacionales conocidos como inteligencia artificial.

La información que se acumula de estas interacciones es utilizada por el mismo programa para aprender las preferencias de quien lo utilice y, de esta forma, optimizar el procesamiento de datos -a esto se le conoce como machine learning o aprendizaje automático-, siendo utilizado también en el desarrollo de nuevos dispositivos, programas y funciones. Esta información viaja por múltiples infraestructuras digitales y físicas, como servidores, aplicaciones y cables de internet, para ser procesados por los distintos proveedores de estos servicios.

Un ejemplo claro del poder que esta información puede entregar a quienes la posean es el reciente caso en el que se ha visto envuelta la empresa Cambridge Analytica. Esta compañía británica estuvo involucrada en el uso desautorizado de los datos de más de 50 millones de cuentas de Facebook para la campaña propagandística de Trump en EE.UU., además de haber trabajado con métodos similares en elecciones presidenciales de Argentina, República Checa, Nigeria, Kenia y la India.

Debido a que quienes desarrollan este tipo de tecnologías son gigantes privados como Facebook, Microsoft, Google, Siemens, entre otras, han surgido distintas voces críticas a la gran concentración de información que poseen estas empresas a través de sus infraestructuras.

Una de ellas es Marta Peirano, actualmente encargada de la sección cultural del periódico español Eldiario.es, quien se ha dedicado a la investigación y análisis de infraestructuras digitales, los derechos civiles en la web y la difusión de la cultura libre en internet. También ha trabajado en diversos proyectos sobre seguridad, privacidad y criptografía para periodistas.

La discusión hoy está centrada en el poder que el big data -la concentración de información derivada de la interacción entre máquinas y usuarios- podría entregar a quienes lo manejan y los distintos usos que se le podría otorgar. Después de todo, el fin real de las aplicaciones que se crean es conocido solo por sus desarrolladores (que mayoritariamente son hombres blancos heterosexuales primermundistas), y en función de las compañías para las que trabajan.

El sistema de financiamiento de las páginas web actuales se basa principalmente en la publicidad, ¿Nos puedes hablar un poco al respecto?

Cuando llegas a un medio no te dicen que tienes que tener más visitas para tener publicidad y poder financiarte. Es una pelota que depende de un sistema publicitario que, en realidad, estaba pensado para las páginas porno. O sea, los primeros que pensaron cómo sacarle pasta a internet fueron las webs porno y, entonces, el hiperclick en estas webs tenía todo el sentido del mundo, porque tú le dabas a algo y te salía porno. Pero ahora, si pinchas una publicidad, lo que te sale es más publicidad. El modelo se ha vuelto irracional.

Desde tu mirada como investigadora, ¿Cómo funcionan los sistemas e infraestructuras de información, particularmente en el caso de Facebook? y ¿cómo afecta a la información que se genera en la burbuja?

El primer dato importante es que los algoritmos de Facebook son opacos. Es decir, lo que ellos dicen que hacen, probablemente no lo hacen… Sabemos que no lo hacen. Lo que nosotros pensamos que hacen, no sabemos si lo hacen.

Marta explica que ésto se debe a que solo los programadores informáticos saben las instrucciones y conocen el lenguaje que se le ha introducido a la máquina, el tipo de lógica que ésta debe seguir y las decisiones que debe tomar entre las posibilidades que se le presentan.

El trabajo que hay que hacer no es ver lo que están haciendo los algoritmos, sino que acceder a un registro de lo que se ha hecho, para ver si de eso se puede sacar alguna conclusión. Actualmente hay artistas que se han dedicado a este trabajo, que es lo que quizá deberíamos estar haciendo los periodistas. O sea, han hecho un trabajo forense para ver cuáles son las dependencias de Facebook, cómo se mueven, qué tipo de formas tiene su trabajo, y eso.

Y a lo que han llegado es a que la movida con los algoritmos de Facebook es que el negocio de Facebook somos nosotros.

El algoritmo es básicamente un conjunto de procesos destinados a resolver un problema, y el problema de Facebook es: cómo mantengo a esta gente pegada al teléfono el tiempo suficiente para que generen la información que yo le vendo a mis clientes. Pero a mis verdaderos clientes: empresas de marketing que favorecen campañas como la de Trump en E.E.U.U o la de Macron en Francia, ese tipo de clientes, ¿No?

¿Y qué pasa? Que son algoritmos que por el problema que resuelven, generan un montón de problemas más. El primero es que nos mantienen pegados al teléfono, y eso a mi me parece injusto porque los mejores diseñadores, programadores, psicólogos, psiquiatras, antropólogos y sociólogos del mundo, están ahora trabajando para Facebook; es decir, estamos hablando de un producto generado por las mentes más brillantes del sistema, trabajando para que la gente se quede pegada al teléfono.

Según datos de la OCDE publicados el año pasado, en Chile un 40% de l-s jóvenes pasan entre dos y seis horas diarias en internet, de las que, al menos una hora y media serían exclusivas para Facebook.

Una de las cosas que han descubierto rápidamente, es que es más fácil hacerte interactuar cuando estás enfadado que cuando estás contento. Ahora mismo, Facebook utiliza machine learning para optimizar estos procesos.

El machine learning (aprendizaje automático) es un tipo de inteligencia artificial en el que la máquina aprende a través de la interacción con el usuario y sus preferencias. En el caso de Facebook, el algoritmo aprende de nuestros inicios de sesión, likes, ubicación, interacción con páginas y otros usuarios, comentarios, cuentas anexadas con otras aplicaciones, fotografías, entre otros elementos.

El problema que tiene el machine learning es que, al ser una  confluencia de bases de datos y de algoritmos, donde “la máquina piensa autónomamente”, no se puede comprender cómo funciona. Y claro, no sabemos cómo Facebook consigue lo que consigue, y Facebook probablemente tampoco lo sabe.

Durante este año entrará en vigencia una regulación que, en principio, exigirá que toda la inteligencia artificial pueda explicarse a sí misma, y esto es un problema tecnológico importante porque el machine learning nos soluciona muchos problemas, pero no nos explica cómo. Entonces, hay un montón de proyectos actuales que están destinados a intentar hacer que el machine learning tenga “pasos hacia atrás”; que tú puedas decir “Uh, ¿En qué momento la máquina decidió que enfadar a alguien era mejor que ponerle contento?”.

Esta regulación no está vigente aún en ningún país del planeta. Sin embargo, en algunos estados europeos y gringolandia se está invirtiendo en sistemas de inteligencia artificial que sean capaces de explicar su propio funcionamiento, así como de determinar las lógicas de funcionamiento de otras inteligencias artificiales.

“Facebook, ahora mismo no es una entidad política, pero trabaja como una porque genera una sociedad muy concreta: una sociedad que está enganchada a la tecnología, que está constantemente produciendo información, todo el rato diciendo “yo, yo, yo, yo, yo”; todo el rato interviniendo en conversaciones ajenas -algo que nosotros no hacíamos, porque no hablábamos con gente que no conocíamos -. Y ahora ese tipo de cacareo -del que yo pienso que todos estamos súper cansados- es el resultado de un algoritmo que solo quiere vender nuestra información. Pero nos transforma en el proceso.

Parece ser que la forma en que trabajan los desarrolladores es en base a optimizar los trabajos de las empresas, sin fijarse en cómo ésta afecta a las personas. ¿Tú crees que esto es una tónica normal? ¿Crees que es algo que se da en todo el mundo?

Totalmente, y volvemos a lo de antes. Pensamos que el algoritmo es un conjunto de funciones destinadas a que una operación sea más eficiente, porque nos han vendido que “si lo hace una máquina, se eliminan los errores”, ya que se elimina el factor humano. Sin embargo, los algoritmos son tan políticos como opacos, ya que no hay una ley de transparencia que les obligue a ser visibles -salvo que sean software libre, que normalmente no lo son-. Por esto, lo que la gente tiende a pensar es que el problema que resuelve el algoritmo no es el problema que resolverían ellos.

Como ejemplo de lo anterior, en donde se confía en la ‘objetividad’ del algoritmo para elegir entre distintas opciones, Marta recuerda el caso de United Airlines ocurrido en abril de 2016, en Chicago, cuando se difundió un video que mostraba a dos guardias de seguridad que sacaban a rastras y sangrando a un pasajero que debía abandonar el vuelo.

Y cuando se hizo noticia, los videos acabaron en la red, y el director de United Airlines tuvo que salir a explicar lo que había pasado. Dijo que tenían que sacar a gente del avión porque había overbooking (sobreventa) y que habían ocupado un algoritmo para sacar a alguien. Entonces, lo consideró válido, porque si llega a decirle a una azafata “elige a una persona y sácala del avión”, todo el mundo pensaría que eso es horrible, que es discriminación.

Entonces, se piensa que el trabajo del algoritmo es elegir a una persona aleatoriamente. O, a lo mejor, hacer una ecuación de cuántas mujeres y hombres hay; intenta de alguna manera ser justo. Pero NO, ese algoritmo trabaja para United Airlines. Claramente lo que ha hecho ha sido hacer un cálculo de cuál es la persona que menos vale del avión; la que menos viaja, la que viaja de saldo, la que no pertenece a ninguna empresa que tenga muchos clientes volando, etcétera. Ha hecho un cálculo rápido de cuánto ha pagado por su billete, de cuántas veces ha viajado en la aerolínea. Y salió este señor. No se puede ser más político que eso. Y hay que acordarse siempre de que los algoritmos nunca resuelven el problema que nosotros creemos que resuelven, sino que el de la empresa para la que trabajan.

Desde el punto de vista de las estructuras, ¿Nos puedes explicar la relación política con los algoritmos? Porque generalmente se habla de los algoritmos o los programadores, pero no se cuestiona la infraestructura de internet y la manera en la que llega a distintas comunidades en el mundo

A ver, la cuestión es que el 99% de la red son cables submarinos. Son los más caros que hay. Y son importantes porque le pertenecen a alguien, y normalmente no les pertenecen a los países que sirven. Es más, hay países que están sujetos a un cable submarino que pertenece a un país al otro lado del Atlántico, en el que un día, si en una planta se quedan sin luz, todo el país del otro lado se queda sin internet.

Hay una especie de nuevo colonialismo, como de sistema de dependencias, en el que no pensamos mucho porque son cables que están ocultos. Un sistema invisible. Antes, los grandes sistemas eléctricos pasaban por las vías ferroviarias, las plantas eléctricas. Estructuras que eran diseñadas para ser visibles. Ésta, sin embargo, está diseñada para desaparecer. Para que tú te imagines la metáfora: todos conectados con todos.

Si yo te mando un correo postal, tú sabes lo que pasa: yo meto la carta en el buzón, desde donde se mueve hacia la oficina de correos, en la cual lo mandan a la central. Vienen los carteros, lo recogen, se distribuyen por distritos y luego te lo entregan en tu casa. Pero un mail, ¿tú sabes lo que hace un mail? Un mail pasa por ochenta países, y en cada país pasa por cinco mil infraestructuras antes de llegar a ti. Y cada una de esas infraestructuras las gestiona una empresa distinta. Y en alguna de esas infraestructuras, habrá personas escuchando que ni siquiera pertenezcan a una empresa, sino que, por ejemplo, a organizaciones criminales que se dedican a vender tus datos en el mercado negro.

El mercado de los datos es un mercado multimillonario y mucha gente trabaja por debajo de la superficie. Basta con que haya una infraestructura no muy bien protegida para que todos esos datos acaben en malas manos.

No pensamos mucho en todo ese viaje que hacen nuestros datos, pero en cada punto del viaje perdemos algo: nuestros datos acaban en un sitio y, aunque parezca que ninguno de nosotros somos súper importantes y da lo mismo lo que ocurre, no estamos pensando que los que registran esos datos no son personas que están pensando “bueno, si eres Madonna me quedo con tus datos, pero si eres X…”. No. Son algoritmos. No se fijan en quién eres tú, sino en lo que haces. Y lo que haces lleva hasta ti.

Si dentro de diez años quieres presentarte a las elecciones, tienes un dosier en el que se cuenta una historia sobre ti, que puede ser cualquier historia. Sobre todo porque hay empresas que tienen los datos y tú no. Es como si yo supiera todo lo que has hecho en los últimos cinco años de tu vida, desde el primer día, hasta el último, cada segundo del día; y tú no. Y yo te dijera: “¿Dónde estabas el sábado 13 de septiembre del 2012?”, y tú dijeras “No lo sé”. Pero yo sí lo sé. Entonces, yo puedo contar lo que quiera sobre ti, puedo contar la historia que quiera, porque yo tengo los datos, tú no. Yo puedo decir que ese día hiciste tal cosa y que X persona estaba en la misma habitación que tú, etc. Yo puedo coger toda esa información y crear una narrativa que me convenga a mi y no a ti. Y tú no puedes contestarla, porque yo tengo los datos y tú no.

O sea, esto es lo jodido. Porque te hace vulnerable de mil maneras distintas. Por ejemplo, los datos de salud. El día de mañana te quieres ir a EE.UU. y tener un seguro médico, todos esosdatos pueden hacer que tu seguro médico sea mucho más caro. Porque pueden tener datos de tu ADN, porque un miembro de tu familia se hizo una prueba para ver de dónde provenían sus ancestros, y de repente saben que tienes predisposición genética a tener un cáncer o problemas en la espina dorsal, o lo que sea. Entonces, todo esto forma parte del cálculo de cuánto te va a costar tener un seguro médico. Toda esa información, cuando se concentra alrededor tuyo, no solo por los datos que tú generas, sino por todos los que han ido a su alrededor, coartan tu libertad de mil maneras distintas.

¿Cómo, entonces, ejercemos la soberanía sobre nuestros datos? ¿Cómo crees tú que logramos empoderar, tanto al aparato estatal como a las personas, para ser conscientes de esto?

Hasta hace muy poco habría dicho “usando criptografía”, que ha sido mi tema de muchos años. Ahora te digo lo que he dicho en otras oportunidades: consiguiendo que las infraestructuras por las que viajan tus datos, al menos, les pertenezcan al país en el que vives y tienes derechos. Y es muy difícil, pero es lo más importante. Pues, ahora, los grandes consorcios de Internet que han decidido descartar la neutralidad de la red, y eso significa que la criptografía no va a valer para nada. Porque las estructuras que están centralizadas en los sitios que, por ejemplo, pueden prohibir la criptografía, son las estructuras fundamentales de la red.

Y son privadas.

Entonces, lo importante es la infraestructura. Todo lo demás, viene después.

Frases

“Un cambio social real nunca ha sido llevado a cabo sin una revolución… Revolución no es sino el pensamiento llevado a la acción.”
-Emma Goldman