Por Pablo Corso. Después de dos décadas de turbulencia, la industria de la música y sus clientes parecen atravesar un período de calma. Si queremos disfrutar de nuestros artistas favoritos o ir en busca de novedades estimulantes, ya no hace falta pagar canciones en dólares ni bucear en el submundo para-legal de las descargas. Con su apariencia amigable, usabilidad intuitiva y una buena fama cultivada en Estocolmo, Spotify vino a resolver el dilema para millones de personas que habían caído en el desconcierto, mientras también se derrumbaba el negocio del disco físico. Todo está ahí y todo está ahora, en apariencia sin trampas. Nos encanta escucharlo en Spotify… pero a Spotify también le encanta escucharnos.
Al menos esa es la alarma que están encendiendo personas como Evan Greer, la artista queer e indie-punk detrás de una exigencia que suena razonable: que Spotify abandone públicamente sus intenciones de usar tecnologías de vigilancia invasiva, con una patente particular en el ojo de la tormenta. El 12 de enero la plataforma con 345 millones de usuarios activos (155 millones premium) recibió la aprobación de una solicitud que había presentado dos años atrás: un programa de inteligencia artificial (IA) para registrar la voz y el ruido de fondo de sus usuarios como una forma de entender mejor sus emociones, entrenar los algoritmos y presentar una performance que se adapte (todavía más, todavía mejor) a lo que quieren oír… o a lo que creen que quieren oír.
A medida que descifre cualidades como entonación, énfasis y ritmo, además de las señales emitidas desde el entorno, la plataforma podría revelar hábitos y contextos de escucha, que a su vez destraben nuevos niveles de información sobre edad, género o acento idiomático. La justificación oficial es que se trata de una método para preguntar menos, volviendo la experiencia de personalización menos burocrática y tediosa. Pero Greer tiene otras preguntas. “El hecho de que Spotify haya presentado una patente para esta clase de vigilancia y manipulación emocional es más que escalofriante”, insiste la artista, que lanzó una petición online para frenar el desarrollo. “Imaginá que le contás a una amiga que te sentís deprimida, que Spotify lo escuche y que su algoritmo te recomiende una música que coincida con ese estado de ánimo, para así mantenerte deprimida y escuchando lo que quiere que escuches”.
Sin fecha para una puesta en marcha, la empresa aclara que quizá nunca lo haga. Todas las preguntas que surgen por decantación se relacionan a las motivaciones últimas de una organización que, irónicamente, no suele abrir al público datos fundamentales, como las regalías exactas que destina a los artistas, asunto que -dada la disconformidad por lo que ven en sus cuentas bancarias- amenaza con dinamitar el modelo en cualquier momento.
Sensatez y sentimientos
La tecnología de reconocimiento de emociones detecta -y se nutre- de los patrones de imagen y discurso de quienes están al otro lado de pantallas y micrófonos. Ya se emplea en áreas como el marketing, la seguridad y los recursos humanos. Sirve para monitorear a trabajadores remotos y guiar a estudiantes en las aulas. Con el impulso que le dio la pandemia, es una línea de investigación en crecimiento, con un valor proyectado de 37 billones de dólares para 2026. Por otro carril discurren las preguntas sobre su funcionamiento y los dilemas éticos. Cada vez más voces piden regulaciones estatales e internacionales. Estos programas podrían llevar a “suposiciones equivocadas sobre estados y capacidades internas a partir de apariencias externas, con el objetivo de extraer más de lo que las personas deciden revelar”, plantea Kate Crawford, que es al mismo tiempo investigadora de Microsoft y especialista en ética de la IA.
Conocedora del contexto en que se mueve y aún sin perder las esperanzas, Greer recuerda que internet todavía mantiene “el potencial para mejorar nuestra sociedad profundamente, eliminando la escasez aparente y permitiendo el acceso universal al conocimiento y la creatividad humanos, mientras asegura que los artistas independientes y marginalizados seamos compensados de forma justa por nuestra labor”. Permitir a un puñado de compañías dominar la industria con un modelo parasitario y opaco, en cambio, nos llevará a “un futuro distópico donde los algoritmos decidirán lo que veamos y escuchemos basándose en las ganancias más que en el arte”. Cabe preguntarse si corresponde cargar la culpa de esa deriva sólo a los algoritmos, pero esa es otra discusión.
En una carta al CEO de Spotify Daniel Ek, el grupo de derechos digitales Access Now también advirtió sobre los riesgos de incurrir en acciones discriminatorias. Si las inferencias de género se hacen mediante un sistema binario masculino-femenino, es muy probable que se confunda el correspondiente a una persona trans, advierte la ONG. También hay preocupación por las violaciones a la privacidad: nadie quiere a una máquina siguiendo sus conversaciones personales todo el tiempo. No menos importante es la inquietud por la seguridad de los datos, que podría atraer a terceros interesados, desde funcionarios gubernamentales entrometidos hasta hackers maliciosos.
“Mientras muchos de nosotros en teoría queremos que nuestras computadoras entiendan quiénes somos y qué queremos, con demasiada frecuencia la industria no piensa bien en cómo sus innovaciones afectarán a los distintos tipos de personas o qué clase de daño puede causar la recolección de datos”, plantea Axios, un sitio web preocupado por la erosión de la verdad y la sensatez en las noticias. En este contexto, “la información que le damos a las empresas se vuelve difícil de recuperar cuando empiezan a usarla de formas que nos vuelven infelices”. Así las cosas, la propia Greer propone un manifiesto de salida en The tyranny of either/or”, su último single. “Sólo queremos ser nosotros mismos / sólo queremos vivir nuestras vidas / nos negamos a obedecer / merecemos algo más que sobrevivir”. Es un punk-rock rápido, furioso y casi alegre, que se puede escuchar en Spotify.
Photo by Elice Moore on Unsplash