Más allá del auge de los formatos sonoros, la voz y el sonido podrían configurar una nueva relación entre los humanos y las máquinas.
Publicado en: CCCBLab
Por: Jorge Carrión
El éxito del podcast o del audiolibro se ha traducido en un enorme crecimiento de las ficciones sonoras. Pero esta nueva popularidad del audio no solo afecta a la creación literaria o audiovisual. El uso del sonido está muy relacionado con una nueva forma de interacción con la tecnología que difumina los límites entre lo físico y lo digital.
Con más de seis millones de descargas desde su estreno en 2016, El gran apagón muy probablemente sea el pódcast de ficción en español más escuchado de la historia. Y ya han sobrepasado el millón de descargas las dos temporadas emitidas de Guerra 3, que estrenaron dos años después los mismos creadores, el guionista José A. Pérez Ledo y la directora Ana Alonso. Mientras que la primera historia fabula las consecuencias de una intensa tormenta solar que deja sin electricidad al planeta entero, la segunda reconstruye los movimientos mediáticos, políticos y militares que conducen a la Tercera Guerra Mundial.
Tal vez porque ambos excelentes relatos coinciden en ser globales y conspiranoicos, de pronto he sido consciente de que no es casual que la explosión del formato pódcast y del audiolibro –en cuyo contexto se inserta el fenómeno de las ficciones sonoras– haya coincidido con la paulatina omnipresencia de voces digitales en nuestra vida cotidiana. No hacen más que multiplicarse los chatbots, los mensajes sonoros, las interfaces de búsqueda, los asistentes personales, los dispositivos conversacionales, los auriculares inalámbricos y los sistemas de reconocimiento por voz. Las grandes empresas tecnológicas tramaron una gran ficción sonora hace más de una década que se ha ido convirtiendo en una realidad unánime.
Vivimos en una auténtica explosión creativa de los formatos de audio que ha empezado a establecer un nuevo canon del arte y del entretenimiento, el de obras de ficción y documentales que crean sofisticados paisajes sonoros para introducirse –a través de nuestros tímpanos– directamente en la imaginación. Pero las narrativas artísticas y las corporativas se confunden. Y las razones profundas de la expansión del universo pódcast son tan complejas que por momentos también parecen ficción.
Aunque existieran interfaces de audio desde mucho antes, 2011 es el año en que se empezó a tramar definitivamente la revolución que ahora estamos viviendo. El 14 de octubre se presentó a Siri como parte de los servicios del iPhone 4S. Ese mismo año Spotify llegó a los Estados Unidos y Amazon empezó a trabajar en el llamado «Proyecto D» con el objetivo de construir a Echo y a Alexa, cuya primera versión llegó al mercado en 2014. Entonces Facebook compró WhatsApp, se emitieron las primeras temporadas de dos series para escuchar que marcaron un antes y un después, Serial (podcast) y Homecoming. Pocos meses antes se había estrenado la película Her, de Spike Jonze, que imagina una historia de amor entre un usuario y su asistente virtual.
Mientras tanto en Asia y en África millones de personas descubrían la conexión cotidiana a internet directamente a través de sus teléfonos inteligentes, sin haber pasado previamente por un ordenador. En muchos idiomas –entre ellos el chino– era y sigue siendo mucho más fácil grabar un archivo de voz que construir mensajes con teclados, de modo que la opción oral rápidamente fue conquistando territorios lingüísticos y geográficos en detrimento de la escrita. Como los persoasistentes occidentales costaban entre cien y doscientos dólares, Alibaba lanzó el 5 de julio de 2017 su Tmall Genie por 73,42 dólares. Xiaomi –el principal productor de smartphones de bajo coste de China– inició al mismo tiempo su propia revolución con el altavoz Mi AI, que es el centro de un ecosistema doméstico inteligente de dispositivos conectados a través de sensores.
En Superpotencias de la inteligencia artificial, un ensayo imprescindible para entender las tensiones tecnológicas y geopolíticas de nuestro momento histórico, el programador, inversor y divulgador chino-americano Kai-Fu Lee (que diseñó, por cierto, Sphinx, el primer sistema de reconocimiento independiente de voz) afirma que la revolución de la IA nos está invadiendo en cuatro olas sucesivas.
Las dos primeras, la IA de internet y la IA empresarial, ya han reformateado la realidad. La cuarta está por llegar: supondrá la automatización de miles de trabajos y procesos. Pero la que me interesa en este ensayo es la tercera: «La IA de la percepción está ya digitalizando nuestro mundo físico, aprendiendo a reconocer nuestros rostros, comprender nuestras peticiones y ver el mundo a nuestro alrededor». Se trata de la transformación radical de las interacciones entre humanos y máquinas, borrando los límites entre lo digital y lo físico.
La explosión creativa de las ficciones sonoras y de los pódcast no se entiende sin ese contexto corporativo absolutamente favorable. No se trata de rechazar ningún lenguaje o canal, porque en el auge o declive de todos ellos siempre hay intereses empresariales: la nueva realidad tecnológica nos conmina a ser consumidores, espectadores o lectores cada vez más conscientes y críticos. No es un delirio pensar que, como el tacto de los teclados y de las pantallas sigue siendo frío, los tecnólogos han encontrado en el sentido del oído una estrategia para inyectar calidez en nuestras relaciones con nuestra maquinaria cotidiana. Y que las series para escuchar de Spotify o Storytel, o los documentales sonoros de la BBC, son una consecuencia directa de ese plan maestro.
Son millones las soledades que en estos momentos están confinadas en todos los rincones del planeta Tierra. Si Google ya era, antes de la pandemia, el lugar donde buscábamos respuestas a todas nuestras preguntas, en estos meses nuestra dependencia tecnológica no ha hecho más que incrementar. También Siri y Alexa ofrecen consejos e información sobre el COVID-19 y sus consecuencias. Sus voces no son todavía tan sensuales como la de Scarlett Johansson en Her, pero tiempo al tiempo. El pasado 14 de febrero, día de San Valentín, millones de personas de todo el mundo dijeron a Alexa que la amaban. La habilidad «I love you» del asistente de voz de Amazon, que solamente está disponible en inglés, le permite variar las respuestas a las declaraciones de amor de sus dueños. Puede llegar a responder «yo también te quiero». Para muchos eso será un alivio; algunos lo verán con simpatía; pero a mí –lo confieso–, me da un poco de miedo.