Para lograrlo, cinco voluntarios se sometieron a escáneres de IRMf mientras escuchaban música de una selección de 500 canciones de 10 géneros diferentes.
Los científicos tomaron los escáneres de la actividad cerebral de los voluntarios y los introdujeron en un modelo de inteligencia artificial llamado Brain2Music. Este programa procesa la información de los escáneres para crear canciones inspiradas en las que los voluntarios estaban escuchando.
Las nuevas canciones generadas por la IA se produjeron utilizando MusicLM, una herramienta de producción de Google que es un modelo de conversión de texto en música capaz de crear pistas basadas en descripciones de texto.
En el estudio publicado, los investigadores describen la música creada por la IA como similar a «los estímulos musicales que experimentaron los sujetos humanos, con respecto a propiedades semánticas como el género, la instrumentación y el estado de ánimo».
También señalaron cómo este ejercicio les permitió estudiar cómo las «regiones cerebrales representan información derivada de descripciones puramente textuales de estímulos musicales».
Por otra parte, Instagram trabaja en una función para distinguir las publicaciones generadas por IA.
Sigue toda la información de HIGHXTAR desde Facebook, Twitter o Instagram