Les IA commencent petit à petit à s’installer dans notre quotidien au travers d’outils tous plus spécifiques les uns que les autres. Microsoft en a ajouté dans ses services, Apple compte bien en faire de même et Google planche déjà sur des projets totalement fous, comme celui qui va suivre.
L’intelligence artificielle au service de notre quotidien
Les intelligences artificielles (IA) ont connu des avancées remarquables ces dernières années (et surtout ces derniers mois), transformant la manière dont nous abordons de nombreux aspects de notre vie quotidienne. De la reconnaissance vocale aux véhicules autonomes, en passant par les systèmes de recommandation en ligne, les applications de l'IA sont de plus en plus présentes dans notre monde moderne. Et pour ceux qui se posent encore la question, les IA sont des systèmes informatiques capables d'apprendre à partir de données et d'exécuter des tâches qui nécessitaient autrefois une intelligence humaine.
L’une des branches les plus fascinantes de l'IA concerne la création artistique et musicale. Comment les machines peuvent-elles apprendre et recréer des éléments subjectifs comme la musique, qui évoque des émotions et des expériences uniques pour chaque individu ? Une récente étude a exploré la capacité d'une IA à générer de la musique en se basant sur l'activité cérébrale, ouvrant ainsi de nouvelles perspectives quant à la compréhension de la manière dont nous appréhendons et créons des œuvres musicales.
Une IA qui connaît vos plaisirs coupables
Des chercheurs ont développé un pipeline basé sur l'intelligence artificielle (IA) appelé Brain2Music, qui utilise des données d'imagerie cérébrale pour générer de la musique correspondant au genre, au rythme, à l'humeur et à l'instrumentation de la musique écoutée par une personne. Ils ont utilisé des données d'imagerie cérébrale provenant de participants écoutant différents genres musicaux (blues, country, disco, hip-hop, jazz et pop) et ont formé un programme d'IA pour établir des liens entre les signaux cérébraux et les caractéristiques musicales. Ce programme a ensuite été utilisé pour convertir de nouvelles données d'imagerie cérébrale en extraits musicaux. Un modèle d'IA appelé MusicLM a été utilisé pour générer des clips musicaux ressemblant aux extraits musicaux originaux, avec une correspondance d'environ 60% en matière d'ambiance musicale.
L'accord, en termes d'ambiance de la musique reconstruite et de la musique originale, était d'environ 60%. La méthode est assez robuste sur les cinq sujets que nous avons évalués. Si vous prenez une nouvelle personne et formez un modèle pour elle, il est probable que cela fonctionnera également bien. Timo Denk, co-auteur de l'étude
L'objectif principal de cette étude collaborative entre Google et l'Université d'Osaka est de mieux comprendre comment le cerveau traite la musique, en identifiant les régions cérébrales impliquées lors de l'écoute musicale. Cette technologie offre une fenêtre unique sur la complexité de notre cerveau et de nos expériences musicales. Alors que les chercheurs continuent d'explorer les possibilités de Brain2Music et de technologies similaires, de nouvelles découvertes pourraient émerger non seulement concernant notre compréhension de la musique, mais aussi sur les mécanismes fondamentaux de la perception et du traitement de l'information dans le cerveau humain.