FORWARD
Now Reading:

François Pachet : « L’intelligence artificielle va permettre de créer des musiques plus intéressantes »

A l’occasion de la sortie des deux premiers titres de « Hello World », le premier album composé avec de l’intelligence artificielle, nous avons rencontré François Pachet, l’ancien directeur du Sony Computer Science Laboratory Paris (CSL) qui a intégré Spotify l’année dernière.

Cet album, produit sur le label indépendant « Flow Records », est une compilation de morceaux imaginés par différents artistes qui auront chacun utilisé les technologies d’intelligence artificielle provenant du projet de recherche scientifique « Flow Machines » qui était mené par François Pachet au sein de Sony depuis cinq ans.

L’équipe de Forward a été interviewer ce chercheur et musicien qui pense que l’utilisation de l’intelligence artificielle « est la prochaine étape dans l’évolution des outils d’aide à la création musicale ».

 

[Forward] En quoi a consisté le projet Flow Machines que vous avez mené au Sony CSL Paris ?

[François Pachet] Ce projet scientifique a été financé par l’European Research Council (ERC) pendant 5 ans et s’est terminé en juillet 2017. Il avait pour objectif de voir comment on pouvait modéliser les styles en musique et en littérature, ce qui a été réalisé avec succès. On a ensuite essayé d’appliquer tout cela pour créer des nouveaux outils de composition musicale permettant de générer des productions avec un style donné. L’idée n’était pas de faire des automates mais plutôt des outils d’assistance à la composition ou à la création.

La dernière année du projet, on a réalisé beaucoup d’expériences musicales avec plusieurs musiciens. Le premier musicien à s’être joint au projet est Benoit Carré, un musicien pop qui avait fait partie du groupe Lilicub. On avait envie d’utiliser ces technologies et algorithmes que nous avions développés pour faire de la « vraie musique », c’est-à-dire de la musique qui soit complètement produite et distribuée via les canaux habituels afin de la confronter au public.

Il y a donc eu un concert en octobre 2016. Deux titres sont également sortis sur Youtube, « Daddy’s Car » et « Mr Shadow ». Et surtout on va lancer début janvier 2018 un album entier composé par plusieurs d’artistes qui ont utilisé nos technologies pour créer des morceaux dans différents styles (pop, electro, jazz etc).

 

 

A-t-il été facile de trouver des artistes avec qui collaborer ?

On a eu très peu de réponses négatives (environ 10% de refus) et ce quelque soit l’âge des artistes, mais on était de toute façon limité car c’était un projet de recherche et expérimental. La prochaine étape est d’arriver à développer des outils qui soient plus faciles à utiliser pour justement augmenter le nombre d’utilisateurs.

 

Comment les artistes ont-ils utilisé votre technologie d’intelligence artificielle ?

Les outils que nous avons créés sont de deux types. Il y a d’une part les outils qui permettent de fabriquer des partitions (« lead sheets ») en fonction du style que l’utilisateur veut explorer, et d’autre part les outils qui permettent de fabriquer de l’audio à partir d’une partition et de fichiers audios existants.

Les artistes ont utilisé plutôt l’un ou l’autre des types d’outils en fonction de leur goûts et de leur style de musique. Les musiques sophistiquées du point de vue mélodico-harmonique se prêtent bien à la génération des « lead sheets », tandis que les musiques dans lesquelles l’aspect audio, le son et les timbres sont très importants seront plus adaptées pour la génération d’audio.

Ces deux types d’outils répondent ainsi aux deux dimensions de la musique : la dimension symbolique et la dimension de l’audio.

 

 

Les artistes étaient-ils complètement autonomes avec ces outils ?

Les outils étaient disponibles via des « web-services ». Mais les artistes venaient tout de même au studio pour qu’on les aide à comprendre comment ça marche.

On était un laboratoire de recherche donc on n’avait pas de ressource pour faire une belle interface ou un mode d’emploi par exemple.

 

Comment les données d’entrée étaient-elles fournies à l’intelligence artificielle ?

Pour la création de partitions, on avait mis à disposition des artistes une énorme base de données de « lead sheets » existantes.

Pour la création d’audio, on avait créé nous-mêmes des musiques et on en avait récupéré certaines sur le web. Les artistes électro voulaient aussi souvent rajouter leurs propres fichiers audios « stems » qu’on transformait.

 

 

L’utilisation de ces outils a-t-il un impact sur le processus de création artistique ?

Oui tout à fait. Cela génère des nouveaux actes créatifs, le premier étant de choisir ce qu’on va mettre dans le système. Et il n’y a qu’un musicien avec une intention et un projet qui puisse choisir ces données d’entrée.

Les autres actes créatifs sont d’agir sur les paramètres d’aller-retours et de sélectionner ce qui est bon parmi les propositions de la machine.

Ces technologies sont juste des outils et il faut toujours un musicien derrière.

 

 

Une intelligence artificielle pourra-t-elle être un jour complètement autonome en terme de création musicale ?

Personne ne sait aujourd’hui comment doter un algorithme ou une machine d’une capacité d’intention ou d’une capacité autotélique. On en est très loin. Yoshua Bengio, un des inventeurs du deep learning, affirme que cette question est moins urgente que le problème de la surpopulation sur Mars.

Pour la musique ça serait encore plus compliqué car lorsqu’un musicien compose un morceau, il va le faire dans un certain contexte social pour un contexte social donné et à une date donnée. Le goût des gens à ce moment-là est aussi extrêmement important. La machine n’est pas capable de modéliser tout cela. Avec l’intelligence artificielle, on fait du sampling, c’est-à-dire qu’on tire des échantillons à partir de modèles, ce qui est probablement un des éléments du processus de création musicale, mais pas uniquement.

De plus cela n’aurait pas de sens de pouvoir automatiser la création de tubes car un morceau qui plaît est par définition quelque chose de singulier et de rare. Les grands tubes représentent une toute petite fraction de la musique produite et il ne pourrait pas en être autrement car il n’y aurait pas de place pour tous.

 

 

Les humains sont-ils capables aujourd’hui d’apprécier les oeuvres produites à l’aide de l’intelligence artificielle ?

Je dirais que cela dépend des cultures et des âges. Les personnes nées après l’an 2000 sont beaucoup plus ouvertes à ce genre de choses. Et au Japon par exemple, il n’y a presque aucune différence entre la sculpture et la nature. En France on est très attaché à la distinction entre le naturel et l’artificiel de par Rousseau.

Mais l’enjeu n’est pas là. L’enjeu est de savoir si les musiciens vont pouvoir produire de la musique différente, plus intéressante et plus excitante avec ces nouvelles technologies. Je pense pour ma part que oui, et c’est pour cela qu’on va sortir cet album début janvier 2018 : on veut savoir ce que les gens pensent. Pour le moment il n’y a pas eu de morceau fait avec de l’intelligence artificielle qui ait révolutionné la musique mais je pense que ça peut venir.

 

L’album sortira donc début janvier 2018. Pour les impatients, les deux premiers titres sont en écoute ici : « Hello Shadow » et « In the House of Poetry »!

Written by

    1 comment

    Leave a Reply

    Your email address will not be published. Required fields are marked *