[Dossier] Production musicale – Nouveaux outils et manières de produire

La production musicale ou comment la musique est devenue accessible à tous ?
Depuis les années 60, l’électronique n’a cessé d’évoluer tout en favorisant la facilitation d’utilisation d’instrument et connectiques inter-instrumentales.
Quelles ont été les avancées technologiques majeurs depuis l’ère électronique / numérique qui nous ont mené à l’ère digitale et même de la Musique Assistée par l’Intelligence Artificielle (MAIA) ?
Avec les nouvelles technologies, comment Jean Michel Jaar et Stromae ont-ils créé leur nouvel album ? Parle-t-on de continuum créatif ou de point de rupture technologique ?


Les méthodes de production durant l’ère numérique (1960-2015)


C’est en 1960 qu’arrive une des avancées majeures dans le monde de l’électronique, le transistor. Essentiel pour l’amplification d’un signal électrique, celui-ci a permis l’amplification des oscillateurs ou commutateurs qui sont les ondes fondamentales des machines électroniques. 4 ans plus tard, naissance du Moog, synthétiseur phare des machines hardwares. Chaque note du clavier physique est amplifiée grâce au transistor ce qui permet une première vraie sortie audio.

Petit à petit ces avancées technologiques commencèrent à permettre à quiconque de pouvoir s’initier à la musique cependant la révolution de la norme Midi permis d’autres nouvelles possibilités de production comme la communication simplifiée inter-machine. Avant la naissance du MIDI existait le CV/gate qui envoyait de l’information d’une machine à une autre par Volt.

Branchement CV/Gate d’un synthétiseur

Cependant cette utilisation a trouvé sa limite dans l’immensité des constructeurs à dicter leur règle en termes d’outil de contrôle de connexion. Les musiciens n’arrivaient pas à faire fonctionner leurs jouets entre eux ce qui devint très vite problématique.
Dans les années 80’, la norme Midi unifia ce chaos afin de permettre aux artistes de pouvoir se mettre à la composition d’orchestre de manière extrêmement simple : Boite à rythme / synthétiseurs / guitare, basse ou autre.

Cette époque voit apparaître la naissance de gros studios d’enregistrement professionnel mis entre les mains d’expert qui délivrent leur travail pour le compte d’amateurs ou artistes professionnels. L’ordinateur favorisa indéniablement la production musicale dans les années 90 et plus particulièrement en 1996 pour 2 choses : Le VST et le séquenceur numérique.

« Virtual Studio Technology » ou instrument virtuel. Avec la croissance du numérique, l’évolution d’algorithmes et la perfection de processeurs de plus en plus performant, l’ordinateur s’est imposé rapidement comme chef d’orchestre de tout la panoplie d’instruments qu’un musicien ou ingénieur pouvait obtenir. Quoi de mieux qu’obtenir la dématérialisation d’un synthétiseur Minimoog, Analog Lab ou d’une Roland TB-303 ?

Visualisation du VST ANALOG LAB 2

Ces fichiers VST ont existé grâce aux logiciels séquenceurs tels que Cubase, Protools, Ableton, Logic etc. Avec la possibilité numérique, les séquenceurs informatiques sont capables de répéter un nombre infini de séquences là où les anciens séquenceurs (comme les premiers synthétiseurs) sont limités dû à l’aspect physique de l’objet. On trouve à ce moment-là un schisme entre ce qu’on appelle communément le Hardware (machine physique) et le Software (logiciel).

Grâce à tout cette facilitation, les premiers homes studios émergent. L’autoproduction se développe grandement ce qui permet à des légendes de la musique de sortir leur album : « Je me souviens que j’avais fait le beat de Da Funk dans la chambre de mon frère. C’était vraiment un beat tout pourri, mais je trouvais ça mortel… Je n’avais aucun recul. Ensuite, on a trouvé le son de la mélodie et le reste du morceau. Ça s’est fait sans qu’on maîtrise quoi que ce soit, spontanément. » Guy-Manuel de Homem-Christo, membre des Daft Punk. De même que Foo Fighers, les Rolling Stones ont enregistré des albums depuis leur home studio.

Home studio

Quel est l’avenir de la production musicale ?


De nos jours, la plus grande partie des titres commercialisée est composées à partir d’home studios. Il est indéniable de travailler avec un ordinateur (MAO {Musique Assistée par Ordinateur}) étant donné les renouveaux technologiques permettant la construction d’un morceau, son orchestration, son mixage sonore (processus d’harmonisation de chaque piste audio) et sa masterisation (processus d’harmonisation du morceau entier).
Pourtant, avec l’arrivée de la Musique Assistée par Intelligence Artificielle, nous pouvons nous demander où se trouve la part de l’humain dans le processus de création ? Sera-t-il toujours la partie émotionnelle du morceau ? Celle de « l’intention » de produire ; ou la touche humaine résidera-elle dans la partie technique et non créative ?


Oui mais, comment fonctionne l’intelligence artificielle dans le milieu musical ?


Grâce à la récolte de données incroyable que permet internet, celles-ci nourrit le robot. Sur le principe du deep learning, la machine a besoin d’emmagasiner un nombre incalculable de sonorités différentes pour être à minima efficace. Pour exemple, ces variables regroupent : des rythmes, des fréquences, des hauteurs de son etc.


Les méthodes de production durant l’ère de l’intelligence artificielle (2015 – ?)


Jean Michel Jarre, Pionnier du matériel électro-numérique et précurseur de la musique électronique en France, aborde la question et le comportement de l’intelligence artificielle puisque c’est avec elle qu’il propose son nouvel album : Equinox Infinity.

Ce génie a testé des IA provenant de Microsoft et de Sony CSL pour comprendre la portée de l’algorithmie et son processus de création.

« On va rentrer dans un monde où les gens qui seront à l’avant-garde de la création devront régler un problème fondamental du fait de ne plus être le détenteur du processus créatif : comment le cerveau humain et les artistes vont-ils se positionner par rapport à une situation totalement nouvelle ? (…) La technologie va beaucoup plus vite que la manière dont la société évolue, ce qui va créer un certain nombre de problèmes »

L’Homme crée, juge son travail via ses émotions en admettant si le rendu est concluant ou non. La machine ne sait juger mais donne un résultat qu’à partir des données que l’Homme à décider de lui fournir. Au-delà de l’aspect technique dont l’ingénieur son et le musicien font preuve en apprenant un instrument et techniques musicales, celle de la création d’une base de données (IA) et de l’éducation de celle-ci sera une nouvelle variable à prendre en compte dans le processus de création.


« Hello Word » ça vous parle ?


C’est le projet alliant science et art entre l’intelligence artificielle de Flow machines et plusieurs artistes tel que Stromae. Cet album est le fruit de François Pachet, ancien directeur du Computer science laboratory (CSL) de Sony, et qui a rejoint Spotify l’an dernier : « Elle est capable de repérer des régularités que même les êtres humains ne sont pas capables de voir. Elle génère des mélodies, des harmonies, ou des voix que l’artiste peut modifier, et même effacer, au fil de la collaboration. Elle ne remplace pas le compositeur, elle l’assiste. » Indique François Pachet

L’entrée de l’IA ne s’arrête pas là puisqu’elle peut se trouver en bout de chaine sans « assister » l’artiste dans le processus de créativité. C’est ce que propose LANDR avec son mastering dématérialisé et géré par le robot. Encore une fois, nous tendons vers un assistanat musical puisque le mastering c’est le grain final de la musique, son rendu général.

On peut se demander à l’avenir où résidera la sensibilité humaine quand toutes nos tâches techniques auront été déchargées. Restera-t-il à l’artiste seulement cette sensibilité lui permettant toujours de créer et de juger qu’un(e) instrument/note est bon(ne) pour telle ou telle raison ou alors on se rendra compte que ce processus artistique a besoin de la théorie et la pratique pour pouvoir être exploité pleinement le potentiel artistique.


Biblio et webographie


Jean-Paul DENIAUD, – Où est l’avant Garde?, – Trax magazine 216ème édition, – p.24-27
Cette interview de Jean-Michel JARRE présente sa collaboration avec l’IA pour la production de son Album EQUINOX INFINITY. Des réflexions autours de la relation HOMME/MACHINE et de l’éthique y sont abordées.

Histoire du synthétiseur, de l’analogique au numérique,- Piano Web,- Consulté le 30 décembre 2018,- https://www.pianoweb.fr/histoire-du-synthetiseur.php
L’histoire de l’avancée technologique qui a précédé la musique électronique y est expliqué de manière simple et non technique permettant aux débutants d’acquérir de des connaissances facilement.

Bastien L, – Deep Learning ou apprentissage profond : définition, concept, – Le Big Data, – Consulté le 30 décembre 2018, – https://www.lebigdata.fr/deep-learning-definition
Présentation et definition du deep learning

Lucien Rieul, – Voici comment l’intelligence artificielle révolutionne (déjà) la musique, – Trax Mag, – Consulté le 30 décembre 2018,- http://fr.traxmag.com/article/48127-voici-comment-l-intelligence-artificielle-revolutionne-deja-la-musique-electronique
Application directe de la collaboration Homme/Machine avec présentation des rendus finaux

Non cité, – Home studio une révolution,- Blog.getasound, – Consulté le 30 décembre 2018, – https://blog.getasound.com/home-studio-une-revolution-musicale/
L’article aborde la popularité croissante des homes studio et quels ont été les éléments qui l’ont engrangée.


Article écrit par Michael Barba (Ekonopolis)