Avec les outils de création musicale assistée par ordinateur (MAO), tout le monde peut créer des pistes musicales complètes. Mais jusqu'à présent il fallait tout de même une certaine compréhension de la musique.
C'est désormais du passé puisqu'aujourd'hui un novice complet qui ne sait pas faire la différence entre un piano et un clavier midi, peut générer de la musique grâce aux outils d'IA.
Dans certains cas, il suffit de faire "poum, poum, tchak" dans le micro et l'outil augmenté par l'IA comprend qu'il faut créer un rythme et remplace la voix par des samples de grosse caisse, de caisse claire ou autre. Vous voulez un coup de cymbale ? Chantez "tss, tss" et le système remplace votre onomatopée par un son adapté. Tout est ensuite dans le même acabit. Chantonnez une ligne mélodique et choisissez l'instrument - pouf, comme par miracle vous obtenez un résultat parfait.
Quant à la voix, pas de souci : vous pouvez même enregistrer un bébé qui hurle et l'IA se mettra en devoir de transformer les modulations vocales du futur chanteur, en gazouillis délicat. Pour harmoniser, là encore c'est du velours, vous pouvez personnaliser la structure de votre titre musical selon l'humeur (tranquille, intense, extrême chez Soundraw par exemple) .
L’IA, un système vorace qu’il faut nourrir
Pour nourrir les systèmes de création musicale par AI, les éditeurs ne cachent pas qu'ils ont puisé dans les créations faites par de véritables musiciens, en tentant de présenter ce procédé comme une bonne chose pour les artiste.
Comme le dit sans détour Mubert sur son site, "Les capacités de l'intelligence artificielle et la créativité des producteurs de musique rendent possible une relation symbiotique entre les humains et les algorithmes. Des millions d'échantillons provenant de centaines d'artistes sont utilisés par Mubert pour générer instantanément de la musique IA libre de droits, parfaitement adaptée à l'objectif du contenu. Une collaboration sans précédent, où l'homme et la technologie s'unissent pour produire un son parfait à chaque fois." Collaboration qui profite à Mubert et à ses semblables mais certainement pas aux artistes ni à la créativité.
Personne ne cherche à dissimuler la chose : dans son article consacré aux "générateurs de musique" l'hébergeur Digital Ocean explique que les avantages à utiliser l'AI sont les suivants :
- Une indépendance par rapport aux musiciens et aux studios : "la musique générée par l'IA minimise le besoin d'embaucher des musiciens ou de louer des studios d'enregistrement, ce qui fait baisser les coûts de production"
- Une production plus rapide : les outils d'IA peuvent créer des ambiances en un instant
- Des coûts de licence plus faibles, puisque la music générée par l'IA "réduit ou élimine les frais de licence",
- Un développement plus rapide à partir d'une idée, ce qui permet aux créateurs de faire des prototypes plus rapidement,
- Des combinaisons de sons uniques : l'IA aide à créer de nouveaux styles en mélangeant les genres et les sons ce qui produit des résultats innovants
- L'utilisation par des non-musiciens, car l'IA permet à tous ceux qui n'ont pas de formation musicale de "donner vie à leurs idées".
Evidemment, les musiciens professionnels ne partagent pas cet avis, et c’est même toute l’industrie musicale qui se rebelle.
La rebellion des artistes
En avril 2024, explique le Guardian, un groupe de plus de 200 musiciens de renom a signé une lettre ouverte appelant à la protection contre “l'utilisation prédatrice de l'intelligence artificielle” qui imite le style, les voix et les sons des artistes humains. Les signataires couvrent tous les genres musicaux et toutes les époques, de Billie Eilish, J Balvin et Nicki Minaj en passant par les membres du “Rock and Roll Hall of Fame” tels que Stevie Wonder et REM. Les détenteurs des droits de Frank Sinatra et de Bob Marley étaient également signataires.
La lettre, publiée par le groupe de défense Artist Rights Alliance, demandait aux entreprises technologiques de s'engager à ne pas développer d'outils d'IA qui sapent ou remplacent les auteurs-compositeurs et les artistes humains.
En juin 2024, le quotidien Le Monde expliquait que “Le temps se gâte pour les start-up de génération de musique par IA. Deux des services les plus remarqués pourraient bientôt affronter un procès intenté par la Recording Industry Association of America (RIAA), le syndicat américain des éditeurs de musique, qui, dans un communiqué paru le lundi 24 juin, accuse ces entreprises de voler le travail d’artistes.”
Cette initiative a été suivie par d’autres, comme l’indiquait le Figaro dans un article daté du 23 ctobre 2024 : “Thom Yorke de Radiohead, Björn Ulvaeus d'ABBA, Julianne Moore, Harlan Coben, Kazuo Ishiguro... Plus de 11.500 artistes ont signé une pétition - publiée mardi - afin de sonner l'alarme quant à l'utilisation de leurs créations pour alimenter les algorithmes de l'intelligence artificielle (IA). « L'utilisation sans autorisation des créations artistiques pour entraîner l'intelligence artificielle générative est une menace majeure et injuste des moyens de subsistance des personnes à l'origine de ces œuvres et cela ne doit pas être permis », assènent en une phrase les auteurs du texte de la pétition encore ouverte aux signatures.”
Coincidence ? Le même jour, Julien Lausson pour Numérama expliquait que “Universal Music attaque Anthropic, une société spécialisée dans l’IA. La raison ? Son chatbot Claude, qui fonctionne comme ChatGPT, n’a pas l’air au courant que le droit d’auteur existe. L’outil est accusé d’avoir aspiré les paroles de chansons.”
C’est donc tout le paysage de la création musicale qui se rebelle contre le “piratage” des créations existantes. Un débat qui n’est pas sans rappeler les problèmes soulevés par les outils d’IA générateurs d’images, qui se sont inspirés de dizaines de milliers d’artistes de Van Gogh à Hergé ou Folon. Ce n’est pas un hasard : rappelons que les outils de génération d’intelligence artificielle se basent sur des quantités de données colossales liées à un sujet, pour ensuite trouver des corrélations et des probabilités statistiques. Il faut donc bien nourrir le système pour que ce travail se fasse, et le seul moyen c’est de s’appuyer sur ce qui existe, donc qui a été créé par l’humain.
Mais comment protéger les éléments d’une chanson ? Pour une progression d’accords particulière ou une spécificité audio telle qu’un arrangement c’est relativement facile, encore que régulièrement des artistes reconnaissent (à tort ou à raison) leur travail dans le morceau d’un confrère. Manu Dibango avait ainsi attaqué Michaël Jackson, tandis que plus récemment Taylor Swift avait été accusée de plagiat sur la chanson “Shake it Off”. Mais “la voix et l’apparence, en elles-mêmes, ne sont pas des œuvres et ne relèvent pas du droit d’auteur” souligne le cabinet Haas Avocats spécialisé dans le droit des nouvelles technologies et de la propriété intellectuelle.
Que reste-t-il à l’humain ?
Reste tout de même un point important. Les outils d’IA, qu’il s’agisse de musique, d’images ou de texte, ne sont pas capables de créer la variété et la cohérence interne des créations humaines. Ainsi, cet article est écrit entièrement à la main, sans aucune aide d’un quelconque outil d’IA. La différence? Il aura fallu beaucoup plus de temps pour l’écrire, mais on peut espérer qu’il est à la fois plus informatif et plus intéressant qu’un article écrit à 100% par l’IA. (La tendance actuelle dans le monde de la rédaction web, c’est d’ailleurs de créer des articles avec l’IA et de les éditer ensuite manuellement pour accélérer le travail. Mais il y a fort à parier que les futures générations d’IA, comme la nouvelle version de ChatGPT qui devrait sortir tout prochainement, seront tellement évoluées qu’il ne sera plus nécessaire de faire appel à un humain. Sauf pour les lire, ou pour écouter la musique qui en sort.
Et c’est bien là que le bât blesse.
L’exemple des playlists pour radios in-store
Chez Music Admix, nous concevons des playlists pour la diffusion musicale dans les magasins et les commerces depuis près de 30 ans. Au fil des années, nous avons vu passer les différentes étapes de la technologie : d’abord les cassettes, puis les CD que l’on gravait avec les nouvelles playlists avant de les envoyer chez les clients une fois par mois, puis les clefs USB qu’il suffisait de brancher sur le player en magasin.
Puis le débit internet est devenu suffisant pour permettre la connexion directe sur des players installés en magasin, généralement des petits PC équipés d’un programme de diffusion que nous pilotions à distance en utilisant les mêmes logiciels que ceux utilisés dans les grandes stations de radio FM. Depuis quelques années, nous disposons de notre propre solution de diffusion, qui a été développée en partant de zéro et en s’appuyant sur notre grande expérience de la musique d’ambiance en magasin, qu’on appelle en anglais “radio in-store”.
Durant toutes ces années nous avons vu la technologie évoluer et nous l’avons utilisée. Mais une seule chose n’a pas changé : la façon dont nous concevons les playlists. Bien que notre outil, Music Admix, utilise des méthodes informatiques avancées pour gérer les milliers de titres diffusés dans tous les points de vente d’une enseigne, nous continuons de concevoir nos playlists à la main - ou plutôt à l’oreille.
Cela suppose une grande connaissance des styles et des genres musicaux, qui sont si nombreux qu’on s’y perdrait presque, mais également une grande connaissance de la musique. En effet, dans certains cas le tempo annoncé sur un morceau sera perçu comme étant beaucoup plus rapide ou beaucoup plus lent, ou l’atmosphère générale du titre musical sera perçue comme joyeuse, mélancolique ou énergique. Chaque morceau est écouté du début à la fin; classifié et analysé pour déterminer sa possible adéquation à une utilisation en magasin.
Dans certains cas, les titres musicaux utilisent des sons un peu étranges ou compliqués qui ne peuvent pas passer en magasin, car non seulement ces sons peuvent être considérés comme agressifs par les clients, mais ils passent encore plus mal dans les magasins que dans nos hauts-parleurs de studio : en effet, la plupart des points de vente de France et de Navarre sont équipés de hauts-parleurs qui ne sont pas conçus pour offrir la même performance sonore que les AirPods Apple ou les écouteurs que tout le monde utilise pour écouter Spotify à la maison. (Notons au passage que l’utilisation de Spotify est réservée à “un usage dans le cercle familial” : la plateforme ne peut donc pas être utilisée dans un commerce pour des raisons de droits).
Ce métier de sélection musicale, que l’on appelle un peu pompeusement de la “curation de musique” fait donc appel à des connaissances très larges. Ce n’est pas un hasard si dans notre équipe, chez Music Admix, nous avons deux musiciens, un compositeur et un chef d’orchestre. Ok, certains des musiciens cumulent plusieurs casquettes, mais nous pouvons dire et prouver que la direction artistique et la curation musicale sont faites par des experts.
Des experts qui reconnaissent tout de suite la musique générée par l’IA. Même des morceaux bien travaillés ne trompent pas nos spécialistes, sauf s’ils ont été conçus par des musiciens qui se servent alors de l’IA pour augmenter leurs capacités créatives.
La musique générée par l’IA surgèle la création musicale
Quel intérêt, me direz-vous ? C’est très simple. La musique générée par l’IA ressemble à de la nourriture surgelée préparée industriellement. C’est pratique, ça se conserve longtemps, c’est pas trop cher et ça se réchauffe vite.
Mais vous conviendrez que ce n’est pas aussi bon, loin de là, qu’un plat conçu par un chef étoilé ou même par une cuisinière de tous les jours comme votre maman. (Ah, le tiramisu de ma maman !). En cause, les méthodes de production qui tout comme l’IA permettent d’aller plus vite, de faire appel à des gens non formés (pas besoin d’avoir fait quatre ans d’études à l’école LeNôtre pour mettre des patates dans un épluche-légume géant), de réduire les coûts et de simplifier tout le processus, sans compter les conservateurs, anti-oxydants et autres produits plus ou moins magiques.
La musique générée par l’IA bénéficie des mêmes atouts que la nourriture industrielle, et propose des bénéfices similaires, mais elle souffre aussi des mêmes défauts. Alors, je vous pose la question : lorsque vous invitez des amis ou de la famille pour un bon repas, vous prenez des produits tout préparés tels que les surgelés, ou vous cuisinez vous-même ?
Si vous êtes comme la plupart des gens, vous achetez quelques produits préparés frais (du tarama pour l’apéro) et vous utilisez quelques produits semi-préparés (du bouillon ou de l’ail déshydraté) pour faire votre recette spéciale, avant de proposer du fromage (industriel) et un dessert qui vient souvent de la boulangerie. C’est donc une approche hybride : il y a un peu de tout, et en mélangeant cela avec un accueil de qualité tout le monde passe un bon moment et aura envie de revenir (ou de vous inviter).
Pas de malbouffe en matière d’expérience client !
Dans les magasins, ce n’est pas différent. Si vous servez à vos clients une musique industrielle sans âme et sans grande qualité, c’est comme si vous serviez à vos amis des plats surgelés. Pas terrible pour l’image de marque. Si vous voulez créer une expérience client de qualité, il faut faire appel à de la vraie bonne musique faite par des musiciens en chair et en os.
Pourtant, en tant que spécialiste marketing, il a bien fallu que j’essaie les outils de création d’IA musicale puisque je n’ai aucune compétence dans ce domaine, n’étant pas capable de différencier un Do d’un La.
Le résultat vous pouvez l’écouter sur le site suno.com/@musicamix, ou vous découvrirez des morceaux emblématiques tels que “La mélodie des boutiques” ou “La magie de Music Admix” (avec des textes générés par l’IA dans les deux cas, ce qui donne quelques perles comme “Les rythmes doucereux captivent l’attention, Les refrains enchantés nous plongent dans l’émotion”) , ainsi que le tube de l’hiver, “Dans les boutiques et les corners” - qui s’enorgueillit de textes écrits par un humain non musicien de chez Music Admix, qui préfère cependant rester anonyme malgré la beauté de textes comme “Music Admix c’est de la balle, des radios vraiment pas banales”.
Bilan pour ces splendides créations ? Les “chansons” réalisée entièrement par l’IA sur la base d’un “prompt” ont demandé chacune un temps de travail d’environ une minute. Le plus long aura été de copier le lien. La qualité ? Si l’on fait exception des textes abominables, ce qui demande un effort surhumain tellement c’est mauvais, la musique pourrait presque passer, sauf que c’est insipide et sans saveur, sans originalité. On dirait du (très) mauvais libre de droits.
Quand à la chanson réalisée avec un texte écrit à la main, “Dans les boutiques et les corners”elle aura demandé beaucoup plus de travail (pas loin de 2 heures) puisque les “chanteurs” de l’IA n’arrivaient pas à chanter avec un phrasé correct, ce qui donnait des prononciations très bizarres. Il a donc fallu réécrire le texte après chaque écoute pour essayer d’arriver à un résultat audible. Fastidieux. Il en reste quelques traces dans le morceau publié si vous voulez vous donner la peine de l’écouter.
Est-ce que c’est mieux que les morceaux 100% IA ? Même si le texte n’est pas aussi mauvais (désolé, qui-tu-sais), il n’est franchement pas terrible et la musique reste toujours aussi banale. On dirait un mauvais chanteur de pop qui a décidé de passer au Reggae pour faire plaisir à beau-papa. Et ce n’est pas faute d’avoir tenté des prompt plus ciblés : “belle voix de chanteur Jamaïcain” ou “timbre de chanteur afro-américain”. Visiblement Suno n’a pas saisi le message.
Est-ce que vous utiliseriez des titres comme cela dans vos magasins ?
Alors, est-ce que vous pourriez passer ces titres dans vos magasins (avec de meilleures paroles)? Si vous répondez oui, j’ai un bon spécialiste en audition à vous recommander. Chez Music Admix, à part provoquer l’hilarité de nos curateurs de playlists et de notre Directeur Artistique, aucun de ces morceaux ne pourraient être diffusés dans aucun magasin à aucune heure, même à minuit pendant la fermeture. “C’est vraiment trop mauvais” s’est ainsi exclamé un de nos spécialistes en marketing sonore.
Au final l’AI c’est pas “de la balle”
Quasiment tous les sites de création de musique assistée par l’IA proposent monts et merveilles, à l’exemple de rightsify.com qui présente son service comme un “générateur de musique IA pour l’utilisation commerciale” a destination des professionnels, capable de gérer de la musique libre de droits qui peut être utilisée pour n’importe quel projet commercial.
Soundful propose de “créer de la musique à la vitesse de la lumière”, tandis que Soundraw vous aidera à “briser les frontières de la musique”. Si les musiciens humains peuvent sans doute tirer parti de certaines de ces fonctionnalités, la promesse que tout le monde et n’importe qui peut générer des titres musicaux “écoutables” est tout simplement fausse. Les titres musicaux générés par des non-spécialistes sont encore moins bons que le libre de droits, qui tend pourtant à créer dans les points de vente une ambiance peu excitante qui n’affiche pas un très bon impact en matière d’expérience client.
Pour diffuser de la bonne musique dans les espaces commerciaux, préférez donc des groupes ou des chanteurs connus comme Adele, Ed Sheeran, Dua Lipa, The Weeknd, Bad Bunny ou Billie Eilish. Et laissez vos clients apprécier votre identité de marque musicale.