La mise en place d’intelligences artificielles génératives nécessite une quantité considérable de données. Les chercheurs ont souvent recours à la collecte de contenus en masse sur Internet sans avoir obtenu le consentement préalable de leurs auteurs. Pour se prémunir contre cela, ils mettent en œuvre des solutions de plus en plus sophistiquées pour perturber toute IA qui tenterait d’accéder à ces données.
Pour la protection des images, Nightshade était déjà en usage, modifiant les pixels de façon imperceptible pour induire l’intelligence artificielle en erreur. En ce qui concerne la musique, HarmonyCloak est désormais disponible. Conçu par des chercheurs de l’université du Tennessee aux États-Unis, ce logiciel insère des sons qui échappent à la perception humaine. Cependant, toute intelligence artificielle formée sur ces sons produirait une série de bruits chaotiques, perturbant ainsi son apprentissage. Cette approche rappelle AntiFake, un système qui protège la voix contre le clonage, bien que les perturbations soient audibles dans ce cas. Lorsque l’intelligence artificielle essaie de composer une chanson à partir de pistes protégées par HarmonyCloak, le résultat est alors incohérent.
Une sécurité qui se maintient après la conversion vers un format différent.
L’instrument génère un son qui se mêle harmonieusement à la musique, de manière à devenir indétectable pour l’oreille humaine, formant une couche supplémentaire que seule l’intelligence artificielle peut percevoir. Par ailleurs, cette protection ne peut pas être supprimée simplement par la compression du morceau, ce qui permet de le convertir en format MP3, par exemple, tout en préservant la protection.
HarmonyCloak propose deux modes de fonctionnement. Le premier optimise la protection pour un modèle d’IA spécifique, obtenant ainsi un niveau de protection supérieur. Le second mode protège contre toutes les IA. Dans les deux cas, l’IA ne serait pas en mesure de simplement décoder la protection et la contourner, car elle est unique, adaptée à chaque chanson. Les chercheurs ont l’intention de présenter HarmonyCloak au Symposium IEEE sur la sécurité et la vie privée en mai 2025.
Voici une vidéo sur ce que ça fait après qu’une IA a essayé d’apprendre d’une chanson non empoisonnée et empoisonnée