Nicolas OBIN est maître de conférences à la Faculté des Sciences de Sorbonne Université et chercheur dans l'équipe Analyse et Synthèse des Sons à l'Ircam (STMS - Ircam/CNRS/Sorbonne Université) depuis 2013. Il a réalisé une thèse de doctorat sur la modélisation de la prosodie et du style pour la synthèse de la parole à partir du texte, pour laquelle il a a obtenu le prix de thèse de la Fondation des Treilles en 2011.
Nicolas OBIN est un chercheur en traitement du son, apprentissage machine, et modélisation statistique de signaux sonores spécialisé sur la voix. Son domaine de recherche principal est la modélisation générative de l'expressivité de la voix parlée et chantée, avec application à des domaines variés comme la synthèse vocale, les agents conversationnels, et la musicologie computationnelle.
Il participe activement à la promotion des sciences et technologies numériques pour les arts, la culture, et le patrimoine. Il a notamment collaboré avec des artistes de renoms (Georges Aperghis, Philippe Manoury, Roman Polansky, Philippe Parreno, Eric Rohmer, André Dussolier), et a contribué à reconstituer la voix numérique de personnalités, à l'exemple de la synthèse de la voix d'André Dussolier (2011) et des films Marilyn (P. Parreno, 2012) et du film documentaire Juger Pétain (R. Saada, 2014).
Il réalise régulièrement des conférences invitées dans des écoles (Collège de France, Ecole normale supérieure, Sciences Po) des organismes (CNIL, AIPPI) et dans la presse et les médias (Le Monde, Télérama, TF1, France 5, Arte, Pour la Science).
Ma recherche est à a la croisée du traitement du signal, de la modélisation stastique, et de la linguistique appliquée pour la modélisation de la voix parlée et chantée. Je suis spécialisé dans la transformation et la synthèse naturelle et expressive de la voix. Mes thématiques de recherche couvrent un large spectre d'applications et de challenges : depuis la création artistique et la valorisation du patrimoin et de la culture, aux assistants vocaux et l'interaction humaine-machine, à la musicologie computationnelle des musiques populaires et à l'interprétation vocale.
Je pilote ou participe à des projets de recherche nationaux et européens en partenariat avec des laboratoires d'excellences et un large panel de partenaires industriels de premier plan.
[2017-2021] Projet ANR TheVoice, Design de voix pour l'industrie créative : PI. Conversion neuronale de l'identité vocale par réseaux génératifs adversariaux
[2015-2016] Projet EMERGENCE Sorbonne Universités ROUTE,Robot à l'écoute : PI. Localisation binaurale de sources sonores par factorization en tenseurs non-négatifs
[2015-2016] Projet FEDER Voice4Games, Traitement de la voix pour la production de jeux vidéo : PI. Recommandation de voix automatique pour l'aide au casting vocal
Participation aux projets CHANTER (ANR, 2014-2017), Rhapsodie (ANR, 2007-2011), et VIVOS (RIAM, 2005-2008)
Enseignements et Activités de Responsabilités
Depuis 2013, je suis enseignant au sein de l'UFR d'ingénierie de la Faculté des Sciences de Sorbonne Université, notamment dans la Licence Sciences et Technologies et le Master Sciences Pour l'Ingénieur. Mes domaines d'enseignement recouvrent le traitement numérique du signal, le traitement de l'information, l'apprentissage machine, la programmation informatique, l'encadrement et le suivi du projets étudiants.
[ 2018 ] Représentant STMS du groupe de travail IA de l’UFR d’ingénierie de Sorbonne Université
[ 2017- ] Membre titulaire du conseil scientifique de l’UFR d’ingénierie de Sorbonne Université
Artistic Production
[ 2019 ] "Lullaby experience", par le compositeur Pascal Dusapin, Frankfurter Positionen festival (Frankfurt) et Théâtre 104 (Paris).
[ 2018 ] "Les guerriers de l'ombre", documentaire réalisé par Frédéric Schoendoerffer, Canal+. Anonymisation réaliste de voix d'agents secrets.
[ 2014-2015 ] "Pourquoi j'ai pas mangé mon père", film de Jamel Debbouze. Recréation de la voix de Louis de Funès par la technologie de conversion d'identité de la voix
[ 2014-2015 ] "Juger Pétain", films documentaires de Richard Saada, Planète, France 5. Recréation de la voix du maréchal Pétain et de protagonistes de son procès par la technologie de conversion d'identité de la voix
[ 2013 ] "Aliados", opéra composé par Sebastian Rivas, Ircam Manifeste festival.
[ 2012-2013 ] "Marilyn", film de Philippe Parreno, Fondation Beyeler (2012) et Palais de Tokyo (2013). Recréation de la voix de Marilyn Monroe par la technologie de conversion d'identité de la voix
[ 2011 ] "Luna Park", théâtre musical composé par Georges Aperghis, festival Agora (Paris).
[ 2010 ] "Escort Girl", première partie du cycle de documentaires "L'Europe judiciaire" réalisé par Olivier Ballande, Maha Productions, France Télévision. Anonymisation réaliste de voix de protagonistes impliqués dans des enquêtes judiciaires.
[ 2009 ] "Hypermusic Prologue", opéra du compositeur Hector Parra, festival Agora (Paris).
Communication
Une sélection non-exhaustive de mes récentes interventions publiques
Voix artificielle et sound design : concepts, pratiques, enjeux (avec N. Misdariis, de l'équipe Perception et Design Sonore, Ircam), HyperVoix : enjeux de conception des interfaces conversationnelles, Journée d'étude organisée par la Fing, Le Square, Paris, 15 avril 2019.
AI and creativity: can AI be creative?, Changing IP in Changing Europe, Trilateral Seminar of the French, German and Polish Groups of AIPPI, Paris, France, 05 avril 2019.
Trucages, deepfake, clonage vocal : en 2020, ne croyez plus vos yeux et vos oreilles
Les Deepfakes c'est un peu la nouvelle génération des Fake News mais en encore moins détectables et en plus dangereux ! Retrouvez à Futurapolis, Nicolas Obin, chercheur à l'Ircam, pour une conférence exceptionnelle autour de ce sujet, et de ses conséquences sur l'usurpation possible de VOTRE identité.
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour nous permettre de mesurer l'audience, et pour vous permettre de partager du contenu via les boutons de partage de réseaux sociaux. En savoir plus.