Capteurs, interfaces et machine learning interactif pour la musique

Maîtriser les capteurs pour programmer des systèmes interactifs sonores et musicaux

  • Transmission
  • Stage logiciel

Programme de la formation

Mardi

Matin Aperçu des différents types de capteurs, d’interfaces, et des fournisseurs de matériel. Le cas particulier du sans fil
Travaux pratiques : prendre en main les environnements de programmation Arduino et Energia
Après-midi Travaux pratiques : maîtriser les bases de la programmation dans Arduino et Energia, premiers exemples simples de code, télé-verser du code vers les interfaces Arduino et R-IoT

Mercredi

Matin Récupération et traitement des données de capteurs dans Max (Arduino et R-Iots)
Filtrage (moyenne, filtre médian, filtre passe-bas) et normalisation.
Après-midi Mise en place d’un système de mapping
Utilisation direct des données de capteurs avec des processus sonores simples. Contrôle de synthèses, lecture de fichiers sons.

Jeudi

Matin Travaux pratiques : réaliser un exemple de système de sonification : captation physiologique (battement du cœur, respiration) via des capteurs reliés à l’interface R-IoT, récupération des données et sonification dans Max
Après-midi Introduction à la librairie MuBu et au suivi de geste.

Vendredi

Matin Formation théorique : introduction au « machine learning » interactif avec la librairie Mubu for Max permettant des applications avancées de reconnaissance de gestes et mouvements. Présentation d’exemples d’utilisation dans des projets de sonification du mouvement et des projets artistiques (art perfomatif)
Après-midi Travaux pratiques : réaliser un exemple de système avec capteurs reliés à l’interface R-IoT, apprentissage et reconnaissance dans Max avec MuBu.

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour nous permettre de mesurer l'audience, et pour vous permettre de partager du contenu via les boutons de partage de réseaux sociaux. En savoir plus.