Formation à l’écriture de la spatialisation sonore avec Sound Trajectory & Spat Revolution

Immersion, interactivité, générativité, logique & sensibilité

Nos formations sont destinées à assimiler les pratiques d’écriture du son spatialisé et concevoir de nouveaux espaces sonores. Elle sont assurée par Maxence Mercier, compositeur et concepteur de Sound Trajectory et Amélie Nilles compositrice et spécialiste de la spacialisation des musiques électroniques.

Le programme des formations alternent séances théoriques en salle de formation et travaux pratiques en studio immersif (ambisonic 3d |  24 voix de diffusion). Tous les postes de travail sont équipés de Protools, Reaper,  Ableton Live, Max, Sound Trajectory et Spat Révolution,  ce qui permet à ces formations d’aborder la majorité des techniques et formats de spatialisations immersives existantes pour la musique, le spectacle vivant, le théâtre, le cinéma, la réalité virtuelle, les jeux vidéo, etc…

Durée : 5 jours (40h)
Prix: 2 500 euros
Effectif : 8 participants maximum (4 mini)
lieu : Marseille – LMA – Technopole Chateau-Gombert

Pour les personnes ne bénéficiant pas de financement (étudiant ou autre), une bourse Tripinlab est envisageable sur demande dans la limite des places disponibles.

Sessions 2020 :

  • 9 au 13 mars
  • 6 au 10 avril
  • 4 au 8 mai
  • 8 au 12 juin

Programme modulaire

Théories

  • Histoire de la spatialisation : Référence historique : technique, composition, médias, architecture.
  • Perception de l’espace sonore : Les processus de spatialisation font appel à plusieurs disciplines : informatique, acoustique, traitement du signal, psychoacoustique ou cognition. La production de son spatialisé repose sur la modélisation de phénomènes physiques et de perception auditive.
  • Esthétiques  : Distinction esthétique des espaces sonores de la musique, du cinéma, de la radio et des jeux vidéo.
  • Manifeste de spacialisation  : Idée et parti pris sur l’écriture spatiale et le mixage d’œuvres sonores.

 Pratique

  • Esquisse d’un projet à réaliser (ou exercice)
  • Préparation des matériaux sonores
  • Importation dans un sequenceur ou dans le sampler de ST
  • Ecriture des trajectoires
  • mise en scène des sons dans l’espace
  • Automatisation de l’index de trajectoire et autres mouvements
  • Mastering : 360, 3D, binaural etc….

module de base

  • Workflow : Etude des différents flux de travail possibles en fonction des usages et des destinations (studio, scène)
    Entrées/sorties : formats, types et appareils.
    Du 3d au mastering binaural, transaural ou multicanal.
    Définition de la destination de la sortie audio (retour DAW, diffusion en salle, etc.)
  • Espace virtuel : Configuration du module de conception de l’espace : taille de la réverbération, cartographie et caractères, sources fixes ou mobiles, chemins d’écriture, de dessin ou d’importation. Déplacement de la position d’écoute dans l’environnement 3d (auditeur)
  • Sampler : mappage, déclenchement, lecture
  • Mémoire de scène / Cue Control : Etude des différentes stratégies d’utilisation des changements de mémoire de scène.
  • Contrôleur : contrôle de ST depuis Lemur ou touchOSC sur Ipad ou une tablette Android.

Pratiques avancées

  • Synthèse : Contrôle de la synthèse sur et par trajectoires (synthèse Soustractive, additive, Fm et granulaire)
  • Effets 3d : Utilisation d’effets spatiaux et temporels : distribution spatiale, effet interactif suivre le déclenchement audio, suiveur d’enveloppe, analyse spectrale, retard, etc….
  • Format audio Modèle par canal audio (channel base) : mono, stéréo, 5.1, 5.1, 7.1 etc……..
    Modèle par objet audio (object base) : Dolby Atmos, ADM et autres
    Les principaux algorithmes de spatialisation : De la mono à l’ambisonie en passant par DBAP, VBAP et un petit détour par WFS.
  • Contrôle depuis ST  d’autres solutions de spatialisation du son : Spat Revolution, Panoramix, Spat Max7, L-isa, Holophonix, Sonic Emotion,
    Format d’objet : Définition et manipulation de sources multicanaux
  • Production audio-vidéo 360° : Utilisation du lecteur vidéo synchronisé à une horloge externe.
    utilisation des mémoires de scène pour les changements de plans.
  • Contrôle par capteurs 3d : par osc (gyroscope/accéléromètre Riot Ircam, Iphone, etc….) Exemple de contrôle 3d de l’échantillonneur : déclenchement et spatialisation.
  • Création algorithmique : importation de trajectoires réalisées dans des logiciels de conception 3D : Blender, Maya, cinema4d, 3dsmax etc…….
    Création et contrôle algorithmique depuis des environnements de programmation. Communication OSC en temps réel : Max7, Puredata, OpenMusic, Iannix, Reaktor, Usine, Quartz composer, Isadora, TouchDesigner, VVVVV, Processing etc ?

Formateurs / Intervenants

Maxence Mercier est compositeur et artiste numérique, il est le developpeur du logiciel Sound Trajectory.  Il crée des oeuvres et des dispositif avec du son spatialisé depuis ses débuts à Bourges, entouré des pionners de la musique electronique et electroacoustique au sein de l’Imeb (institut International de musique Electroacoustique de Bourges). Depuis 2004, il se consacre à des projets de création entre arts numériques, musique et vidéo. Ses pièces ont été diffusées en France et à l’étranger : Usa, Canada, Belgique, Hollande, Chine, Brésil, où il obtient différents prix et sélections : le prix “résidence“ du concours de Bourges 2005, la bourse art numérique 2005 de la SCAM, CIMEPS 2005, Phonurgia Nova, Forum de la jeune Création musicale de la SIMC en 2004 et 2009. Il aborde les problématiques de la transmission de l’information par une approche esthétique, sociologique et comportementale, au sein de dispositifs d’installation et de compositions musicale. C’est dans la multiplicité d’interactions sensibles qu’il tisse les motifs de son écriture.

http://www.maxencemercier.com

Amélie Nilles est une compositrice de musiques électroniques résidant à Paris. Influencée par la musique électroacoustique et le jazz, qu’elle a étudiés au conservatoire, elle mêle sa voix aux sons qu’elle capte dans l’environnement (field recording), afin de créer un tout organique. L’espace tient une place aussi importante dans sa musique que le matériau sonore. Elle est diplômée en Musicologie de l’Université Paris VIII au niveau Master 2. Ses recherches, effectuées sous la direction d’Anne Sèdes (CICM), ont porté sur la notion d’espace dans les musiques électroniques, et ont concerné en particulier les aspects compositionnels et perceptifs, ainsi que la notion d’immersion et l’expérience du corps de l’auditeur. Elle continue à expérimenter diverses techniques de restitution du champ sonore, telles que l’Ambisonie (notamment via la bibliothèque HOA développée par le CICM), la Wave Field Synthesis (de Sonic Emotion) et le binaural. Elle collabore également avec différents artistes de musique électronique tels que Molécule. Elle propose une approche qui place la dimension espace de la musique au coeur de composition.

Pour consulter ses thèses de Master sur la spatialisation des musiques électroniques  : https://univ-paris8.academia.edu/AmelieNilles

Soundcloud  :  https://soundcloud.com/amelie-nilles

 

Léonore Mercier est plasticienne, réalisatrice et compositrice, son approche est transversale entre ces différents médiums.  La relation alchimique qui s’opère lorsque les médias s’interpénètrent est pour elle source d’inspiration. Les mondes plastiques, sonores et visuels se mélangent, se confrontent, s’harmonisent. La pratique du piano classique, de l’électro-acoustique, du jazz, de la radiophonie, et ses prises de sons naturels et bruitistes alimentent ses compositions musicales et sonores mêlant l’imaginaire, la fiction, le documentaire. Elle élabore des  univers cinématographiques où le son nous fait voyager dans nos propres images mentales. Elle conçoit des expériences d’écoute sous forme de sculptures tactiles, des installations interactives, des performances, des vidéos qui invitent à l’introspection par les sens. Dans son installation « Damassama », amphithéâtre de bols tibétains, elle réserve au visiteur la place de chef d’orchestre, initiateur par sa gestuelle de réactions instrumentales.

L’importance de la place du spectateur est aussi en jeu dans son installation le Synesthésium. Le Synesthésium est un dôme de six mètres de haut, d’armatures métalliques sur lesquelles sont accrochées 24 enceintes qui permettent une immersion 3D sonore. Les sons sont spatialisés en direct par l’utilisation de capteurs. Le public est ainsi plongé dans un espace sonore mouvant.

Site internet : http://www.leonoremercier.com

Lieu de Formation

Les formation ont lieu dans les salles et le studio ambisonique de Tripinlab installé dans le pole MAS du LMA  :   4 impasse Nikola Tesla, 13013 Marseille FRANCE

Le LMA (Laboratoire de mecanique et d’acoustique) est, depuis le 1 janvier 2018, une Unité Mixte de Recherche du CNRS (UMR 7031) dont les tutelles sont Aix-Marseille Université (AMU), CNRS et Centrale Marseille avec pour rattachement principal l’Institut des Sciences de l’Ingénierie et des Systèmes (INSIS) du CNRS. Il a pour objectif d’assurer le continuum Recherche fondamentale-Ingénierie-Technologie dans ses domaines d’expertise : l’Acoustique et la Mécanique des Solides.

EQUIPEMENTS

  • Studio 7x7x7m équipé de 16 moniteurs Genelec 8030, 1 SUB BASS
  • Régie Sound Trajectory, Spat Revolution – MOTU AVB 128 canaux
  • Ecran tactile 24pouces
  • Contrôleurs et camera diverse
  • Divers micros
  • salle de formation équipée de 6 station de travail et carte son

Nos références

Lancé en 2018, Sound Trajectory est utilisé par une  communauté grandissante de créateurs de style et d’horizons divers : musique, cinéma, installation, jeux vidéo. Nous trouvons parmi cette communauté des personnalités et des studios de renom, ainsi que les plus grands média TV et Radio.

Sound Trajectory tire ses racines de l’opéra “Iquisme” de Maxence Mercier écrit en 2014. Une version dédié au spectacle le “Cauchemar merveilleux” 2015 de Léonore Mercier et Arthur H a été réalisé avec les soutiens de la Sacem, de la fondation Hermes, de l’opéra de Lille, Pictanovo,  du 104 et de l’Ircam à Paris  et la Société des arts technologiques à Montréal.

La version actuelle de Sound Trajectory bénéficie du partenariat entre Tripinlab, le CNRS et OTRA, permettant d’equiper le studio immersive du LMA et de pousuivre le developpement du logiciel.

lien vers la page de la plateforme MAS : http://mas-lma.cnrs.fr/formation-a-lecriture-despaces-sonores-avec-sound-trajectory/

 

ADVANCED WORKSHOP

Organisons une formation dédiée à vos besoins

Sound Trajectory & Ableton Live

Utilisation avancée des plug-ins M4L pour la gestion de l’automatisation.

Sound Trajectory & DAW (vst, au, aax)
Worflow adapté à la musique, au cinéma, video, VR ou mixage radio.

Sound Trajectory & autres moteur de rendu
Worflow, y compris d’autres solutions de spatialisation du son : Spat Revolution, Panoramix, Spat Max7, L-isa, Sonic Emotion,

Sound Trajectory & Unity or Unreal
Worflow avec un framework de développement de jeux vidéo. Création de matériaux sonores immersifs ambisonic / HOA réutilisés avec des moteurs de rendu natifs ou autres (WWISE, FMOD, FMOD, FB360).

Sound Trajectory sur scêne.
Etude des spécificités sonores immersives sur scène : plan de scène, interaction, calibration du systèmes de diffusion  (volume et retard), amplification, micro et larsen,  effet temps réel….. Connectivité DMX / OSC / MIDI, script terminal, Gestion maître/esclave.

Sound Trajectory seul pour gérer une installation sonore
Interactivité, automatisation de l’installation, programmation de la mise hors tension,  procédure de calibrage automatique. Procédure de sécurité…..
Connectivité DMX / OSC / MIDI, script terminal. Gestion de la conduite maître ou esclave

Algorithmic creation, dynamic mixing
Utilisation étendue des capacités de contrôle à partir d’un environnement de programmation en temps réel. génération en temps réel