Super explication. Avec la partie sur l'emplacement des micros pour la batterie on comprend tout de suite pourquoi il faut recaler les différentes pistes, c'est très clair. Merci pour votre travail =)
Vraiment super instructif. Comme quoi des tutos développés sur au moins vingt minutes ont du bon. Votre explication sur la nécessité de corriger les différences de placements de micros sur une batterie par ces décalages de phase est d'une clarté édifiante. J'avais, il y a longtemps, utilisé le décalage de phase dans un tout autre contexte : une guitare 12 cordes électrique - riff "glam rock" sur un titre Euro-Dance - passée dans un Clavia Nord Modular pour la "synthétiser". J'ai copié la piste audio, et ai décalé la seconde piste de quelques samples pour "déstructurer" un peu le son, lui faisant ainsi perdre quelques fréquences, rendant le son plus "nasillard", un peu comme si j'avais joué sur un dobro électrique synthétisé. Puis j'ai rajouté un delay "slapback" très rétro. Un autre façon d'effectuer - puis-je appeler ça du "hors phase" ? - dans le but délibéré de transformer (altérer) un son. Encore merci pour cette chouette vidéo en tous cas.
Video très importante sur un sujet très important. La plupart (toutes?) des chaines YT francophones ont abordée ce sujet de façon très superficielle, alors qu’ici nous avons un exposé complet. Bravo. Il m’est souvent arrivé ce cas de figure : je faisais 2 ou 3 prises de la même partie (par exemple, une guitare) afin de grossir le son, de lui donner plus de corps (pas des copies de prises, hein, mais des interprétations différentes de même partie), et il y avait des problème de phase, juste par intermittence, suivant le jeu. Pas évident du tout à régler quand c’est juste par ci, par là.
Ah oui, ça c'est le classique d'un doublage avec un son trop proche. Perso quand je fais des couche de grosseur, je m'assure de toujours changer au moins un paramètre : le pick, la guitare, le micro sur la guitare, l'ampli, le cabinet ou encore le micro sur le cabinet. Histoire que ce soit la même partie mais pas le même son. André
Merci l'AGS, très intéressant. Surtout les écoutes et la conclusion, car effectivement c'est un paramètre qui permet de jouer sur la profondeur auquel je n'avais pas pensé. J'ai mis du temps à comprendre que les formes d'onde usuelles dans nos DAWs affichaient l'amplitude sonore, ce qui explique l'annulation du volume en cas de superposition d'un signal et de son inversé en phase. Une petite animation de sinusoïdes m'avait bien fait visualiser le problème théorique qui schématise le phénomène. Ce sujet -trop rare- de la phase a levé quelque peu son mystère grâce à ta vidéo, André. 🏆
Vraiment très bonne explication. Merci de partager toutes vos connaissances acquises après tant d'années. C'est vraiment un trésor et une mine de sciences. Longue vie à cette chaîne !
Vraiment bonne vidéo André, et tout à fait bien expliqué! Tu laisses aussi de la place pour celui derrière la console et son travail sur la phase et son importance subtile ou relative au mixage. Bravo et merci!
Très très instructif.. Bizarre que l'on n'ai pas encore sorti un plugin qui proposerait plusieurs solutions... Parfaitement en phase jusqu'à déphasé.. Merci pour ces informations
Super boulot encore une fois ! La phase était un sujet qui m'échappait complètement, un grand merci pour cette vidéo qui m'éclaircît beaucoup. J'apprends énormément avec vous, l'AGS !
Bonjour et d'abord merci pour l'ensemble de vos vidéos AGS 😉chaîne sur laquelle vous avez un abonné de plus ! Je précise d'abord que je ne suis qu'un MAOiste du dimanche, je pratique le clavier en "live performance" uniquement chez moi dans mon modeste home studio. Aucune production, pas de mixage et encore moins de mastering. Toutefois, je m'intéresse à tout ce qui touche de près ou de loin à la M.A.O. mais en règle générale, je n'arrive pas (peut-être à cause de mes vieilles oreilles de 60 ans, ou/et la qualité douteuse de l'audio via UA-cam) à distinguer la compression (voire l'effet produit par un EQ selon certains réglages), ou encore à comprendre ce que l'on appelle "la coloration" de tel ou tel plug-in. Mais là, la différence à cause de la phase est vraiment flagrante, en début de vidéo. Merci encore pour votre travail, vos vidéos sont vraiment agréables à suivre. Salutations depuis le Gard.
Hey hey, t'en fais vraiment pas, perso j'entends des trucs nouveaux chaque année, voir chaque mois. La compression ça m'a vraiment pris presque 10 ans à comprendre et vraiment percevoir :). André
Super tutoriel très bien expliqué. Merci. Je me demande comment faisaient-ils pour gérer la phase avec un enregistrement analogique.. je ne pense pas qu'ils pouvaient décaler une piste par rapport a l'autre pour la remettre en phase..
Non, tout était fait au moment du placement des micros. Et à un moment donné on accepte ce qu'on a. C'est entre autres aussi pour ça que les disques plus anciens sonnent moins "précis". André
Salut et merci pour toutes ces explications ! Comment tu détermines le nombre de "samples de décalage" de chaque piste ? : sur la basse il y a une piste avec 3 et une autre avec 256 et pareil pour le kick.
Merci pour cette vidéo très instructive, mais alors... moi qui fait des petites scènes en live... faudrait faire pareil? Décaler toute la façade pour être en phase avec la scène? (Ampli, batterie)
Bonjour André Super interessant comme d'habitude. Par contre peux tu préciser comment tu choisis le nombre de sample de correction entre les pistes? A l'oreille, en regardant les formes d'ondes, par calcul à partir de la mesure des écarts de positions des microphones?
Hey! Très bonne question et la réponse est : tout ça ! Je commence par comparer visuellement les formes d'ondes, j'essaye de trouver un moment avec une attaque très franche et claire et là j'identifie de même coup sur les deux pistes. Ensuite je mesure le décalage entre les points les plus hauts de la crête pour ces deux pistes et j'essaye en décalant de cette mesure là. Là j'écoute, j'inverse la polarité sur une des lignes, j'écoute, je reviens à l'original, j'écoute. Et puis j'expérimente avec des valeurs proches de ce que j'ai mesuré pour voir s'il n'y a pas un réglage encore un peu plus intéressant. Je réitère jusqu'à ce que je trouve que j'ai obtenu un mélange qui fonctionne. Comme c'est toujours une histoire de compromis, il y a plusieurs options de mélanges à chaque fois et c'est à toi de décider de celle qui marche le mieux pour toi. Quand tu ne sais plus, laisse comme c'est et passe à la suite :). André
Hello !! Super vidéo très intuitive ! Juste pour les sources hors phase (surtout sur la drum) je trouve aussi qu'il y a une énorme perte au niveau de la mono : le kick (ce qui s'entend le plus selon moi dans la relation hors phase/en phase) se retrouve en side quand hors phase alors qu'en phase il est vraiment dead mono dans la tronche. La sensation de stéréo joue aussi beaucoup (toujours selon moi) dans l'appréciation de la phase. En tout cas toujours un excellent travail from AGS ! Vous démontez les mecs ;)
Excellent tuto, merci pour tous ces enseignements. Le sujet de la gestion de phase est très critique sur les situations d'enregistrement d'instruments live, mais faut il se soucier quand on bosse avec des plugins d'instruments ?
Yes! Ce sera moins un truc à faire à chaque fois mais tu peux très bien avoir un gros souci de phase avec des instruments électroniques, que ce soit des plugins ou des machines André
Belle explication entre technique et écoute 👍 Pour ma part, sur la batterie, je mets en phase mes 4 micros d'overhead et de room physiquement dans la pièce. Et j'aligne dans le DAW les autres pistes a ces quatres pistes de références. Je trouve qu'il y a moins de filtre, le son est plus naturel. Mais j'ai l'impression que c'est se qui est fait dans cet exemple.
Ce sera pour une autre vidéo :). Mais en gros je commence par une analyse visuelle des pistes. La plupart du temps on peut voir que le signal est à peu près le même et à quel point il est bougé dans le temps. C'est plus simple sur des notes basses et quand il n'y a pas trop de distorsion dans le signal, sinon visuellement c'est juste un boudin. Et puis on écoute et on expérimente, un peu plus par ci, un peu plus par là. André
Tu peux simplement déplacer une piste par rapport à l'autre, en utilisant l'option nudge (ou similaire dans ardour) et en chosissant 1 échantillon (1 sample) comme valeur de nudge. André
Très interessant, j'ai pu voir l'importance de la phase en faisant de la psytrance la relation entre le kick et la bass sur le corps du kick et le premier roulement de bass. La différence entre une phase aligné ou non est impressionnant.
C'était très intéressant merci. Je vais en profiter pour poser deux questions la première est pour savoir si sur des plugins virtuelle ( ex amplitude 5 et auditive drum ) est-ce que le plugin mets tout en phase automatiquement et l'autre est-ce que la phase peut influencer des pistes d'instruments différents ( ex guitar et cornemuse pour être un peu original dans mon exemple haha ). Merci beaucoup pour le temps que vous prenez pour nous enseigner vos connaissances et bonne journée 🤘
Pour faire simple : non et oui. La gestion de la phase dans les sampleurs est surtout question du soin des gens qui ont enregistré et préparé la chose, souvent il y a pas mal de "problèmes". Tu peux tout à fait avoir des problèmes de phase entre deux pistes différentes, c'est juste question des fréquences présentes en même temps sur les deux pistes. André
Hello André, super clair comme d'hab. Petites questions sur la phase des micros de batterie. a priori tu retardes les close- mics pour s'aligner avec les over heads plus eloignés . et pourquoi pas l'inverse ? et que faire de micros rooms volantairement eloignés de la batterie? faut il les aligner avec les over heads ? Pour aligner tous ca j'aime utiliser le plugin auto align de chez soundradix qu'en penses tu ? merci
Aucun souci pour faire ça aussi. Tant que tu prends un micro comme référence, ça ne changera pas grand chose lequel. J'ai aussi pas mal expérimenté avec des rooms éloignées en post prod, ça peut permettre de donner juste le bon groove à la room en fonction du tempo du morceau. :) Je n'utilise pas Auto Align moi même mais j'en ai entendu que du bien, tant qu'on l'utilise avec une oreille critique. André
Yes !! Dès qu'on a deux éléments qui partagent les mêmes fréquences, il y a des interactions de phase. On les entend comme un "problème" quand ces interaction sont très fortes, donc la plupart du temps quand les deux éléments sont très, très proches dans ce qu'ils contiennent. André
Je déplace les pistes l'une par rapport à l'autre. On peut faire ça de plein de manières différentes mais la plus simple c'est de littéralement bouger un clip de quelques échantillons à gauche ou à droite. André
Très intéressant et instructif pour les enregistrements et le mixage de groupe ! Dans un autre registre, lorsque l on enregistre plusieurs éléments en direct dans une carte sons sans utiliser de micro (pour de l electro) est il nécessaire de réaliser ce même travail sur la phase ? Étant donné qu il n y a théoriquement pas de décalage entre les prises
Dans le cas de sons générés par des machines, la relation de phase n'est pas directe mais le phénomène de mélange de fréquences, d'annulations et de boosts en fonction des fréquences présentes dans les deux signaux au même moment, ce phénomène est toujours présent . Il arrive souvent par exemple qu'on mélange deux synthés basse, un plus sub et un plus texturé dans le médium et qu'on doive jouer avec la polarité / le placement dans le temps un peu pour trouver une relation entre ces éléments qui marche vraiment bien. André
Merci ! Alors forcement ils ne pouvaient pas le faire comme je le fais ici. Du coup on prenait encore plus de temps à positionner les micros au mieux possible et d'avoir des relations de phase les plus intéressantes possible. Et on ne mettait pas trop de micros aussi, du coup moins de soucis dès le départ. Et finalement ça passait aussi par l'acceptation du compromis :). André
salut andré ok merci pour le tip et le lien qui va avec des heures d'écoute en perspective pour digérer tous cela et aiguiser mon ouïe de debutant mais ca vaut le coup merci encore
Excellente vidéo comme d’habitude. Juste dommage que tu ne montres pas concrètement un exemple. À savoir comment tu t’y prends pour remettre en phase un élément. Je suis en ce moment sur le mixage de 12 titres que j’ai enregistré live (9 micros) et même si le résultat final sonne bien, je ne peux m’empêcher de me demander si je ne pourrais pas gagner quelques % en travaillant la phase... mais ça pourra être le sujet d’une autre vidéo ! ;)
Expérimente avec, c'est une bonne idée. Juste attention, on peut s'y perdre ;). Je vais essayer de faire une vidéo sur le recalage en phase mais pas de suite. André
Hello, merci pour la vidéo André ^^. J'utilise Reaper et j'utilise souvent cette option à la base pour décaler légèrement une piste par rapport à une autre. Je m'en servais principalement pour la batterie, pour souvent donner un peu plus de "swing" aux cuivres ou à l'ensemble du mix. Sans ça je trouve que mes sons manquent de vie, ça sonne trop "carré", ça fait pas naturel. Et le son respire mieux, forcément certaines fréquences ne se retrouvent pas à jouer au même moment, ça apporte de la clarté à l'ensemble. Par contre c'est une option à utiliser avec parcimonie car il est très facile de ne plus être dans les temps avec certains autres instruments, ce qui peut créer un décalage qui n'est pas très plaisant à l'oreille quand ce n'est pas ce qui est recherché. Mais grâce à cette vidéo j'aurais au moins pu mettre un mot sur ce que je faisais, "être en phase" 🙃, car j'avais découvert cette option totalement au hasard à force de trifouiller par simple curiosité sans vraiment savoir ce que je faisais réellement si ce n'est créer un léger décalage entres les pistes 😁 Par contre sur mon DAW j'ai un réglage soit en millisecondes, soit par échantillon. Par défaut je laisse souvent en "ms" mais quelle est la différence entre les deux finalement ?
Alors dans ton cas de figure c'est un décalage musical, du groove. C'est absolument important aussi et tout à fait utile. Par contre la relation de phase et son ajustement se passe à un réglage plus fin, en échantillons, plus qu'en milisecondes. Ce que tu fais c'est de préciser ce qu'on appelle en anglais la "pocket" : l'endroit parfait pour le groove d'un instrument par rapport à un autre pour que tout s'emboite musicalement. Ça agit également sur la phase entre les pistes mais ce n'est pas ça que tu règle en faisant ton décalage :). André
Tout à fait, même si tu ne risque pas d'avoir beaucoup de situations où des réels problèmes de phase vont apparaître, surtout parce que pour la voix, on va presque toujours privilégier la prise à un seul micro. Je vais juste préciser aussi qu'il ne s'agit pas de théorie, la phase est un concept physique, du à la façon dont la physique de vibration fonctionne. Tout son est une onde complexe et le mélange d'ondes (= de différents sons) créé toujours une onde résultante, la somme des deux ondes individuelles. :)
Merci André, je découvre AGS depuis hier, je sens que je vais adorer cette chaîne ! ^^ petite question sur la valeur de compensation de delay : est-ce que tu mesures la distance entre micro (petite formule avec la célérité du son dans l'air, et pouf = ) pour avoir une valeur grossière puis affiner à l'oreille, ou bien utilises-tu une autre méthode, ou encore vas-y tu complètement au pifomêtre (cette dernière hypothèse me semble très peu probable)... pour paraphraser et de mémoire, j'applique : 1ms = 30-35cm en captation, pour avoir un "pré-alignement" (je place mes micros en fonction de mes possibilité d'ajustement - limitées dans mon cas à un pas de 1ms sur mon enregistreur). Est-ce que cette méthode te (vous) paraît juste ?
On verra. Perso je ne suis pas très sûr que ce soit la bonne direction pour la musique, en tout cas pas avec spécifiquement Atmos. Son 3D oui, mais la version de Dolby, je ne sais pas. André
merci pour ta réponse@@AcadémieduGrosSon ... j'ai pas été très clair.. je parle pas du tout de 3D , mais de ce que tu expliques à 22:30 et après : la distance micro(s) source acoustique. quand j'enregistre ma guitare (pure) acoustique, j'ai un micro cravate sur la rosace et (pour l'instant), deux cellules intégrées à mon enregistreur (TASCAM), et pour que mes 3 pistes soient "en phase", je retarde le mic rosace de 3ms (si par exemple je positionne le tascam à env. 1m de la caisse de la guitare ) ... l'idée est d'avoir un rush déjà en phase (car j'utilise de petits outils opensource pour l'instant, type Audacity)
Du coup ta façon de faire est très bien. Perso je garde en tête la distance entre les différents micros mais je ne la mesure pas spécifiquement. Dans mon DAW je compare les formes d'ondes visuellement et j'utilise un coup bien défini comme repère. Je mesure directement dans le DAW la distance en échantillons entre les crêtes qui devraient arriver en même temps et j'applique ça comme offset. Ensuite j'expérimente avec des réglages différents autour de ce que j'ai mesuré pour voir si je ne trouve pas un réglage encore plus intéressant. C'est pas la façon la plus rapide mais c'est comme ça qu'on apprend le mieux je pense :). André
Merci pour ce tuto, toi au moins tu expliques tout. Faisant de la MAO donc pas de prise de son au micro, j'ai parfois des soucis quand j'utilise plusieurs kick différents, aurais tu un conseil a me donner sur ce dont je dois me méfier quand je joue a ça. J emise sur e nettoyage de piste et je fais gaffe aux "clicks" générés par la découpe des pistes mais y-a t-il d'autres pièges en rapport avec la phase ?
Yes !! C'est un parfait exemple dans lequel tu vas fortement influencer le résultat en bougeant les pistes une par rapport à l'autre de quelques échantillons/samples. Attention que faire un traitement sur une des pistes va changer la phase de cette piste et du coup ton mélange changera aussi. C'est pour ça que quand j'ai plusieurs éléments qui ont une forte relation de phase, perso je les mets aussi bien que possible en phase (en déplacant donc une piste par rapport à l'autre) et ensuite je traite l'ensemble de ce son comme un nouvel instrument, souvent sur une piste groupe. André
@@AcadémieduGrosSon ah merci c'est un super conseil, comme un naze je colle du process sur chaque piste et je m'étonne que ce soit le bordel....Un grand merci à toi. ;)
Je cherchais des infos sur quel language utiliser pour expliquer comment bien régler mes retours de chant car j'ai souvent l'impression que le son du retour est pas assez "precis" et je me dis que du coup, la phase..à voir comment régler ça mntnt sur une mixette ou autre. Merci bcp, j'adore vos vidéos !!
Alors oui, les mélanges de phase entre retours, façade, et sources directes est toujours compliqué à gérer. Ceci dit, en live, t'as pas souvent l'occasion, les outils et l'opportunité d'écoute pour travailler ça. Personnellement en live je ne pense pas trop en terme de phase, mais en termes de rôle et cohérence. Un retour pour un chanteur doit surtout leur donner une idée précise de comment leur voix sonne, du coup je vais faire des choix forts en terme de balance et d'eq de ce retour pour faciliter l'intelligibilité de la voix (je vais éviter d'y mettre des grosses basses comme le kick et la basse pour ne pas cacher la note fondamentale de la voix, je vais couper pas mal dans le bas médium pour ne pas faire "ronronner" le retour et renvoyer une bouillie sonore sur scène, je vais calmer très fort les 3-4-5 kHz pour que rien ne soit agressif et potentiellement douloureux sur scène). Essayes de vraiment t'imaginer le rôle de chaque retour et prends du temps avant l'arrivée des musiciens pour parler dans un micro devant le retour et essayer de rendre ta propre voix la plus claire possible sans être agressive. Ça te donnera déjà un bon point de départ pour la suite. André
Bonsoir frère..j'aime bien vos vidéos,elles sont très intuitive... Cependant est il possible de faire une vidéo Sur comment retrouver ses plugins Bridger sur pro tools.. Merci.
@@AcadémieduGrosSon Bonjour Maître André..en fait je cherchais à savoir comment retrouver mes plugins wavs sur pro tools..et deuxièmement,je voudrais savoir s'il est possible de faire une vidéo sur comment faire un sidechain entre voix et mélodie. Merci.. d'avance Maître André...
@@yawolouisadabadji917 lors de l'installation de tes plugins Waves il faut s'assurer de choisir l'installation du format AAX, c'est le format de plugins que Pro Tools utilise. Tu te souviens d'avoir fait ça ? Que veux tu dire par side chain entre voix et mélodie ? Tu peux élaborer un peu ? André
j’aurais peut être commencer pa la théorie, montrer simplement que le changement de polarité inverse le signe du signal qui fait qui annule le signal de signe opposé si aligne parfaitement ensemble ^^ Et pour le coup ça aurait été intéressant d’expliquer que la différence de fréquences est surtout due par annulation et donc que 2 sons très différents mais hors phase, vont annuler leur fréquence commune
Ce que je préfère dans les commentaires youtube c'est les Conseillers Officiels Autoproclamés 😂😂 Visiblement vous êtes beaucoup à vous sentir obligés de dire ce qu'il aurait fallu faire ou ne pas faire. Stop it please 😂😂
Salut André! Dis moi, peut il y avoir un problème de phase entre 2 pistes complétement à gauche ou a droite? Par exemple : entre 2 guitares, une complétement à gauche et l'autre complétement à droite? Merci!
Tout à fait ! C'est moins évident à entendre MAIS sera très vite audible si tu écoutes par exemple sur une petite enceinte Bluetooth qui, même quand elle est stéréo, a ses haut parleurs très proches les uns des autres, ce qu donne réellement une source mono :). André
Bonjour, je ne sais pas si le son est égal au son home-cinema. Mais pendant une calibration de mes enceintes. J'ai une phase sur l'enceinte de gauche. Que faire pour ne plu avoir ce souci de phase ?
Que veux tu dire par "j'ai une phase" ? Mais oui, la phase est un concept qui s'applique à absolument tout dans l'audio (et d'ailleurs à la plupart des choses en physique :) ). André
@@AcadémieduGrosSon Salut, quand je fais une calibration sur un ampli hc. pendant la calibration du micro pour calibrer mes enceintes. Il m'indique sur l'enceinte gauche av. Une phase comme une erreur ! Mais j'ai entendu dire, qu'il faudrait inverser le + du - pendant la calibration. Je te dis ça, car tu calibre du son. ;-)
Salut merci pour cette vidéo j’ai compris réellement ce que c’était que la phase. Par contre je n’ai pas compris comment tu choisis la différence de temps « exacte » pour être sur d’atteindre cette bonne phase
Merci ! Je fais ce choix en comparant d'abord visuellement les formes d'ondes, puis je bouge une des pistes pour déjà visuellement commencer au même endroit et puis je fais des tout petits mouvements, par increments de 10-30 samples. Je bouge un peu à droite, j'écoute. Un peu à gauche, j'écoute. J'essaye de noter où le mélange a t il l'air plus plein et avec moins de fréquences résonantes. Quand j'ai trouvé l'endroit plus ou moins, je refais ça mais avec des mouvements beaucoup plus petits, 3 à 5 samples (échantillons) à la fois. Et finalement je fais ça 1 échantillon à la fois jusqu'à ce que je trouve un mélange qui me plaît le plus. Important : gardes les deux pistes à un niveau similaire l'une à l'autre, plus facile de juger le mélange que d'avoir une des pistes plus fort que l'autre. André
@@AcadémieduGrosSon merci beaucoup d’avoir pris du temps pour me répondre, maintenant je comprends mieux comment l’appliquer Merci encore vous faites du très bon boulot avec des explications très claires, continuez comme ca !!!
Salut André ,,si on part du principe que quand on inverse la polarité on applique une rotation de phase à 180°c,, on peut estimer qu'il ya une possibilté de trouver un meilleur timbre entre 0°c et 180°c,,,,on peut l'appliquer avec les plugins de recherche de rotation de phase tel que l'EVOIN de FLUX,,,ou d'autres....Et merci pour vos viéos qui vont du débutant à l'expert!!!@@AcadémieduGrosSon
@@slashburn7698 en effet. Mais t'as tout à fait raison, c'est pour ça que j'applique les offsets dont je parle dans la vidéo, pour faire tourner la phase mais entre 0 et 180°. André
Bonjour. Est-ce que quelqu'un peut me dire svp s'il y a (j'ai cherché en vain) *_un VST qui peut avancer ou retarder un fichier audio ?_* La fonction n'existe pas nativement sur Reason. Jusque là, j'ai toujours déplacé mes pistes de 1/128 à chaque fois pour déphaser. Ce n'est pas franchement une torture, mais je ne suis pas contre changer de méthode si c'est plus pratique. Merci à vous si vous pouvez m'aider ! 😌
Il me semble que dans Reaper tu peux faire ça directement dans les paramètres d'une piste et même d'une région audio, en ouvrant son menu de propriétés. André
J'ai tourné l'explication mais j'ai fini par l'enlever de la vidéo, je trouvais que ça alourdissait le message. Mais je l'explique avec plaisir ! J'ai 5 pistes de basse parce que j'avais envie d'expérimenter avec le mélange de différentes couleurs d'amplis et de micros pour obtenir un résultat plus complexe. Du coup j'ai reampé la DI pure de la basse par 1 ampli dans un cabinet, repris à 2 micros. (ampli guitare, pas mal de drive, beaucoup de couleur et un médium plus en avant) En même temps j'ai envoyé la DI dans un préampli avec un peu de distorsion, compression, EQ etc. Là j'ai fini avec 3 pistes. Ensuite j'ai repassé cette même DI pure dans un deuxième ampli, qui allait dans le même cabinet et dans les mêmes micros, ce qui rendait le reamp en une passe impossible. (cet ampli était un ampli basse, moins de couleur mais plus de bas et de grosseur) Ça nous amène à 5 pistes. Les deux pistes du premier ampli étaient un tout petit peu hors phase, malgré un placement de micros aux petits oignons, je les ai un peu recalé ensemble. => tout à fait normal parce que la phase se joue avec des très petites distances quand on est aussi prêt de la source (le haut parleur dans le cabinet basse). La piste de la DI était hors phase parce qu'elle n'est pas passé dans un cabinet, puis dans l'air, puis dans un micro. Elle est arrivée donc dans l'ordi un poil avant les 2 premières pistes. Pour qu'elle soit parfaitement ensemble avec le reste, elle devait être retardée. Les deux dernières pistes étaient encore à un endroit un poil différent et c'était du à mon sens au traitement du signal par l'ampli basse, qui a fait tourner la phase du signal différemment de l'ampli guitare. On utilise les mêmes micros, un poil déphasés donc ici il faut de nouveau aligner les choses. Et puis finalement, à chaque étape de ça, j'avais un choix à faire : quel mélange de ces pistes me paraissait le plus intéressant, riche, tight, punchy, équilibré et surtout, le mieux adapté au rôle de cette basse dans le morceau. C'est donc un processus à moitié technique et à moitié artistique. Il n'y avait PAS de phase parfaite, juste des phases plus comme ci ou plus comme ça. :) André
@@AcadémieduGrosSon ouha merci pour l'explication, c'est bien plus clair maintenant. Je pense que ton explication a sa place dans une autre vidéo peut-être, où tu expliquerais justement dans quelle situation tu peux te retrouver avec une phase entre 2 records et pourquoi. Ton explication finalement est super intéressante et c'est bien plus clair je trouve d'avoir le contexte d'enregistrement des pistes. Merci beaucoup pour l'explication, c'est sympa d'avoir pris le temps de répondre aussi bien . 🤠👍
Tout type de signal. Dès qu'on a deux signaux qui se mélangent, il y a des "problèmes" de phase : atténuation de certaines fréquences et amplification d'autres. Mais c'est surtout audible et potentiellement problématique avec différentes versions d'un même élément : plusieurs micros sur un instrument, les mêmes accords joués par des synthés similaires ou encore plusieurs samples de grosse caisse mis ensemble pour créer un nouveau son de grosse caisse. André
Pouvez-vous nous faire une vidéo sur comment utiliser un Steam d'accompagnement sur ableton live dans le but d'accompagner sa band lors d'une performance live SVP🥺🥺🥺🥺
Ça va à peut près mais je ne sais pas si in phase ajuste lui même le décalage ou si c’est juste pour trouver ce fameux décalage et ensuite c’est à nous de le rentrer manuellement. Et aussi quelle sont les choses à mettre en phase car sur une batterie dès qu’on met quelques chose en phase on déphase obligatoirement autre chose, je pense que c’est une histoire de priorité et de dynamique… c’est d’autant plus compliqué en prise live 😅
C'est valable dès que deux sons qui partagent les mêmes fréquences sont mélangés et SURTOUT audible et d'application si ce sont des signaux correlés : qui jouent la même chose en même temps. Donc oui, le cas de micros dans la même pièce qui enregistrent la même chose est LE cas où les mouvements de phase ont un gros impact. Mais cette combinaison de signaux et les éventuels boosts et baisses de fréquences arrivent à chaque fois qu'on mélange deux signaux. Exemple : si tu enregistres une basse électrique via une DI, rien dessus, le son de la basse pure et en même temps tu la passes par une pédale SansAmp et qu'ensuite tu mélange ces deux signaux, tu auras une certaine relation de phase entre les deux signaux (même s'il n'y a eu aucun micro dans le tas). On peut ensuite modifier cette relation en bougeant une des pistes dans le temps et/ou en inversant la polarité d'une des pistes. André
Je vais faire une vidéo spécifique là dessus mais pour commencer la façon la plus simple la plupart du temps c'est de trouver un endroit très percussif dans ton fichier et d'essayer d'aligner EXACTEMENT le même coup dans les 2 (ou plus pistes). Pour une guitare électrique par exemple : je vais aller chercher le début d'une note bien définie et je vais essayer d'aligner les 2 micros pour que le début de la forme d'onde de cette note commencent exactement au même endroit. Comme rien n'est jamais parfaitement en phase, ce sera toujours une question de choix et de préférence. André
le problème de phase s'explique par le fait des influences des sonorités harmoniques qui, joués ensemble, ont des effets telatifs à leurs fréquences qui s'affrontent dans l'air. ainsi donc, ton résultat ne sera pas entendu pareil suivant le récepteur sonore (ampli et hp) et surtout, ta position dans l'espace. les fréquences aiguës se propages de façon très directionnelles et vont loin, les sons de basse fréquences seront beaucoup moins directifs mais se propagent plus dans les matériaux et remplissent l'espace proche. lorsque deux fréquences qui ont un rapport harmonique (au sens de l'analyse de fréquence) se rencontrent, il se diminuent ou s'amplifient. Je trouve que une métaphore par analogie qui explique bien cequi se passe, c'est les phénomènes de vagues dans un plan d'eau... quand des vagues de fréquences différentes mais en accord harmoniques se rencontrent, la hauteur de houle grandit de façon flagrante et il en résulte aussi un changement de fréquence dominante. c'est exactement le même phénomène. qui devient visible physiquement. Et les phénomènes harmoniques de fréquences s'appliquent à tout. Simplement pqrce que le mouvement implique un phénomène de fréquences. c'est donc pareil pour la lumière, le son, le vent, la sysmographie, les ondes radio, le déplacement des atomes, etc... c'est un domaine très complexe à étudier maisc'est passionant.
Est-ce qu'utiliser un générateur de son sinusoïdal comme le fameux La à 440 hertz d'un métronome n'aiderait pas à régler la phase au plus juste pour tous les micros ? Pour les micros overhead qio captent plusieurs instruments forcément déphasée entre eux ça ne changera rien, sauf.'. que si l'on connait le décalage de chaque instrument par rapport au micro overhead, alors on peut appliquer le décalage déterminé pour chaque instrument à celui des autres micros associés à cet instrument, comme tu l'as fait pour la basse mais de manière plus audible et fiable. Le réglage automatique d'un home cinéma s'effectue via un micro qui permet de régler le décalage de chaque enceinte pour que le son arrive au bon moment à l'auditeur. Lors de ce réglage chaque enceinte émet une série de sons spécifiques qui permettent à l'ampli de calculer la phase et vérifier que des fils n'ont pas été inversés (inversion de polarité).
Absolument, ça se fait souvent, notamment dans les enregistrements des orchestres où on a 45 micros dans la pièce avec plusieurs mètres entre eux. Soit avec un clap des mains devant chaque micro, soit un click etc. Pour le reamp de guitares etc, ce que je fais c'est de mettre un click très rapide au début de ma piste à reamper et ensuite j'ajuste chaque piste micro pour que ce click tombe parfaitement en même temps. Donc tu as tout à fait raison ! Je ferai une autre vidéo qui traitera plus de comment gérer ces décalages de phase. André
Alors les passages à zéro ne sont pas nécessairement toujours au même endroit, tout dépend de ce que le signal a reçu comme traitement dynamique et de couleur. Avec certaines distortions, la phase du signal est fort affectée, pareil avec les compressions ou EQ. C'est un bon début ceci dit ! André
@@AcadémieduGrosSon ce déphasage est-il variable dans le temps ? Si oui alors ok, ce n'est pas si simple. J'avoue, malgré mes études en traitement de signal, n'avoir aucune expérience en ingénierie de la musique. Où pourrai-je trouver des pistes brutes avec ces déphasages qu'un alignement des passages par zéro ne serait pas possible ?
Bonjour, Le commentaire sur "Retrouver le son qu'on a dans la pièce" ne fait pas trop de sens à mon gout...Quand on écoute un son en live on a pour ainsi dire 2 micros (nos 2 oreilles). Il faudrait un setup de micros semblable à une paire d'oreille si on cherchait à capter le son tel qu'il est entendu. Hors ce n'est pas ce qui est fait. Donc j'avoue que la pertinence de cette remarque m'échappe...
L'idée n'est pas de capturer le son "tel que tu l'entends" mais de juger est-ce que le son capturé ressemble à celui qu'on entend dans la pièce. Dans mon exemple ici, la basse "hors phase" ne sonne pas du tout comme l'ampli dans la pièce, par contre la basse "en phase" sonne très, très proche de cet ampli. Proche en couleur de distorsion et dans la façon de bouger/groover. André
Ça c'est expérimenter avec la phase en bougeant les pistes une par rapport à l'autre. Être en phase c'est quand tes différentes pistes s'additionnent de manière optimale et renforcent les caractéristiques particulières du son que tu enregistres. André
Salut, merci pour la video! Pourquoi certains enregistrements sonnent aussi pourris? Eh ben ça y est j"ai la réponse.. snif.. trop tard.. J'ai une question chipoteuse: Pour équilibrer la distance des overheads par rapport aux autres micros batterie tu retardes le signal dles autres micros, mais pourquoi ne pas plutôt avancer celui des overheads..? ben oui au fait, Merci
C'est pareil en effet :). En général c'est des mouvements trop petits que pour influencer beaucoup le groove avec le reste des instruments du coup bouger certaines pistes en avant ou d'autres en arrière revient à la même chose. André
Donc si je comprends bien, faut décaler les instruments,, faut les déphaser, pour les mettre en phase ? Histoire de grossir le son ? Ou le contraire.. C est pas hyper clair..
Lors de l’enregistrement chaque source de la batterie est enregistrée simultanément. Hors dans les overheads, du à la célérité du son il y a un micro décalage entre le son d’une caisse claire dans les overheads et dans le micros de caisse claire. Le but est donc de les remettre en phase pour obtenir un son plus naturel
T'as compris et oui, c'est un peu contre intuitif. Tout d'abord, ce n'est pas quelque chose qu'il "faut" faire, c'est un choix de production et un autre son. Donc oui, on déplace ici les pistes APRÈS l'enregistrement, on change donc la relation de phase entre les micros par rapport à la phase "naturelle" entre ces micros dans la pièce. Donc on déphase pour que la relation de phase soit plus propice à un son qui a de l'impact et qui sonne plus proche de ce qui se passe dans la pièce avant d'entrer dans les micros. André
Vraiment tes exemple et tes explications sont ultra parlantes c'est la premiere fois je comprends aussi bien ce sujet
Super explication. Avec la partie sur l'emplacement des micros pour la batterie on comprend tout de suite pourquoi il faut recaler les différentes pistes, c'est très clair.
Merci pour votre travail =)
Merci pour la clarté de vos explications, et aussi de partager votre savoir.
Vraiment super instructif. Comme quoi des tutos développés sur au moins vingt minutes ont du bon. Votre explication sur la nécessité de corriger les différences de placements de micros sur une batterie par ces décalages de phase est d'une clarté édifiante. J'avais, il y a longtemps, utilisé le décalage de phase dans un tout autre contexte : une guitare 12 cordes électrique - riff "glam rock" sur un titre Euro-Dance - passée dans un Clavia Nord Modular pour la "synthétiser". J'ai copié la piste audio, et ai décalé la seconde piste de quelques samples pour "déstructurer" un peu le son, lui faisant ainsi perdre quelques fréquences, rendant le son plus "nasillard", un peu comme si j'avais joué sur un dobro électrique synthétisé. Puis j'ai rajouté un delay "slapback" très rétro. Un autre façon d'effectuer - puis-je appeler ça du "hors phase" ? - dans le but délibéré de transformer (altérer) un son. Encore merci pour cette chouette vidéo en tous cas.
Tout à fait ! Très chouette partage, merci !
Video très importante sur un sujet très important. La plupart (toutes?) des chaines YT francophones ont abordée ce sujet de façon très superficielle, alors qu’ici nous avons un exposé complet. Bravo.
Il m’est souvent arrivé ce cas de figure : je faisais 2 ou 3 prises de la même partie (par exemple, une guitare) afin de grossir le son, de lui donner plus de corps (pas des copies de prises, hein, mais des interprétations différentes de même partie), et il y avait des problème de phase, juste par intermittence, suivant le jeu. Pas évident du tout à régler quand c’est juste par ci, par là.
Ah oui, ça c'est le classique d'un doublage avec un son trop proche.
Perso quand je fais des couche de grosseur, je m'assure de toujours changer au moins un paramètre : le pick, la guitare, le micro sur la guitare, l'ampli, le cabinet ou encore le micro sur le cabinet.
Histoire que ce soit la même partie mais pas le même son.
André
@@AcadémieduGrosSon Merci pour l’astuce
Merci l'AGS, très intéressant. Surtout les écoutes et la conclusion, car effectivement c'est un paramètre qui permet de jouer sur la profondeur auquel je n'avais pas pensé.
J'ai mis du temps à comprendre que les formes d'onde usuelles dans nos DAWs affichaient l'amplitude sonore, ce qui explique l'annulation du volume en cas de superposition d'un signal et de son inversé en phase. Une petite animation de sinusoïdes m'avait bien fait visualiser le problème théorique qui schématise le phénomène.
Ce sujet -trop rare- de la phase a levé quelque peu son mystère grâce à ta vidéo, André. 🏆
Merci ! J'en ferai d'autres 😉
Vraiment très bonne explication. Merci de partager toutes vos connaissances acquises après tant d'années. C'est vraiment un trésor et une mine de sciences. Longue vie à cette chaîne !
Merci à toi !
Vraiment bonne vidéo André, et tout à fait bien expliqué! Tu laisses aussi de la place pour celui derrière la console et son travail sur la phase et son importance subtile ou relative au mixage. Bravo et merci!
Salut André, je suis en phase avec tes paroles :) Super intéressant, merci.
Merci pour ta vidéo, tu expliques super bien avec des bons exemples à chaque fois.
Merci pour cette vidéo encore une fois très claire!
Quelle magnifique imitation d'une enceinte !! 🤣
Merci et merci 🤣
Bravo pour cette explication claire et c'est vrai toujours difficile à faire! Vive la Belgique. Un musicos Français Nordiste ;)
Clair, détaillé, pédagogique, vidéo d'excellente qualité !
Très très instructif.. Bizarre que l'on n'ai pas encore sorti un plugin qui proposerait plusieurs solutions... Parfaitement en phase jusqu'à déphasé.. Merci pour ces informations
Si si, ça existe :). Le plus connu étant le AutoAlign de Sound Radix : www.soundradix.com/products/auto-align/
André
Excellent et clair ... Merci pour ce développement sur ce sujet.
Et bravo pour toutes vos vidéos à tous les deux individuellement et ensemble.
Merci !
Super boulot encore une fois ! La phase était un sujet qui m'échappait complètement, un grand merci pour cette vidéo qui m'éclaircît beaucoup. J'apprends énormément avec vous, l'AGS !
Super ! Effectivement ça change tout cette histoire de phase ... Très clair ! C'est noté merci 😊
C'est un gros sujet, super vidéo, merci André !
👍
Fantastique vidéo merci ! Question : sur une batterie midi type EZ3 je peux régler la phase ou la polarité si je transfert les pistes e' wav ?
Tout à fait !
Vraiment excellent, bravo pour ce travail, voilà du concret dans vos tutos, vraiment au top
Toujours clair et pédagogue , merci bien !
Excellente video❤❤❤❤❤. Vous êtes les meilleurs 🎉🎉.
Bonjour et d'abord merci pour l'ensemble de vos vidéos AGS 😉chaîne sur laquelle vous avez un abonné de plus ! Je précise d'abord que je ne suis qu'un MAOiste du dimanche, je pratique le clavier en "live performance" uniquement chez moi dans mon modeste home studio. Aucune production, pas de mixage et encore moins de mastering. Toutefois, je m'intéresse à tout ce qui touche de près ou de loin à la M.A.O. mais en règle générale, je n'arrive pas (peut-être à cause de mes vieilles oreilles de 60 ans, ou/et la qualité douteuse de l'audio via UA-cam) à distinguer la compression (voire l'effet produit par un EQ selon certains réglages), ou encore à comprendre ce que l'on appelle "la coloration" de tel ou tel plug-in. Mais là, la différence à cause de la phase est vraiment flagrante, en début de vidéo. Merci encore pour votre travail, vos vidéos sont vraiment agréables à suivre. Salutations depuis le Gard.
Hey hey, t'en fais vraiment pas, perso j'entends des trucs nouveaux chaque année, voir chaque mois. La compression ça m'a vraiment pris presque 10 ans à comprendre et vraiment percevoir :).
André
Complexe mais très intéressant. Merci pour cette vidéo André ! 🙂
La "Cata" donne un son fuzz à une basse !
Je découvre cette chaîne sur cet épisode, abonné direct! je sais où je vais passer mon dimanche =)
Oh yeah !! T'en as trouvé d'autres intéressantes ?
André
Waaaa la vidéo de fou merci ! Trop bien expliqué !
Génial André ! Super bien expliqué comme d'habitude :) merci beaucoup !
Clair et didactique, chapeau et merci !
Super tutoriel très bien expliqué. Merci. Je me demande comment faisaient-ils pour gérer la phase avec un enregistrement analogique.. je ne pense pas qu'ils pouvaient décaler une piste par rapport a l'autre pour la remettre en phase..
Non, tout était fait au moment du placement des micros. Et à un moment donné on accepte ce qu'on a. C'est entre autres aussi pour ça que les disques plus anciens sonnent moins "précis".
André
Wow j’adore ton explication car je pensais que je savais c’était quoi mais pas pentoute donc merci
Avec plaisir ;)
Bravo, très bien expliqué !
Salut et merci pour toutes ces explications !
Comment tu détermines le nombre de "samples de décalage" de chaque piste ? : sur la basse il y a une piste avec 3 et une autre avec 256 et pareil pour le kick.
Merci pour cette vidéo très instructive, mais alors... moi qui fait des petites scènes en live... faudrait faire pareil? Décaler toute la façade pour être en phase avec la scène? (Ampli, batterie)
Bonjour André Super interessant comme d'habitude. Par contre peux tu préciser comment tu choisis le nombre de sample de correction entre les pistes? A l'oreille, en regardant les formes d'ondes, par calcul à partir de la mesure des écarts de positions des microphones?
Hey! Très bonne question et la réponse est : tout ça !
Je commence par comparer visuellement les formes d'ondes, j'essaye de trouver un moment avec une attaque très franche et claire et là j'identifie de même coup sur les deux pistes.
Ensuite je mesure le décalage entre les points les plus hauts de la crête pour ces deux pistes et j'essaye en décalant de cette mesure là.
Là j'écoute, j'inverse la polarité sur une des lignes, j'écoute, je reviens à l'original, j'écoute.
Et puis j'expérimente avec des valeurs proches de ce que j'ai mesuré pour voir s'il n'y a pas un réglage encore un peu plus intéressant.
Je réitère jusqu'à ce que je trouve que j'ai obtenu un mélange qui fonctionne.
Comme c'est toujours une histoire de compromis, il y a plusieurs options de mélanges à chaque fois et c'est à toi de décider de celle qui marche le mieux pour toi.
Quand tu ne sais plus, laisse comme c'est et passe à la suite :).
André
Hello !! Super vidéo très intuitive ! Juste pour les sources hors phase (surtout sur la drum) je trouve aussi qu'il y a une énorme perte au niveau de la mono : le kick (ce qui s'entend le plus selon moi dans la relation hors phase/en phase) se retrouve en side quand hors phase alors qu'en phase il est vraiment dead mono dans la tronche. La sensation de stéréo joue aussi beaucoup (toujours selon moi) dans l'appréciation de la phase.
En tout cas toujours un excellent travail from AGS ! Vous démontez les mecs ;)
Yes pareil pour la caisse claire dans les OH, c'est pas toujours évident en stéréo mais en mono quand elle est hors phase tout le bas disparait
Tout à fait !
André
Hehe si je m'attendais à entendre du Fowv !!!
Ça poutre !
Excellent tuto, merci pour tous ces enseignements. Le sujet de la gestion de phase est très critique sur les situations d'enregistrement d'instruments live, mais faut il se soucier quand on bosse avec des plugins d'instruments ?
Yes! Ce sera moins un truc à faire à chaque fois mais tu peux très bien avoir un gros souci de phase avec des instruments électroniques, que ce soit des plugins ou des machines André
Belle explication entre technique et écoute 👍
Pour ma part, sur la batterie, je mets en phase mes 4 micros d'overhead et de room physiquement dans la pièce. Et j'aligne dans le DAW les autres pistes a ces quatres pistes de références. Je trouve qu'il y a moins de filtre, le son est plus naturel.
Mais j'ai l'impression que c'est se qui est fait dans cet exemple.
Yes, c'est ce que je fais ici :).
André
Merci André :) Tout est parfaitement compréhensible. Ils nous restent qu'à être capable d'en faire de même ;) :P
Haha :D
La video est top ! comment savoir de combien et dans quel sens je dois bouger quelle piste ?
Merci infiniment pour votre travail
Ce sera pour une autre vidéo :). Mais en gros je commence par une analyse visuelle des pistes. La plupart du temps on peut voir que le signal est à peu près le même et à quel point il est bougé dans le temps.
C'est plus simple sur des notes basses et quand il n'y a pas trop de distorsion dans le signal, sinon visuellement c'est juste un boudin. Et puis on écoute et on expérimente, un peu plus par ci, un peu plus par là.
André
Merci! c'est vraiment très interressant!
Bon maintenant il faut quye je regarde comment faire sous ardour j'ai déjà trouver la polarité mais pas la phase
Tu peux simplement déplacer une piste par rapport à l'autre, en utilisant l'option nudge (ou similaire dans ardour) et en chosissant 1 échantillon (1 sample) comme valeur de nudge.
André
Excellente video ! bonne explication sur le cas pratique mis en avant dans la video :)
Très interessant, j'ai pu voir l'importance de la phase en faisant de la psytrance la relation entre le kick et la bass sur le corps du kick et le premier roulement de bass. La différence entre une phase aligné ou non est impressionnant.
Tout à fait !
C'était très intéressant merci. Je vais en profiter pour poser deux questions la première est pour savoir si sur des plugins virtuelle ( ex amplitude 5 et auditive drum ) est-ce que le plugin mets tout en phase automatiquement et l'autre est-ce que la phase peut influencer des pistes d'instruments différents ( ex guitar et cornemuse pour être un peu original dans mon exemple haha ). Merci beaucoup pour le temps que vous prenez pour nous enseigner vos connaissances et bonne journée 🤘
Pour faire simple : non et oui.
La gestion de la phase dans les sampleurs est surtout question du soin des gens qui ont enregistré et préparé la chose, souvent il y a pas mal de "problèmes".
Tu peux tout à fait avoir des problèmes de phase entre deux pistes différentes, c'est juste question des fréquences présentes en même temps sur les deux pistes.
André
Donc vous supprimez les commentaires... Bravo les gars. 👍
Ah bon ? Je n'ai rien supprimé, tu parles de quel commentaire ?
André
Hello André, super clair comme d'hab.
Petites questions sur la phase des micros de batterie. a priori tu retardes les close- mics pour s'aligner avec les over heads plus eloignés . et pourquoi pas l'inverse ? et que faire de micros rooms volantairement eloignés de la batterie? faut il les aligner avec les over heads ? Pour aligner tous ca j'aime utiliser le plugin auto align de chez soundradix qu'en penses tu ?
merci
Aucun souci pour faire ça aussi. Tant que tu prends un micro comme référence, ça ne changera pas grand chose lequel.
J'ai aussi pas mal expérimenté avec des rooms éloignées en post prod, ça peut permettre de donner juste le bon groove à la room en fonction du tempo du morceau. :)
Je n'utilise pas Auto Align moi même mais j'en ai entendu que du bien, tant qu'on l'utilise avec une oreille critique.
André
Salut André !! Merci pour le tutoriel. Est que les problèmes de phase peuvent exister entre différents instruments?
Yes !! Dès qu'on a deux éléments qui partagent les mêmes fréquences, il y a des interactions de phase.
On les entend comme un "problème" quand ces interaction sont très fortes, donc la plupart du temps quand les deux éléments sont très, très proches dans ce qu'ils contiennent.
André
Hello André. Vidéo fort sympathique comme d'habitude 😉
Etant utilisateur de Logic je n'ai qu'à utiliser le sample delay fourni dans le DAW
Exactement, c'est ce que j'utilisais aussi sous Logic :).
André
Top! comme dab ! mais comment tu mets les pistes en phase , un plug in?
Oui c est pas hyper explique
Je déplace les pistes l'une par rapport à l'autre. On peut faire ça de plein de manières différentes mais la plus simple c'est de littéralement bouger un clip de quelques échantillons à gauche ou à droite.
André
Très intéressant et instructif pour les enregistrements et le mixage de groupe ! Dans un autre registre, lorsque l on enregistre plusieurs éléments en direct dans une carte sons sans utiliser de micro (pour de l electro) est il nécessaire de réaliser ce même travail sur la phase ? Étant donné qu il n y a théoriquement pas de décalage entre les prises
Dans le cas de sons générés par des machines, la relation de phase n'est pas directe mais le phénomène de mélange de fréquences, d'annulations et de boosts en fonction des fréquences présentes dans les deux signaux au même moment, ce phénomène est toujours présent .
Il arrive souvent par exemple qu'on mélange deux synthés basse, un plus sub et un plus texturé dans le médium et qu'on doive jouer avec la polarité / le placement dans le temps un peu pour trouver une relation entre ces éléments qui marche vraiment bien.
André
Merci André c'est génial !!
Une petite question : En pur analog avec magnéto, comment les ingé son gérais la phase avant l'ère informatique ?
Merci ! Alors forcement ils ne pouvaient pas le faire comme je le fais ici. Du coup on prenait encore plus de temps à positionner les micros au mieux possible et d'avoir des relations de phase les plus intéressantes possible. Et on ne mettait pas trop de micros aussi, du coup moins de soucis dès le départ. Et finalement ça passait aussi par l'acceptation du compromis :).
André
salut andré ok merci pour le tip et le lien qui va avec
des heures d'écoute en perspective pour digérer tous cela et aiguiser mon ouïe de debutant mais ca vaut le coup merci encore
Excellente vidéo comme d’habitude. Juste dommage que tu ne montres pas concrètement un exemple. À savoir comment tu t’y prends pour remettre en phase un élément. Je suis en ce moment sur le mixage de 12 titres que j’ai enregistré live (9 micros) et même si le résultat final sonne bien, je ne peux m’empêcher de me demander si je ne pourrais pas gagner quelques % en travaillant la phase... mais ça pourra être le sujet d’une autre vidéo ! ;)
Expérimente avec, c'est une bonne idée. Juste attention, on peut s'y perdre ;).
Je vais essayer de faire une vidéo sur le recalage en phase mais pas de suite.
André
@wonfoli Tout à fait d'accord.
Super intéressant merci !
Hello, merci pour la vidéo André ^^. J'utilise Reaper et j'utilise souvent cette option à la base pour décaler légèrement une piste par rapport à une autre. Je m'en servais principalement pour la batterie, pour souvent donner un peu plus de "swing" aux cuivres ou à l'ensemble du mix. Sans ça je trouve que mes sons manquent de vie, ça sonne trop "carré", ça fait pas naturel. Et le son respire mieux, forcément certaines fréquences ne se retrouvent pas à jouer au même moment, ça apporte de la clarté à l'ensemble. Par contre c'est une option à utiliser avec parcimonie car il est très facile de ne plus être dans les temps avec certains autres instruments, ce qui peut créer un décalage qui n'est pas très plaisant à l'oreille quand ce n'est pas ce qui est recherché.
Mais grâce à cette vidéo j'aurais au moins pu mettre un mot sur ce que je faisais, "être en phase" 🙃, car j'avais découvert cette option totalement au hasard à force de trifouiller par simple curiosité sans vraiment savoir ce que je faisais réellement si ce n'est créer un léger décalage entres les pistes 😁
Par contre sur mon DAW j'ai un réglage soit en millisecondes, soit par échantillon. Par défaut je laisse souvent en "ms" mais quelle est la différence entre les deux finalement ?
Salut! Ou trouve-t-on cette option dans Reaper, est ce via un plugin ou directement dans les options de Reaper ?
Alors dans ton cas de figure c'est un décalage musical, du groove. C'est absolument important aussi et tout à fait utile. Par contre la relation de phase et son ajustement se passe à un réglage plus fin, en échantillons, plus qu'en milisecondes.
Ce que tu fais c'est de préciser ce qu'on appelle en anglais la "pocket" : l'endroit parfait pour le groove d'un instrument par rapport à un autre pour que tout s'emboite musicalement.
Ça agit également sur la phase entre les pistes mais ce n'est pas ça que tu règle en faisant ton décalage :).
André
@wonfoli Ça se fait déjà et ce sera certainement présent dans des outils digitaux à venir !
André
Bonjour, ces théories fonctionnent sur une voix chantée dans le rap ou la drill ?
Tout à fait, même si tu ne risque pas d'avoir beaucoup de situations où des réels problèmes de phase vont apparaître, surtout parce que pour la voix, on va presque toujours privilégier la prise à un seul micro.
Je vais juste préciser aussi qu'il ne s'agit pas de théorie, la phase est un concept physique, du à la façon dont la physique de vibration fonctionne. Tout son est une onde complexe et le mélange d'ondes (= de différents sons) créé toujours une onde résultante, la somme des deux ondes individuelles.
:)
Merci André, je découvre AGS depuis hier, je sens que je vais adorer cette chaîne ! ^^ petite question sur la valeur de compensation de delay : est-ce que tu mesures la distance entre micro (petite formule avec la célérité du son dans l'air, et pouf = ) pour avoir une valeur grossière puis affiner à l'oreille, ou bien utilises-tu une autre méthode, ou encore vas-y tu complètement au pifomêtre (cette dernière hypothèse me semble très peu probable)... pour paraphraser et de mémoire, j'applique : 1ms = 30-35cm en captation, pour avoir un "pré-alignement" (je place mes micros en fonction de mes possibilité d'ajustement - limitées dans mon cas à un pas de 1ms sur mon enregistreur). Est-ce que cette méthode te (vous) paraît juste ?
On verra. Perso je ne suis pas très sûr que ce soit la bonne direction pour la musique, en tout cas pas avec spécifiquement Atmos.
Son 3D oui, mais la version de Dolby, je ne sais pas.
André
merci pour ta réponse@@AcadémieduGrosSon ... j'ai pas été très clair.. je parle pas du tout de 3D , mais de ce que tu expliques à 22:30 et après : la distance micro(s) source acoustique. quand j'enregistre ma guitare (pure) acoustique, j'ai un micro cravate sur la rosace et (pour l'instant), deux cellules intégrées à mon enregistreur (TASCAM), et pour que mes 3 pistes soient "en phase", je retarde le mic rosace de 3ms (si par exemple je positionne le tascam à env. 1m de la caisse de la guitare ) ... l'idée est d'avoir un rush déjà en phase (car j'utilise de petits outils opensource pour l'instant, type Audacity)
@@Lsw386 c'est moi qui ait posté une réponse à un autre commentaire sous le tien, faute de manipulation, désolé !
Du coup ta façon de faire est très bien.
Perso je garde en tête la distance entre les différents micros mais je ne la mesure pas spécifiquement.
Dans mon DAW je compare les formes d'ondes visuellement et j'utilise un coup bien défini comme repère. Je mesure directement dans le DAW la distance en échantillons entre les crêtes qui devraient arriver en même temps et j'applique ça comme offset. Ensuite j'expérimente avec des réglages différents autour de ce que j'ai mesuré pour voir si je ne trouve pas un réglage encore plus intéressant.
C'est pas la façon la plus rapide mais c'est comme ça qu'on apprend le mieux je pense :).
André
@@AcadémieduGrosSon ah !! :D je comprends mieux ^^ et ok,.. un gros un "clap" peut être utile, même sans vidéo. merci de ta réponse André
Rohlala merci mec 😃🙏 You are a gem ❤❤❤❤❤❤❤❤
Merci pour ce tuto, toi au moins tu expliques tout. Faisant de la MAO donc pas de prise de son au micro, j'ai parfois des soucis quand j'utilise plusieurs kick différents, aurais tu un conseil a me donner sur ce dont je dois me méfier quand je joue a ça. J emise sur e nettoyage de piste et je fais gaffe aux "clicks" générés par la découpe des pistes mais y-a t-il d'autres pièges en rapport avec la phase ?
Yes !! C'est un parfait exemple dans lequel tu vas fortement influencer le résultat en bougeant les pistes une par rapport à l'autre de quelques échantillons/samples.
Attention que faire un traitement sur une des pistes va changer la phase de cette piste et du coup ton mélange changera aussi.
C'est pour ça que quand j'ai plusieurs éléments qui ont une forte relation de phase, perso je les mets aussi bien que possible en phase (en déplacant donc une piste par rapport à l'autre) et ensuite je traite l'ensemble de ce son comme un nouvel instrument, souvent sur une piste groupe.
André
@@AcadémieduGrosSon ah merci c'est un super conseil, comme un naze je colle du process sur chaque piste et je m'étonne que ce soit le bordel....Un grand merci à toi. ;)
génial merci beaucoup!!!!
Merci 👍👍❤
Super vidéo
Je cherchais des infos sur quel language utiliser pour expliquer comment bien régler mes retours de chant car j'ai souvent l'impression que le son du retour est pas assez "precis" et je me dis que du coup, la phase..à voir comment régler ça mntnt sur une mixette ou autre. Merci bcp, j'adore vos vidéos !!
Alors oui, les mélanges de phase entre retours, façade, et sources directes est toujours compliqué à gérer.
Ceci dit, en live, t'as pas souvent l'occasion, les outils et l'opportunité d'écoute pour travailler ça. Personnellement en live je ne pense pas trop en terme de phase, mais en termes de rôle et cohérence.
Un retour pour un chanteur doit surtout leur donner une idée précise de comment leur voix sonne, du coup je vais faire des choix forts en terme de balance et d'eq de ce retour pour faciliter l'intelligibilité de la voix (je vais éviter d'y mettre des grosses basses comme le kick et la basse pour ne pas cacher la note fondamentale de la voix, je vais couper pas mal dans le bas médium pour ne pas faire "ronronner" le retour et renvoyer une bouillie sonore sur scène, je vais calmer très fort les 3-4-5 kHz pour que rien ne soit agressif et potentiellement douloureux sur scène).
Essayes de vraiment t'imaginer le rôle de chaque retour et prends du temps avant l'arrivée des musiciens pour parler dans un micro devant le retour et essayer de rendre ta propre voix la plus claire possible sans être agressive. Ça te donnera déjà un bon point de départ pour la suite.
André
Merci bcp, vous êtes au top !
Bonsoir frère..j'aime bien vos vidéos,elles sont très intuitive...
Cependant est il possible de faire une vidéo Sur comment retrouver ses plugins Bridger sur pro tools..
Merci.
je ne suis pas sûr de comprendre. Plugins Bridger ?
André
@@AcadémieduGrosSon
Bonjour Maître André..en fait je cherchais à savoir comment retrouver mes plugins wavs sur pro tools..et deuxièmement,je voudrais savoir s'il est possible de faire une vidéo sur comment faire un sidechain entre voix et mélodie.
Merci.. d'avance Maître André...
@@yawolouisadabadji917 lors de l'installation de tes plugins Waves il faut s'assurer de choisir l'installation du format AAX, c'est le format de plugins que Pro Tools utilise. Tu te souviens d'avoir fait ça ?
Que veux tu dire par side chain entre voix et mélodie ? Tu peux élaborer un peu ?
André
Merci, super clair !
j’aurais peut être commencer pa la théorie, montrer simplement que le changement de polarité inverse le signe du signal qui fait qui annule le signal de signe opposé si aligne parfaitement ensemble ^^
Et pour le coup ça aurait été intéressant d’expliquer que la différence de fréquences est surtout due par annulation et donc que 2 sons très différents mais hors phase, vont annuler leur fréquence commune
C'est ce que je montre dans la première vidéo de cette série sur la phase ;).
André
@@AcadémieduGrosSon Ah my bad alors ! Ça aurait été bien peut être de faire le rappel avant, on dirait que cette vidéo est l’introduction plutôt ^^
@@lch7145 Il me semble que j'en parle au début de la vidéo d'aller voir l'autre avant si le concept n'est pas très clair. Mais merci pour le retour !
Ce que je préfère dans les commentaires youtube c'est les Conseillers Officiels Autoproclamés 😂😂 Visiblement vous êtes beaucoup à vous sentir obligés de dire ce qu'il aurait fallu faire ou ne pas faire. Stop it please 😂😂
PS : Ne skip pas l'intro, toutes les infos y sont ! 🙉🙊
Excellent tuto ************
Salut André! Dis moi, peut il y avoir un problème de phase entre 2 pistes complétement à gauche ou a droite? Par exemple : entre 2 guitares, une complétement à gauche et l'autre complétement à droite? Merci!
Tout à fait ! C'est moins évident à entendre MAIS sera très vite audible si tu écoutes par exemple sur une petite enceinte Bluetooth qui, même quand elle est stéréo, a ses haut parleurs très proches les uns des autres, ce qu donne réellement une source mono :).
André
Bonjour, je ne sais pas si le son est égal au son home-cinema. Mais pendant une calibration de mes enceintes. J'ai une phase sur l'enceinte de gauche. Que faire pour ne plu avoir ce souci de phase ?
Que veux tu dire par "j'ai une phase" ?
Mais oui, la phase est un concept qui s'applique à absolument tout dans l'audio (et d'ailleurs à la plupart des choses en physique :) ).
André
@@AcadémieduGrosSon Salut, quand je fais une calibration sur un ampli hc. pendant la calibration du micro pour calibrer mes enceintes. Il m'indique sur l'enceinte gauche av. Une phase comme une erreur ! Mais j'ai entendu dire, qu'il faudrait inverser le + du - pendant la calibration. Je te dis ça, car tu calibre du son. ;-)
merci beaucoup man
Salut merci pour cette vidéo j’ai compris réellement ce que c’était que la phase. Par contre je n’ai pas compris comment tu choisis la différence de temps « exacte » pour être sur d’atteindre cette bonne phase
Merci ! Je fais ce choix en comparant d'abord visuellement les formes d'ondes, puis je bouge une des pistes pour déjà visuellement commencer au même endroit et puis je fais des tout petits mouvements, par increments de 10-30 samples. Je bouge un peu à droite, j'écoute. Un peu à gauche, j'écoute. J'essaye de noter où le mélange a t il l'air plus plein et avec moins de fréquences résonantes.
Quand j'ai trouvé l'endroit plus ou moins, je refais ça mais avec des mouvements beaucoup plus petits, 3 à 5 samples (échantillons) à la fois. Et finalement je fais ça 1 échantillon à la fois jusqu'à ce que je trouve un mélange qui me plaît le plus.
Important : gardes les deux pistes à un niveau similaire l'une à l'autre, plus facile de juger le mélange que d'avoir une des pistes plus fort que l'autre.
André
@@AcadémieduGrosSon merci beaucoup d’avoir pris du temps pour me répondre, maintenant je comprends mieux comment l’appliquer
Merci encore vous faites du très bon boulot avec des explications très claires, continuez comme ca !!!
D'une exemplaire clarté !
Je confirme, merci !
Salut André, y aurait il pas aussi la phase sur l'intensité ? L'angle entre les micros ?
Peut être moins impactante?
Hmm, qu'est vu tu entends par là ? Je pense que je ne saisi pas entièrement ta question.
André
Salut André ,,si on part du principe que quand on inverse la polarité on applique une rotation de phase à 180°c,, on peut estimer qu'il ya une possibilté de trouver un meilleur timbre entre 0°c et 180°c,,,,on peut l'appliquer avec les plugins de recherche de rotation de phase tel que l'EVOIN de FLUX,,,ou d'autres....Et merci pour vos viéos qui vont du débutant à l'expert!!!@@AcadémieduGrosSon
...je te l'accorde ,çà rajoute du boulot lol
@@slashburn7698 en effet. Mais t'as tout à fait raison, c'est pour ça que j'applique les offsets dont je parle dans la vidéo, pour faire tourner la phase mais entre 0 et 180°.
André
Bonjour. Est-ce que quelqu'un peut me dire svp s'il y a (j'ai cherché en vain) *_un VST qui peut avancer ou retarder un fichier audio ?_* La fonction n'existe pas nativement sur Reason. Jusque là, j'ai toujours déplacé mes pistes de 1/128 à chaque fois pour déphaser. Ce n'est pas franchement une torture, mais je ne suis pas contre changer de méthode si c'est plus pratique. Merci à vous si vous pouvez m'aider ! 😌
Il me semble que dans Reaper tu peux faire ça directement dans les paramètres d'une piste et même d'une région audio, en ouvrant son menu de propriétés.
André
Hello, je ne sais pas si tu l'as dit: pourquoi as tu 5 pistes de bass et pourquoi sont-elles hors phase ?
J'ai tourné l'explication mais j'ai fini par l'enlever de la vidéo, je trouvais que ça alourdissait le message.
Mais je l'explique avec plaisir !
J'ai 5 pistes de basse parce que j'avais envie d'expérimenter avec le mélange de différentes couleurs d'amplis et de micros pour obtenir un résultat plus complexe.
Du coup j'ai reampé la DI pure de la basse par 1 ampli dans un cabinet, repris à 2 micros. (ampli guitare, pas mal de drive, beaucoup de couleur et un médium plus en avant)
En même temps j'ai envoyé la DI dans un préampli avec un peu de distorsion, compression, EQ etc.
Là j'ai fini avec 3 pistes.
Ensuite j'ai repassé cette même DI pure dans un deuxième ampli, qui allait dans le même cabinet et dans les mêmes micros, ce qui rendait le reamp en une passe impossible. (cet ampli était un ampli basse, moins de couleur mais plus de bas et de grosseur)
Ça nous amène à 5 pistes.
Les deux pistes du premier ampli étaient un tout petit peu hors phase, malgré un placement de micros aux petits oignons, je les ai un peu recalé ensemble. => tout à fait normal parce que la phase se joue avec des très petites distances quand on est aussi prêt de la source (le haut parleur dans le cabinet basse).
La piste de la DI était hors phase parce qu'elle n'est pas passé dans un cabinet, puis dans l'air, puis dans un micro. Elle est arrivée donc dans l'ordi un poil avant les 2 premières pistes. Pour qu'elle soit parfaitement ensemble avec le reste, elle devait être retardée.
Les deux dernières pistes étaient encore à un endroit un poil différent et c'était du à mon sens au traitement du signal par l'ampli basse, qui a fait tourner la phase du signal différemment de l'ampli guitare.
On utilise les mêmes micros, un poil déphasés donc ici il faut de nouveau aligner les choses.
Et puis finalement, à chaque étape de ça, j'avais un choix à faire : quel mélange de ces pistes me paraissait le plus intéressant, riche, tight, punchy, équilibré et surtout, le mieux adapté au rôle de cette basse dans le morceau.
C'est donc un processus à moitié technique et à moitié artistique. Il n'y avait PAS de phase parfaite, juste des phases plus comme ci ou plus comme ça. :)
André
@@AcadémieduGrosSon ouha merci pour l'explication, c'est bien plus clair maintenant. Je pense que ton explication a sa place dans une autre vidéo peut-être, où tu expliquerais justement dans quelle situation tu peux te retrouver avec une phase entre 2 records et pourquoi. Ton explication finalement est super intéressante et c'est bien plus clair je trouve d'avoir le contexte d'enregistrement des pistes. Merci beaucoup pour l'explication, c'est sympa d'avoir pris le temps de répondre aussi bien . 🤠👍
Estce que les problemes de phase concernent specifiquement les enregsutrements ou tout type de signal (synthé, sample...)
Tout type de signal. Dès qu'on a deux signaux qui se mélangent, il y a des "problèmes" de phase : atténuation de certaines fréquences et amplification d'autres.
Mais c'est surtout audible et potentiellement problématique avec différentes versions d'un même élément : plusieurs micros sur un instrument, les mêmes accords joués par des synthés similaires ou encore plusieurs samples de grosse caisse mis ensemble pour créer un nouveau son de grosse caisse.
André
@@AcadémieduGrosSon Merci encore de vos réponses rapides !!
Pouvez-vous nous faire une vidéo sur comment utiliser un Steam d'accompagnement sur ableton live dans le but d'accompagner sa band lors d'une performance live SVP🥺🥺🥺🥺
Je ne sais pas sûr de comprendre ta question, tu parles d'utiliser un Steam deck ?
André
Salut André merci pour cette vidéo 👍 le résultat est bluffant mais je n’arrive pas à trouver cette fonction dans cubase …
T'as trouvé entre temps ?
André
@@AcadémieduGrosSon oui 👍 il y a une petite horloge vers la piste 😅 par contre j’ai acheté InPhase et je suis un peu paumer…
Ah oui, en effet, pas le plus simple pour faire ça. T'as réussi à t'en sortir depuis ?@@LizzardKing-2112
Ça va à peut près mais je ne sais pas si in phase ajuste lui même le décalage ou si c’est juste pour trouver ce fameux décalage et ensuite c’est à nous de le rentrer manuellement. Et aussi quelle sont les choses à mettre en phase car sur une batterie dès qu’on met quelques chose en phase on déphase obligatoirement autre chose, je pense que c’est une histoire de priorité et de dynamique… c’est d’autant plus compliqué en prise live 😅
Merci 🙏
mais du coup c'est valable uniquement si j'enregistre avec des micros, mais aurais je le même soucis si j'enregistre tout en d.i?
C'est valable dès que deux sons qui partagent les mêmes fréquences sont mélangés et SURTOUT audible et d'application si ce sont des signaux correlés : qui jouent la même chose en même temps.
Donc oui, le cas de micros dans la même pièce qui enregistrent la même chose est LE cas où les mouvements de phase ont un gros impact.
Mais cette combinaison de signaux et les éventuels boosts et baisses de fréquences arrivent à chaque fois qu'on mélange deux signaux.
Exemple : si tu enregistres une basse électrique via une DI, rien dessus, le son de la basse pure et en même temps tu la passes par une pédale SansAmp et qu'ensuite tu mélange ces deux signaux, tu auras une certaine relation de phase entre les deux signaux (même s'il n'y a eu aucun micro dans le tas).
On peut ensuite modifier cette relation en bougeant une des pistes dans le temps et/ou en inversant la polarité d'une des pistes.
André
@@AcadémieduGrosSon merci beaucoup cela va beaucoup m'aider
tres bien mais ce qui n'est pas expliqué c'est comment on fait pour savoir de combien il faut décaler la phase pour mettre en phase?
Je vais faire une vidéo spécifique là dessus mais pour commencer la façon la plus simple la plupart du temps c'est de trouver un endroit très percussif dans ton fichier et d'essayer d'aligner EXACTEMENT le même coup dans les 2 (ou plus pistes).
Pour une guitare électrique par exemple : je vais aller chercher le début d'une note bien définie et je vais essayer d'aligner les 2 micros pour que le début de la forme d'onde de cette note commencent exactement au même endroit.
Comme rien n'est jamais parfaitement en phase, ce sera toujours une question de choix et de préférence.
André
👍i LoVe !
💙⚪❤
Merci frérot
le problème de phase s'explique par le fait des influences des sonorités harmoniques qui, joués ensemble, ont des effets telatifs à leurs fréquences qui s'affrontent dans l'air.
ainsi donc, ton résultat ne sera pas entendu pareil suivant le récepteur sonore (ampli et hp) et surtout, ta position dans l'espace. les fréquences aiguës se propages de façon très directionnelles et vont loin, les sons de basse fréquences seront beaucoup moins directifs mais se propagent plus dans les matériaux et remplissent l'espace proche. lorsque deux fréquences qui ont un rapport harmonique (au sens de l'analyse de fréquence) se rencontrent, il se diminuent ou s'amplifient.
Je trouve que une métaphore par analogie qui explique bien cequi se passe, c'est les phénomènes de vagues dans un plan d'eau... quand des vagues de fréquences différentes mais en accord harmoniques se rencontrent, la hauteur de houle grandit de façon flagrante et il en résulte aussi un changement de fréquence dominante. c'est exactement le même phénomène. qui devient visible physiquement. Et les phénomènes harmoniques de fréquences s'appliquent à tout. Simplement pqrce que le mouvement implique un phénomène de fréquences. c'est donc pareil pour la lumière, le son, le vent, la sysmographie, les ondes radio, le déplacement des atomes, etc... c'est un domaine très complexe à étudier maisc'est passionant.
En effet ! D'une manière ou d'une autre, tout est vibration/oscillation :).
André
Quel est le vst de la batterie, SD3?
Ici c'est une batterie enregistrée au Noise Factory et jouée par François Tschinkulu. :)
André
un ordinateur ne peut il pas analyser l'onde pour la mettre en phase, au lieu de travailler à l'oreille?
Si, il existe pas mal de plugins pour faire ça, notamment le AutoAlign de chez Sound Radix.
André
merci
COOL THX
J adhere ❤
Est-ce qu'utiliser un générateur de son sinusoïdal comme le fameux La à 440 hertz d'un métronome n'aiderait pas à régler la phase au plus juste pour tous les micros ?
Pour les micros overhead qio captent plusieurs instruments forcément déphasée entre eux ça ne changera rien, sauf.'. que si l'on connait le décalage de chaque instrument par rapport au micro overhead, alors on peut appliquer le décalage déterminé pour chaque instrument à celui des autres micros associés à cet instrument, comme tu l'as fait pour la basse mais de manière plus audible et fiable.
Le réglage automatique d'un home cinéma s'effectue via un micro qui permet de régler le décalage de chaque enceinte pour que le son arrive au bon moment à l'auditeur. Lors de ce réglage chaque enceinte émet une série de sons spécifiques qui permettent à l'ampli de calculer la phase et vérifier que des fils n'ont pas été inversés (inversion de polarité).
Absolument, ça se fait souvent, notamment dans les enregistrements des orchestres où on a 45 micros dans la pièce avec plusieurs mètres entre eux.
Soit avec un clap des mains devant chaque micro, soit un click etc.
Pour le reamp de guitares etc, ce que je fais c'est de mettre un click très rapide au début de ma piste à reamper et ensuite j'ajuste chaque piste micro pour que ce click tombe parfaitement en même temps.
Donc tu as tout à fait raison !
Je ferai une autre vidéo qui traitera plus de comment gérer ces décalages de phase.
André
top
🙂
💯💥
Pourquoi ne pas simplement aligner les passages par zéro de chaque onde plutôt que de passer par un long travail d'essais ?
Alors les passages à zéro ne sont pas nécessairement toujours au même endroit, tout dépend de ce que le signal a reçu comme traitement dynamique et de couleur. Avec certaines distortions, la phase du signal est fort affectée, pareil avec les compressions ou EQ.
C'est un bon début ceci dit !
André
@@AcadémieduGrosSon ce déphasage est-il variable dans le temps ? Si oui alors ok, ce n'est pas si simple. J'avoue, malgré mes études en traitement de signal, n'avoir aucune expérience en ingénierie de la musique. Où pourrai-je trouver des pistes brutes avec ces déphasages qu'un alignement des passages par zéro ne serait pas possible ?
Bonjour,
Le commentaire sur "Retrouver le son qu'on a dans la pièce" ne fait pas trop de sens à mon gout...Quand on écoute un son en live on a pour ainsi dire 2 micros (nos 2 oreilles). Il faudrait un setup de micros semblable à une paire d'oreille si on cherchait à capter le son tel qu'il est entendu. Hors ce n'est pas ce qui est fait. Donc j'avoue que la pertinence de cette remarque m'échappe...
L'idée n'est pas de capturer le son "tel que tu l'entends" mais de juger est-ce que le son capturé ressemble à celui qu'on entend dans la pièce. Dans mon exemple ici, la basse "hors phase" ne sonne pas du tout comme l'ampli dans la pièce, par contre la basse "en phase" sonne très, très proche de cet ampli.
Proche en couleur de distorsion et dans la façon de bouger/groover.
André
❤
7:11 : Poop
:D
Mais du coup être en phase c'est légèrement bouger les pistes d'un même instrument enregistré sur différents devices quoi ?
Ça c'est expérimenter avec la phase en bougeant les pistes une par rapport à l'autre. Être en phase c'est quand tes différentes pistes s'additionnent de manière optimale et renforcent les caractéristiques particulières du son que tu enregistres.
André
Salut, merci pour la video! Pourquoi certains enregistrements sonnent aussi pourris? Eh ben ça y est j"ai la réponse.. snif.. trop tard.. J'ai une question chipoteuse: Pour équilibrer la distance des overheads par rapport aux autres micros batterie tu retardes le signal dles autres micros, mais pourquoi ne pas plutôt avancer celui des overheads..? ben oui au fait, Merci
C'est pareil en effet :). En général c'est des mouvements trop petits que pour influencer beaucoup le groove avec le reste des instruments du coup bouger certaines pistes en avant ou d'autres en arrière revient à la même chose.
André
Donc si je comprends bien, faut décaler les instruments,, faut les déphaser, pour les mettre en phase ? Histoire de grossir le son ? Ou le contraire.. C est pas hyper clair..
Lors de l’enregistrement chaque source de la batterie est enregistrée simultanément. Hors dans les overheads, du à la célérité du son il y a un micro décalage entre le son d’une caisse claire dans les overheads et dans le micros de caisse claire.
Le but est donc de les remettre en phase pour obtenir un son plus naturel
T'as compris et oui, c'est un peu contre intuitif.
Tout d'abord, ce n'est pas quelque chose qu'il "faut" faire, c'est un choix de production et un autre son.
Donc oui, on déplace ici les pistes APRÈS l'enregistrement, on change donc la relation de phase entre les micros par rapport à la phase "naturelle" entre ces micros dans la pièce.
Donc on déphase pour que la relation de phase soit plus propice à un son qui a de l'impact et qui sonne plus proche de ce qui se passe dans la pièce avant d'entrer dans les micros.
André
Les côtés phase cata a un son plus aigu, que sur l'autre phase. Mais après, c'est l'inverse.
Comment ça ? C'est quoi le avant / après ici pour toi ?
André
@@AcadémieduGrosSon Bonjour, sur ce que tu règles.