Salut salut !
J’espère que vous avez bien assimilé l’article précédent sur le domaine analogique. Même si ici tout ne sera pas utile, il est toujours bien de comprendre comment ça fonctionne « dans le vrai monde » avant de comprendre ce qui se passe lorsqu’on passe un signal en numérique.
J’expliquerai d’abord, à que c’est quoi que le numérique ?
Puis, je partirai sur les différents problèmes que l’on peut rencontrer. 
Beaucoup de choses ^____^
On enclenche la Radio Lounge sur Jamendo, et on est parti !
  • Les bases du numérique
Une chose, avant tout, est très importante à comprendre : le numérique, ce n’est qu’un cas particulier de l’électronique, mais l’électronique, avec ses qualités et défauts, est TOUJOURS derrière les connexions numériques. Quand on parle du numérique, en pratique, c’est « un niveau d’abstraction » au dessus de l’analogique, mais les problèmes évoqués auparavant, impédance, bruit, etc… existent toujours. En revanche, ils n’ont pas forcément le même impact sur le son.
La première chose à laquelle on pense quand on parle du numérique, en général, c’est les 0 et les 1. A raison : il a été décidé que l’unité de base de l’information serait le bit. Pourquoi ? Tout simplement parce que c’est très facile à manipuler et que ça diminue les risques d’erreur. Mais, mais mais mais, il existe (plus dans la théorie que dans la pratique) d’autres manières de manipuler l’information (car c’est toujours d’information qu’on parle!), comme le Trit  (je vous laisse deviner), ainsi que des prototypes d’ordinateurs et de processeurs analogiques, c’est à dire que l’information serait continue au lieu d’être échantillonnée.
Il existe aussi le q-bit de l’informatique quantique, mais les problèmes de l’informatique quantique (résolution de problèmes arborescents, etc…) s’appliquent assez difficilement au monde de l’audio (majoritairement linéaire, comme une partition…)  donc je n’en parlerai pas ici.
Ainsi, toute l’information est convoyée sous forme de signaux électriques qui vont ressembler à des 0 et des 1. Beaucoup pensent qu’à l’oscilloscope ça ressemble à ça :

Signal carré

En pratique, c’est beaucoup moins parfait : le bruit, les éventuels passe-bas qui pourraient être présents sur le trajet du signal, vont faire qu’on va souvent devoir « régénérer » le signal avant de pouvoir s’en servir.
Bien entendu, les 0 et les 1 sont une allégorie pour représenter deux états, ça pourrait très bien être ouvert et fermé, rouge et noir, etc…
Mais intéressons-nous à la première des opérations qui se passe quand on rentre dans le numérique, j’ai nommé la…

Conversion analogique-digitale
Affectueusement nommée CAN, ou a/n, enfin, des choses dans ce goût !
Il y a plusieurs modes de conversion, réfléchissons notamment à comment on pourrait faire ? Par exemple, envoyer de l’information quand le signal dépasse un certain seuil. Mais ce n’est pas très utile en audio, vous en conviendrez ! Non, la méthode la plus usitée est la conversion delta-sigma. C’est en effet un type de conversion qui permet une grande précision au niveau de la tension d’entrée, c’est à dire que l’information pourra être stockée sur un nombre de bits élevés. C’est la définition, ou bit depth, à ne pas confondre avec le bitrate que nous aborderons plus tard. En revanche, elle ne permet pas d’utiliser une bande passante (spectre fréquentiel) très élevée. Heureusement pour nous, l’échelle de l’audition humaine n’est pas considérée comme une bande passante élevée ^_^.
Maintenant, peut-être que vous vous posez une question : à quelle vitesse convertit-on la musique ? En effet, les bits se suivent, et vous imaginez bien qu’ils doivent se suivre assez vite pour que l’on puisse écouter en temps réel de l’autre côté, après une conversion numérique / analogique. C’est là qu’intervient la fréquence. La fréquence maximale que peut entendre l’oreille humaine est d’environ 20khz (décroissant avec l’âge, la moyenne serait entre 16 et 18khz pour les adultes…).
Donc, la conversion doit se faire au moins à la fréquence maximale que l’on entend, c’est-à-dire 20 khz, vous êtes d’accord ?
Supposons que l’on ait une sinusoïde à 20khz :

Période complète d’une sinusoïde à 20khz










Vous vous imaginez représenter ça sur une seule sample ? Ça tombe bien, Nyquist non plus, dans son fameux théorème d’échantillonnage ^_^
« Pour représenter correctement un signal numérisé, la fréquence d’échantillonnage d’un signal doit être égale ou supérieure au double de la fréquence maximale contenue dans ce signal.« 
L’abeille maléfique

 Ça nous donne donc au minimum 40 khz comme fréquence d’échantillonage. En pratique, le plus petit multiple utilisé pour écouter de la musique sans dégradation audible de qualité est de 44100 hz, c’est notamment la fréquence d’échantillonnage des CD audio (avec une définition de 16 bits, c’est à dire que chaque échantillon peut être sur 2^16 « échelons », ce qui nous fait 65536 échelons et une profondeur dynamique maximale d’environ 96 décibels, c’est à dire que sur un cd audio, la différence de volume entre le son le plus fort et le plus faible est de 96 db). Bien entendu, ça n’a pas toujours été comme ça : les premières consoles, par exemple, échantillonnaient sur 11, 22, 32khz (comme la SNES par exemple)… (ou bien avaient des vrais synthétiseurs embarqués!).
Néanmoins, rien n’empêche de monter plus haut en fréquence, l’utilité en sera expliquée plus tard dans ce cours. Mais par exemple, il est courant qu’une carte son pro puisse monter jusqu’à 96 khz, voire 192khz. A quoi bon, me direz-vous puisque l’on n’entend rien au dessus de 20khz?
Je vous invite à lire cet article : http://jn.physiology.org/content/83/6/3548.abstract
Cependant, il faut aussi savoir que les convertisseurs perdent en précision quand la fréquence augmente. Cruel dilemme, n’est-ce pas ?
Maintenant, vous vous demandez peut-être pourquoi 44100 hz (48000 dans le cas du dvd) et pas 40000 tout court ? Pour des raisons que j’exposerai dans la deuxième partie de cette article, quand on passe quelque chose de l’analogique vers le numérique, on ne veut PAS qu’il y ait des fréquences supérieures à la fréquence d’échantillonnage. Il faut donc appliquer un filtre passe-bas au niveau de la fréquence maximale que l’on peut entendre, 20khz.
Je vous donne la tête (i.e. le diagramme de Bode) d’un filtre passe-bas théorique :









f0 est la fréquence de coupure du filtre.
Comme vous pouvez le voir, c’est loin d’être immédiat. On pourra parler d’ordre, ou de décibels par décade ou par octave pour exprimer la « vitesse » à laquelle le filtre va atténuer les fréquences. Dans le monde analogique, un filtre « brutal » qui couperait toutes les fréquences supérieures à f0 au hertz près ne peut exister. On laisse donc un « buffer » de 2050 Hz (44100 / 2 – 20000) sur lequel le filtre va pouvoir couper les toutes les fréquences, mais pas de manière immédiate, afin d’être à -96db quand on arrive à 22050 Hz.
Bon, maintenant, il faut que je vous dise que ce que je viens de vous expliquer, ce n’est qu’une des manières possible de convertir et de représenter un son numérisé, appelé encodage PCM. C’est quand même assez important vu que c’est l’encodage (à ne pas confondre avec le format de compression) choisi pour les CD audio, et la majorité des fichiers que vous trouverez sur votre ordinateur.
Il y a aussi les formats dédiés au home-cinema qui encapsulent parfois du PCM avec d’autres méta-données. Mais le plus différent est l’encodage sur 1 bit. Apparu il y a plus de 40 ans, il ne s’est jamais vraiment démocratisé, sauf sur un format, le Super-Audio-CD.

Mais mais mais 1 bit < 16 bit!
Ah, ça oui, mais je ne vous ai pas parlé de la fréquence d’échantillonnage! Qui est, en général, de 2.8 Mhz. Oui, méga-hertz, comme * 10^6 hertz.
En fait, contrairement au signal PCM qui est absolu,  c’est à dire que chaque sample est codée sur un certain nombre de bits, qui, sur une carte son donnée équivaudra toujours à la même tension de sortie (enfin, à peu près hein!), l’encodage sur 1 bit est relatif. C’est à dire que chaque bit dit si on augmente ou diminue la valeur précédente (on ne peut pas rester constant).
Je vous laisse cependant lire les quelques lignes qui suivent : http://fr.wikipedia.org/wiki/Super_Audio_CD#Rivalit.C3.A9_.2F_concurrence_avec_le_PCMet qui expliqueront pourquoi je ne continue pas trop dans les explications : pour l’instant, le matériel gérant nativement les encodage DSD est quasiment inexistant. Néanmoins, le jour ou le DSD sera opérationnel en studio et accessible à tous, ça risque d’être une petite révolution dans le monde de l’audio :) .
Je vais maintenant vous parler de la deuxième partie de la conversion du signal…

La Conversion Numérique -> Analogique
Aussi appellée CNA, NA, etc… Bref, ça sera moins long que précédemment puisque les principes de base ont déjà été exposés.
Le but d’un convertisseur numérique -> analogique, c’est donc quoi ? Vous vous doutez bien que l’on perd de l’information en passant de l’analogique au numérique puisque l’analogique est continu et que le numérique est discret.
On veut donc un moyen pour repasser d’un signal discret à un signal continu, comme ici :

Signal analogique à gauche, numérique à droite










Il faut donc recréer l’information « manquante » par une sorte de moyenne, ou de rampe. Les différentes techniques sont expliquées ici. Ce qu’il est bon de savoir, c’est une règle générale de l’audio : SHIT IN = SHIT OUT. Un mauvais convertisseur AN (ça n’existe plus trop de nos jours, sauf sur des cartes son honteuses, heureusement) ne rattrapera pas un très bon convertisseur NA. Ce qui distinguera en revanche un bon convertisseur d’un mauvais, ce sera toutes les caractéristiques évoquées dans l’article précédent : bruit, etc…
On désire aussi généralement une bonne séparation des canaux (et oui, c’est un petit retour analogique), aussi appelée channel bleed quand on a plusieurs canaux dans le même appareil : ce qui passe sur un canal risque de filtrer sur le canal le plus proche, ce qui aura tendance à réduire la stéréo, mais on peut en dire autant de n’importe quelle table de mixage.
Voilà pour l’audionumérique de base! Passons maintenant à ce qui va un peu plus nous embêter…
  • Les Problèmes du numérique
Je vais commencer par vous expliquer un problème sous-jacent à toute forme de transport de signal numérique, et qui est « dû » à la manière même de transmettre le signal, j’ai nommé le…

Jitter
Affectueusement nommé « gigue » par nos chers académiciens. A quoi est-ce que ça correspond ? Comme je vous l’ai dit, dans tous les cas, l’audio est converti en numérique ou analogique à une certaine fréquence, lasampling rate. Comment est-ce que fait le convertisseur pour être précis ? Eh bien, tous les xième de seconde, il reçoit une impulsion qui lui dit « c’est bon, tu peux convertir ». Cela s’appelle un signal d’horloge et c’est émis par une horloge.
(On finit l’album Eden de Faun et on passe à … Soreption). Et, une horloge, ce n’est jamais parfaitement précis, ça va toujours subir un petit décalage. Dans le cas ou on enregistre sur disque, ça n’a pas trop d’influence, même si ça cause une légère distorsion : en effet, supposons qu’il y ait un décalage de 5 nanosecondes de retard pour chaque sample: à chaque fois, un peu de courant sera « perdu » et on pourrait manquer un pic d’une durée inférieure à 5 ns, ce qui, vous me direz, n’est vraiment pas grave du tout. C’est pour cela que je vous enjoins à lire cet article :
http://www.madronadigital.com/Library/DigitalAudioJitter.html
Dans le cas d’un asservissement de l’entrée à la sortie, on se retrouve avec une perte d’UN BIT. Un bit, c’est pas rien du tout, c’est six décibels de dynamique…
Un autre article intéressant sur le phénomène: http://www.jitter.de/english/soundfr.html.
Et enfin, si vous voulez entendre http://web.archive.org/web/20070816081238/http://www.pcabx.com/technical/jitter_power/index.htm

Personnellement, j’entends assez bien l’effet sur le jitter à -20db, moins à -40db, et quasiment plus au delà. C’est surtout à voir dans les aigus.
Une des choses à faire pour réduire le jitter quand on a plus de deux appareils numériques à connecter est de tout relier à une horloge maître externe. Hélas, ces périphériques coûtent souvent cher.
Passons maintenant à un deuxième problème, d’origine fréquentielle, j’ai nommé…

L’aliasing
Voici une vidéo (de pas très bonne qualité) mais ou on entend particulièrement ce problème (écoutez la définition et les aigus):
Aliasing audio
Ainsi qu’un article, ma foi plutôt bien écrit sur le sujet. L’idée principale est que lorsqu’on veut convertir un signal analogique vers un signal numérique, ou changer la fréquence d’échantillonnage d’un signal numérique, il faut ABSOLUMENT supprimer TOUT contenu fréquentiel au delà de la fréquence de Nyquist (la fréquence d’échantillonnage divisée par deux, 22050 hz dans le cas d’un CD par exemple). Sinon, le « son » au delà va se replier, comme par symétrie, du côté audible du spectre. Par exemple, si on échantillonne à 20khz et qu’on a un son à 30 khz, on entendra une « image » à 10 khz.
Il va de soit que, une fois « aliasée », une piste est foutue, il n’y a aucun traitement qui permette d’enlever uniquement les « images » puisque c’est du son au même titre que le reste.
Nous allons d’ailleurs nous attarder un instant sur la question du…

Rééchantillonage
Ou, grosso modo, comment passe-t-on d’un signal enregistré à 96khz vers un signal pour CD à 44,1 khz ?
Ce n’est pas simple et il existe différentes techniques et algorithmes (en voilà un, si vous avez envie de lire des maths) qui permettent de le faire. L’idée de base consiste à passer du signal sonore au spectre par une transformée de Fourier, de supprimer le contenu fréquentiel trop élevé et de réexporter le spectre en utilisant une fréquence d’échantillonnage différente. Néanmoins, qui dit différents algorithmes, dit différents niveaux d’effiicacité.
Il existe notamment un site qui permet de comparer les algorithmes de rééchantillonnage :  http://src.infinitewave.ca/.
Je vous invite notamment à comparer les graphes de : Ableton Live 7, iZotope 64 bit SRC et SoX. L’un est un DAW à 500€, l’autre un algorithme présent dans des logiciels à 1k€ comme iZotope RX, le troisième une librairie open source. Lisez bien la page help pour comprendre ce que signifient chacun des graphes.

Dithering
Le dithering est souvent associé au rééchantillonnage, car c’est une opération qu’on essaye de faire uniquement en bout de chaîne, avant le pressage du disque. C’est une méthode qui a été trouvée pour réduire le nombre de bits d’un signal. En effet, on ne peut pas juste « tronquer » 8 bits quand on passe de 24 à 16 bits pour un rendu CD par exemple.
Je reprends l’exemple de Wikipédia pour montrer ce qui se passe si on applique la méthode bête de troncature  :
Si, par exemple, on a un signal dont les samples successives ont les valeurs suivantes :
1 2 3 4 5 6 7 8
Si on diminue le volume de 20%, cela donne les valeurs :
0.8 1.6 2.4 3.2 4.0 4.8 5.6 6.4
Si maintenant on tronque ces valeurs (réduction du nombre de bits) :
0 1 2 3 4 4 5 6
De la distorsion est donc apparue dans le signal. Pour y remédier, on injecte du « bruit » dans le signal de manière à ce que la distorsion soit diminuée (on échange un mal contre un mal moins pire, en somme!). Les premiers algorithmes mettaient du bruit blanc, c’est-à-dire qu’il était équiréparti sur tout le spectre. Depuis, on a eu l’idée de repousser le bruit dans les zones ou on l’entend le moins, c’est à dire dans les aigus.
Voici un exemple audio rapide des effets du dithering. Il y a 4 extraits. Le premier, c’est la loop originale. Puis vient un dithering moyen sans noise shaping (envoi du bruit dans les aïgus) avec une quantification sur 8 bits (donc ce qu’on ne fait jamais en pratique). Puis le même dithering avec noise shaping, pour finir par une troncature brute sans dithering.
Voilà, grosso modo pour les bases générales. Je vais maintenant faire un dernier point sur…
  • Les connectiques
Les connections numériques utilisent souvent les mêmes cables que pour du transport de signal analogique, à la différence que l’impédance es toujours fixée. Ils peuvent aussi parfois passer par de la fibre optique (connecteurs TOSLINK), ce qui a l’avantage d’éviter toutes sortes de problèmes comme les boucles de masse, ou le bruit.
On a notamment, les signaux S/PDIF (très courant) qui peuvent transiter par RCA ou TOSLINK et transmettre deux canaux à 24 bits / 192 khz maximum, AES/EBU (la version professionnelle du S/PDIF) qui utilise des câbles XLR ou bien coaxiaux (BNC) pour des longues distances, ADAT qui est exclusivement optique et peut transmettre 8 canaux à 44.1 / 48khz et 4 canaux à 88.2 / 96khz, et enfin MADI qui peut transmettre jusqu’à 56 canaux par câble (mais les interfaces MADI coutent très cher).



Voilà, n’hésitez pas à poster des questions en commentaire et à partager, comme d’habitude ^_^


[Cet article était à la base sur le blog de Phonema, mais suite à un disque dur qui a cramé, le blog a été off un certain temps, et j'ai du récupérer les articles du cache google! Je le mets donc sur blogger par sécurité]
Bonjour bonjour !
Aujourd’hui nous entamons une série d’articles sur l’audionumérique et un thème plus général, intitulé « mékomenkonfépoursenregistré? » pour la route.

Cet article sera divisé en plusieurs parties (et autant de billets de blogs) :
  1. Le monde analogique, qui exposera une base de background à avoir, grosso modo « pourquoi est-ce qu’on fait les choses comme on les fait ? »
  2. Le monde numérique, qui présentera principalement les protocoles utilisés et les difficultés rencontrées
  3. Le monde informatique, 01011001
Commençons donc sans plus tarder ! Laissez-moi juste le temps de me mettre un petit fond sonore… Mhmhm… ah, oui! Le dernier Lamb Of God, Resolution.
  1. Le monde analogique
L’enregistrement est un vaste domaine, dont les origines remontent maintenant à il y a plus d’un siècle!
Du rouleau, on est passé au microsillon, le vinyle, pour arriver sur les bandes magnétiques, les CD, et enfin les supports dématérialisés que l’on connaît aujourd’hui (mais toujours matérialisés quelque part, ne l’oublions pas! Et cela, selon certains « audiophiles » (*tousse*), aurait un impact sur le « son ». Bref.)
Bien évidemment, la technologie fait que chaque évolution apporte son lot de qualités; néanmoins, une transition sans précédent a été celle du passage de l’audio analogique à l’audio numérique, c’est à dire lorsque le CD est apparu au début des années 80.
Il convient donc de connaître parfaitement les bases de l’audio analogique avant de s’intéresser à l’audio numérique.
Il est nécessaire de bien connaître au moins trois grandeurs pour « tout » comprendre en audio analogique :
  • L’impédance, en ohms
  • Les tensions, en volt
  • Les différents types de décibels.
Les deux premières seront très bien expliquées dans le premier cours d’électronique venu, je m’attarderai donc plutôt sur la troisième.
Avant tout, posons quelques bases : qu’est-ce qu’un son, au sens « électrique » ?

Notre cher Joseph Fourier national est à l’origine de théorèmes fondateurs de ce point de vue. Très brièvement, tout son peut se décomposer en somme de sinusoïdes :
Fonction sin sur [0; 2π]
Chacune de ces sinusoïdes va avoir une amplitude, une phase et une fréquence.
On va par exemple dire qu’un son est riche lorsque ces harmoniques seront nombreuses.
De même, le procédé de distorsion du son s’accompagne de l’ajout d’harmoniques.
Pour revenir dans des termes électriques, nous allons donc faire transiter le son, principalement par des câbles à deux pôles, le point chaud et la masse.
C’est notamment le cas simpliste du jack guitare bien connu. Le graphe représentant différence de potentiel (la tension) entre le point chaud et la masse correspondra à notre son lorsqu’on la trace au cours du temps.
Néanmoins, cette première approche présente le désavantage d’être particulièrement sensible aux parasites et autres bruits électromagnétiques qui vont passer par le câble (en effet, le métal attire les ondes électro-magnétiques, en quelque sorte).
Nos chers ingénieurs ont donc songé à un remède, ma foi, fort intelligent :
  • La symétrisation (Balancing)
On rajoute un pôle dans nos câbles (parfois nommé « point froid »), dans lequel passera le signal opposé à celui qui passe dans le point chaud.
Le signal est donc symétrisé en sortie de l’appareil d’où le signal sort (par exemple un micro), puis dé-symétrisé lorsqu’il arrive là ou on le branche (à condition d’utiliser les bonnes connectiques et que le dit matériel possède une entrée symétrique). La dé-symétrisation, c’est le processus qui consiste à ré-inverser le signal du point froid, puis de l’ajouter à celui du point chaud. Quels sont les bénéfices en pratique ?
C’est très simple, imaginons un parasite qui survient en plein milieu du « transfert » du signal. Le point chaud et le point froid vont être impactés de la même manière, par exemple un pic x d’un volt à 0,2 secondes. Quand on somme le signal du point froid inversé avec celui du point chaud, qu’est-ce qui se passe ? Le parasite est annulé, tout simplement, puisque ( +) + ( -) = 0 (oui, on dirait une paire de fesses avec un tatouage). Autre avantage : on double la tension, donc on gagne six décibels, ce qui est extrêmement loin d’être négligeable. Attention, en revanche, la sensation de doublement de volume pour l’oreille humaine est à +10 décibels.
Voilà pour la symétrisation, qui est disponible sur tous les appareils pro, et la majorité des appareils semi-pro.
Les connectiques symétriques les plus courantes sont les prises XLR :















ainsi que les prises jack symétriques :













Notez que les câbles symétriques peuvent aussi servir à faire passer un signal stéréo (principalement les mini-jack et les prises casque), mais dans ce cas on perd l’avantage de la symétrisation du signal.
Maintenant, vous êtes légitimement en droit de vous demander « et les câbles, entre quoi c’est qu’on les branche? ». Et…
  • Et les câbles, entre quoi c’est qu’on les branche?
Un enregistrement, c’est le passage d’une performance instrumentale à un médium, la plupart du temps dans deux canaux (stéréophonie). Il va donc falloir mixer plusieurs (dizaines) de « signaux » dans deux canaux, gauche et droite (on peut aussi faire du 5.1, c’est à quelques détails près la même chose et ça rallongerait l’article pour rien).
La base, c’est donc la table de mixage, la mixette, le sommateur, peu importe comment vous l’appelez, son but est de faire, de manière plus ou moins linéaire, la somme de tous les signaux qui rentrent à l’intérieur.
Nous allons donc rapidement décortiquer une table de mixage : http://www.thomann.de/fr/mackie_1202_vlz3.htm
Faites un clic droit et ouvrez l’image dans un onglet pour la voir en plus grand et pouvoir lire les inscriptions.

Vous remarquerez avant tout une certaine forme de répétition : une table de mixage est organisée en tranches, qui sont de trois types : les canaux de base, les bus (aussi connus sous le nom d’auxiliaires) et le master. Il est courant que le casque ait une tranche dédiée.
Les quatres premières tranches sont similaires : elles sont conçues pour rentrer un micro, dans la prise XLR ou bien un instrument niveau ligne, dans la prise Jack. Qu’est-ce que ça veut dire ? J’ouvre la première parenthèse :
  • Les Niveaux
Il va maintenant falloir faire appel à vos connaissances sur les tensions et les impédances, ce dont je parlais au début du cours. (Changement de disque… Allez, Fear of a Blank Planet, de Porcupine Tree!).
Avant tout, si vous voulez des explications bien plus détaillées, rendez-vous sur ce site, qui plonge dans des abysses beaucoup plus électroniques.
Comme vous vous en doutez, toutes les sources audio ne génèrent pas autant « d’énergie ».  Un synthétiseur réglé normalement enverra beaucoup plus de patate qu’un micro comme le SM58 de Shure dans des conditions normales d’utilisation. Cela pose déjà un premier problème, dit de « préamplification » : il faudra ramener le niveau du microphone au niveau plus élevé du synthétiseur si on veut que les deux s’entendent correctement.
Le deuxième problème, est du au moyen de transport du signal, le câble. Un câble, c’est loin d’être anodin : ça agit comme une résistance, c’est à dire que plus le câble et long et plus on aura de pertes de signal (en commençant par les aigus).
L’un couplé à l’autre, on se retrouve vraiment avec *très* peu de signal qui transite dans un câble micro. Or, il ne faut pas oublier notre ennemi de toujours : le bruit. Un bon moyen d’avoir un rapport signal / bruit élevé, est d’avoir une impédance de sortie faible (pour rappel, U = Z * I, donc à tension constante, diminuer l’impédance Z revient à augmenter le courant qui transite dans le câble).
Par exemple, une impédance courante pour un micro dynamique va se situer entre 200 et 400 ohms, encore moins pour un micro statique (dans les 100 ohms). Nous viendrons à la différence entre ces deux types de microphones plus tard dans le cours.
Une des grandes lois à respecter avec l’impédance est la suivante :
«L’impédance d’entrée d’un appareil doit être au moins dix fois supérieure à l’impédance de sortie de ce qui lui est connecté pour qu’il n’y ait pas de pertes.»
Bob Marley
Ainsi, un préampli micro aura une impédance d’entrée au minimum de 2 – 3 kohms, souvent plus. Par exemple, le préampli Universal Audio 710 précise dans ses caractéristiques techniques :
Mic Input Impedance
2K ohms.
Ainsi, si on a un micro moyenne impédance à 600 ohms, on perdra déjà une certaine quantité d’aigus en le rentrant dedans. Heureusement, ce sont souvent les micros Carrefour el-cheapo.
Passons maintenant à un deuxième périphérique qui nous intéresse : les guitares.
Les guitares ont des micros haute impédance, de l’ordre de 10 à 100 kohm. C’est pourquoi l’impédance d’entrée standard d’un ampli guitare est fixée à 1 Mohm (mégohm). Attention, c’est le cas des guitares passives, les guitares actives (à pile) ont souvent une impédance plus faible, car elles se rapprochent d’un niveau « ligne ».
Enfin, il y a « le » niveau ligne. C’est assez complexe car il va y avoir plusieurs niveaux selon que vous utilisez des appareils plutôt à tendance amateur ou professionnel. Mais en règle général plus l’impédance est basse et plus c’est pro (CE N’EST PAS UNE RÈGLE ABSOLUE).
Nous allons ici plutôt nous intéresser aux tensions, sachez juste qu’une impédance courante pour une entrée ligne est de 50 kohm, ça devrait vous donner une idée des impédances de sortie moyenne des appareils ligne, si vous avez bien suivi!
  • Les décibels
Et, au delà des tensions, nous allons parler brièvement des DECIBELS.
Notez bien l’emphase sur le pluriel : il n’y a pas qu’un « décibel ».
Je cite la définition de Wikipédia: « Le décibel est le dixième du logarithme décimal du rapport entre deux puissances. ».
En bref, en soi, un décibel ne représente rien de physique, c’est une « pseudo-unité » totalement abstraite que l’on peut appliquer à de nombreux domaines.
Le décibel le plus connu, celui qui définit le volume que nos oreilles perçoivent, et qui est listé sur les emballages de boules quiès (coeur) est en fait l’abrégé de dB SPL, SPL pour Sound Pressure Level : il représente la pression de l’air sur nos tympans. Cela ne correspond évidemment à rien en électronique. Nous avons alors plusieurs autres unités dédiées à l’électronique et l’audio: dBv, dBV, dBm, dBu. Ceux en gras nous intéressent, les autres sont là pour des raisons historiques. Nous avons aussi un « weighting », une pondération des décibels selon les courbes de Fletcher-Munson qui établissent le « spectre » de l’oreille humaine en fonction du volume. On aura alors dB A-, B-, ou C-Weighted en fonction de la fonction de pondération utilisée.
Note: quand on parlera de « niveau de référence », cela correspondra TOUJOURS à 0 dB, quelque soit le « type » de dB dont on parle.

  1. Le dBm : cette unité n’a pas d’utilité en audio, mais on la trouve souvent sur les appareils de mesure (voltmètre). C’est une unité de puissance : 0 dBm (la référence) = 1 milliwatt.
  2. Le dBV : c’est le décibel des chaînes hi-fi, pour faire simple. Il est très simple aussi : 0 dBV correspondent à une tension de 1 volt. Néanmoins, on voit beaucoup plus souvent parler de -10 dBV en entrée de certains périphériques (c’est à dire qu’ils attendent un niveau approximatif de -10 dbV pour être dans leur fonctionnement optimal). Cela correspond à une tension d’environ 0,3 volts.
  3. Le dBv : c’est une ancienne unité. Elle a pour référence 0,775 volts sur une charge de 600 ohms! C’est à cause de son utilisation première : la téléphonie, qui nécessitait d’immense câbles, donc une impédance faible.
  4. Le dBu : c’est l’unité de l’audio « pro » moderne. Elle est dérivée du dBv mais sans la contrainte d’impédance. C’est à dire que la référence est la même, 0 dBu = 0.775 volts peu importe l’impédance, ce qui signifie qu’elle est souvent élevée pour éviter les pertes. Là encore, on utilise peu le 0 dBu, mais beaucoup plus la valeur de +4dBu qui est la tension standard du matériel pro (environ 1,22 volts).
Répondons maintenant à quelques questions :
1) Que se passe-t-il si on met un appareil A qui sort en -10 dBV sur un appareil B qui rentre en +4 dBu?
Si on règle A de manière à ce que sa sortie ne sature pas, le son sera faible. Très faible.
2) Que se passe-t-il si on met un appareil C qui sort en +4 dBu sur un appareil D (par exemple un baffle) qui rentre en -10 dBV?
Avec un peu de chance, on aura mal aux oreilles et ça saturera. Dans le pire des cas on crame l’entrée de D qui aura reçu trop de tension par rapport à ce qu’il attend.
Si vous avez besoin de faire des conversions dans tous les sens, voici un site utile.
Voilà, vous savez maintenant tout sur les liaisons analogiques inter-appareillages. Tout ? Non, pas tout. Il reste encore un point à éclaircir, auquel nous reviendrons plus tard dans notre étude de la table de mixage.
  • Retour à la table de mixage
Sauf que maintenant, vous connaissez la tension qui va rentrer dans chaque signal. Ah bon ? Qu’est-ce qui rentre dans l’entrée ligne en dessous de la première embase XLR alors ?
Je vais vous le dire : comme ça, aucun moyen de le savoir. Il faut aller voir sur la doc constructeur, ou on peut lire :
« - Capacité à recevoir les signaux ligne de +22 dBu »
+22 dBu, c’est beaucoup (environ 10 volts), et surtout, ça veut dire que le niveau de référence sera de +4dBu. Vraiment ? En fait, c’est un peu plus complexe que ça. Descendons un peu :
nous avons un petit bouton « low-cut » qui enclenche un filtre coupe-bas. Un prochain article sera sur les filtres, ce n’est pas le sujet, sachez juste que ça va couper les fréquences très graves.
Ensuite, il y a un potard très intéressant: le Gain.




Il y a deux courbes autour de ce potentiomètre : une première avec GAIN qui va de 0 à 60 : c’est le gain en décibels que l’on apport au son qui rentre dans les deux entrées précédentes, et une seconde.
Il y a sur cette seconde deux inscriptions :  -10dBV et U, plus une plage qui va de +15dB à -45dB. Cela peut sembler étrange : d’un côté on augmente le gain, et de l’autre on diminue les décibels! En fait, le chiffre en décibels ne représente pas ce que l’on ajoute au son, mais le réglage à mettre pour une source dont on connaîtrait la sortie en dBu (d’ou le U). Par exemple, pour une source pro à +4dBU, on règle sur U. Il y a plus de tension donc moins besoin de gain. Pour une source « consumer » à -10dBV, je vous laisse chercher =p. Puis, plus loin dans le gain, ça sera pour les micros, les guitares en direct, tout ça. A noter qu’ici, on pourra éventuellement brancher une guitare cash dans l’entrée ligne, mais au risque d’une perte d’aigus en raison de l’impédance inadaptée. Pour pallier à ça, on peut utiliser un DI, mais ça, c’est pas avant quelques articles les cocos !
Continuons donc dans l’examination de notre table. Les deux potards rouges, « aux », servent à envoyer une partie du signal de ce canal dans un bus auxiliaire qui contiendra par exemple des effets, ou alors pourra partir dans des retours pour les musiciens.
Ensuite, on a un égaliseur, qui permet de régler les fréquences du son : ça aussi, j’en parlerai plus tard. Enfin, le pan, qui permet d’envoyer le signal à gauche ou à droite.
Puis viennent deux boutons : Mute, qui coupe le son de ce canal, et Solo, qui coupe le son de tous les autres canaux.
C’est la même chose quatre fois, puis on arrive sur un deuxième type de tranche, présent encore quatre fois (ne regardez qu’à partir de la moitié inférieure de la partie supérieure, celle qui se répète avec deux entrées jack à chaque fois, si vous voyez ce que je veux dire). On a ici à faire à des tranches stéréo, tandis que les précédentes étaient mono. Il n’y a plus de préampli micro, et plus de gain : ce coup-ci, il faut directement rentrer en +4 dBu pour optimiser le signal. Je n’en ai pas parlé mais toutes les connectiques qui utilises le +4 dBu sont symétriques par défaut, vous pouvez donc utiliser des câbles symétriques si ce que vous y branchez est symétrique aussi. Néanmoins, comme vous pouvez le voir, il est écrit « bal or unbal ».
On a enfin la section master sur la droite, ou on peut régler le son en sortie du master out (c’est le bus principal); de plus, il y a la des fonctions qui seront propres à chaque table de mixage, comme la manière dont sont gérés les retours.
Les retours, tiens, parlons-en. Supposons que vous ayez un effet, comme une reverb, que vous voulez appliquer à toutes vos pistes, vous allez mettre la sortie de l’aux 1 sur l’entrée de la réverb (cas mono), puis faire partir la sortie (souvent stéréo) de la réverb sur les retours qui sont stéréo. Ensuite, dans la section master, vous pouvez doser la quantité de ces retours, donc de reverb, qu’il y aura.
Voilà, avec tout ça vous pourrez déjà brancher votre groupe et le mixer sur deux pistes, avec un vieil enregistreur vous pourriez par exemple le mettre sur cassette (avec la sortie tape out), mais si vous avez une carte son on utilisera les sorties master out.
Ah, encore une chose. Le Réglage Du Volume. Plus qu’une science, c’est tout un art. Vous pouvez voir, à côté du vu-mètre à led sur la photo, l’inscription :
0 dB = 0 dBu
Qu’est-ce que cela peut bien signifier ? Une table pourrait avoir plusieurs niveaux de sortie ? En fait, chaque table va fonctionner selon différentes normes. En pratique, le 0 dB de l’opérande gauche est sensé s’appeller dB VU, car il représente l’échelle du vu-mètre. Généralement, cette échelle est choisie de manière à avoir de la « marge » en sortie avant que le volume sature, souvent quelque chose comme entre 18 dBu et 22dBu. Tiens, ça ne vous rappelle rien ces 22dBu ?
On pourra alors remarquer qu’ici Mackie, le fabriquant, triche un peu. En effet, les tables de mixages professionnelles à plusieurs dizaines de milliers d’euros, de grandes marques comme SSL, Neve, sont souvent calibrées avec un niveau de référence : 0 dB VU = +4 dBu. On se retrouverait alors ici avec un headroom inférieur de 18 dBu. En pratique, la vision que l’on a du volume sur cette petite table est « gonflée » : si on mettait sa sortie master sur une entrée ligne à +4dBu sur une grosse table mixage, et qu’on mettait du signal de manière à avoir sur le vu-mètre de la mackie 0dB on verrait alors -4dB sur le vu-mètre de la grosse console.
Enfin, j’en profite pour faire la première parenthèse numérique. Vous vous demandez peut-être si ces unités sont aussi valable dans votre ordinateur ? Je vais vous décevoir : pas du tout.
Il n’y a qu’une, et une seule, unité en informatique : le dBFS. 0 dB FS : le maximum que votre carte son peut sortir. Il n’y a rien au dessus de 0dB FS, toute l’échelle est négative. Si on augmente le gain de manière à aller au delà du 0 dB FS, ça ne fera que saturer et clipper à 0 dB FS, ce qui est TRES moche.
Maintenant, comment est-ce qu’on relie cette unité au monde analogique ? Eh bien, là encore, ça dépend. Chacun a ses standards.
L’EBU préconise un niveau de référence tel que 0 dB VU = -18 dB FS, si on branche une table de mixage (dont la référence est à +4dBu!) en sortie de la carte son.
De même pour la BBC.
Les standards de post-production américaine utilisent 0 dB VU = -20 dB FS.
Une autre recommandation est d’utiliser:
-16 dB FS = 0 dB VU pour mixer des musiques dynamiques (ex. : classique)
-14 dB FS = 0 dB VU pour mixer des musiques rock
-12 dB FS = 0 dB VU pour mixer des musiques destinées à un passage à la radio.
Donc, comme vous pouvez le voir, rien n’est fixé dans le marbre. Néanmoins, une ébauche de standard a été abordée par Bob Katz dans son livre sur le mastering.
La seule chose à retenir de tout ça, c’est d’éviter d’être trop dans le rouge en analogique, même si on a de la marge (et même si ça peut être un effet recherché parfois) et de ne JAMAIS être dans le rouge sur le bus master en numérique.
Enfin, nous allons nous intéresser à quelques caractéristiques techniques présentes sur quasiment tous les équipements audio.
  • Le rapport signal / bruit
Le nom dit déjà à peu près tout ! Cela veut dire, très simplement, que le bruit se situe x décibels en dessous du niveau de référence donné. Il est courant maintenant de voir des figures de bruit telles que -100, -110, -120 dB.
ATTENTION. Ces figures peuvent être suivies du sigle A-weighted, qui signifie que le bruit a été pondéré, là encore, selon les courbes de Fletcher-Munson. C’est généralement mauvais signe; ça veut dire que l’appareil a quelque chose à cacher. Comme par exemple une petite bosse dans un endroit ou l’oreille humaine n’entend pas trop. Pas très important, vous vous dites ? Imaginons que ce soit un périphérique, comme un préampli, par lequel tous vos instruments passent lors de l’enregistrement. Le bruit « caché » va peu à peu s’ajouter. Au bout de 15 – 20 pistes, je vous garantis que ce n’est plus inaudible DU TOUT.
Néanmoins, généralement le bruit n’est plus un problème avec les appareils moderne (sauf Behringer T____T j’en ai amèrement fait les frais…). Sachez que notamment  (LET’S SLEEP TOGETHEEEEEEEEEEEEEEEER, RIGHT NOOOOOOOOOOOOW (oui, vous pourrez en déduire que l'écriture de cet article prend à peu près l'écoute d'un album de Porcupine Tree!)), un CD que vous achetez dans le commerce a une plage dynamique de 96 dB, c’est à dire que le son le plus faible est 96 dB en dessous du son le plus fort. Du bruit à -110 dB ne sera donc tout simplement pas là s'il y a du son à 0dB(en revanche, il est très probable qu’il y ait une autre forme de bruit, appelée bruit de dithering, mais ça ça ne fait pas partie de nos préoccupations analogiques actuelles!)
  • La distorsion harmonique totale (THD)
Ah, la distorsion. C’est un chiffre intéressant. Si vous êtes dans la musique, vous avez sans doute entendu parler des lampes (plus précisément, tubes électroniques, mais tout le monde dit lampes!). Elles ont une THD généralement inférieure à 1% (sauf quand on les pousse dans leurs retranchements, mais c’est valable pour tout circuit).
Ainsi que des transistors, qui ont une THD généralement inférieure à 0,00001 %.
Ca n’empêche pas 80 % des musiciens de préférer le son d’un ampli à lampe à celui d’un ampli à transistors! C’est du aux harmoniques générées par les deux composantes, différentes, une soi-disant étude scientifique que je ne retrouve plus aurait prouvé que les harmoniques du second et troisième ordre, générées par les lampes en une certaine quantité, procurent un certain plaisir auditif et une sensation de « qualité ».
Néanmoins, il est parfois préférable d’avoir la plus faible distorsion possible, comme par exemple avec des convertisseurs analogique / numérique. On appréciera aussi (mais pas toujours! il n'y a jamais de règles...) avoir des équipements transparents pour certaines sources, comme des préamplis, tables de mixage. La THD devra alors être faible; généralement, les appareils à fort THD sont plus utilisés pour « colorer » le son d’une certaine manière.


Voilà pour le premier article, nous continuerons bientôt dans la découverte du domaine numérique!