L'évolution de l'enregistrement sonore : de l'analogique à l'audio numérique et ses innovations techniques
Book a callLa transmission de l'audio sous forme numérique marque une rupture significative avec les méthodes analogiques qui ont dominé l'histoire de l'enregistrement et de la reproduction sonore pendant plus d'un siècle.
À l'origine, l'audio analogique repose sur la transformation des vibrations acoustiques en signaux électriques continus, capturés par des dispositifs comme le microphone et enregistrés sur des supports physiques tels que les cylindres de cire, les disques vinyles ou les bandes magnétiques.
Le phonautographe, inventé en 1857 par Édouard-Léon Scott de Martinville, représente la première tentative documentée d'enregistrer le son sous forme analogique.
Cet appareil traçait les ondes sonores sur un support visuel, mais il ne permettait pas de les reproduire. Ce n'est qu'en 1877, avec le phonographe de Thomas Edison, que l'enregistrement et la lecture analogique deviennent possibles, en gravant les variations de pression acoustique sur un cylindre. Par la suite, le gramophone d'Émile Berliner (1887) perfectionne cette technologie en utilisant des disques plats, posant les bases de l'industrie musicale analogique.
Cependant, les limites de l'analogique — dégradation du signal lors des copies, sensibilité au bruit et incapacité à manipuler les données sans perte — ont poussé les chercheurs à explorer une alternative numérique.
La transition vers l'audio numérique commence véritablement au milieu du XXe siècle, avec des avancées théoriques et techniques. En 1937, Alec Harley Reeves, un ingénieur britannique, dépose un brevet pour la modulation par impulsions et codage (Pulse-Code Modulation, PCM), une méthode permettant de convertir un signal analogique en une série de valeurs numériques discrètes. Le principe est simple, mais révolutionnaire : le signal continu est échantillonné à intervalles réguliers, définis par la fréquence d'échantillonnage \( f_s \), et chaque échantillon est assigné à une valeur numérique après quantification.
La première mise en œuvre concrète de l'audio numérique survient dans les années 1960 et 1970, grâce aux progrès en électronique et en informatique. En 1971, les premiers enregistrements numériques commerciaux sont réalisés au Japon, avec des œuvres comme The World of Stomu Yamash'ta par Stomu Yamash'ta. Ces enregistrements utilisent des systèmes expérimentaux basés sur le PCM. Peu après, en 1977, Sony introduit le PCM-1, un convertisseur capable de transformer l'audio analogique en données numériques stockées sur des cassettes VHS. Cette innovation repose sur des convertisseurs analogique-numérique (CAN) pour échantillonner et quantifier le signal, et des convertisseurs numérique-analogique (CNA) pour le restituer sous forme audible.
Le théorème d'échantillonnage de Shannon-Nyquist stipule que la fréquence d'échantillonnage \( f_s \) doit être au moins égale à deux fois la fréquence maximale du signal audio \( f_{\text{max}} \), pour garantir une reconstruction fidèle du signal :
\[ f_s \geq 2 \times f_{\text{max}} \]
Pour l'audio, la plage audible humaine atteint environ 20000 Hz, ce qui définit la fréquence maximale \( f_{\text{max}} = 20 000 \, \text{Hz} \). Ainsi, la fréquence d'échantillonnage minimale requise est :
\[ f_s \geq 2 \times 20\,000 = 40\,000 \, \text{Hz} \]
Les premiers systèmes adoptent une fréquence de 44100 Hz, qui est légèrement supérieure à cette fréquence minimale, ce qui permet de compenser les éventuelles pertes lors de l'échantillonnage et de la quantification.
Le débit binaire de ces systèmes peut être exprimé par la formule suivante :
\[ \text{Débit} = f_s \times \text{bits} \times \text{canaux} \]
où \( f_s \) est la fréquence d'échantillonnage, bits est la profondeur de quantification (le nombre de bits utilisés pour représenter chaque échantillon), et canaux correspond au nombre de canaux audio (par exemple, 2 pour la stéréo). Si, par exemple, la fréquence d'échantillonnage est de 44100 Hz, avec une profondeur de quantification de 16 bits et deux canaux (stéréo), le débit sera calculé comme suit :
\[ \text{Débit} = 44\,100 \times 16 \times 2 = 1\,411\,200 \, \text{bps} \, (\text{bits par seconde}) \]
Ainsi, la transmission numérique de l'audio devient possible grâce à une chaîne de technologies : microphones pour capter le son, CAN pour le numériser, supports de stockage numériques, et CNA pour le reproduire sous forme audible. Ce processus, bien que complexe, offre une fidélité accrue et une résistance aux interférences, marquant le début d'une ère nouvelle dans l'histoire de l'audio.
Les premières optimisations de la transmission audio numérique visent à améliorer la qualité sonore tout en répondant aux contraintes de stockage et de traitement. Ces avancées reposent sur le théorème d'échantillonnage de Shannon-Nyquist, formulé par Claude Shannon en 1948 à partir des travaux de Harry Nyquist en 1928. Ce théorème établit que la fréquence d'échantillonnage doit être au moins le double de la fréquence maximale du signal pour une reconstruction fidèle.
Ces optimisations pratiques émergent dans les années 1970 et 1980, notamment avec le développement du disque compact (CD), commercialisé en 1982 par Philips et Sony. Les équipes dirigées par Toshitada Doi chez Sony et Kees Schouhamer Immink chez Philips perfectionnent cette technologie entre 1979 et 1982, aboutissant à la norme CD-DA. Une avancée clé est l'adoption de 16 bits par échantillon, contre 8 bits auparavant. Le nombre de niveaux d'amplitude possibles est donné par la formule :
\[ \text{Niveaux} = 2^n \]
Pour 8 bits :
\[ \text{Niveaux (8 bits)} = 2^8 = 256 \]
Pour 16 bits :
\[ \text{Niveaux (16 bits)} = 2^{16} = 65\,536 \]
La différence entre ces niveaux est calculée ainsi :
\[ \text{Différence} = 65\,536 - 256 = 65\,280 \]