Lors de vos visites, il est de coutume d'aborder plusieurs sujets musicaux ou techniques, les deux étant inséparables, liés à l'approche sonore
des appareils.
La conception : certains ont l'impression de progrès "énormes" réalisés dans le domaine de l'audio depuis les premières applications électroniques.
La triode de De Forest a vu sa première grille en 1906, le transistor est sorti de chez Bell en 1947, et le CD en 1981.
En 2024 : 118, 77, 43 : telle pourrait être la nouvelle trilogie des nombres d'or !
Les cycles technologiques sont donc par essence très supérieurs aux temps de cycles des produits.
On peut noter une différence constante depuis les débuts de l'enregistrement électrique : les supports d'enregistrement ont toujours été en
retard au niveau des performances par rapport au seul développement des électroniques : il n'est donc pas rare de trouver des amplificateurs très
anciens, supérieurs en dynamique et en bande passante aux supports de ces mêmes époques.
Plusieurs exemples de matériels sont existants dans notre "antre" : amplificateur Mono de 14W de 1931, blocs Mono RCA de 1929,
ampli Mono Cinéma de 1951, ...
Ces amplificateurs sont capables de rivaliser et même de dépasser les meilleures réalisations actuelles, après plus de 80 ans d'existence…
Il en est de même pour les qualités purement acoustiques de vieux systèmes professionnels qui font toujours pâlir (au High End de Munich par exemple)
certaines enceintes modernes où on ajoute un haut-parleur pour augmenter péniblement le rendement de 3dB.
Mais ne défendons pas du "
has been" et examinons les progrès dans notre domaine : élargissement de la bande passante, augmentation de la
puissance, mise en place de linéarisations (contre-réaction), amélioration des supports et des enregistrements eux-mêmes, … bref tout ceci devrait
conduire à une amélioration notable, parfaitement sensible et accessible à tous.
Concernant l'électronique, la conception assistée par ordinateur a permis de développer très rapidement des schémas, les caractéristiques statiques
des composants étant toutes mises en bases de données.
En complément et depuis quelques années, les analyses linéaires et non-linéaires ont permis de déterminer les réponses en dynamique des systèmes.
Les simulations restent des simulations - même si les modèles sont de plus en plus fins - elles sont à valider dans l'application elle-même et
par des mesures complémentaires absolument nécessaires.
Et surtout, les associations des étages successifs autour des composants actifs (tubes ou transistors) sont toujours déterminées par l'homme, par
le choix d'une équipe de conception.
La simulation n'est donc pas une fin en soi, mais un outil générant un gain de temps, un outil évitant des répétitions fastidieuses dans l'approche
de la conception électronique ou acoustique, évitant "normalement" les erreurs passées.
Elle ne supprime en aucun cas "la main de l'homme", celle qui va finaliser le schéma, apporter la signature et toute sa qualité sonore à l'appareil.
Les possibilités de simulations sont à ce jour pléthoriques.
Pourtant les appareils et leur schématique n'ont jamais été aussi semblables : l'intégration technologique et le confinement de certaines barrières
physiques permet de limiter le nombre de composants actifs et passifs.
Ainsi, plutôt qu'une véritable recherche et création autour du composant actif, l'audio d'aujourd'hui se réduit très souvent à une association
de fonctions basée sur la simple application des fiches des constructeurs !
Normal.
Tout ceci coûte cher et les équipes de design sont soumises à un turnover de produits et de modèles nécessaire au maintien de la
marque en première ligne.
Par expérience, il faut analyser les schémas électroniques à tubes ou à transistors pour se rendre compte des avancées … ou des nombreuses copies
et répétitions depuis les débuts de la reproduction électro-acoustique.
Car si les technologies ont évolué dans le sens de la miniaturisation, les bonnes démarches de conception ont peu évolué et restent
majoritairement l'apanage du haut de gamme.
Sur cette partie seule, et en dehors de la grande qualité des fabrications, les coûts d'étude liés à la performance peuvent alors être amortis.
C'est ainsi que les mauvais designers de l'audio vont réaliser les pires associations au sein d'un même appareil ; les meilleurs vont avoir à la
fois la vision globale et la réflexion détaillée sur ce précieux assemblage.
Ce dernier principe conduira en final à toutes les qualités d'homogénéité d'écoute.
Si les calculs électroniques sont efficaces, pourquoi les critères de fiabilité sont-ils si mauvais sur les appareils récents ?
Parce que les taux de charge des composants sont souvent en limite pour des questions de coût : il nous est arrivé de changer des transistors
tenant 120V maxi avec des tensions mesurées aux bornes de 114V !
Où est la marge ? Chez le fabricant...
Combien d'amplis à tubes actuels et réputés sont "dynamiques", avec des tubes poussés à l'extrême, dans leur retranchement d'hyperbole
de dissipation, imposant un changement régulier tous les deux ans ?
Combien de ces mêmes amplis présentent des circuits imprimés brûlés à leur base au bout de quelques centaines d'heures ?
Si les calculs et méthodes étaient efficaces, pourquoi autant de défauts à court terme sur de bons appareils au demeurant ?
Parce que les réductions de coûts
entraînent inévitablement des simplifications de process : des larges surfaces de circuits imprimés qui ressemblent plus à de la tôle ondulée
avec fêle assuré des composants CMS, des bains de soudure utilisés au maximum et qui perdent rapidement leurs qualités de soudabilité.
Si les simulations "
bass reflex" sont aussi simples, pourquoi autant d'enceintes de ce type donnent encore un son de tonneau ?
Pourtant Thiele et Small n'ont pas travaillé pour rien !
Pourquoi d'autres enceintes ont un médium projeté et un aigu agressif alors que tous les calculs de filtres, choix des
fonctions mathématiques, réponses en amplitude et en phase sont si faciles !
Si les simulations électroniques étaient efficaces, alors pourquoi tant d'amplis à transistors sont si mous malgré des alimentations
totalement démesurées où les milliers de µF sont donnés en exemple ?
Si les simulations électroniques étaient réalistes, alors pourquoi autant d'amplis sont détimbrés, avec une image sonore étriquée, malgré
une bande passante qui peut atteindre le MHz avec toute l'ineptie de l'argumentaire et les risques associés : accrochages et détection haute fréquence,
sensibilité à l'environnement électromagnétique, risques sur la chaine avale d'amplification et tweeters, ...
Si vous n'êtes pas convaincu, alors pourquoi cherchez-vous tant à améliorer un système qui
a priori relève d'une conception parfaite, puisque
modélisée par tous les moyens actuels, avec tous les paramètres physiques possibles ?
Parce que de tous, il manque le principal : celui qui fait le lien entre la technique et l'émotion musicale, le lien avec la matière sonore.
C'est bien qu'il manque ce chaînon majeur dans l'équipe, faute de temps, donc d'essais, de réflexion ... et parfois de goût ou de rafinement.
L'instantanéité présente, l'immédiateté, le côté fugitif et passager ne nous entraînent aucunement sur un plaisir profond et à long terme
puisque la majorité des conceptions actuelles ne sont que la traduction de ces défauts, j'oserais écrire des états de ces designers du moment.
Vous voulez découvrir une autre réception du message musical ? Entrer dans une autre philosophie d'écoute ?
Vous faire plaisir tout simplement...
Alors prenons rendez-vous autour de votre système et voyons ensemble ce que nous pouvons vous proposer comme améliorations.
L'objectif est bien de vous faire apprécier combien les
Musiques sont belles lorsqu'elles commencent à apparaître devant la conception
électro-acoustique, qu'elle soit d'hier ou d'aujourd'hui, car positivement parlant il en existe bien sûr de merveilleuses à toutes époques.
Musicalement vôtre,
Laurent SCHWARTZ
Ingénieur Electronicien - Ingénieur du Son
L'Autre du Son
© Octobre 2013
AUDIO MUSICAE