Pre-Emphasis bei CD und DAT?
#7
Lieber Andreas,
und ich komme wieder historisch prinzipialistisch daher:

Zunächst mit dem Hinweis, dass SPDIF (ca. 1985) und AES-EBU (dto.) keinesweges die ersten und vor allem nicht die einzigen Schnittstellenstandards waren. Nachdem auch 44,1 und 48 kHz nicht allein auf weiter Flur standen, war da allerhand im Fluss, bis sich die Marktverhältnisse halbwegs praxistauglich stabilisiert hatten. Überdies besaßen damals die amerikanischen Urheberrechtsschützer zeitgenössisch einmal wieder Lufthoheit und nahmen zeitweise recht eigentümlichen Einfluss auf die gesetzgeberischen Entscheidungen ihrer Regierung, was die Schnittstellenstandardentwicklung und -verbreitung nicht nur vorteilhaft beeinflusste. Die Codes enhalten eine ganze Reihe von Zusatzinformationsflags, die bei grundsätzlicher Identität der Codes im detail nicht ganz identisch sind. Meist funktioniert aber die gegenseitige Datenübernahme, sofern der stark abweichende Pegel von AES-EBU und SPDIF vom Schwesterinterface verdaut wird.

Übrigens etablierte die Firma Studer auf diesem Terrain ihr erstes -und wirklich eigenes- Digitalgerät, den professionellen Abtastratenwandler SFC16 von 1982, der als erster Kanalisierungsversuch innerhalb der damals herrschenden schier babylonischen Sprachverwirrung anzusehen ist. Das lehrt allerhand zur zugegebenermaßen eigentümlichen Regensdorfer Denkart, die für uns heute das ausmacht, was Studer-Revox war.

Zur 14-Bit-Technik wäre zusätzlich anzumerken, dass die ach so gescholtene Bunzpost (Altherren- und Beamtenklub, bei dem vorgeblich nichts voranging etc. pp.: da sieht die Sommer-Obermann-Telekom aber signifikant schwächer aus) zu den Pionieren der digitalen Übertragung gehörte, denn sie begann dem Vernehmen nach bereits in den frühen 1970ern mit der Einrichtung eines digitalen Leitungsnetzes in Deutschland; zu einer Zeit also, als die dafür erforderliche Hartware noch selbst zurechtgezimmert werden musste, weil sie nicht von der Stange (von deren Flexibilität unsere heutigen Anbieter so gerne faseln) zu erwerben war.
Jenes BP-Netz arbeitete ursprünglich mit 14 Bit und 32 kHz, was dann auch (aber nicht nur) Einfluss auf die Normung des DSR-Standards nahm.
14-Bit-CD-Player gab es jede Menge (die ersten Philips-Player waren wohl ebenso 14 Bit wie auch der mit Philips gemeinsam entstandene Revox-B225). Von den 14-Bit-Produktionsstandards sprach ich bereits. PCM-1, womit der BR seine hierzulande vielbeachteten ersten Digitalaufnahmen machte, arbeitete -so glaube ich mich hoffentlich recht zu erinnern- noch mit 12 Bit. Sollte ich mich täuschen, befinde ich mich in bester Gesellschaft, denn Martin Wöhr, einem der großen Digitalpioniere im Bayerischen Rundfunk, waren bei einem Gespräch hierzu vor einigen Jahren seine frühen Tage im HL-Code unterhalb der 16-Bit-Grenze auch nicht mehr gegenwärtig.

Die CD war für allerlei vorgesehen: Nur zunächst weder für die Datenspeicherung noch für die Aufnahme bzw. Bespielbarkeit. Stattdessen war eine vierkanalige Anwendung vorgesehen, die auch in den einschlägigen Lizenzierungs-"Books" auftaucht, aber offenbar nie marktgängig realisiert wurde.
Normalerweise stellt es kein Problem dar, einen Code wesentlich höherer Auflösung mit Wandlern niedrigerer Auflösung wiederzugeben, sofern die Datenworte einwandfrei voneinander (also in beiden Fällen nach demselben Verfahren) abgegrenzt sind. Der 14-Bit-Wandler trunkiert dabei 'einfach' ein 16, 20 oder 24-Bit-Wort. Das kann natürlich dramatische Folgen nach sich ziehen, wenn der 24-Bit-Aufnehmer die 80 bis 85 halbwegs nutzbaren dB seiner Mikrofonverstärker (meist sind es weniger!) recht locker in die theoretischen 144 dB seiner Digitaldynamik einpasst.... Wenn ich mich recht erinnere, war auch jene 4-Kanal-Technik per CD mit 14 Bit geplant.

Den "fliegenden Wechsel" bezog ich oben auf einen Trackwechsel innerhalb eines geschlossenen Programms unter einem gemeinsamen Subcode, also nicht notwendigerweise einen Wechsel innerhalb eines Tracks. Grundsätzlich kann man produktionsseitig quasi jederzeit auf Emphasis-Betrieb umschalten. Was die CD-Player dazu sagen, weiß ich nicht recht vorherzusagen. Die heute üblichen Softwaren machen einem diesen Abusus natürlich -und das sicher nicht ohne Grund- nicht ganz leicht. Bei meinem Sadie und meinem Sequoia sähe ich im Augenblick nur die Möglichkeit, mit einem Schnitt solch eine unsinnige Betriebszustandsveränderung zurechtzubasteln.
In meinem ersten Beitrag oben dachte ich an eine Orgel-CD John Eargles, wo die besagten Probleme auftreten.

An die Indizierungsschwierigkeiten und -engpässe bei MP3 dachte ich oben überhaupt nicht. Bei meinen Gerätschaften gestatten unter den dort gängigen Verfahrensweisen, den Subcode so zu gestalten, wie das seine Natur zulässt: Ich setze Track und Index da, wo ich es für richtig halte. Das sieht bei dem diesbezüglich ja nicht von Anfang an 'so' bzw. 'dafür' gemeinten MP3-Standard natürlich anders aus.


Hinsichtlich der 24-Bit-Frage weiß ich durchaus, dass da Glaubensbekenntnisse wie Monstranzen über den Markt geschleppt werden. Wenn man jedoch klar macht, dass die analoge Tonaufnahme -gleichgültig, ob nach Dolby A oder SR, nach TelcomC4 oder sonstwas codiert- lediglich und hinreichend mühselig 1000 Pegelstufen zu realisieren vermögen, bei 16 Bit gut 64000 bei 14 Bit immer noch 16000 dezidiert reproduzierbare Pegelstufen möglich sind, die Musikgeschichte es -etwas sehr flapsig gesagt- zur Bruttorealisation von weniger als 12 (und dann nicht präzise definablen) Pegelstufen brachte, relativiert sich die Situaion: 24 Bit haben produktionspraktische, aber keine 'ansonsten hörbaren' Vorteile. Ich bitte zu bedenken, dass beste Mikrofonverstärker in optimaler Ausnützung (da ist Sachverstand gefragt) schwerlich über 85 dB kommen können. Und: Je höher die Verstärkung ausfällt umso gleicher verhalten sich die Verstärker. Einen guten Mikrofonverstärker erkennt man daran, dass sein Rauschen bis in niedrige Eigenverstärkungen hinein möglichst konstant abnimmt.
Weiterhin darf nicht außer Acht bleiben, dass bei jeder Verdopplung der Anzahl aktiver Mikrofonzüge der Fremdspannungsabstand -unvermeidlich!!- um 3 dB fallen muss. Also: Bei 16 Mikros sinkt der Fremdspannungsabstand schon um 12 dB, bei 25 Mikros um 15 dB, bei 36 Mikros um 18 dB. Vom Geräuschspannungsabstand her benötigt man also die 24-Bit-Technik nicht.

Hans-Joachim
Zitieren


Nachrichten in diesem Thema
[Kein Betreff] - von andreas42 - 22.05.2009, 12:24
[Kein Betreff] - von uk64 - 22.05.2009, 14:45
[Kein Betreff] - von PhonoMax - 22.05.2009, 15:23
[Kein Betreff] - von Rick Monson - 22.05.2009, 23:23
[Kein Betreff] - von andreas42 - 23.05.2009, 15:39
[Kein Betreff] - von uk64 - 23.05.2009, 17:26
[Kein Betreff] - von PhonoMax - 23.05.2009, 19:13
[Kein Betreff] - von uk64 - 23.05.2009, 22:59

Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste