Sie sind hier : Startseite →  Hifi Wissen und Technik→  Schnittstellen / Interfaces

Hier geht es nur um die Audio- Schnittstellen / Interfaces

Coax- und XLR analog

Dezember 2019 von Gert Redlich - Vorweg gesagt, es gibt tausende von Schnittstellen und Interfaces - angefangen hatte es bei der frühen Sprachübertragung, der Telefontechnik, später dann bei der Radio- und Schallplatten- Tontechnik, bei den ersten uralten Radio-Sendern und den Empfängern, den urigen Radios, und dann in der deutlich komplexeren Fernsehtechnik. Dem Faß den Boden ausgeschlagen hatte dann die alte und die moderne Computertechnik mit einer fast unüberschaubaren Anzahl von Schnittstellen. Unser Thema verzweigt in die professionelle Rundfunk- und Studiotechnik und später in die Hifi-Technik - dort tat sich auch eine Menge.
.

Analog und Digital nebeneinander
Coax- und Glasfaser digital
am DAT Recorder

Verbindungen mit Draht, mit Licht und durch die Luft

Die ursprunglichen Audio-Verbindungen gingen alle über irgendwelche Variationen von mehreren Kupferdrähten. Mit dem Aufkommem der Computertechnik wurde das problematisch (wegen der Brummschleifen und sonstiger Schmutzeffekte) und man bot als Alternative optische Glasfaserverbindungen aus der frühen Computertechnik an.

In der Zeit nach 2010 wurde aus dieser Computertechnik die Wifi/WLAN und Bluetooth Funkverbindung übernommen und für Audiozwecke umgearbeitet.

Doch auch hier konnten sich die weltweiten Hersteller nicht auf einige wenige Standards einigen. Es uferte aus und ist nach wie vor ein grandioses Verwirrspiel.
.

Wie kam die Idee zu diesem Artikel ?

Ein beeindruckendes Logo
Die typischen Sprüche
2 der besten CC-Recorder
aus dem PIONEER Programm

Zwei Projekte beschäftigen mich schon seit einer Weile. Es fing bereits weit vorher an, daß ich Qualiätsunterschiede von Audio-Aufnahmen nur in sehr gut ausgestatteten Tonstudios hieb- und stichfest vorgeführt bekam bzw. mir selbst vorführen konnte. Das hat sich mit der Computertechnik völlig verändert.

Zu meiner "Tonbandzeit" der 1970er Jahre hatten wir doch nur die Schallplatten und den UKW-Rundfunk als beste Quellen. Eine Platte auf ein Band kopiert oder auf eine CD gebrannt erbrachte nachweisbar : es wurde nicht besser und auch nicht hörbar schlechter. Denn diese für uns verfügbaren Quellen waren bereits mehr oder weniger deutlich unterhalb den qualitativen Möglichkeiten der damals besten Geräte.

Als die ersten SACDs und die entsprechenden Abspieler auf den Markt kamen, stellten auch die hartgesottensten Analog-Verfechter fest (jedenfalls bei den professionellen Tonmeistern - also nicht den Hobbyisten und AAA-Gläubigen), es gibt da etwas oberhalb der CD-Qualität. Und in den ganz neuen digitalen Studios gibt es darüber hinaus sogar noch etwas mehr an technischer und klanglicher Perfektion. Und mit einem der besten Kopfhörer abgehört, lauscht man erstaunlichen Feinheiten in der akustischen Musik, die man früher nie gehört hatte. Die waren nämlich einfach nicht da.
.

Der Jecklin Float

So kam ich auf die Idee, die uns übergebenen sowie die geschenkten damaligen 8-Spur Life-Aufnahmen zweier klassischer Konzerte - auf einer 38er Fostex (sowie einer TASCAM) Bandmaschine aufgenommen - zu digitalisieren. Die müssten aber auf Stereo abgemischt werden und in einem hochauflösenden sogenannten Stream gespeichert werden, den nahezu jeder abspielen können sollte. Eine 60.- Euro Soundkarte kann inzwischen 96kHz/24 Bit Wave-Dateien erstaunlich präzise umwandeln und problemlos abspielen.
.

3 Kopftechnik im SONY KA6

Weiterhin wäre es mit dieser nunmehr erschwinglichen modernen Abspieltechnik möglich, solch edle Quellen auf eine Compact Cassette aufzunehmen  - mit den bestmöglichen 3-Kopf- Recordern natürlich (wir haben ein ganzes Regal voll) und in 5 Sekunden Schnipseln - jeweils das Original (Vorband) und dann das CC-Magnetband ("Hinterband") direkt hintereinander zu präsentieren.

Wir hatten übrigens von unserem "Mr. AGFA" eine riesen Menge von teuersten und funkel nagel neuen Edelkassetten aller Hersteller und aller Technologien "geerbt", mehr als 2.000 Stück.

Als zweite Aufgabe kam es mir in den Sinn, die von Karl Breh geerbten raren und seltenen Quadro Demo Platten (er wurde damals als Chefrdakteur der Hifi-Stereophonie damit bemustert) in einen 4-Kanal Wave zu wandeln und damit auch Jedermannn diese damals 1971 bis 76 anfänglich gewaltig beworbene und dann gefloppte analoge Quadrotechnik zur eigenen Beurteilung zur Verfügung zu stellen.
.
Es stellte sich deshalb die Frage, wie präsentiere ich diese "gerichtsfesten" Quadro-Qualitäten mit 4 Kanälen so, daß sie fast jeder mit einer handelsüblichen (5+1 oder besser) Soundkarte abhören können müsste, also welches Dateiformat wäre sinnvoll und vor allem, wie bekomme ich die 2 Kanal und 4 Kanal Aufnahmen in einen digitalen Stream rein.
.

Und damit stolperte ich über die Schnittstellen

Ich habe also 2 unterschiedliche Eingangskombinationen mit 8 x analog und 4 x analog, die teilweise auf 2 Kanäle zusammen gemischt werden sollen, bei den alten Quadro-Demo-Platten aber als digitalisierte 4-Kanal Stücke erhalten bleiben sollen.

Jetzt gibt es eine recht große Anzahl von sogenannten Audio-Interfaces und auch DAWs, (das sind "Digitale Audio Workstations"), die aber alle so ihre besonderen Eigenschaften oder Eigenarten haben. Also galt es, diese Eigenschaften mal zu sondieren. Da gibt es diverse USB-Anschlüsse mit einer Vielzahl von USB-Steckverbindern, aus der Computertechnik bekannt. Doch die genauen Spezifikationen sind allermeist unbekannt, solange es funktioniert. Zusätzlich gibt es TDIF, S/PDIF, ADAT, S/MUX, MADI und AES/EBU und sonstiges dazu.
.
Weiterhin ist es sinnvoll, sich über die Ziel-Datei Gedanken zu machen und dann erst über den Weg dorthin zu recherchieren.
.

Das Ziel ist eine Datei, die man auf (je)dem PC abspielen kann :

Bei Microsoft wurde ein "Resource Interchange File Format" entwickelt oder gar erfunden, genannt "RIFF". Gedacht war es für die verschiedensten Arten von Multimedia-Daten. Hier ein paar frühe Beispiele, die sich äußerlich durch die Datei-Endungen unterscheiden :
.

  1. AVI Audio Visuelle Interleaved Daten
  2. WAV Waveform Daten
  3. RDI Bitmapped Daten
  4. RMI MIDI Informationen
  5. PAL Farbpaletten
  6. RMN Multimedia Filme
  7. ANI Animierte Cursors (z.b. Sanduhr)
  8. BND Sammlung verschiedener RIFF Dateien

.

Für uns ist nur die erweiterte WAV Formatierung interessant.

In solch einer Wave Datei sind sogenannte chunks enthalten, nennen wir sie mal Datenpartitionen, beinahe wie auf einer partitionierten Festplatte - das ist zwar nicht ganz korrekt, aber so kann man sich diese "Brocken" vorstellen. Und in dem "Format-chunk" steht die für uns wichtige Information, nämlich wieviele Kanäle oder channels enthalten sind. Das sind inzwischen mehr als nur die anfänglichen 2, heute bis zu 8 channels. Der Rest ist weitgehend festgelegt und wir "fahren" in der besten machbaren Qualitätsstufe, aktuell in der CD Qualität. Über dieses "Format" gibt es ganze Bücher, wie die Ingenieure das damals festgelegt bzw. spezifiziert hatten.
.

Wie wandle ich meine 8 oder 4 analogen Kanäle um ?

Bei der Auswahl der Geräte steht bislang fest, ich habe 4 oder 8 analoge Audio-Kanäle und benötige in dieser Ziel-Datei 4 oder nur 2 Digital-Kanäle. Mit welchem Interface bekomme ich diese umgewandelten Daten in den PC ?
.

Darum jetzt erst mal einen Blick auf die Schnittstellen

Uns interessieren natürlich nur die Schnittstellen von Gerät zu Gerät, meist von den Quellen zum Computer. Die internen Geräte-Schnittstellen von Platine zu Platine sind extern nicht relevant. Fangen wir ganz primitiv an. Das sind die US amerikanischen RCA Jacks, die sogenannten Cinch- Buchsen. Und weil das verwirrend ist, damit werden nämlich auch unsere analogen Daten transportiert, ein Vorwort zu den Schnittstellen.
.

Was sind denn digitale Schnittstellen ?

Unser analoges Audiosignal ist nichts anderes als eine kontinuierliche Spannungschwankung in einem Audio-Kupferkabel. Damit diese Spannungsschwankungen von einem Computer verstanden werden können, müssen sie in kleine Brocken zerhackt - digitalisiert - werden.

Die fortlaufenden Schwankungen werden dabei mehrere zehntausend Male pro Sekunde in gleichbleibenden Zeitabständen "gemessen". Aus diesen ermittelten Messwerten kann dann später das ursprüngliche Audiosignal weitgehend identisch rekonstruiert werden.

Die beiden wichtigsten Eckdaten sind dabei die sogenannte "Samplingfrequenz" (die periodische Meßfrequenz), welche bestimmt, wie oft pro Sekunde eine Messung durchgeführt wird und die sogenannte "Bit-Tiefe", die die Genauigkeit (besser gesagt die "Auflösung") bestimmt, mit der die Messung durchgeführt wird.

Je höher/größer diese beiden Werte sind, desto genauer kann das Originalsignal rekonstruiert werden. Als Branchenstandards haben sich dabei die Werte der 1983er Philips/Sony Audio-CD sowie die der Audio-Spuren der späteren DVD weltweit durchgesetzt.

Erstere arbeiten mit einer Samplingfrequenz von 44,100 kHz und einer Bit-Tiefe von 16 Bit. Letztere verwenden 48 khz und ebenfalls 16 Bit. Diese sind für die hochwertige Wiedergabe von Audiosignalen in der Regel ausreichend. Sie können alle relevanten Signal-Anteile im Menschlichen Hörspektrum sehr akkurat rekonstruieren. Sollen aber die originalen Aufnahmen nachträglich bearbeitet werden, ist eine höhere Auflösung für die originale Master-Aufnahme zu wählen.

Sollen die gespeicherten digitalen Musik-Daten aber auch noch mehrfach bearbeitet (gemixt, verschoben, verhallt usw) werden, lohnt es sich (besonders bei der Bit-Tiefe), auch digitale Formate mit höheren Parametern zu verwenden, da eine Bearbeitung immer auch eine (leichte) Reduktion der Auflösung mit sich bringt.
.

(1) Die digitale Schnittstelle S/PDIF

Buchsen am DAT Recorder
Buchsen am PC-Mainboard

S/PDIF steht für "Sony/Philips Digital Interface" und ist ein Schnittstellen Standard, der Anfang der 1980er Jahre im Rahmen der Audio-CD entwickelt wurde. S/PDIF basiert auf der damaligen Inkarnation des AES/EBU Standards, die heute als AES3 bezeichnet wird.

Besonders in günstigen Interfaces ist diese Schnittstelle sehr häufig zu finden. Beide Formate unterscheiden sich fast ausschließlich durch die verwendeten Anschlüsse und sind (unter Verwendung entsprechender Adapter) weitestgehend untereinander kompatibel. Während S/PDIF entweder mit optischen Toslink- oder koaxialen Cinch-Kabeln arbeitet, setzt AES3 auf höherwertige XLR-Verbindungen.

Beide Schnittstellen können verschiedene Audioformate übertragen. Die wichtigsten darunter sind die der Audio CD (44,1 kHz, 16 Bit, Stereo) sowie die Formate der DVD (48kHz, 16 Bit, Stereo). Theoretisch sind 2 kanalige Stereo-Spuren mit bis zu 96 kHz und 24 Bit möglich. Diese werden aber nicht von allen Geräten erkannt.

Bei S/PDIF und AES3 handelt es sich um unidirektionale Standards, das bedeutet, daß Signale pro Kabel immer nur in eine Richtung übertragen werden können. Geräte mit diesen Standards verfügen daher gewöhnlich sowohl über eine Eingangs- als auch über eine Ausgangsbuchse.

S/PDIF "kann" in der Regel nur 2 kanaliges Stereo - wenn nicht ......

Eine (ganz seltene) Besonderheit von S/PDIF gegenüber AES3 ist die Möglichkeit, auch Sourround-Formate zu übertragen. Die erhöhte Zahl der Kanäle wird dabei durch deren verlustbehaftete Datenkompression erreicht. Verstanden wird ein solches Signal aber in der Regel nur von extra dafür vorgesehenen Sourround-Verstärkern.
.

(2) Die digitale Schnittstelle ADAT

"Alesis Digital Audio Tape" (kurz. ADAT) wurde Anfang der 1990er Jahre von der namensgebenden Firma Alesis entwickelt. Das Schnittstellen-Protokoll wurde damals genutzt, um handelsübliche VHS-Videokasetten zu achtspurigen digitalen Audio-Tapes umzufunktionieren. Während diese Video-Tape-Rekorder heute nur noch von "Liebhabern" benutzt werden (mit all deren Macken), ist der eigentliche Standard gerade im semiprofessionellen Recording-Bereich bis heute sehr populär. ADAT wird unidirektional mit (zwei) optischen Toslink-Kabeln übertragen.

Per ADAT lassen sich damit bis zu acht getrennte Spuren mit 44,1 kHz oder 48 kHz Samplingfrequenz und bis zu 24 Bit Bittiefe übertagen. Manche Geräte verfügen außerdem über eine zusätzliche Funktion, mittels derer auch Signale mit bis zu 96 kHz Samplingfrequenz verwendet werden können. Allerdings wird dabei die Zahl der Kanäle von acht auf vier reduziert.

Hardwareseitig wird ADAT mittels optischen Toslink-Kabeln realisiert. Der Standard ist genau wie S/PDIF und AES3 unidirektional, was bedeutet dass auch hier für eine Verwendung von Ein- und Ausgängen zwei getrennte Kabel verwendet werden müssen.
.
Ergänzung : Die ADAT Audioschnittstelle

Die damals gleichzeitig eingeführte ADAT-Schnittstelle zur Übertragung digitaler Audiosignale via Lichtwellenleiter erfreut sich allerdings weiterhin großer Popularität und ist in kleinen und mittelgroßen Tonstudios der Standard für mehrkanalige, digitale Audioübertragung geworden.

Das ursprüngliche ADAT-Format hatte acht digitale Tonspuren und benutzte S-VHS-Kassetten. Die Abtastrate betrug 48 kHz, die Sampletiefe 16 Bit bei linearer Quantisierung. Die ADAT-Schnittstelle selbst überträgt Audiodaten aber mit einer Sampletiefe von 24 Bit.[2] Für die Übertragung der acht Datenkanäle benutzt das ADAT-System die optische Übertragung über TOSlink.[3]

Das ADAT System wurde 1992 von Alesis Corp. eingeführt. ADAT ist nämlich eine Marke der Alesis Corp. Zum einen versteht man darunter das Aufnahmesystem, das es ermöglicht, Audiosignale digital auf S-VHS-Kassetten aufzunehmen und zum Anderen die Audioschnittstelle zur Übertragung von Audiosignalen mittels Lichtleiterkabel („ADAT Lightpipe“). Das System sollte es ermöglichen, bis zu 16 ADAT-Recorder zu einem System mit insgesamt 128 Spuren absolut phasensynchron zu verbinden. [1]
.

(3) Die digitale Schnittstelle S/MUX

Audiodaten mit Abtastraten höher als 48 kHz können mit dem S/MUX-Protokoll (Sample-Multiplexing) übertragen werden: Das S/MUX-Protokoll fragmentiert Datenströme mit höheren Abtastraten und multiplext (verteilt sie ganz intelligent) auf mehrere ADAT-Kanäle. Ein Audiosignal mit einer Abtastrate von 96 kHz wird mittels S/MUX auf zwei ADAT-Kanäle aufgeteilt. Dadurch reduziert sich bei Sampleraten bis zu 96 kHz die Anzahl der möglichen Kanäle auf 4, bzw. bei 192 kHz auf 2. Bei den aktuell (2014) genutzten Studiosetups mit 192 kHz ergibt sich damit ein Stereokanal je Lichtwellenleiter. Ausgleichend lassen sich die Lichtwellenleiter kaskadieren („parallel schalten“), um wieder die ursprüngliche Kanalzahl zu erreichen.

(4) Die digitale Schnittstelle MADI

MADI eignet sich perfekt für viele Kanäle! - Wer mehr als acht Kanäle (absolut phasensynchron und gleichzeitig) übertragen möchte, wird hier fündig. MADI steht für "Multi Channel Audio Digital Interface" und wurde gegen Ende der 1980er Jahre als Standard für professionelle Audio-Technik etabliert. Der Fokus liegt hier auf dem Übertragen besonders vieler Kanäle.

Das Protokoll wurde über die Jahre immer wieder erweitert. Heute bietet es hauptsächlich drei verschiedene Formate. Entweder können 64 Kanäle mit einer Samplingfrequenz von 32 bis 48 kHz, 32 Kanäle mit 96 kHz oder 16 Kanäle mit 192 kHz übertragen werden. Die Bittiefe beträgt dabei immer 24 Bit.
.

Als Anschlüsse werden bei MADI entweder koaxiale BNC-Kabel oder optische FDDI-Kabel verwendet. Auch bei MADI handelt es sich um ein unidirektionales Protokoll. Es muss also für Ein- und Ausgänge jeweils ein separates Kabel verwendet werden.

Anmerkung : FDDI Kabel sind inzwischen fast nicht mehr erhältlich, weil diese Übertragungstechnik in der weltweiten Vernetzung durch Gigabit (Dark Fiber) über Glasfaser abgelöst wurde.
.

(5) Das Tascam TDIFF Interface.

Das TASCAM Digital Interface (TDIF) ist eine spezielle Daten-Schnittstelle, die von TASCAM als Duplizier-Interface für das direkte Überspielen zwischen (anfänglich nur den eigenen) digitalen Bandrecordern entwickelt wurde (zum Beispeil der DA-38 basierend auf High-8-Video-Kassetten).

Es können gleichzeitig acht digitale Kanäle bidirektional übertragen werden. Im Gegensatz zum ADAT-Format wird für Hin- und Rückleitung nur speziell konfigriertes ein ganz normales 25-poliges D-Sub-(Computer-) Kabel benötigt.

Die Daten werden getrennt vom Takt übertragen. Da die Informationen nicht kanalcodiert sind, können die Kabel nur maximal wenige Meter lang sein.

Übertragen werden die Daten seriell mit maximal 24 Bit/48 kHz auf acht Aus- und acht Eingangskanälen (TDIF 1 Standard). Mit Version 1.1 wurde ein Paritätsbit eingeführt, und seit dem TDIF-2-Standard ist es auch möglich, bei reduzierter Kanalzahl eine höhere Datenrate zu nutzen (96 kHz/4 Kanäle, 192 kHz/2 Kanäle).

Die Synchronisation erfolgt entweder intern per L/R Clock, oder mit separatem Kabel extern per "WordClock", da diese Taktinformationen (im Gegensatz zu den meisten Digitalformaten) hier nicht im Kabel mitgeführt wird.

Die L/R Clock legt fest, ob ein Signal für den linken oder den rechten Kanal bestimmt ist. Dieses Signal hat dieselbe Frequenz wie Abtastrate (hier z. B. 48 kHz).

Ein gravierender Nachteil der TDIF-Schnittstelle ist die gewählte Art der elektrischen Anpassung. Während praktisch alle anderen digitalen Audio-Schnittstellen wie AES/EBU (AES-3 und EBU Tech. 3250-E), S/PDIF und MADI Leistungsanpassung mit gleichen Impedanzen auf Seite der Quelle und Senke verwenden (75 Ohm oder 110 Ohm), arbeitet TDIF mit Spannungsanpassung. Die Quelle hat bei TDIF etwa 50 Ohm (Ausgangswiderstand), das Ziel hat etwa 140 Ohm (Eingangs-) Impedanz, was vor allem bei längeren Leitungen (> 5m) zu Reflexionen und Störungen der Signalübertragung führt. In der analogen Studiotechnik wurde bereits vor 1930 das Prinzip der angepaßt abgeschlossenen 600 Ohm Leitung mit nahezu unbeschränkter Länge eingeführt.

Das TDIF-Format konnte sich im Audiobereich bis heute kaum gegen das ADAT-Format der amerikanischen Firma Alesis durchsetzen, neben TASCAM finden sich nur wenige Anbieter von Geräten mit dieser Schnittstelle; Beispiele: Soundscape, Otari, Apogee, RME, Motu, Yamaha, Sony, Digidesign.

Da auch digitale Bandrecorder heutzutage kaum noch genutzt werden, hat sich der Einsatz der TDIF-Schnittstelle auf digitale Mischpulte, Soundkarten und Audiowandler verlagert.

Die allermeisten TDIFF (Zusatz-) Geräte haben dazu auch einen optischen Ein- und Ausgang, der aber immer nur 2 Kanäle gleichzeitig ausgeben kann. Es ist auf jeden Fall reichlich komplex.
.

(6) Die inzwischen wichtige Computer-Schnittstelle - USB

Bei der USB-Schnittstelle ist die Verwirrung am größten. Hier gibt es verwirrend viele Varaianten, die sich alle gravierend unterscheiden. Für uns wichtig ist die Datenübertragungsrate, die unsere Aufnahmen nicht ausbremsen darf.
.

  • Es fing an mit USB (1), eine "universelle serielle Busverbindung", also eine neue Datenverbindung, die man mitten im Betrieb ausstöpseln konnte und auch wieder reinstecken konnte. Das war damals neu. Aber sie war nicht viel schneller als die serielle COM Schnittstelle.
  • Das wurde geändert mit der USB-2 Spezifikation. Jetzt konnte die Schnittstelle 480 Kilobyte/s Daten übertragen.
  • Auch das war nicht so berauschend schnell, es sollte besser werden. USB-3 wurde auf 600 Megabyte/s hochgezüchtet.
  • USB-3.1 und danach soll 4 Gigabyte/s schnell sein. Und das ist ja noch lange nicht das Ende.
  • Es gibt inzwischen (Dez. 2019) USB 3.2 mit angeblich bis zu 10 Gigabit/s und

  • USB 3.2 Gen 2x2 extended mit angeblich bis zu 20 Gigabit/s Datentransfer.

.
Weiterhin gab und gibt es (mindestens) 4 verschiedene Steckverbinder und Buchsen, selbstverständlich in unterschiedlicher Größe, und nicht kompatibel. Die Menge der notwendigen verschiedenen USB zu USB und USB zu SATA Verbindungskabel trieb manche EDV- Admins in den Wahnsinn. Denn sie hatten ja auch noch unterschiedliche Festplattenkabel, diverse inkompatible Videokabel und was noch alles zu betreuen.
.

Und ergänzend : Was bedeutet "phasensynchron" ?

nur 2 Kanäle analog gefüttert
Test mit einem 1 kHz Sinus-Signal (-10dB Pegel) auf Kanal-1 und Kanal-8 - die Wiedergabe der beiden Kanäle muß phasensynchron sein.

In den obigen Absätzen kommt öfter das extrem wichtige Attribut "phasensynchron" vor. Als die ersten PCM Aufnahmen von den Japanern von Japan Nippon Columbia (JVC) ab etwa 1978/79 auf Videoband gemacht wurden, wurden die digitalen Audiodaten fragmentiert (gestückelt) in die einzelnen NTSC oder PAL Videobilder "gepackt". Und dabei wurden die beiden Kanäle immer sequentiell abwechselnd gespeichert - eben Bild für Bild.

Anmerkung : Leider falsch. 6 Datenblöcke werden immer als 3er Gruppe paarweise in einer Spur abgelegt, sodaß sich nur eine sehr sehr kleine Verzögerung für den linken Kanal ergibt.

Der klitze kleine Zeitverzug (Unterschied) vom rechten zum linken Kanal war hörpsychologisch unbedeutend. Also bei Stereo hatte es "hinreichend" funktioniert. Das Ergebnis der ersten 2-kanaligen Digitalaufnahmen war außergewöhnlich beeindruckend. Die Vorführungen auf den AES Kongressen und den Tonmeistertagungen waren überwältigend.

Doch bei 4 und mehr Kanälen funktionierte dieses Video-Zeilen- bzw. Spuren-Konstrukt mit dem Videorecorder bereits nicht mehr. Hat der Tonmeister eine (echte) analoge oder digitale Mehrspur-Magnetbandmaschine mit 1/2", 1" oder gar 2" Band, so werden die 4 oder 8 oder 16 oder sogar 32 (analogen) Kanäle absolut gleichzeitig aufgenommen und auch (weitgehend !!) "phasensynchron" wiedergegeben.

Wird eine (vorher aufgezeichnete) 16 kanalige Musik nachträglich mit weiteren Instrumenten und Gesang oder Gesängen ergänzt, hat das auf die "zeitrichtige" Wiedergabe nahezu keine Auswirkungen. Würde solch ein Mehrkanal PCM- Konstrukt mit solcher Videorecorder- Technik abgespielt, müsste der erste Datenblock so lange digital gespeichert bleiben, bis der letzte Datenblock vom Recorder da ist. Wie gesagt, das war bei dieser Technologie mit vernünftigem Aufwand nicht machbar. Auch ist dieser Zeitunterschied nicht mehr synchronisierbar.
.
Darum wird bei den mehrkanaligen Interfaces und den Schnittstellen so viel Betonung und so viel Wert auf "phasensynchron" (= zeitrichtig) gelegt.
.

Ein Beispiel aus der damaligen Quadro-Welt

Der originale Erfinder oder Anbieter der SQ-Quadrophonie (Sansui, nicht JVC) spezifiziert für seine SQ-Schallplatten eine theoretische Kanaltrennung von rechts vorne nach rechts hinten von 2,6 Dezibel !!!! - Gleiches natürlich auch für den linken Bereich. Die Kanaltrennung der beiden vorderen Kanäle sollte bei etwa 24 Dezibel liegen.

Über die Kanaltrennung der über Phasenverschiebungen künstlich erzeugten (regenerierten) hinteren Kanäle wird überhaupt nichts spezifiziert. Auch der Laie kann sich jetzt ausmalen, was bei einer 4-Kanal Digitalisierung auf Videoband bereits kleinste Phasenverschiebungen zwischen den 4 Kanälen für Auswirkungen hätte.
.

.
es geht noch weiter ........
.

- Werbung Dezent -
Zurück zur Startseite © 2007/2020 - Deutsches Hifi-Museum Wiesbaden - Copyright by Dipl. Ing. Gert Redlich - DSGVO - Privatsphäre - Zum Telefon der Redaktion - Zum Flohmarkt
Bitte einfach nur lächeln: Diese Seiten sind garantiert RDE / IPW zertifiziert und für Leser von 5 bis 108 Jahren freigegeben - kostenlos natürlich.

Privatsphäre : Auf unseren Seiten werden keine Informationen an google, twitter, facebook oder andere US-Konzerne weitergegeben.