Upload
others
View
4
Download
0
Embed Size (px)
Citation preview
Empfehlungen zur Vorbereitung einer
Videokonferenz
Oktober 2014
Kompetenzzentrum für Videokonferenzdienste
Technische Universität Dresden
Kompetenzzentrum für
Videokonferenzdienste
1
2
Inhaltsverzeichnis
1 Die Besonderheiten von Videokonferenzen 1-1
2 Szenario für Videokonferenzen 2-1
2.1 Komponenten 2-1
2.2 Beispielszenario für eine Mehrpunktvideokonferenz 2-2
3 Videokonferenzen über unterschiedliche Netzanbindungen 3-1
3.1 Videokonferenzen über IP 3-1
3.1.1 Der Standard H.323 3-1
3.1.2 Das Protokoll SIP 3-2
3.2 Videokonferenzen über ISDN entsprechend H.320 3-3
3.3 Gateway H.320 / H.323 im Dienst DFNVideoconference 3-4
4 Äußere Anforderungen 4-1
4.1 Raumgestaltung 4-1
4.1.1 Allgemeine Raumgestaltung 4-1
4.1.2 Akustik 4-1
4.1.3 Farben 4-4
4.1.4 Beleuchtung 4-4
4.1.5 Verkabelung 4-5
4.2 Sonstiges Zubehör 4-5
4.2.1 Mischpult 4-5
4.2.2 Projektionswände 4-6
5 Technische Anforderungen und Fehlersuche 5-1
5.1 Netzanforderungen 5-1
5.2 Netzcheck 5-2
5.3 Systemcheck Audio/Video 5-2
5.4 Fehlersuche 5-2
5.4.1 VC-System startet nicht 5-3
5.4.2 Rufe funktionieren nicht 5-3
5.5 Firewall 5-4
5.6 Sicherheit 5-4
6 Multipoint Control Unit (MCU) 6-1
6.1 Allgemein 6-1
6.2 Cisco TelePresence MCU 4500 Serie 6-2
6.3 Cisco Recorder IP VCR 2200 6-3
3
7 Gatekeeper 7-1
7.1 Allgemeines 7-1
7.2 Global Dial Scheme 7-1
7.2.1 H.323 Name 7-1
7.2.2 E.164-Alias 7-2
7.2.3 Dial Plan Structure 7-2
7.3 Praktische Umsetzung 7-2
7.4 Empfehlung Gatekeeper 7-2
7.5 Konfiguration Gatekeeper 7-3
8 Videokonferenz-Geräte 8-1
8.1 Allgemeines 8-1
8.2 Klassifizierung Endgeräte 8-1
8.2.1 Desktop- bzw. Einzelplatzsysteme 8-1
8.2.2 Office-Systeme 8-2
8.2.3 Kompaktsysteme 8-3
8.2.4 Raumsysteme 8-3
8.2.5 Aktuelle Gruppen- und Raumsysteme, Office- und Einzelplatzsysteme 8-5
8.3 Konfiguration der Endgeräte 8-7
8.4 PC-Einstellungen 8-9
8.4.1 Bildschirmschoner, Energiesparfunktion 8-9
8.4.2 Systemmonitor 8-9
8.4.3 Windows SoundMixer 8-10
8.5 Datenanwendungen 8-10
8.5.1 H.239 – Medien-Kanal und Präsentationen in Videokonferenzen 8-10
8.5.2 Virtual Network Computing (VNC) 8-12
8.5.2.1 VNC mit CISCO-MCU 8-13
8.5.3 Datenanwendung über Adobe Connect 8-14
9 Vorbereitungen für eine Videokonferenz 9-1
9.1 Vorbereitung mit neuen Partnern 9-1
9.2 Technische und organisatorische Vorbereitungen 9-1
9.3 Der Moderator in einer Mehrpunktkonferenz 9-3
9.4 Gestaltung von visuellen Hilfsmitteln 9-3
4
10 Durchführung einer Videokonferenz 10-1
10.1 Einwahlmöglichkeiten 10-1
10.1.1 Punkt-zu-Punkt-Verbindung 10-1
10.1.2 Mehrpunktkonferenzen 10-1
10.2 Verhalten in der Videokonferenz 10-3
Anhang A: Die wichtigsten Standards der Audiokodierung A-1
Anhang B: Videonormen B-1
Anhang C: Übersicht über Videoformate C-1
Anhang D: Einfluss von Paketverlusten auf die Videoqualität D-1
Anhang E: Questionnaire zur Vorbereitung einer Videokonferenz E-1
Anhang F: 10 Regeln für ein gelungenes Online-Meeting F-1
Glossar G-1
5
6
Vorwort
Das vorliegende Handbuch entstand im Rahmen des Projektes „Kompetenzzentrum für
Videokonferenzdienste“, ein vom DFN-Verein gefördertes Projekt. Es ist an der Technischen
Universität Dresden etabliert.
Das Handbuch wird in regelmäßigen Abständen aktualisiert. Es soll allen Anwendern von
Videokonferenzen und insbesondere allen Nutzern des Dienstes DFNVideoConference die
dafür notwendigen Informationen und Hinweise geben. Jedes Kapitel hat eine eigene
Versionsnummer, um einen separaten Austausch zu ermöglichen.
Die im Handbuch aufgeführten Firmennamen und Produktbezeichnungen sind eingetragene
Warenzeichen.
Wir möchten alle Leserinnen und Leser des vorliegenden Textes bitten, uns bei Fehlern,
Unkorrektheiten oder gar fehlenden Themen eine Rückmeldung auf einem der unten
aufgezeigten Wege zu geben.
Technische Universität Dresden
Zentrum für Informationsdienste und Hochleistungsrechnen
Kompetenzzentrum für Videokonferenzdienste (VCC)
01062 Dresden
Tel.: +49 (0)351 / 463 – 35653
Fax: +49 (0)351 / 463 – 37116
E-Mail: [email protected]
Video: (H.323 – IP): 141.30.67.240
(H.323 – GDS): 0049 351 4631 1240
(H.320 – ISDN): +49 (0)351 / 463 – 42111 bis 384 kbps
WWW: http://vcc.zih.tu-dresden.de/
7
Version 3.2 1-1
1 Die Besonderheiten von Videokonferenzen
Eine Videokonferenz fordert im Gegensatz zum Telefon mehrere Sinne gleichzeitig, weil das
Gespräch mit Bild, Ton, Bewegung und Interaktion (Application Sharing) ablaufen kann.
Videokonferenzen verbreiten im Gegensatz zu E-Mail und den meisten anderen Internet -
Diensten das Gefühl, dass man direkten Kontakt mit den Gesprächspartnern hat. Die
Gesichter sind zu sehen, die Bewegungen und das Mienenspiel können verfolgt werden.
Einfach ausgedrückt, die Körpersprache ist auch im High - Tech - Zeitalter von entscheiden-
der Bedeutung für die Interaktion und Kommunikation zwischen Menschen. Bisher ist die
Videokonferenz die einzige Technik im Internet, die diese Möglichkeit bietet.
Im Gegensatz zu einem persönlichen Gespräch oder einer Tagung sind allerdings während
einer Videokonferenz die Eindrücke, die man vom Partner erhält, eingeschränkt. Typischer-
weise sind nur das Gesicht und ein kleiner Teil des Hintergrundes zu sehen.
Das Verhalten in Videokonferenzen bedarf einer gewissen Übung und sollte auf jeden Fall
vorher ausprobiert werden. Beim ersten Mal wirkt das Gespräch per Videokonferenz
zunächst etwas gewöhnungsbedürftig, da die Videokonferenz eine neue und ungewohnte
Form der Kommunikation darstellt. Die Natürlichkeit in der Kommunikation stellt sich erst
nach mehreren Konferenzen ein.
Wenn ein lokales Bild auf dem Bildschirm angezeigt wird, beobachten sich die Teilnehmer
der Konferenz selbst. Jeder versucht sich dann ganz normal zu benehmen, wodurch aber
das Gegenteil bewirkt wird. Außerdem lenkt das lokale Video oft die Gesprächsteilnehmer
vom eigentlichen Gesprächsinhalt ab.
Die Interaktion ist einer der wichtigsten Aspekte in einer Videokonferenz. Allerdings setzt die
Technik hier einige Grenzen und Anforderungen. Bei der Übertragung von Audio und Video
kommt es zu Verzögerungen. Darum sollten zusätzliche kleine Pausen eingeschoben
werden, bevor man mit dem Sprechen beginnt. Es empfiehlt sich als Richtwert, die normale
Reaktionszeit auf den Partner zu verdoppeln.
Version 3.2 2-1
2 Szenario für Videokonferenzen
2.1 Komponenten
Anhand der Grafik in Abbildung 1 wird ersichtlich, welche Komponenten zur Realisierung von
Mehrpunktvideokonferenzen eine Rolle spielen können. Nachfolgend werden die einzelnen
Komponenten definiert.
Abbildung 1: Videokonferenzen mit kommerziellen Systemen
H.323
H.323 ist eine sogenannte Regenschirmnorm der International Telecommunication Union
ITU und beschreibt alle Protokolle und Standards für die Sprach-, Daten – und Video-
kommunikation über paketorientierte Netze. Die spezifischen Fähigkeiten von Endgerä-
ten im IP-Umfeld werden ebenso festlegt. Der Standard ist abgeleitet aus dem H.320
Multimedia-Standard für ISDN. Er hat definierte Netzübergänge zu ISDN und soll die
Interoperabilität der Herstellerprodukte untereinander garantieren, wobei vier Hauptgrup-
pen definiert sind: Terminals, Gateways, Gatekeeper und Multipoint Control Units. Der
H.323-Standard definiert die Multimedia-Kommunikation über LANs, die keine garantierte
Dienstgüte zur Verfügung stellen.
H.320
H.320 ist der internationale ITU-Standard für Videokonferenzen über ISDN. Festgelegt
sind mehrere Normen für die Video- und die Audioübertragung. Bei ISDN beträgt die
minimal benötigte Übertragungsrate 64 kbit/s, die maximale 1.920 kbit/s. (Quelle:
www.itwissen.info)
Version 3.2 2-2
H.323-Endgerät
Ein H.323-Endgerät, im Sprachgebrauch des Standards als H.323-Terminal bezeichnet,
wird als Oberbegriff für alle kommerziellen Videokonferenz-Endgeräte wie Desktop-,
Kompakt- und Raumsysteme benutzt.
H.320-Endgerät
Mit H.320-Endgerät sind in der Grafik kommerzielle Videokonferenz-Endgeräte wie Desk-
top-, Kompakt- und Raumsysteme gemeint, die über ISDN an einer Videokonferenz
teilnehmen.
MCU
MCUs sind Sternverteiler für Gruppenkonferenzen.
Eine MCU ist eine zentrale Steuereinheit, die eine oder mehrere Multipoint-
Videokonferenzen realisiert. Eine MCU arbeitet immer mit einem Gatekeeper zusammen.
GK
Ein Gatekeeper ist eine zentrale Steuereinheit für das Routen der Rufsignalisierung, die
Auflösung der Telefonnummern und der IP-Adressen beziehungsweise deren Umwand-
lung nach E.164. Er ist somit für die Zugangsberechtigung und die Sicherheit verantwort-
lich. (Quelle: www.networkworld.de)
GW
Ein Gateway stellt bei Videokonferenzen den Übergang bzw. die Verbindung vom IP-
Netz zum Telefonnetz her.
Die Komponenten MCU, Gatekeeper, H.323-Terminals und ein IP-Netz sind notwendig. Bei
Konferenzen zwischen verschiedenen Netzwerken wird ein Gateway benötigt.
2.2 Beispielszenario für eine Mehrpunktvideokonferenz
Vier örtlich voneinander getrennte Teilnehmer führen zusammen eine Videokonferenz durch
(Abbildung 2).
Teilnehmer A nutzt ein Kompaktsystem über ISDN.
Teilnehmer B nutzt ein Desktopsystem per IP.
Teilnehmer C nutzt ein Raumsystem über ISDN.
Teilnehmer D nutzt ein Kompaktsystem per IP.
Version 3.2 2-3
Abbildung 2: Beispielszenario einer DFNVC Mehrpunktvideokonferenz
Alle Teilnehmer befinden sich in einer Videokonferenz. In diesem Szenario müssen alle
Geräte am Gatekeeper der MCU angemeldet sein.
Teilnehmer A nutzt ein Kompaktsystem. Das ist meist modular aufgebaut und besteht aus
einem Codec mit einer separaten Kamera und einem Mikrofon. Für die Video- und Audio-
wiedergabe kann z. B. ein Monitor benutzt werden. Das Gerät wählt sich über ISDN in die
Konferenz ein.
Teilnehmer B nutzt auf einem PC ein Desktopsystem. Dieser Softwareclient kann mit einer
USB-Kamera und einem Headset über einen LAN-Anschluss (IP) genutzt werden.
Teilnehmer C verwendet für die Videokonferenz ein Office-System über ISDN. Videocodec
und Kamera sind meist in einem Gehäuse fest integriert. Über einen Bildschirm mit Laut-
sprecher erfolgt die Video- und Audiowiedergabe.
Dem Teilnehmer D steht ein Kompaktsystem zur Verfügung, dass über einen LAN-Anschluß
(IP) mit dem Internet verbunden ist.
Die Datenströme der beiden ISDN-Systeme werden über einen Gateway weitergeleitet, da
eine Protokollumsetzung von ISDN auf IP erfolgen muss. Die Video- und Audiodatenströme
aller VC-Systeme werden in der MCU verarbeitet. Aus den vier eingehenden Videodaten-
strömen wird ein neuer Videodatenstrom generiert und an alle Teilnehmer zurückgesendet.
Die Videokonferenzdarstellung erfolgt in unserem Beispiel im Continuous Presence Modus.
Hierbei sehen sich alle Konferenzteilnehmer gleichzeitig und können alle anderen hören. Die
Version 3.2 2-4
vier eingehenden Audioströme werden zu vier neuen Audioströmen verarbeitet, wobei jeder
aus den Audioströmen der drei anderen Teilnehmer gemischt wird.
Version 3.2 3-1
3 Videokonferenzen über unterschiedliche Netzanbindungen
Für den reibungslosen Ablauf von Videokonferenzen müssen die verschiedenen Videokonfe-
renzsysteme in verschiedenen Netzwerken in der Lage sein, problemlos miteinander
zusammenzuarbeiten. Hierfür wurden verschiedene Videokonferenzstandards entwickelt.
Davon werden nachfolgend die Standards H.320 und H.323 erläutert sowie der Standard
H.239, mit dem sich Daten als zweiter Videostrom übertragen lassen.
3.1 Videokonferenzen über IP
3.1.1 Der Standard H.323
Der im Juni 1996 von der International Telecommunications Union (ITU) verabschiedete
H.323-Standard bildet die Grundlage für die Videokommunikation im LAN. Er enthält die vier
Hauptkomponenten
H.323-Endgerät (H.323-Terminal)
H.323-Multipoint Control cyUnit
H.323-Gateway
H.323-Gatekeeper
Die H.323-Spezifikationen beschreiben Terminals, Geräte und Services, die Echtzeit-
Multimedia-Verbindungen (Audio, Video, Daten) in TCP/IP-Netzwerken (Intranet / Internet)
ermöglichen. Obwohl viele Hersteller ihre Produkte als H.323-konform bezeichnen, ist die
Kompatibilität der Produkte unterschiedlicher Hersteller nicht immer gesichert. Um im
praktischen Einsatz sicherzustellen, dass die für die Videokonferenzen geplanten Endsyste-
me auch zufriedenstellend miteinander zusammenarbeiten, sollten diese im Vorfeld, soweit
möglich, ausreichend getestet werden.
Das VCC hat unter http://vcc.zih.tu-dresden.de/index.php?linkid=1.3 die Testergebnisse der
Kompatibilitätstests verschiedenster VC-Systeme bereitgestellt (Abbildung 3).
Während man bei einer ISDN-Verbindung von einer festen Übertragungsrate ausgehen
kann, sind bei LAN-Verbindungen im Allgemeinen hohe Übertragungsraten nicht sicher zu
garantieren. Sowohl die Anzahl der zwischen den Konferenzpartnern befindlichen Router als
auch das Datenvolumen im Netz oder die Art der Anbindung an das Netz bestimmen die in
der Videokonferenz erzielbare Datenrate wesentlich.
Version 3.2 3-2
Abbildung 3: Kompatibilitätsmatrix (Auszug)
Mit der Inbetriebnahme des X-WiN wurden die technischen Voraussetzungen für die
Nutzung von Videoübertragungen zwischen den einzelnen Einrichtungen wesentlich
verbessert. Die im X-WiN zur Verfügung stehende Bandbreite ist für Videokonferenzen in
hoher Qualität mehr als ausreichend. Besondere Beachtung sollte bei der Planung von
Videokonferenzen daher auf den Datenverkehr im lokalen Netz gelegt werden. Erfahrungen,
insbesondere bei Mehrpunktkonferenzen, haben gezeigt, dass Konferenzpartner, die sich in
Netzsegmenten mit hohem Datenverkehr befinden, die Gesamtkonferenz erheblich stören
können. Problematisch ist dabei in der Regel nicht die benötigte Bandbreite (im Allgemeinen
zwischen 384 kbps und 6 Mbps), sondern die Tatsache, dass mit zunehmendem Datenauf-
kommen im Netz auch die Wahrscheinlichkeit von Datenverlusten steigt. Fallen im "norma-
len" Datenverkehr Verlustraten von fünf Prozent kaum ins Gewicht, so wirken sich bei
Videokonferenzen bereits Datenverluste von einem Prozent störend auf die Qualität der
Audio- und Videodarstellung aus. Im Anhang D: Einfluss von Paketverlusten auf die
Videoqualität finden Sie dazu Bildbeispiele.
3.1.2 Das Protokoll SIP
SIP steht für „Session Initiation Protocol“ und ist ein Netzprotokoll, das Aufbau, Steuerung
und Abbau einer Kommunikation zwischen zwei oder mehr Teilnehmern beschreibt. SIP ist
im Bereich der IP-Telefonie ein häufig genutztes Protokoll. 2004 wurde es durch RFC 3261
von der IETF (Internet Engineering Task Force) spezifiziert.
Jeder Client meldet sich an einem Server an, dem sogenannten Registrar. Vorteil von SIP ist
unter anderem das flexible Adressierungsschema im URI-Format, wobei die SIP-Adresse
einer E-Mail-Adresse ähnelt: user@domain. Die Domäne ergibt sich dabei durch den
Registrar. Nachteile sind unter anderem die unzureichende Implementierung von Daten- und
Version 3.2 3-3
Multimediaanwendungen und die problematische Einbindung in Firewall- oder NAT-
Umgebungen. SIP-Clients gibt es z.B. in Form von VoIP-Telefonen oder Videokonferenz-
endgeräten mit SIP-Unterstützung, aber auch als Softclients zur Installation auf dem
Rechner.
Um per SIP einer Mehrpunktvideokonferenz des DFNVC-Dienstes beizutreten, kann für SIP-
konforme Endgeräte eine Einwahl mit folgender Syntax geschehen:
[email protected] oder [email protected]
Bei SIP-Einwahl ist kein zweiter Videokanal nach H.239 möglich. Es ist jedoch möglich,
einen zweiten Videokanal zu übertragen, wenn das SIP-Endgerät das BFC-Protokoll
unterstützt (Binary Floor Control), so dass darüber eine Datenpräsentation übertragen
werden kann.
3.2 Videokonferenzen über ISDN entsprechend H.320
Als digitales Netzwerk kann ISDN (Integrated Services Digital Network) Daten mit spezifizier-
ten festen Bandbreiten übertragen. Ein digitaler Telefon-Anschluss wird üblicherweise mit
zwei 64 kbps (kbps) Sprachkanälen betrieben. Systemintern werden unterschiedliche
Kommunikations-Kanäle wie B, D, E oder H unterschieden.
In der klassischen Kommunikation wurden das analoge öffentliches Fernsprech-Wählnetz
(PSTN, Public Switched Telephone Network) für Sprach-Kommunikation, ISDN für Videokon-
ferenzen mit Bild und Ton und das Internet Protokoll (IP) für Daten-Kommunikation genutzt.
Seit 1990 gibt es von der ITU (International Telecommunication Union) eine Rahmenspezifi-
kation (Umbrella recommendation) H.320 für schmalbandige Videotelephonie-Endgeräte
(ISDN) „Narrow-band visual telephone systems and terminal equipment“. H.320 umfasst
entsprechende spezielle Spezifikationen für die Kommunikation von Audio, Video, Daten und
Signalisierung sowie Steuerung. Es ist ein verbindungsorientiertes Protokoll (circuit-
switched), im Gegensatz zu verbindungslosen paketierten Protokollen (packet-switched) wie
TCP/IP im Internet. Seit Einführung von H.320 gibt es zahlreiche Aktualisierungen und
Ergänzungen in der derzeit letzten gültigen Fassung von 2004-03 (Revised version,
approved, in force).
Die Audio/Sprach-Signale und die Video/Bild-Signale der Konferenzteilnehmer werden zum
Senden digitalisiert und auf die verfügbare Bandbreite (n*64 kbps) durch sogenannte Codecs
(Kompressor/Dekompressor und Kodierer/Dekodierer) verlustbehaftet komprimiert. H.320
definiert für die Übertragung von Audio die Protokolle G.711, G.722 sowie G.728 und für die
Übertragung von Video die Protokolle H.261, H.263 und H.264. Datenübertragung erfolgt
über die Standards T.120 und H.239.
Die beiden ISDN-Kanäle lassen sich heute getrennt für 2 verschiedene Übertragungen zum
Beispiel Telefon-Verbindung mit 64 kbps und gleichzeitig Internet-Verbindung mit 64 kbits/s
nutzen. Bündelt man die Kanäle für eine integrierte Anwendung sind theoretisch 2 * 64 kbps
und damit insgesamt maximal 128 kbps möglich. Bündelt man bis zu 30 ISDN Kanäle mit 30
* 64 kbps ergibt sich eine Bandbreite von maximal 1920 kbps. Damit können ISDN Verbin-
dungen zu S-DSL (Synchronous Digital Sybscriber Line, bis zu 2 Mbps) und Breitband LAN
(Local Area Network) aufschließen. Auch A-DSL (Asynchronous Digitial Subscriber Line)
Version 3.2 3-4
bietet bei Bandbreiten bis 25Mbit/s in Empfangsrichtung und 3,5Mbit/s in Senderichtung
ausreichend Potential zur Durchführung von Videokonferenzen.
Allerdings sind bei Mehrkanal ISDN entsprechende Mehrkosten zu berücksichtigen oder
spezielle Flatrates mit günstigen Pauschaltarifen einzurichten. Im internationalen Maßstab
können auch Rück-Ruf (Call-Back) Lösungen oder die Einwahl vom kostengünstigeren
Konferenz-Teilnehmer von Bedeutung sein. International gibt es auch Unterschiede in der
Kanal-Bündelung sowie der maximal möglichen Bandbreite, zum Beispiel sind im nordameri-
kanischen T1 Netz mit 23 Kanälen nur maximal 23 * 64 kbps und damit 1472 kbps möglich.
Bei international unterschiedlichen Netzen und/oder unterschiedlich leistungsfähigen ISDN-
Endgeräten kann dann nur die kleinste maximale Bandbreite der beteiligten Kommunikati-
ons-Partner genutzt werden.
Bei ISDN Videokonferenzen wird im einfachsten Fall ein Kanal und damit 64 kbps für die
Sprachkommunikation genutzt, während mit dem zweiten Kanal weitere 64 kbps für die
Videobild-Kommunikation verbleibt. Eine einfache Video-Kommunikation ist so zwar möglich,
erreicht aber nur geringe Qualität. Werden Daten oder Folienpräsentationen in solch einer
Verbindung mittels Video-Kamera übertragen, ist die effektive digitale Auflösung ebenfalls
auf eine Größe von 352*240 (NTSC) oder 352*288 (PAL) Bildpunkte begrenzt.
Die erreichbare Bildauflösung wird je nach System auch mit CIF (Common Intermediate
Format 352*288), Quarter-VGA (320*240) oder Quarter-PAL (360*288) bezeichnet. Die
Lesbarkeit von Beschriftungen oder Dokumenten-Texten, die Wiedergabe von Abbildungen,
Grafiken oder Details ist mit einem Viertel der Fläche eines vollen Video-Bildschirmes
begrenzt. Bei Einsatz von H.239 zur Übertragung von Daten werden parallel zum Videobild
hochauflösendere Bildformate zur Darstellung der Präsentation eingesetzt.
Durch den Einsatz verbesserter Kompressionsverfahren werden darüber hinaus auch
Videobilder mit Auflösungen bis hin zu 720p High Definition (1280*720) möglich. Ein Beispiel
mit den aktuellen Erweiterungen ist das Cisco ISDN Gateway 3200 Serie für Sprache und
Video bis zu 2 Mbps.
Wird nicht nur eine einfache Punkt-zu-Punkt Video-Konferenz durchgeführt, sondern mit
mehreren Teilnehmern gleichzeitig in einer Mehrpunkt-Kommunikation konferiert, wird die
einfache Struktur um eine zentrale Mehrpunkt-Steuereinheit MCU (Multipoint-Controller-Unit)
erweitert. Für weitergehende Ausführungen zu Gatekeeper und MCU wird auf die nachfol-
genden speziellen Kapitel in diesem Handbuch verwiesen.
Es sei noch darauf hingewiesen, dass im Umfeld von Hochschulen und Forschungseinrich-
tungen nur selten Videokonferenzen über ISDN stattfinden. Allerdings nutzen viele Projekt-
partner aus Industrie und Wirtschaft nach wie vor ISDN Videokonferenzen.
3.3 Gateway H.320 / H.323 im Dienst DFNVideoconference
Mit der Verbreitung des IP-basierten Internet (zur Übertragung von TCP und UDP Daten-
Paketen) und seinen hohen Bandbreiten sowie der stärkeren Nutzung digitaler Multimedia-
Anwendungen entstand die Herausforderung, das digitale ISDN-Telefonnetz mit dem
Internet zu verbinden. Von der ITU-T (International Telecommunication Union - Telecommu-
nication Standardization Sector) wurde 1996 der Standard H.323 zur Übertragung von Audio,
Video und Daten über IP-Netzwerke spezifiziert. Die Übergänge zwischen dem Telefonnetz
Version 3.2 3-5
und dem Internet werden durch Gateways GW (Protokollumsetzer, Netzübergang) realisiert.
Wenn eine Videokonferenz zwischen ISDN-Teilnehmern und Teilnehmern über das LAN
oder Internet erfolgen soll, so ist ein H.323 Gateway zur Protokoll-Umsetzung und Medien-
Transkodierung (Audio, Video und Daten) erforderlich.
Die Ruf-Nummern im ISDN-Bereich erfolgen entsprechend einer ITU-Empfehlung nach
E.164 Adressen (E.164 Alias). Diese E.164 Nummern können dann aus Telefon-Netzen in
IP-Adressen im Internet umgesetzt werden. Hierfür ist ein so genanntes Gateway (Adres-
sumsetzer) als weitere Komponente in der Verbindungsstruktur zuständig. Er sorgt für die
Weiterleitung der Ruf-Signalisierung, die Auflösung der Telefonnummern und IP-Adressen
beziehungsweise deren Umwandlung.
Der Videokonferenzdienst im Wissenschaftsnetz, DFNVideoConference – DFNVC ,
ermöglicht das Einbinden von ISDN-Teilnehmern in die Konferenz über zwei Cisco ISDN
Gateways. Als Voraussetzung zur Teilnahme an Konferenzen benötigt der Teilnehmer ein
Endgerät sowie einen oder mehrere ISDN-Anschlüsse. Dabei sind Bitraten bis zu 384 kbps
möglich, was 6 ISDN-B-Kanälen mit 64 kbps beziehungsweise 3 Leitungen mit insgesamt je
128 kbps entspricht. Ein DFNVC-Gateway kann fünf Anrufe mit dieser Bandbreite gleichzei-
tig schalten. Auch mit einem Telefon ist die Teilnahme möglich (audio only calls), es muss
jedoch Tonwahl beherrschen.
Folgende Wahlmöglichkeiten stehen zur Auswahl:
1. Wahl der E.164 Adresse über IVR (automatische Zwischenansage durch interactive
voice response)
Diese Methode funktioniert mit jedem Endgerät, das Tonwahl beherrscht. ISDN Videokonfe-
renzgeräte nutzen dies per Default, bei Telefonen bzw. TK-Anlagen muss dies bisweilen erst
aktiviert werden.
Vorgehen:
- Wählen Sie eine der folgenden Gatewaynummern.
- Warten Sie, bis eine automatische Ansage sie auffordert, die Konferenznummer
anzugeben.
- Geben Sie diese ein, gefolgt von einem #.
Berlin +49-30-2541080 Konferenznummer #
Stuttgart +49-711-6330190
Sie werden zur Konferenz durchgestellt und hören den Willkommensgruss der MCU. Zur
Vereinfachung der Eingabe kann der MCU Prefix 0049100 der Konferenznummer auch
weglassen werden.
Version 3.2 3-6
2. Direktwahl der E.164 Adresse
Unterstützt ihr Endgerät Blockwahl oder Wahlvorbereitung, so können Sie sich hiermit
ohne Umweg über den IVR direkt in eine Konferenz einwählen. Dies ist z.B. für Adressbuch-
einträge praktisch. ISDN Videokonferenzgeräte nutzen diese Technik per Default, bei
Telefonen bzw. TK-Anlagen muss diese meist gesondert aktiviert werden.
Vorgehen:
- Wählen Sie eine der folgenden Gatewaynummern unmittelbar gefolgt von der Konfe-
renznummer.
Berlin +49-30-2541089 Konferenznummer
Stuttgart +49-711-63301
Zur Vereinfachung der Eingabe kann der MCU Prefix 0049100 der Konferenznummer auch
weggelassen werden.
3. Wahl der E.164 Adresse über TCS4
Unterstützt ihr Endgerät TCS4 (ISDN Subadressierung), so können sie die Rufnummer und
die Konferenznummer ohne eine Wartepause durchwählen. Dies ist z.B. für Adressbuchein-
träge praktisch. Leider implementieren die Endgerätehersteller das notwendige TCS4-
Trennzeichen unterschiedlich.
Vorgehen:
- Wählen Sie eine der Gatewaynummern.
- Geben Sie das/die TCS4-Trennzeichen ihres Endgerätes ein.
- Geben Sie die Konferenznummer ein.
Berlin +49-30-2541080
Polycom ##
Konferenznummer Sony **
Tandberg *
VCON ^
Zum Verkürzen der Ziffernfolge kann der MCU Prefix 0049100 weggelassen werden.
Version 3.2 4-1
4 Äußere Anforderungen
4.1 Raumgestaltung
4.1.1 Allgemeine Raumgestaltung
Bei der Raumgestaltung sind verschiedene Punkte in Einklang zu bringen. Für die Teilneh-
mer müssen selbstverständlich geeignete Sitzgelegenheiten in ausreichender Zahl vorhan-
den sein. Es muss gewährleistet werden, dass alle Monitore für alle Beteiligten gut sichtbar
sind.
Das Arrangement der Sitzordnung ist so zu treffen, dass niemand seinen Nachbarn blockiert.
Das „theoretische“ Blickfeld des Gegenübers muss von den benutzten Kameras abgedeckt
sein. Der Eindruck nicht einzusehender Stellen sollte vermieden werden.
Das Mikrofon ist so zu platzieren, dass alle gehört werden können. Dieses wird am besten
erreicht, wenn alle den gleichen Abstand zum Mikrofon haben. Gegebenenfalls müssen
mehrere Mikrofone verwendet werden.
Bei der Verwendung von einem Mikrofon je Teilnehmer ist zu beachten, dass bei voller
Sensitivität aller Mikrofone der übertragene Geräuschpegel zu hoch werden kann. Deshalb
ist hier der Einsatz eines automatischen Audio-Mischers zu empfehlen, welcher das jeweilige
Mikrofon, das gerade zum Einsatz kommt, in den Vordergrund holt und die anderen in dieser
Zeit herunter regelt.
Alle diese Forderungen können mit einem parabolischen oder halbkreisförmigen Tisch erfüllt
werden, das offene Ende ist dabei in Richtung Kamera zu stellen.
4.1.2 Akustik
Der Raum sollte so liegen, dass äußere Lärmquellen so stark wie möglich abgeschirmt sind.
Hierbei ist besonders auf Verkehrsgeräusche, Büromaschinen, Klimaanlagen, Aufzugs-
schächte und angrenzende Gänge zu achten. Daneben ist eine gewisse akustische Isolation
des Raumes nach außen von Vorteil. Diese verhindert, dass außerhalb des Raumes zu
hören ist, was innen gesprochen wird.
Eine angemessene Anzahl von geräuschabsorbierenden Materialien (wie z.B. Vorhänge,
Teppiche oder akustische Deckenmaterialien) verringern das Echo innerhalb des Raumes.
Daneben sollten aber auch die Raumhöhe und die Einrichtung des Raumes den Schall
dämmen. Oberflächen, die den Schall gut reflektieren (z.B. Fenster, glatte Wände oder
gekachelte Böden), verursachen ein starkes Echo.
Zur Tonwiedergabe sind professionelle Aktivlautsprecher am besten geeignet. Sie besitzen
gegenüber den externen PC-Lautsprechern eine klarere Tonwiedergabe und sind mecha-
nisch robuster. Als externe PC-Lautsprecher sind aktive Lautsprecher zu bevorzugen, weil
diese einen eigenen Lautstärkeregler besitzen.
Bei fest installierten Beschallungsanlagen empfiehlt sich zur Vermeidung von Brummstörun-
gen eine galvanische Trennung mit einem Trennübertrager (Abbildung 4). Dieses ist ein
Transformator, der zwei Stromkreise voneinander trennt. Es besteht dann keine direkte
Verbindung über ein leitendes Material mehr.
Version 3.2 4-2
Abbildung 4: Trennübertrager
Der Lautsprecher sollte in Richtung der geringsten Empfindlichkeit des Mikrofons aufgestellt
werden (meist hinter dem Mikrofon). Der Abstand zwischen Lautsprecher und Mikrofon sollte
mindestens das Fünffache des Abstandes vom Sprecher zum Mikrofon betragen.
Für Einzelpersonen ist immer ein Headset (Abbildung 5) zu empfehlen. Damit wird ein
geringer und konstanter Mikrofonabstand gewährleistet. Rückkopplungen sind so nahezu
unmöglich.
Abbildung 5: Headset
Für Gruppen an einem Standort empfiehlt sich ein nahempfindliches Standmikrofon
(dynamisches Mikro), an das der Sprecher herantritt. Richtmikrofone sind in der Regel nicht
zu empfehlen, weil diese viele Hintergrundgeräusche aufnehmen.
Für Tischmikrofone ist meist eine aktive Echounterdrückung oder beim Einsatz mehrerer
Tischmikrofone ein automatischer Mischer notwendig.
Version 3.2 4-3
Beim Einsatz von Grenzflächenmikrofonen ist es erforderlich, dass alle Personen direkt am
Tisch sitzen und Stöße am Tisch durch Stühle, Füße, Stifte, usw. vermieden werden. Ein
Grenzflächenmikrofon ist ein Kondensatormikrofon, das mit seiner Membran bündig in eine
Platte eingebaut ist und zusammen mit dieser Platte auf eine möglichst große Fläche, z.B.
auf den Tisch, gestellt wird. Das Mikrofon erhält so den maximalen Schalldruck ohne
Überlagerungen von Hallanteilen und führt zu einem ausgewogenen Frequenzgang und
einem akustisch guten Raumeindruck.
An der Bauform des Gehäuses lässt sich die Richtcharakteristik des Mikrofons bestimmen.
Die Richtcharakteristik beschreibt die Empfindlichkeiten eines Mikrofons für Schallquellen,
die aus verschiedenen Richtungen einer Ebene auf das Mikrofon auftreffen. Das in Abbil-
dung 6 dargestellte Mikrofon besitzt eine sogenannte superkardioide Richtcharakteristik, bei
der der Schall vorzugsweise von vorne und weniger von der Seite aufgenommen wird.
Schall, der von hinten auf das Mikrofon auftrifft, wird weitgehend ausgeblendet.
Abbildung 6: Grenzflächenmikrofon
Eine geringe Rückkopplung des Audiosignals vom Lautsprecher zum Mikrofon kann dem
Gesprächspartner das Gefühl für die Zeitverzögerung der Übertragung geben: Die eigene
Sprache kommt beim Sprecher mit 0,5 bis 3 Sekunden Verzögerung an. Ist diese Rückkopp-
lung zu laut, wird der Sprecher im Redefluss behindert, da er sich selbst ständig ins Wort
fällt. Wird sogar die Stabilitätsgrenze überschritten, entsteht lautes rhythmisches Pfeifen.
Professionelle Videokonferenzsysteme bieten teilweise keine Möglichkeit der Aussteuerung
des eigenen Audiosignals am Gerät. Sie regeln dies intern selbst. Die Wiedergabelautstärke
der Gegenseite kann allerdings an allen Geräten eingestellt werden. Am PC kann nur durch
eine optimale Aussteuerung eine gute Tonqualität des Audiosignals erreicht werden, da bei
der Übertragung mit 8 Bit Auflösung kaum Reserven bestehen.
Mit Trennwänden für den Videokonferenzbereich kann in größeren Räumen mit mehreren
Arbeitsplätzen die gegenseitige akustische Störung verringert werden.
Version 3.2 4-4
4.1.3 Farben
Bestimmte Farben sind als Hintergrund bei der Benutzung einer Kamera gut geeignet. Der
Hintergrund sollte grau, blau, ein warmes beige, blaugrau oder rosa sein. Ein gemusterter
Hintergrund ist ebenso wenig zu empfehlen wie ein schwarzer oder weißer Hintergrund.
Auch stark reflektierende Oberflächen sollten vermieden werden. Das Kontrastverhältnis
zwischen Vorder- und Hintergrund sollte insgesamt niedrig sein.
Hinsichtlich der Kleidung der Teilnehmer sind gedeckte Farben am besten. Karos und
Streifen wirken sich auf die Übertragung störend aus. Diese verursachen bei jeder Bewe-
gung neben einer erhöhten Netzlast eventuell auch Interferenzen. Je kleiner die Karos sind,
desto größer ist die Gefahr von Interferenzen. Nadelstreifen sind an der Gegenstelle als
solche nicht sichtbar.
4.1.4 Beleuchtung
Der Raum sollte sehr gut ausgeleuchtet sein, weil dieses das Rauschen des Videosignals
verringert. Die Mindestbeleuchtung beträgt 600 - 650 Lux (gemessen auf dem Tisch).
Es wird empfohlen, dass alle Lichtquellen die gleiche Lichttemperatur ausstrahlen. Eine
Mischung verschiedener Quellen (z.B. Normlichtlampen mit Tageslicht-Leuchtstofflampen)
ist zu vermeiden. Da die Kamera hier Probleme mit dem Weißabgleich hat, könnte es z.B.
passieren, dass eine Gesichtshälfte deutlich dunkler als die andere auf dem Bild der
Gegenseite erscheint. Die Kombinationen Lampe in „tageslicht weiß“ und Tageslicht sowie
Lampe „warm weiß“ mit normalen Lampen sind dagegen möglich.
Die Platzierung des Lichtes sollte so geschehen, dass ungünstige Schatten im Gesicht
vermieden werden: Am besten von vorn. Wenn das Licht etwas seitlich und nach oben
versetzt ist, wird der plastische Eindruck verbessert. Prinzipiell ist verteiltes (diffuses) Licht
besser als einzelne Spots. Der Eindruck eines „reinen“ TV-Studios ist allerdings auch nicht
zu empfehlen, weil dies für die Teilnehmer sehr ungemütlich wirkt. Die Besprechungsat-
mosphäre sollte gewahrt bleiben.
Das Licht sollte nicht direkt auf die Kamera scheinen und sich nicht in den Monitoren
reflektieren.
Version 3.2 4-5
4.1.5 Verkabelung
Vor einer Videokonferenz muss sichergestellt werden, dass alle notwendigen Kabelzugänge
(z.B. IP, ISDN, Stromkabel) vorhanden sind und es Verbindungen von allen Zubehörgeräten
zum Hauptgerät gibt. Wenn es möglich ist, sollten die Kabel versteckt verlegt werden.
Da die Anschlussbereiche der Rechner erfahrungsgemäß schwierig zu erreichen sind,
empfiehlt es sich, die Kopfhörer- und Mikrofonanschlüsse mit einer Verlängerungsleitung auf
den Tisch zu legen. Eine Verschlechterung der Tonqualität ist dadurch nicht zu befürchten.
Abbildung 7: Verlängerungskabel
Dabei ist es hilfreich, die Headsetverlängerungen mit einem Drahtbinder unter dem Monitor-
fuß zu fixieren und das Mikrofonkabel an Stecker und Buchse mit einer Fahne zu markieren
(Abbildung 7).
4.2 Sonstiges Zubehör
4.2.1 Mischpult
Ein Mischpult ist ein Gerät zum Zusammenführen, Überblenden und Mischen mehrerer
Tonsignale (Abbildung 8). Professionelle Geräte besitzen bis zu 48 und mehr Eingangskanä-
le. Daneben bieten sie Beeinflussungsmöglichkeiten für Pegel, Klang, Hall und Dynamik des
Tones.
Wenn mehrere Mikrofone zum Einsatz kommen oder mehr als ein Rechner an einem Platz
verwendet wird, so wird ein Mischpult zur Verteilung der Audiosignale notwendig. Um sowohl
zum Rechner gehende als auch vom Rechner kommende Signale mit dem Mixer verteilen zu
können, wird ein professioneller Mixer mit regelbarem Monitorkanal benötigt. Damit können
alle Signale auf den Mixer gegeben werden. An diesem wird eingestellt, welche Signale zur
Aufnahme am Rechner und welche zur Wiedergabe durch den Lautsprecher gelangen.
Durch Absenken der Tiefen und leichtes Anheben der mittleren Frequenzen wird die
Verständlichkeit von Sprache verbessert. Durch den Einsatz des Mischpultes wird es
möglich, Aussteuerungskorrekturen direkt und ohne Software vorzunehmen. Im praktischen
Einsatz ist so eine schnelle und unabhängige Lautstärkeregelung möglich.
Version 3.2 4-6
Abbildung 8: Mischpult
4.2.2 Projektionswände
Die Darstellung von Bildern, Filmen oder Präsentationsfolien erfordert neben der richtigen
Wiedergabetechnik auch eine Fläche, welche zwei Aspekte gewährleisten soll: Zum einen
soll die visuelle Botschaft korrekt wiedergegeben werden, zum anderen darf die Projektion,
z.B. durch ihre Helligkeit, nicht die Sicht des Publikums behindern. Die Wahl der Projekti-
onswand hat darauf keinen unbedeutenden Einfluss.
Die wichtigsten Auswahlkriterien sind:
1.) Der Typ
Je nach Verwendungszweck sollten als erstes folgende Aspekte berücksichtigt werden:
mobile oder fest installierte Lösung
Aufbau- und/oder Rückprojektion
Eine fest installierte Lösung sollte dabei elektrisch oder per Hand einstellbar sein.
2.) Die Größe
Die zur Verfügung stehende Fläche muss groß genug sein, damit die Präsentation von
allen Zuschauern gleichermaßen gut zu sehen ist. Das gilt insbesondere für die Er-
kennbarkeit von Buchstaben und Zahlen. Die Größe lässt sich an Hand folgender Er-
fahrungswerte bestimmen:
Die Breite der Projektionswand sollte etwa 1/6 bis 1/4 der Entfernung der Fläche
zur letzten Sitzreihe betragen.
Der untere Rand sollte etwa in einer Höhe von 1m bis 1,25m angebracht werden.
Die erste Sitzreihe sollte etwa die doppelte Höhe der Projektionsfläche als Ab-
stand besitzen.
Version 3.2 4-7
3.) Das Verhältnis von Höhe und Breite
Die Projektionswand sollte dasselbe Verhältnis der Seitenmaße wie das projizierte Bild
besitzen:
Standardformat 1:1
Videoformat 4:3
Diaformat 3:2
Breitbildformat (HDTV) 16:9
4.) Die Lichtverhältnisse
Die Helligkeit der Projektion hängt von mehreren Faktoren ab:
Reflexionsgrad der Leinwand
Der Reflexionsgrad wird in Gain angegeben. Er ist ein Maß dafür, um wie viel sich
die Helligkeitsausbeute des Projektors verbessert.
Je höher der Gain einer Leinwand ist, umso kleiner wird der Betrachtungswinkel.
Eine gleichmäßige Streuung des Lichtes führt zu einem großen Sichtwinkel bei
geringerem Reflexionsgrad, eine stärkere Bündelung der Reflexion führt zu einem
höheren Reflexionswert bei einem kleineren Sichtwinkel. Ein Wert von 11 Gain
besitzt einen sichtbaren Winkel von ca. 120°.
Die Leistung des Projektors
Die Leistung eines Projektors wird in Lux (lx) und Lumen (lm) angegeben.
In Lux wird angegeben, wie viel Licht auf einer Fläche auftrifft (Beleuchtungsstär-
ke). Dieser Wert wird bei zunehmender Entfernung ab Projektor kleiner.
In Lumen wird der Lichtstrom gemessen, welchen der Projektor objektiv abgibt, er
wird unmittelbar am Objektiv gemessen. Eine Halogenlampe mit 250 Watt besitzt
etwa 2500 Lumen; eine Halogenlampe mit 400 Watt besitzt etwa 4000 Lumen und
eine Metalldampflampe mit 575 Watt ca. 8000 Lumen.
Die Messung dieser Verfahren wird nach standardisierten Methoden durchgeführt.
Die Maßeinheit Lumen wird in der USA als ANSI-Lumen bezeichnet.
Helligkeitsempfinden des menschlichen Auges
Daneben wird unser Helligkeitsempfinden von der Farbe des Lichtes beeinflußt,
z.B. wirkt weißes Licht auf uns heller als gelbes. Die Farbtemperatur wird in Kelvin
gemessen. Das Tageslicht hat etwa 5600 Kelvin. Dieser Wert wird von Metall-
dampflampen mit ca. 6000 Kelvin annähernd erreicht. Damit eignen sich diese gut
als Beleuchtung, welche eine natürliche Farbwiedergabe ermöglichen.
Demzufolge ist warmes Licht als Raumbeleuchtung zu bevorzugen.
Umgebungsverhältnisse
Der Kontrast in der Helligkeit zwischen dem Bild und der dahinter liegenden Um-
gebung sollte mindestens 5:1 betragen.
Version 3.2 4-8
Eine mit 500 ANSI Lumen in abgedunkelten Räumen erreichbare Bildbreite be-
trägt mit einem Gain um 1,2 rund 2,5m, bei 1000 ANSI Lumen sind etwa 3,5m
möglich. Bei schwachem Umgebungslicht benötigt man die doppelte, völlig ohne
Abdunkelung die vierfache Lichtstärke.
Für wechselnde Bedingungen in der Helligkeit der Umgebung sind Projektoren mit
Sparmodus geeignet. Diese lassen je nach Umgebungslicht eine Reglung ihrer
Leistung zu.
5.) Die richtige Tuchsorte
Im Wesentlichen existieren für Projektionswände drei verschiedene Tuchsorten:
Diffus reflektierende Tuchsorten
Diese Tuchsorten verteilen das Licht gleichmäßig über einen breiten horizontalen
und vertikalen Sichtwinkel. Sie sind vielfältig einsetzbar und immer geeignet,
wenn ein breiter Sichtwinkel notwendig ist oder ein Projektor mit hoher Lichtaus-
beute eingesetzt wird.
Specular reflektierende Tuchsorten
Die spezielle Deckschicht ermöglicht bei geringer Beeinträchtigung des Sehwin-
kels eine erhöhte Leuchtdichte. Das eintreffende Licht wird spiegelartig reflektiert.
Der Abstrahlwinkel ist etwa gleich groß dem Auftreffwinkel, aber diesem entge-
gengesetzt.
Diese Tuchsorte eignet sich für Fälle mit hoher Umgebungshelligkeit oder gerin-
ger Projektorleistung.
Auf Grund der reflexiven Eigenschaften sollte der Projektor an der Decke ange-
bracht sein.
Retro-reflexive Tuchsorten
Das Merkmal dieser Tuchsorte sind in die Projektionsfläche imprägnierte winzige
Glaskörner. Das Ergebnis ist eine sehr hohe Helligkeit mit einem eingeschränkten
Sichtwinkel. Der größte Teil des projizierten Lichtes wird in Richtung Projektor
wiedergegeben, weil der Abstrahlwinkel dem Auftreffwinkel etwa gleich ist.
Diese Tuchsorte eignet sich für Vorführungen mit begrenztem Sichtwinkel und viel
Umgebungslicht.
Der Projektor sollte etwa in gleicher Höhe wie das Publikum aufgestellt werden.
6.) Fazit
Durch die geeignete Wahl der Porjektionswand kann die Videodarstellung weiter
qualitativ aufgewertet werden. Besonders ein guter Kontrast ist für die Videodar-
stellung wichtig.
Version 3.2 5-1
5 Technische Anforderungen und Fehlersuche
5.1 Netzanforderungen
Für erfolgreiche Videokonferenzen werden Anforderungen an die Bandbreite (Übertragungs-
rate) im Netz gestellt, die für die Akzeptanz der Anwendung eine wesentliche Rolle spielen.
Netzwerke, in denen die Datendienste wie WWW, FTP und andere Formen von Filetransfer
ohne Störungen funktionieren, sind nicht automatisch auch für Echtzeitanwendungen wie
Videokonferenzen geeignet.
Videokonferenzen stellen die konstante und verlustfreie Datenübertragung als Hauptforde-
rung an die Netzwerkverbindung. Das bedeutet, dass in einem Netz oder Netzknoten mit
hoher Auslastung (bereits ab 30 Prozent) die Wahrscheinlichkeit von Engpässen stark
zunimmt. Mechanismen, welche der Videoanwendung die benötigte Bandbreite garantieren,
sind in IP-Netzwerken meist nicht verfügbar. Den Daten der Videoanwendung kann in
modernen Netzen höchstens ein Vorrang vor den normalen Filetransferdaten eingeräumt
werden.
Die für Videokonferenzen benötigte Bandbreite beginnt bei minimal 128 kbps für eine sehr
geringe Videoqualität und endet bei 6 Mbps. Üblich sind in der Praxis Bandbreiten zwischen
768 kbps und 4 Mbps. Die am häufigsten zur Übertragung benutzte Videokomprimierung
H.264 ist sehr effektiv für ruhende und Bewegtanteile im Videobild.
Bei einer Übertragungsrate unter 768 kbps sind Bildrate und Schärfe der bewegten Bereiche
schlecht. Bei steigender Datenrate wird der Einfluss von Bewegungen deutlich geringer, ab
768 kbps werden auch großflächige Bewegungen noch recht scharf übertragen.
Die übertragene Auflösung ist fast immer 720p oder 1080p. Dadurch wird eine hohe Schärfe
und Kantenglättung des Bildes erreicht.
Im LAN (und Internet) besteht zusätzlich das Problem, dass die zur Verfügung stehende
Bandbreite gleichzeitig von anderen Anwendungen genutzt wird. Falls der Videokonferenz
auch nur sehr kurzzeitig Bandbreite fehlt und dadurch Pakete verloren gehen, kommt es zu
Darstellungsfehlern im Video (Anhang D: Einfluss von Paketverlusten auf die Videoqualität)
oder Audiostörungen oder beidem.
Bei Teilnehmeranschlüssen an das X-WiN ab 34 Mbps kann von einer ausreichenden
Qualität auf der Zugangsleitung selbst ausgegangen werden. Die lokalen Netze sind
vermutlich geeignet, wenn es sich um moderne Netzkomponenten (Router und Switche,
welche neuere Technologien unterstützen) mit reichlich Reserven handelt. Zu Problemen
kann es kommen, wenn hochwertige Videokonferenzsysteme über wenig leistungsfähige
oder veraltete Netzkomponenten eingebunden werden.
Für ihre Funktionalität benötigen die Datenströme in vernetzten multimedialen Anwendungen
folgende Bandbreiten:
Minimum Ausreichend Gut Sehr gut
Audio-Daten 8 kbps 64 kbps 128 kbps
Video-Daten 64 kbps 748 kbps 2048 kbps 4096 kbps
Application-Sharing 30 kbps 300 kbps 2048 kbps 4096 kbps
Version 3.2 5-2
Die genaue Bandbreitenanforderung des Videobildes hängen vom Bildformat (die gewünsch-
te Auflösung auf der Senderseite), der Farbtiefe und der Übertragungsrate (Bilder pro
Sekunde) ab. Anhang B: Videonormen vermittelt einen Überblick der notwendigen Bandbrei-
ten.
5.2 Netzcheck
Für eine erste Bewertung der Netzverbindung sind folgende Werte hilfreich:
Kapazität des schmalbandigsten Netzabschnittes
Auslastung des am höchsten belasteten Netzabschnittes
Diese Werte lassen sich natürlich nur schwer genau ermitteln. Hier sind meist nur Abschät-
zungen möglich. Zur Auslastungsbewertung der Netzabschnitte lässt sich das Antwortverhal-
ten der an der Übertragung beteiligten Netzkomponenten heranziehen. Die an der Übertra-
gung beteiligten Netzkomponenten lassen sich mit 'traceroute ZIEL' (bzw. 'tracert ZIEL' unter
Windows) bestimmen.
Das Antwortverhalten kann mit 'ping ZIEL' ermittelt werden. Dabei wird an das angegebene
Ziel ein "ICMP Echo Request" geschickt und die Zeit bis zum Eintreffen der Antwort
gemessen. Der so ermittelte Wert muss nicht mit dem Verhalten bei Audio-/Videodaten
übereinstimmen, jedoch ist ein ähnliches Verhalten wahrscheinlich.
Besonders komfortabel ist der Einsatz des UNIX-Programmes 'mtr', welches eine Kombinati-
on aus 'traceroute' und 'ping' samt Statistik beinhaltet. Auch bieten einige Videokonferenz-
systeme Funktionalitäten, um Paketpfade und Antwortzeiten auszuwerten.
Antwortzeiten von über 200ms sind bereits als kritisch anzusehen und für Echtzeitmultime-
diaanwendungen wenig geeignet. Im X-WiN sollten Werte über 100ms selten sein.
Zur Kapazitätsbestimmung sind am besten die Aussagen der entsprechenden Netzadminis-
tratoren geeignet. Hier wird man bei längeren Strecken jedoch nicht immer alle Informationen
bekommen können. Das UNIX-Tool 'pathchar' versucht mit Hilfe diverser Tricks Kapazitäts-
abschätzungen der einzelnen Abschnitte vorzunehmen, die häufig verblüffend genau sind.
5.3 Systemcheck Audio/Video
Um das lokale Videobild zu testen, empfiehlt sich der Start des Systems und in diesem dann
das Anzeigen des lokalen Videos. Alle gängigen VC-Systeme bieten diese Möglichkeit.
Wenn das eigene Bild lokal gut sichtbar ist, sollte auch der Partner dieses sehen können.
Ein Audiocheck ist ohne Partner nicht möglich. Deshalb muss ein beidseitiger Test erfolgen.
Dabei kann erstens geprüft werden, ob überhaupt ein Audiokontakt zustande kommt und
zweitens, wenn nötig, die Qualität noch im Rahmen der Möglichkeiten des Systems
nachgeregelt werden muss. Manche VC-Systeme (Desktop- oder Raumsysteme) verfügen
über einen Audioassistenten oder andere Audiochecktools, womit die Funktionsfähigkeit
angeschlossener Mikrofone und Lautsprecher getestet werden kann.
5.4 Fehlersuche
Fehlerquellen bei Videokonferenzen sind sehr vielfältig, da in diesem Bereich sehr viele
unterschiedliche Techniken zusammenwirken müssen. Deshalb ist bei der Fehlersuche ein
möglichst systematisches Vorgehen nötig. Folgende Fehler können auftreten:
Version 3.2 5-3
5.4.1 VC-System startet nicht
Bei SetTop-Geräten sind die Anschlüsse, Stromzufuhr und die Verbindung zum TV-Gerät zu
prüfen.
Bei PC-basierten Systemen wird vorausgesetzt, dass der PC ordnungsgemäß funktioniert.
Für das VC-System ist die Softwareinstallation zu überprüfen.
5.4.2 Rufe funktionieren nicht
Zum Aufbau einer Videokonferenz nach H.323 müssen verschiedene Voraussetzungen
erfüllt sein:
1.) IP-Verbindung
Alle beteiligten Geräte müssen erreichbar sein (z.B. zu rufendes Gerät und Gatekee-
per). Dieses lässt sich mittels 'ping ZIEL' überprüfen.
Falls die Verbindung über einen Firewall führt, ist dieser wahrscheinlich die Fehlerur-
sache. Firewalls verhindern in der Regel H.323 Kommunikation (siehe Kap. 5.5: Fire-
wall).
Die IP-Adresse des eigenen Systems lässt sich in Eigenschaften von Netzwerk In-
ternetprotokoll (TCP/IP) finden. Alternativ kann auf der Kommandozeile der Befehl
'ipconfig' verwendet werden.
Die Ermittlung der den IP-Adressen zugeordneten DNS-Namen kann mittels 'nslookup
ZIEL' erfolgen.
2.) Gatekeeper (siehe auch Kap. 7)
Ist das zu rufende Gerät an einem Gatekeeper angemeldet, so muss sich auch das ru-
fende Gerät im Gatekeeperverbund befinden. Ist das zu rufende Gerät nicht an einem
Gatekeeper angemeldet, so darf auch das rufende nicht an einem Gatekeeper ange-
meldet sein. Abweichend vom Standard ermöglichen die meisten aktuellen Gatekeeper
auch Rufe zwischen registrierten und nicht registrierten Geräten.
Das zu rufende Gerät muss den Ruf akzeptieren. Hier muss entweder jemand den Ruf
manuell annehmen oder das Gerät muss für automatische Rufannahme konfiguriert
sein.
Das zu rufende Gerät darf sich nicht bereits in einem Ruf befinden.
Die Berechtigung zum Rufen muss bestehen. Für VC-Systeme werden in der Regel
keine speziellen Rufberechtigungen vergeben. Bei MCU- und Gatewaydiensten sind
meist spezielle Berechtigungen nötig.
3.) Systeminkompatibilitäten
Der Standard H.323 soll die Kommunikation zwischen den Geräten verschiedener Her-
steller sicherstellen. Das ist auch in der Regel gewährleistet. In Ausnahmefällen kann
es jedoch zu Problemen kommen. Die Grundfunktionalität wird jedoch fast immer er-
reicht.
Version 3.2 5-4
5.5 Firewall
Der Einsatz von Firewalls in Videokonferenzumgebungen ist prinzipiell problematisch. Bei
Konferenzen nach H.323 gibt es eine Vielzahl von festen Ports und für die dynamische
Vergabe kommen alle Ports oberhalb von 1024 in Frage. Dadurch sind nur speziell für H.323
vorgesehene Firewalls in der Lage, Funktion und Sicherheit in Einklang zu bringen. Eine
spezielle Unterstützung von H.323 wird nur von wenigen Firewalls realisiert. Aus diesem
Problemfeld ergeben sich fünf Lösungsansätze:
1.) Videokonferenzen werden außerhalb des geschützten Bereiches für die Kommunikati-
on nach außen genutzt. Vorteile sind die uneingeschränkte Funktion der Videokonfe-
renz-Geräte und der Schutz der Daten im gesicherten Bereich vor der Freigabe an Au-
ßenstehende. Soll die Kommunikation nur innerhalb des geschützten Bereiches erfol-
gen, können die VC-Geräte auch im geschützten Bereich aufgestellt werden.
2.) Proprietäre Optionen an VC-Geräten verschiedener Hersteller ermöglichen es, die
Bereiche für die dynamischen Ports stark einzuengen. Allerdings wird bei Nutzung die-
ser Funktion die Kommunikation zwischen Systemen unterschiedlicher Hersteller nicht
mehr erreicht.
3.) Bei Nutzung einer Firewall mit H.323-Unterstützung ist es auch über eine Firewall
hinweg möglich, Videokonferenzen nach H.323 zu führen. Dabei sollte man jedoch die
Funktion der Firewall kritisch hinterfragen, um eventuell zusätzliche Schwachstellen
aufzudecken. Lösungen mit H.323-Unterstützung werden von Cisco und Checkpoint
angeboten.
4.) Durch den Aufbau eines Virtuellen Privaten Netzwerkes (VPN) lassen sich Videokonfe-
renzdaten durch die Firewall tunneln.
5.) Mit H.323 Proxies lassen sich die Videokonferenzdaten entweder durch die Firewall
oder an ihr vorbei leiten. Den Proxy bildet hierbei ein Gateway, welches auf beiden Sei-
ten H.323 als Protokoll verwendet. Besonders bewährt hat sich der gleichzeitige Ein-
satz eines GNU-GK als Proxy. Ein Konfigurationsbeispiel findet sich im Videokonfe-
renzportal des DFN.
Für die Punkte 2.) bis 5.) gilt, dass Videokonferenzen zwischen geschützten und öffentlichen
Bereichen prinzipiell die Gefahr in sich bergen, dass über die Datendienste der Videokonfe-
renz vertrauliche Daten nach außen gelangen. Viele Systeme bieten deshalb die Möglichkeit,
die Videokonferenzdaten zu verschlüsseln.Sicherheit
Die Sicherheit von Videokonferenzen nach H.323 lässt sich am ehesten mit der Sicherheit
von E-Mail vergleichen. Es besteht die Gefahr, dass Dritte die Informationen mithören und
dass die Verbindung zu einem falschen Endpunkt aufgebaut wird. Zusätzlich besteht die
Möglichkeit, bei vergessenen Verbindungen oder unbemerkt hergestellten Verbindungen
abgehört zu werden. Obwohl nur sehr wenige Fälle in der Praxis bekannt wurden, wo ein
Abhören stattfand, sollten sich die Teilnehmer aber der prinzipiellen Gefahr bewusst sein.
Folgende Problemfelder ergeben sich:
1.) Mithören von Konferenzen ist möglich, sobald der Datenstrom zwischen den Endgerä-
ten abgehört werden kann. Das ist in ungeswitchten Netzen prinzipiell von allen im
Version 3.2 5-5
Netzwerk befindlichen Geräten möglich. In geswitchten Netzen liegen die Daten zwar
nur an den beteiligten Geräten an, jedoch ist nicht auszuschließen, dass durch Konfi-
guration oder Überlastung des Switches die Daten an andere Geräte im Netz gelangen
können. Die Konferenzdaten selbst lassen sich dann mit üblichen Streaming-Playern
(z.B. Real oder Quicktime) wiedergeben. Eine Verschlüsselung der Konferenzdaten für
den IP-Bereich ist im Standard H.235 geregelt. Im ISDN-Bereich können Verschlüss-
lungsboxen hinter bzw. vor dem Gerät eingesetzt werden, welche eine abhörsichere
Übertragung gewährleisten.
2.) Mithören bei Mehrpunktkonferenzen ist möglich, wenn ein Unbefugter Zugriff auf die
Konferenz der MCU bekommt. Allerdings kann per Webzugriff auf die MCU überprüft
werden wer Teilnehmer der Konferenz ist. Diese Möglichkeit sollte im Verlauf der Kon-
ferenz auch in regelmäßigen Abständen genutzt werden.
3.) Endgeräte müssen bei ihrer Anmeldung am Gatekeeper einen Alias-Namen und/oder
eine Alias-Nummer angeben. Diese Aliase werden während der Zeit der Anmeldung
über eine Tabelle im Gatekeeper der entsprechenden IP-Adresse zugeordnet. Andere
Teilnehmer können diese Endgeräte durch Ruf eines Alias erreichen. Die Umsetzung
des Alias in die IP-Adresse wird dabei vom Gatekeeper vorgenommen. Da die Endge-
räte theoretisch jedes Mal einen anderen Alias verwenden könnten, ist es nötig, im
Vorfeld einen Nummernplan aufzustellen. Hier sind Rufe zum falschen Endpunkt mög-
lich, indem ein System bei der Anmeldung am Gatekeeper durch die Angabe eines fin-
gierten Alias die Identität des ursprünglichen Gerätes vortäuscht. Dadurch würde ein
Alias-Ruf eines anderen Teilnehmers beim falschen Endpunkt ankommen. Diese Ver-
wechslung bei der Anmeldung muss nicht einmal absichtlich geschehen. Bei direkten
Rufen ohne die Nutzung eines Gatekeepers besteht die Möglichkeit, dass ein anderes
Gerät unter der IP-Adresse erreicht wird, falls im Routing oder im entfernten Netz eine
Manipulation erfolgte. Der Gatekeeper des DFN verwendet eine Struktur mit vordefi-
nierten Endgeräten. Bei diesem geschlossenen System können sich nur dem Ga-
tekeeper bekannte Videokonferenzterminals an der MCU einwählen.
Version 3.2 6-1
6 Multipoint Control Unit (MCU)
6.1 Allgemein
Für die Durchführung einer Videokonferenz mit mehr als zwei Standorten ist eine MCU
(Multipoint Control Unit) nötig. MCUs sind Sternverteiler für Gruppenkonferenzen und
werden innerhalb des Dienstes DFNVideoConference zur Verfügung gestellt.
Eine MCU ist in der Lage, mehr als eine Konferenz gleichzeitig zu verwalten und zu steuern.
Es handelt sich inzwischen fast immer um spezielle Hardware, da diese die hohen Anforde-
rungen an ein solches System besser als softwarebasierte Produkte erfüllt. Eine MCU kann
in ein Endgerät integriert sein, hat aber niemals die Leistungsfähigkeit einer Singlelösung wie
die Geräte des DFN.
Eine MCU empfängt die Datenströme (Video, Audio, Daten) jedes Konferenzstandortes und
sendet sie gebündelt wieder an die Teilnehmer zurück. Dabei nivelliert sie die qualitativen
Fähigkeiten der Endgeräte auf ein gemeinsames Niveau oder verbindet die einzelnen
Gegenstellen mit der jeweils besten Qualität, die bei diesen technisch möglich ist (sogenann-
tes Transcoding).
Gemäß dem Standard H.323 arbeitet eine MCU immer mit einem Gatekeeper (siehe Kap.7)
zusammen. Inzwischen gibt es aber auch Lösungen, welche auf den Einsatz eines Gatekee-
pers verzichten. Die Adressierung der MCUs im Dienst DFNVideoConference erfolgt über
einen Gatekeeper.
Die MCU ist während der Konferenz mit allen Teilnehmern verbunden. Sie verwaltet und
regelt die ein- und ausgehenden Video-, Audio- und Anwendungsdatenströme. Die einge-
henden Audiodatenströme werden in der MCU gemischt und im Full-Duplex-Mode zurück
gesendet. Die Verarbeitung der Videodatenströme kann auf verschiedene Arten geschehen:
Continuous Presence: Aus den eingehenden Videodatenströmen wird ein neuer Videoda-
tenstrom generiert und an alle Teilnehmer zurückgesendet. Für die ein- und ausgehenden
Videodatenströme werden dabei unterschiedliche Datenraten verwendet, da die MCU von
jedem Teilnehmer nur ein kleines Bild anfordert (z.B. im CIF- oder VGA-Format) und daraus
ein großes Bild (z.B. im VGA- oder HD-Format) zusammensetzt. Maximal können sich
sechzehn Konferenzteilnehmer gleichzeitig sehen. Es ist jedoch möglich, dass sich noch
weitere Teilnehmer in der Konferenz befinden, die auf dem Bild nicht dargestellt werden. Das
Audio ist jedoch immer von allen Beteiligten zu hören. Je nach ausgewähltem Format kann
z.B. der jeweilige Sprecher groß und die weiteren Teilnehmer klein dargestellt werden.
Voice Switching: Der Begriff Voice Switching beschreibt einen Modus, der jeweils nur den
momentan sprechenden Teilnehmer zeigt. Da aber ein permanentes Hin- und Herspringen
des Bildes zwischen verschiedenen Rednern meist als sehr störend empfunden wird, findet
diese Einstellung de facto kaum noch Anwendung.
Sinnvoll ist dagegen eine gezielte Layout-Einstellung durch den Konferenzadministrator,
wenn es sich z.B. um eine Vorlesung handelt und der Sprecher über eine längere Zeit
konstant bleiben soll. Auch eine manuelle Umschaltung von Bildern kann bei bestimmten
Veranstaltungen sinnvoll sein.
Version 3.2 6-2
Der Standard H.239 ermöglicht das Senden eines zweiten Videokanals für die Übertragung
von Präsentationen zusätzlich zur Übertragung des Audio- und Videodatenkanals. Eine
Nutzung von H.239 ist über die MCUs des DFNVC-Dienstes möglich. Datenanwendungen
wie Chat, Whiteboard, Shared Application (gemeinsames Bearbeiten einer Applikation auf
einem Rechner) und Application Sharing (gemeinsames Bearbeiten einer Applikation auf
mehreren Rechnern) lassen sich jedoch über dieses Protokoll nicht realisieren.
Im Dienst DFNVC ist als Kollaborationsanwendung mit zahlreichen Funktionen zur interakti-
ven Kooperation die Webconferencing-Plattform Adobe Connect im Einsatz, die in Verbin-
dung mit der Cisco MCU auch mehrpunktfähiges Application-Sharing, Desktop-Sharing
sowie weitere Datenanwendungen bietet (siehe auch Kap. 8.5.3)
6.2 Cisco TelePresence MCU 4500 Serie
Die Cisco TelePresence 4500 Serie ermöglichte als erste MCU auf dem Markt hochauflö-
sende Videokonferenzen in Full High Definition (FullHD) Qualität. FullHD bedeutet hier eine
Bildauflösung von 1920x1080p Bildpunkten mit 30 Bildern pro Sekunde (fps). Das Ganze
erfolgt mit dem Bandbreite sparenden Protokoll H.264 im Continuous Presence Mode. Im
DFN-Verein sind Cisco MCUs des Typs 4520 im Einsatz.
Die Cisco 4520 ist ein 19“-Gerät als Einschub in ein Rack. Es können insgesamt 40
Videocalls plus 40 Audiocalls gleichzeitig stattfinden (Obergrenze einer MCU bzw. Konfe-
renz). Den Nutzern des DFNVC-Dienstes stehen derzeit insgesamt 240 Video- und 240
Audio-Ports auf den Cisco MCUs zur Verfügung. Zusätzlich können bis zu 240 Teilnehmer
gleichzeitig unicast Videostreams mitsehen.
Wichtige Merkmale:
für große Gruppen geeignet
Transcoding
Bildverbesserung mittels ClearVision™ -Technologie (siehe unten)
jeder Teilnehmer kann sein eigenes Layout als Ansicht definieren
stabile Funktionalität
gut per WWW-Interface steuerbar
max. 80 externe Zuschauer per Streaming zuschaltbar
zusammen mit Recorder Cisco 2220 gleichzeitig 5 Aufnahmen von Videokonfe-
renzen möglich
Datenübertragung mittels H.239 in HD Dual Video Qualität, auch Einbindung ex-
terner VNC-Server möglich (vgl. Kapitel 8.5.2.1)
Integration von Adobe Connect für Datenanwendungen (Präsentationen, White-
boards,…) (vgl. 8.5.3)
Die MCU von Cisco beherrscht Transcoding, d.h. sie passt das zurückgesendete Bild der
jeweiligen Kapazität des Endgerätes an. Damit empfängt jeder Teilnehmer ein für seine
Bandbreite optimales Bild. Das heißt aber auch, dass jeder Teilnehmer eine unterschiedliche
Qualität empfängt.
Version 3.2 6-3
Cisco geht noch einen Schritt weiter, um alle Endsysteme nach ihren jeweiligen Fähigkeiten
an den Konferenzen zu beteiligen und sowohl für HD-Systeme als auch für SD- (Standard
Definition) Systeme die bestmögliche Qualität herauszuholen. Das entsprechende Feature
der Cisco MCU 4500 Serie nennt sich ClearVisionTM und erhöht die Auflösung und Qualität
älterer Videokonferenz-Systeme bis auf das 4-fache. Die Qualität der HD-Systeme wird nicht
reduziert, wenn sich qualitativ schlechtere Systeme in der Konferenz befinden. Bisher
konnten HD-Systeme in diesem Fall nur maximal 4CIF empfangen, jetzt können sie mit dem
Cisco Feature 1080p empfangen und werden somit optimal genutzt. Aber auch die SD-
Systeme erfahren durch die verbesserte Auflösung eine wesentliche Qualitätssteigerung.
Erstmalig kann die MCU viele SD Bilder zu einem großen HD Bild kombinieren.
6.3 Cisco Recorder IP VCR 2200
Der IP-Videorecorder und Streaming-Server Cisco IP VCR 2200 wurde speziell für Video-
konferenzen entwickelt. Damit können H.323 Videokonferenzen aufgezeichnet und wieder-
gegeben werden. Dem Nutzer werden die Dateien im MPEG1- oder im Cisco eigenen
Dateiformat zur Verfügung gestellt.
Der Cisco IP VCR 2200 kann gleichzeitig fünf Konferenzen aufzeichnen, wobei alle gängigen
Video- und Audiostandards und Videoformate bis 720p (HD-Qualität) möglich sind.
Die Aufzeichnung von Videokonferenzen durch den Konferenzadministrator erfolgt sehr
einfach über die Funktion Steuerung auf dem DFNVC-Portal
https://www.vc.dfn.de/konferenzen/steuerung/.
Auf der MCU-Oberfläche befindet sich ein Bedienungsfeld mit drei Schaltern, über die die
Aufzeichnung der Konferenz gestartet, mit einem Aufnahmetitel versehen und beendet
werden kann. (Abbildung 9 und Abbildung 10). Der Konferenzadministrator muss vor dem
Starten der Aufzeichnung den Nutzungsbedingungen zustimmen. Beim Start der Aufnahme
wird 30 Sekunden lang im Videobild der Teilnehmer ein Hinweis auf die Aufzeichnung
eingeblendet. Während der gesamten Aufnahme ist im Videobild links oben ein roter Punkt
eingeblendet.
Abbildung 9: Bedienungsfeld des Recorders vor der Aufzeichnung
Version 3.2 6-4
Abbildung 10: Bedienungsfeld des Recorders während der Aufzeichnung
Wird die Aufnahme beendet, erhält jeder Konferenzteilnehmer darüber eine Mitteilung auf
seinem Bildschirm. Unter dem Menüpunkt Recordings können Aufzeichnungen als mpg-
Datei (DVD Format 720x576 Bildpunkte) oder im Originalaufzeichnungsformat von Cisco
heruntergeladen und auch gelöscht werden. Mit den Cisco Converter Tools, zu finden unter
Recordings > Converter Tools, kann die Cisco-Datei in weitere Bildformate umgewandelt
werden.
Um den Konferenzteilnehmern Aufnahmen zur Verfügung stellen zu können, muss das
jeweilige Konferenzpasswort gesetzt sein und im Menüpunkt Recordings die entsprechende
freizugebende Datei als publish gekennzeichnet sein.
Über das DFNVC-Portal https://www.vc.dfn.de/konferenzen/aufnahmen/ können die
Aufnahmen heruntergeladen werden. Aufzeichnungen, die älter als 14 Tage sind, werden
automatisch vom IP VCR 2200 gelöscht.
Version 3.2 7-1
7 Gatekeeper
7.1 Allgemeines
Der Gatekeeper ist eine logische Komponente des H.323 Standards, welcher sowohl als
Windows- oder UNIX-Software, als Router-Option, als Teil einer MCU oder eines Gateways
implementiert sein kann. Alle Geräte, die einem Gatekeeper zugeordnet sind, befinden sich
in der gleichen Zone. Innerhalb einer Zone erhalten alle Geräte zur Kennzeichnung einen
Prefix. Nur die Prefixe innerhalb der DFN-Zone werden vom DFN vergeben. Zonen mit
eigenem Gatekeeper, die nicht in den Dienst DFNVideoConference eingebunden sind,
können die Prefixe für die Geräte in jener Zone selbst vergeben.
Normalerweise werden bei allen Gatekeepern alle benachbarten Gatekeeper in einer
Neighbour-Tabelle eingetragen. Zur Reduzierung der Tabelleneinträge kann ein Master-
Gatekeeper eingesetzt werden, der alle Gatekeeper in seiner Neighbour-Tabelle einträgt und
dann als einziger Gatekeeper allen anderen Gatekeepern bekannt ist. Die Struktur des DFN-
Dienstes setzt auf einem Master-Gatekeeper auf. Dieser sogenannte Country-Gatekeeper
beinhaltet die Einträge aller Gatekeeper des DFN-Dienstes. Andererseits ist er in einem
weltweiten Verbund vernetzt. Die Struktur dieses Verbundes ist unter www.vc.dfn.de zu
finden.
Der Einsatz von Gatekeepern ist in einem H.323 Netzwerk laut Standard optional. Ein
Gatekeeper bietet verschiedene Dienste, wie Adresstransformation, Zugangskontrolle oder
Bandbreitenmanagement für die H.323-Terminals an. Die Implementierung dieser Features
ist von Hersteller zu Hersteller sehr unterschiedlich realisiert.
Innerhalb des MCU-Dienstes im DFN wird ein Gatekeeper verwendet. Deshalb ist es
zwingend erforderlich, dass sich alle Teilnehmer mit ihren Geräten vor Nutzung des Dienstes
an einem Gatekeeper registrieren. Diese Registrierung kann entweder direkt am DFN-
Gatekeeper erfolgen oder über einen eigenen Gatekeeper, der dann seinerseits die
Anmeldung am Country-Gatekeeper vollzieht.
7.2 Global Dial Scheme
7.2.1 H.323 Name
Um eine Videokonferenz nach H.323 durchzuführen, muss die Gegenstelle eindeutig
erreichbar sein. Natürlich ist sie es immer über die IP-Adresse, aber bei Verwendung von
DHCP funktioniert diese Methode nicht mehr. Daher gibt es das Konzept des Dial Planes
(GDS – Global Dial Scheme), welches auf der weltweit eindeutigen Registrierung eines
Videokonferenz-Systems am Gatekeeper beruht. Dazu wird im Standard der H.323 Name
eingeführt.
Der Dial Plan verbindet in einer Tabelle den H.323 Namen mit dem zugehörigen System.
Diese Tabelle mit den Zuordnungen wird innerhalb des Gatekeepers geführt. Auch dynami-
sche Adressen sind so gut zu verwalten. Das System wird immer durch seinen H.323 Namen
eindeutig identifiziert und kann darüber gerufen werden.
Version 3.2 7-2
7.2.2 E.164-Alias
Der H.323 Name wird oft auch als E.164 Alias bezeichnet. Es resultiert daraus, dass die
ITU-T (International Telecommunications Union - Technical Section) einen Telefonnum-
mernplan mit einem ähnlichen Ziel verabschiedet hat. Dieser soll die eindeutige Erreichbar-
keit eines jeden Telefons weltweit garantieren.
Wegen dieser großen Ähnlichkeit in der Zielstellung und der Darstellung werden die beiden
Begriffe H.323 Name und E.164-Alias oft synonym verwendet.
Aber es gibt Unterschiede: Der entscheidende ist, dass der H.323 Name aus alphanumeri-
schen Zeichen bestehen darf, während der E.164-Alias immer nur Zahlen beinhaltet.
Das GDS basiert ausschließlich auf E-164-Aliassen.
7.2.3 Dial Plan Structure
Das GDS garantiert die eineindeutige Zuordnung eines Videokonferenz-Systems zu einer
Zahl. Er legt dafür in einem Verbund der einzelnen Länder Zonen fest, in denen der
Gatekeeper-Betreiber die E.164-Aliasse selber festlegen darf. Sie sollten eine Struktur
besitzen, die auch in der Zukunft eine Erweiterung zulässt. Da das Protokoll H.323 auch im
Bereich Voice over IP Verwendung findet und eine spätere Verschmelzung beider Anwen-
dungsszenarien nicht auszuschließen ist, sollten die E.164-Aliasse nicht mit dem Telefon-
nummernplan der Einrichtung kollidieren.
7.3 Praktische Umsetzung
Endgeräte müssen also bei ihrer Anmeldung am Gatekeeper einen H.323 Namen und einen
E.164-Alias angeben. Diese Aliase werden, solange das Gerät angemeldet ist, in einer
internen Gatekeeper-Tabelle der entsprechenden IP-Adresse zugeordnet. Andere Teilneh-
mer können diese Endgeräte durch Ruf des Alias erreichen. Die Umsetzung des Alias in die
IP-Adresse wird dabei vom Gatekeeper vorgenommen. Da die Endgeräte theoretisch jedes
Mal einen anderen Alias verwenden könnten, ist es nötig, im Vorfeld einen Nummernplan
aufzustellen. An diesen sollten sich dann alle Teilnehmer in der Zone halten, weil nur so zu
gewährleisten ist, dass dieselben Geräte immer denselben Alias bekommen.
Falls der Gatekeeper einen Ruf an einen Endpunkt erhält, der nicht in seiner Zone vorhan-
den ist, leitet er diesen Ruf an den Master-Gatekeeper weiter.
7.4 Empfehlung Gatekeeper
Für die Teilnahme am Dienst DFNVideoConference ist im Normalfall der Betrieb eines
eigenen Gatekeepers in der jeweiligen Einrichtung vorgesehen. Der Gatekeeper muss neben
den Grundfunktionen eines Gatekeepers auch die Kommunikation mit anderen Gatekeepern
(Neighbouring) beherrschen. Für kleine Einrichtungen mit wenigen Endgeräten (bis 10
Systeme) ist auch die Nutzung des DFN-Gatekeepers möglich.
Der Avaya Radvision ECS Gatekeeper wird auf einem Windows-Server betrieben. Die
Konfiguration und Administration erfolgt per Browser und mit Java über das WWW.
Der MCM von Cisco wird auf einem Cisco-Router (2500 - 7200) betrieben. Ab den Betriebs-
systemen 12.07T und 12.1(5)T wird von Cisco auf den Systemen 25xx, 26xx, 36xx, und
Version 3.2 7-3
3810 auch das Betreiben eines MCM bei gleichzeitigen Routingfunktionen unterstützt.
Konfiguration und Administration erfolgen hier per Kommandozeile (IOS 12.x).
Das VCC setzt die Gatekeeper MCM (Cisco), und den GNU Gatekeeper (http://gnugk.org/)
erfolgreich ein. Beide bieten die für eine Mehrpunktkonferenz benötigten Funktionen.
7.5 Konfiguration Gatekeeper
Die Konfiguration von Gatekeepern kann auf verschiedenen Wegen erfolgen. Aber auch
diese Möglichkeiten sind von Gerät zu Gerät noch unterschiedlich (Tabelle 1):
Gerät lokale Konfiguration per ... Konfiguration remote per ...
GNU Gatekeeper Textfile und Telnet auf Port 7000 Textfile und Telnet auf Port 7000
Cisco MCM serielle Schnittstelle Telnet
Avaya Radvision ECS
Gatekeeper
Internet Explorer und Java Internet Explorer und Java
Tabelle 1: Konfigurationsmöglichkeiten von Gatekeepern
In den einzelnen Kategorien der Konfiguration des Gatekeepers sollte folgendes beachtet
werden:
allgemein
o eventuell Bandbreitenbegrenzung vornehmen
Terminals
o eventuell nur bestimmte IP-Adressbereiche zulassen
o eventuell nur vordefinierte Terminals zulassen
o eventuell Nutzerverzeichnis per Radius oder LDAP steuern
Services
o eigenen Prefix vergeben
o eventuell eigenes Gateway / MCU definieren
Neighbours
o jeweils Name, Prefix, IP und eventuell Domain vergeben
Bei Fragen zur Konfiguration der Gatekeeper stehen das VCC und die Hotline des DFN zur
Verfügung.
Version 3.2 8-1
8 Videokonferenz-Geräte
8.1 Allgemeines
Der ITU-T Standard (englisch: Telecommunication Standardisation Sector) H.323 für IP
Übertragungen, der auf H.320 für ISDN basiert, definiert u. a. Audio- und Videostandards als
Empfehlungen für Videokonferenzsysteme.
Die am häufigsten implementierten Audiostandards in Videokonferenzsystemen führender
Hersteller sind: G.711, G.722, G.722.1 Annex C (Polycom Siren 14), G.723.1, G.728 und
G.729. Der Audiocodec MPEG-4 AAC-LD ist kein von der ITU-T empfohlener Standard, ist
aber von der ISO akzeptiert. Als Videostandards sind im allgemeinen H.261, H.263, H.263+,
H.263++ und H.264 implementiert. Die hier aufgeführten Standards sind im Handbuch im
Anhang A für Audiokodierung und im Anhang B für Videokodierung erläutert.
Die seit 2006 das erste Mal angebotenen so genannten HD-Geräte bieten High Definition
Video mit 720p an. Hierbei steht 720p für ein Videoformat von 1280 × 720 Bildpunkten (720
Zeilen) im Vollbildverfahren (p für progressive) bei 30 oder 60 Bildern pro Sekunde. Aus dem
Videoformat ist ersichtlich, dass das Video das Seitenverhältnis 16:9 hat.
Seit 2008 gibt es die ersten HD-Videokonferenzgeräte mit dem Videoformat 1080i und
1080p. Hier beträgt die Auflösung 1920×1080 Bildpunkte mit bis zu 60 Bildern pro Sekunde.
Das Kürzel „i“ steht für interlaced und bedeutet, dass Halbbilder bzw. 540 Zeilen pro Bild
übertragen werden, wohingegen bei 1080p (für progressive) in jedem Bild die volle Auflö-
sung übertragen wird.
8.2 Klassifizierung Endgeräte
Die zurzeit zum Einsatz kommenden Videokonferenzendgeräte werden in vier große
Systemklassen eingeteilt:
Desktop- bzw. Einzelplatzsysteme
Officesysteme
Kompaktsysteme
Raumsysteme
Die beschriebenen Geräte sind zum Teil vom VCC getestete Geräte. Sie stellen nur eine
Auswahl des gesamten Angebotes dar. Weitere Gerätetests sind in der Webpräsenz des
VCC, http://vcc.zih.tu-dresden.de/, ersichtlich.
Mit Videoeingang wird im Folgenden ein Anschluss bezeichnet, welcher es ermöglicht, z.B.
eine andere Kamera anzuschließen.
Mit Videoausgang ist die Anschlussmöglichkeit z.B. für einen Projektor oder einen Monitor
bezeichnet.
8.2.1 Desktop- bzw. Einzelplatzsysteme
Bei Desktop- bzw. Einzelplatzsystemen (Abbildung 11) handelt es sich um Videokonferenz-
systeme für PCs und Laptops. Diese softwarebasierten Lösungen werden am einfachsten
mit einer USB-Kamera und einem Headset (Kopfhörer-/Mikrofoneinheit) benutzt. Weiterhin
können auch Kameras über eine im PC integrierte Videokarte angeschlossen werden.
Version 3.2 8-2
Desktopsysteme sind für Einzelanwender konzipiert. Neben den geringen Kosten im
Vergleich zu allen anderen Klassen bieten diese den Vorteil, dass der Anwender während
der Videokonferenz vollen Zugriff auf seine Daten und die auf dem PC installierten Pro-
gramme hat. Desktopsysteme verfügen über die Funktionalität, den entfernten Konferenz-
partnern Datenpräsentationen zu zeigen bzw. zu empfangen. Das können verschiedenste
Dateien oder auch der gesamte Desktop sein.
Abbildung 11: Desktopsystem (hier Polycom RealPresence Desktop)
8.2.2 Officesysteme
Office-Systeme (Abbildung 12) sind kompakte, eigenständige, repräsentative Videokonfe-
renzlösungen mit integriertem TFT- oder LCD-Bildschirm, integrierter Kamera, Mikrofon und
Lautsprechern. Sie sind als Arbeitsplatzsystem konzipiert und wesentlich leistungsstärker als
Desktopsysteme. Office-Systeme gibt es in Abhängigkeit ihrer Leistungsfähigkeit als
Einzelplatzlösungen und auch als Kompaktsysteme für kleine Gruppenkonferenzen.
Office-Systeme sind schnell betriebsbereit, verfügen dafür aber über wesentlich weniger
Anschlussmöglichkeiten für externes Zubehör als Gruppensysteme.
Abbildung 12: Cisco
TANDBERG EX90
Version 3.2 8-3
8.2.3 Kompaktsysteme
Kompaktsysteme (Abbildung 13) stellen voll integrierte Videokommunikationslösungen dar,
zu deren Betrieb in der Regel lediglich noch ein Monitor und die entsprechenden Netzan-
schlüsse (ISDN und/oder LAN) benötigt werden. Konferenzsystem und Kamera bilden eine
geschlossene Einheit. Aufgrund des geringen Gewichtes und der einfachen Installation
eignen sich diese Geräte für den mobilen Einsatz. Steuerung und Konfiguration erfolgt über
eine zum System gehörende Fernbedienung. Die optimale Darstellungsqualität wird für das
Video auf einem Monitor und für Datenanwendungen auf einem Monitor oder mit einer
Projektion erreicht. Ein zusätzliches Gerät für Datenanwendungen beeinträchtigt dabei nicht
die Stabilität der Audio-Video-Verbindung des Kompaktsystems.
Kompaktsysteme sind für Videokonferenzen in kleinen bis mittleren Anwendergruppen
geeignet.
8.2.4 Raumsysteme
Raumsysteme sind modular aufgebaute, leistungsstarke Videokommunikationslösungen für
höchste Ansprüche (vgl. Abbildung 14). Durch variable Ausstattungsmerkmale sind flexible
Systemkonfigurationen für fast jede Anwendung möglich. Leistungsstarke Kameras,
Raummikrofone und große Monitore erlauben auch in großen Konferenzräumen die
Integration dieser Systeme, die selbstverständlich auch die Einbindung diverser Peripherie-
einrichtungen wie z.B. Dokumentenkameras ermöglichen.
Raumsysteme ermöglichen es mittleren bis großen Personengruppen, an Videokonferenzen
mit höchster Qualität teilzunehmen. Entsprechend hoch sind auch die Kosten für komplette
Raumsysteme.
Abbildung 13:
Cisco TANDBERG C20
Version 3.2 8-4
Abbildung 14: Raumsystem Polycom HDX 9004
Die Unterscheidung in Kompakt- und Raumsysteme geschieht oftmals ziemlich willkürlich
von den Herstellern unter Marketingaspekten. Raumsysteme können sowohl auf Settop- als
auch auf PC-Systemen aufbauen. Sie beinhalten aber Zusatzkomponenten, welche
besonders für die Nutzung durch größere Gruppen konzipiert sind.
Version 3.2 8-5
8.2.5 Aktuelle Kompakt- und Raumsysteme, Office- und Einzelplatzsysteme
Version 3.2 8-6
Version 3.2 8-7
8.3 Konfiguration der Endgeräte
Die Konfiguration der Endgeräte umfasst im Allgemeinen die Eingabe
des H.323 Namens
einer Aliasnummer in E.164 Schreibweise
der Gatekeeper IP-Adresse
Folgende Einträge müssen noch bei Kompakt-/SetTop-Systemen vorgenommen bzw. bei
Desktopsystemen geprüft werden:
IP-Adresse des VC-Endgerätes
IP-Adresse des Standard Gateways
IP-Adresse der Netzmaske
DNS-Name (optional)
IP-Adresse des DNS-Servers (optional)
Fehlt bei Desktopsystemen einer der nicht optionalen Einträge des zweiten Abschnittes,
kann das im Windows Betriebsystem unter: StartEinstellungenSystemsteuerung
Netzwerk vorgenommen werden.
Die fünf letztgenannten Einträge können auch per DHCP erfolgen. Dann werden beim
Konfigurieren des VC-Gerätes mit dem Aktivieren von DHCP diese fünf Einträge grau
unterlegt. Voraussetzung dafür ist, dass das VC-Gerät DHCP beherrscht und im LAN der
DHCP-Service verfügbar ist.
Die Konfiguration der VC- Endgeräte ist von Hersteller zu Hersteller im Sprachgebrauch
verschieden. Deshalb finden Sie in der nachfolgenden Tabelle die Bezeichnungen zur
Konfiguration verschiedener VC-Systeme „auf einen Blick“ zusammengefasst.
Version 3.2 8-8
Sprachgebrauch VK-Handbuch
Polycom
RealPresence Desktop, m100 (engl.)
LifeSize Softphone
Polycom
HDX Serie (engl.)
Cisco (Tandbrg)
C-Serie, EX 90 (engl.)
LifeSize 220 Serie (engl.)
Sony (engl.)
Beispiel
H.323 Name H.323 Alias1
(H.323 Alias) H.323 Name
H.323-Name (H.323)
H.323 ID 2 ;
3
(H.323 ID)
H.323 Name (H.323)
User Alias
(User Alias)
mm03
E.164-Alias H.323 Nebenstelle (E.164)
(H.323 Extension (E.164))
Telefonnummer
H.323 Nebenstelle (E.164)4
(H.323 Extension (E.164))
H.323 Nummer
(E.164 Alias)
H.323 Nebenstelle (H.323 Extension)
User Nummer
(User Number)
1223
Gatekeeper IP-Adresse
Gatekeeper-IP-Adresse (Gatekeeper IP Adress)
Gatekeeper
Gatekeeper-IP-Adresse (Gatekeeper IP Adress)
Gatekeeper IP Adresse
(Gatekeeper Adress)
Gatekeeper IP Adresse (Gatekeeper IP Adress)
Gatekeeper-Adresse
(Gatekeeper Address)
141.30.67.251
IP-Adresse VC-Endgerät
-- -- IP-Adresse (IP Adress)
IP-Adresse
(IP Adress)
IP-Adresse (IP Adress)
IP-Adresse
(IP Address)
141.30.67.240
Standard Gateway -- -- Standard Gateway
(Default Gateway)
Gateway
(Gateway)
Standard-Gateway
(Default Gateway)
Gateway-Adresse
(Gateway Address)
141.30.66.254
Netzmaske -- -- Subnetzmaske (Subnet Mask)
Subnetzmaske
(IP Subnet Mask)
Subnet-Mask (Subnet Mask)
Netzwerkmaske
(Network mask)
255.255.255.128
Hostname -- -- Host-Name (Host Name)
Host-Name
(Host Name)
Hostname (Hostname)
Host Name
(Host Name)
rncmm03
DNS-Server -- -- DNS-Server (Domain Name Servers)
DNS Server x
(DNS Server x)
DNS-Server DNS Servers
DNS-Adresse
(DNS Address)
141.30.66.135
Tabelle 2: VC-Systemkonfigurationen
1 Wird von Allgemeines Benutzername übernommen
2 H.323 ID, nicht der Standortname, wird beim rufenden bzw. gerufenen System angezeigt
3 VC-System Tandberg 990 zeigt unter Systeminformation Meine IP-Nummer: den E.164-Alias!
in Eigenbildansicht Meine IP-Nummer: den E.164-Alias ;
in Eigenbildansicht Standortname: den E.164-Alias !
unter Systeminformation Verbindungsstatus Standortname: die IP-Adresse der Gegenstelle
4 Bei Systeminformationen auch als „Videonummer“ bezeichnet
Version 3.2 8-9
Die Angaben
IP-Adresse VC-Endgerät
Standard Gateway
Netzmaske
Hostname
DNS-Server
werden bei Einzelplatzsystemen vom zugrunde liegenden Betriebssystem (Windows)
übernommen. Dort werden diese auch konfiguriert.
Um den Dienst DFNVideoConference (DFNVC) nutzen zu können, muss das Videokonfe-
renzsystem an einem Gatekeeper angemeldet sein. Hat Ihre Einrichtung keinen eigenen
Gatekeeper, dann können Sie einen Gatekeeper des DFN nutzen. Informationen zu den
Gatekeepern des DFN erhalten Sie über die DFN-Hotline [email protected].
8.4 PC-Einstellungen
Bevor eine Videokonferenz mit Hilfe eines Desktop-Systems gestartet wird, sollten einige
Einstellungen des PCs überprüft werden. Diese können bei Nichtbeachtung unter Umstän-
den zu Fehlfunktionen des Videokonferenz-Systems führen.
8.4.1 Bildschirmschoner, Energiesparfunktion
Falls das Videokonferenz-System auf einem PC läuft, sollten der Bildschirmschoner und die
Energiesparfunktion des PC ausgeschaltet werden. Wenn sich diese aktivieren, kann dies zu
Abstürzen des Videokonferenz-Systems oder sogar zum Totalausfall des PC führen.
Überhaupt ist es ratsam, alle anderen Anwendungen zu schließen, welche nicht für die
Konferenz benötigt werden.
8.4.2 Systemmonitor
Videokonferenzsysteme auf dem PC benötigen ständig genügend Rechnerressourcen für
eine zuverlässige Funktion. Bei hoher Belastung des PC steigt auch die Wahrscheinlichkeit
von Engpässen für das Videokonferenzsystem. Dadurch können Aussetzer im Ton oder
Videostörungen hervorgerufen werden.
Um Engpässe erkennen zu können, empfiehlt es sich, die CPU-Belastung zu kontrollieren.
Dazu kann der Systemmonitor von Windows benutzt werden.
Windows 7:
Mit dem Affengriff Strg+Alt+Entf (Ctrl-Alt+Del) kann man den Windows Task-
Manager einblenden und über den Reiter Leistung die CPU-Nutzung und Spei-
cherauslastung des PCs angezeigt bekommen. Hier kann ganz unten auch der
Ressourcenmonitor geöffnet werden.
Oder der Ressourcenmonitor wird im Startbildschirm unter Programme Zube-
hör Systemprogramme gestartet. Hier kann genau verfolgt werden, welche
CPU- und Speicherressourcen das Videokonferenzsystem beansprucht.
Version 3.2 8-10
Windows 8:
Hier wird der Task-Manager mit der Tastenkombination Strg+Shift+Esc geöffnet.
Über den Reiter Leistung findet man die CPU- und Speicherauslastung und den
Ressourcenmonitor.
8.4.3 Windows SoundMixer
Falls Audiosignale über die Soundkarte des PC geführt werden sollen, muss der Mixer
entsprechend eingestellt werden. Hier ist wichtig, dass nur das Audio der entfernten Seite
und nicht auch noch das eigene Mikrofon zur Ausgabe (z.B. Lautsprecher) gelangt.
Zur Aufnahme darf nur das eigene Mikrofon zugeschaltet sein (keine weiteren Quellen).
Diese Einstellungen sind recht fehleranfällig, da erstens der Windowsmixer nicht sehr
übersichtlich ist und zweitens andere Software die Einstellungen verändert. Es wird daher
empfohlen, VC-Systeme mit eigenem Audioausgang lieber direkt und nicht über die
Soundkarte mit dem Lautsprecher zu verbinden.
Weitere Informationen zum Windows SoundMixer finden sich im Kapitel 8.4.3.
8.5 Datenanwendungen
Neben Audio und Video bieten die meisten Systeme noch die Möglichkeit, Datenanwendun-
gen zu benutzen. Aktuelle Systeme bieten dazu die Möglichkeit einer parallelen Übertragung
von Bildschirminhalten. Die verschiedenen Versionen unterscheiden sich allerdings kaum in
der grundlegenden Bedienung, Funktionalität und dem Aussehen.
8.5.1 H.239 – Medien-Kanal und Präsentationen in Videokonferenzen
Die ITU-T Recommendation H.239 ist ein internationaler Standard zur Nutzung, Steuerung
und Kennzeichnung (Labeling) von zwei gleichzeitigen Videokanälen innerhalb einer
einzigen Videokonferenz. Verabschiedet im Juli 2003 durch die ITU-T in Genf ermöglicht
H.239 interoperable Konferenzen zwischen verschiedenen Herstellern sowohl über ISDN
(H.320) als auch IP (H.323) Netzwerke.
Unterschiedliche Hersteller haben zuvor seit 2000 eigene Lösungen patentiert und in die
Anwendung gebracht, wie beispielsweise „People & Content“ von Polycom. Andere Firmen
entwickelten inkompatible Zwei-Kanal Video Technologien (Dual Channel Video). Bereits
Ende 2001 waren wenigstens drei verschiedene inkompatible Systeme unterschiedlicher
Hersteller auf dem Markt. Zwischen diesen unterschiedlichen Lösungen mussten vereinfach-
te Ansätze gefunden werden, die die Interoperabilität zwischen allen Herstellern im Bereich
Video-Konferenzen ermöglichen.
H.239 unterscheidet sogenannte „role label“ beziehungsweise Funktions-Kennzeichnungen
in Live-Video und Präsentations-Video. Der zweite zusätzliche Video-Kanal wird mitunter
auch als sekundärer Medien-Kanal für Daten beziehungsweise als Additional Media Channel
(AMD) bezeichnet. Es gab bereits zuvor einige Standards wie H.323, die schon immer
mehrere Kanäle von Video unterstützten, im Unterschied dazu ergänzt H.239 die Funktionali-
tät des Labels oder Kennzeichnens jedes einzelnen Kanals in einer Konferenz. Diese Rollen-
Label identifizieren die Art der Präsentation für den Betrachter. Damit wird der Konferenz-
Version 3.2 8-11
Technik auch die Möglichkeit eingeräumt, die Bitrate (flow Release Request message) zu
verwalten.
Der Anhang Annex A von H.239 liefert einen standardisierten und generischen Mechanis-
mus, um die Steuer-Nachrichten zwischen H.320 Systemen über ISDN und H.323 über IP zu
übersetzen, so dass Video-Systeme diverser Netzwerke in einer einzigen Konferenz
zusammen fungieren können. Schließlich erweitert Anhang Annex B von H.239 den H.320
Standard um die Unterstützung des zweiten Videokanals (Second oder Additional Media
Channel, AMD).
Soll nun ein H.239-Datenstrom in eine Videokonferenz eingebunden werden, muss jedes
Endgerät, das H.239 unterstützt, während des Verbindungsaufbaus den anderen Geräten
die eigenen Fähigkeiten zur Handhabung der Signalisierung in H.239 mitteilen. Dadurch ist
bekannt, welche Kanalfunktion es unterstützt und im Fall von H.320 Systemen über ISDN,
welche Bitraten für den zweiten Videokanal unterstützt werden.
Während der Konferenz werden die Mitteilungen zu offenen und geschlossenen Videokanä-
len ausgetauscht, die Bitraten zu jedem Kanal verwaltet und gekennzeichnet, welche Rolle
oder Funktion jeder Kanal in einer Konferenz spielt. Diese Rollen-Label ermöglichen dem
Empfänger, jeden Kanal zur besten Anzeige für jeden Typ des Video-Inhaltes zu schicken.
Dabei werden Merkmale oder Kennzeichnungen (Tokens) benutzt, welche Station im
Moment gerade präsentiert. Wenn es eine Mischung aus IP- und ISDN-Stationen gibt,
nutzen Gateways und Bridges die Prozeduren aus Annex A von H.239, um die Mitteilungen
zwischen den Netzwerk-Typen zu übersetzen.
Vorzugsweise wird der Live-Videokanal für Personen in einer Konferenz genutzt. Dabei hat
die Bildwiederholrate (frame rate) für stufenlose weiche Bewegungen Priorität gegenüber
erhöhter Detailauflösung. Dieser Live-Videokanal wird entsprechend vorzugsweise auf
Fernseh- oder Videomonitoren dargestellt.
Der zweite zusätzliche Präsentations-Kanal wird dagegen vorzugsweise für Präsentationsvi-
deos wie Dias, Folien, Tabellen-Kalkulation, Dokumente und andere Daten-Inhalte genutzt.
Die Kennzeichnung erfolgt so, dass eine einzige Präsentation an alle Beteiligten in einer
Konferenz verteilt wird. Hierbei erhält eine hohe Auflösung für feine Details Priorität gegen-
über der diesmal untergeordneten Bildwiederholrate. Gewöhnlich erfolgt die Wiedergabe auf
Computer-Monitoren oder Projektoren.
Was vom Standard her recht einfach und klar aussieht, scheint in der Praxis jedoch nicht so
einfach und funktionssicher implementiert zu werden. Zunächst wird die maximal bei der
Video-Konferenz verfügbare Bandbreite auf die beiden Video-Kanäle aufgeteilt. Die Art und
Weise der Aufteilung ist sowohl nach Hersteller als auch nach Geräten unterschiedlich. So
müssen für gemischte Umgebungen stets Kompromisse gefunden werden. Dann können die
beiden Video-Kanäle je nach Möglichkeit und unter Berücksichtigung von verbliebener
Bandbreite, Auflösung und bevorzugter Bildwiederhol-Rate auch unterschiedlich komprimiert
werden. Als Video-Codecs werden derzeit H.263 und H.264 in unterschiedlicher Qualität und
Leistungsfähigkeit genutzt.
Bisher waren PC-Präsentationen vorzugsweise im Standard-XGA Format mit 1024x768
Bildpunkten und Live-Video in Standard Definition (SD) PAL-Auflösung mit 768x576 (oder
Version 3.2 8-12
720x576) gleichermaßen im Seitenverhältnis 4:3. Mit Einzug von High Definition (HD)
Auflösungen und der Tendenz zum Breitbild (Wide Screen) hat sich das geändert. PC-
Präsentationen tendieren zum 16:10 Breitbild-Format während für HD-Videos das 16:9 HD-
Format spezifiziert ist. Damit erhöhen sich die Unterschiede dieser drei Formate und
Seitenverhältnisse, was erhebliche Auswirkungen auf die Bandbreite, die Bildauflösung und
die Bildwiederholrate hat. In homogenen Videokonferenzen mit gleichartigen Systemen fallen
diese Unterschiede weniger ins Gewicht. In gemischten Umgebungen kann es durchaus zu
erheblichen Störungen in der Live-Kommunikation oder Grafik-Präsentation kommen.
Viele Hersteller erweitern derzeit die Einstell-Möglichkeit und Fähigkeiten zur Anpassung an
andere Systeme. Dabei kann die automatische Entscheidungsfindung von der jeweiligen
Wahrnehmung oder Absicht durch die Nutzer abweichen.
8.5.2 Virtual Network Computing (VNC)
VNC wurde 1998 als Forschungsprojekt in den Labors von AT&T Labs in Cambridge
entwickelt und entwickelte sich als original Open-Source Cross-Platform Remote Control
Lösung zu einem weltweiten de-facto Standard. Nach Schließung der AT&T Labore
gründeten die VNC-Entwickler 2002 eine neue Firma RealVNC in Großbritannien (UK). Ziel
ist die kommerzielle Weiterentwicklung und Vermarktung des VNC Virtual Network Compu-
ting als innovative Fern-Zugriffsmethode (Remote Access).
VNC steht für Virtual Network Computing. Diese Fern-Steuer Software erlaubt dem Nutzer,
einen entfernten Computer (Server oder Back End) zu sehen und mit ihm zu interagieren.
Das erfolgt durch ein einfaches Programm (Client, Front End oder Viewer) von einem
anderen Computer oder mobilen Gerät im LAN oder Internet. Man greift also virtuell über das
Netzwerk auf entfernte andere Computer zu. Durch den IP/Internet Zugang arbeitet man
plattformunabhängig in einer typischen Umgebung mit Keyboard (Tastatur), Videografik-
Bildschirm und Maus (KVM-Umgebung).
VNC überträgt die graphischen Daten sowie die Informationen zwischen dem Steuerrechner
und dem zu steuernden entfernten Rechner. Auf einen Rechner mit VNC-Server kann von
jedem Endgerät, von jedem Ort aus und über jede Verbindung zugegriffen und die volle
Steuerung übernommen werden. Die Art des Netzwerks ist in diesem Fall nicht relevant,
denn VNC spricht einen PC über dessen IP-Adresse oder dessen Hostnamen (entsprechend
DNS) an. Jeder teilnehmende Rechner kann wahlweise die Rolle von Server oder Cli-
ent/Viewer übernehmen.
VNC deckt mittlerweile einen weiten Bereich von Anwendungen einschließlich System
Administration, IT-Support, Help-Desk-Anwendungen oder Daten- und Grafikpräsentationen
parallel zu Videokonferenzen ab. Dabei kann auch die Einbeziehung mobiler Nutzer von
Unternehmens-, Außendienst- bis zum Heimbereich erfolgen.
Mittels VNC können Videokonferenzen insbesondere bei H.323-Mehrpunktkonferenzen
durch die Übertragung von Bildschirminhalten oder Präsentationen ergänzt werden. Es stellt
damit eine Alternative zu qualitativ nicht ausreichenden oder fehlenden H.239 Video-
Präsentationen dar. Auf dem Rechner, auf dem die Präsentation liegt, wird der VNC-Server
als Back-End gestartet. Ein entfernter Rechner startet den VNC Viewer und wird dann zur
Eingabe der Verbindungs-Details (Connection details) aufgefordert. Hier erfolgt die Eingabe
Version 3.2 8-13
des DNS-Namens oder der IP-Adresse des VNC Servers, auf dem die Präsentation liegt.
Nach erfolgreicher Verbindungsaufnahme vom VNC Viewer zum VNC Server wird auf dem
lokalen Desktop der entfernte Desktop sichtbar und man kann eine Präsentation durch
Empfang einer Bildschirmkopie verfolgen.
8.5.2.1 VNC mit CISCO-MCU
Eine Präsentation auf einem Rechner mit gestartetem VNC-Server kann während einer
Mehrpunktkonferenz auf der CISCO-MCU des DFN auch als H.239-Datenstrom eingebun-
den werden. Dazu wählt man die Option "Add VNC":
Im folgenden Menü gibt man die Adresse des Rechners an, auf dem der VNC-Server
gestartet wurde. Erfordert der Server eine Authentifizierung, so kann diese auch hier
eingeben werden. Zur erfolgreichen Verbindungsaufnahme muss auch der Port angegeben
werden, unter dem der VNC-Server erreichbar ist.
War der Verbindungsaufbau erfolgreich, kann der Präsentationsrechner mit gestartetem
VNC-Server wie gewohnt bedient werden. Alle Teilnehmer der Konferenz empfangen das
aktuelle Bild des Rechners als H.239-Datenstrom.
Version 3.2 8-14
8.5.3 Datenanwendung über Adobe Connect
Mit Hilfe des Webfrontends zur Konferenzsteuerung auf der MCU kann parallel auch ein
Collaboration Tool gestartet werden. Es basiert auf Adobe Connect.
Der Start und Stop der Datenanwendung wird an der oben gekennzeichneten Stelle in der
Weboberfläche durchgeführt. Nach dem Start wird eine Verbindung mit dem Adobe Connect-
Server hergestellt.
Zum vollständigen Abschluss des Vorganges sind noch die Eingabe der Konferenznummer,
des Konferenzpasswortes und eines Namens nötig. Der hier eingegebene Name wird später
allen Teilnehmern der Datenanwendung als Nickname angezeigt.
Die Oberfläche ist jener des Webconferencing sehr ähnlich. Aber es ist nur der Teil der
Collaboration, welcher verwendet wird. Die Audio- und Videoverbindung wird weiterhin über
die MCU gesteuert.
Version 3.2 8-15
Version 3.2 9-1
9 Vorbereitungen für eine Videokonferenz
9.1 Vorbereitung mit neuen Partnern
Die Vorbereitung auf eine Videokonferenz mit einem neuen Partner ist von großer Bedeu-
tung, weil es entscheidenden Einfluss auf die Qualität der weiteren Zusammenarbeit haben
wird. Aus technischer Sicht ist es wichtig zu wissen, welche Endgeräte an der Konferenz
beteiligt sind.
Vor dem ersten Kontakt per Videokonferenz sollte eine kurze Vorstellung mit Hilfe eines
anderen Kommunikationsmediums erfolgen. Sehr hilfreich ist bei komplexen Themen auch
eine kurze Zusammenfassung, welche vorher den anderen Teilnehmern per E-Mail zuge-
sendet wird. Besonders bei internationalen Kontakten ist dies wichtig, weil hier schon in
Ruhe (oftmals sind die Dokumente in einer Fremdsprache) die Konferenz vorbereitet werden
kann.
9.2 Technische und organisatorische Vorbereitungen
In größeren Konferenzen sollten die Rollen „Teilnehmer“ und „Administrator“ nach Möglich-
keit getrennt werden.
Es hat sich nicht bewährt, wenn ein Konferenzteilnehmer die Technik mit bedient - auch
dann nicht, wenn die Bedienung nicht schwer ist und er sich damit auskennt. Wird das
Gespräch interessant, vergisst er doch die Kamera nachzuführen oder ist zeitweise überfor-
dert, weil Zuhören, Bedienen, Umschalten und Wortmeldung zugleich einfach zu viele
Aufgaben sind.
Etwa 24 Stunden vor Beginn der Videokonferenz sollten noch einmal alle Verbindungen
zwischen den Teilnehmern überprüft werden. Bei internationalen Konferenzen sollte dies,
wenn möglich, noch früher geschehen. Empfehlenswert sind hier im Vorfeld auch Tests zu
verschiedenen Tageszeiten, um einen optimalen Zeitpunkt zu ermitteln. Innerhalb der Tests
sollte die Verfügbarkeit der Teilnehmer und eventuell des Videokonferenzraumes geprüft
werden. Es sollten unbedingt alle Beteiligten gleichzeitig in der Videokonferenz anwesend
sein. Die unterschiedlichen Laufzeiten der Datenpakete bewirken unter Umständen unter-
schiedliche Reaktionszeiten, auf die sich alle Teilnehmer einstellen müssen.
Selbstverständlich sollte der Test am Vortag mit den gleichen Geräten durchgeführt werden,
welche dann auch in der Konferenz benutzt werden. Auch sollte der Aufbau nicht unnötig
komplex gewählt werden. Solche Ideen wie "dann schließen wir über den Umschalter noch
den Ton vom PC an und schalten dann beim Folienwechsel noch auf ein Bild von der
anderen Kamera um" usw. gehen ohne Proben meist schief und stören mehr als sie nutzen.
Falls eine Konferenz mit Hilfe einer MCU (Multipoint Control Unit) geplant ist, sollten die
Einwahlnummern zur MCU vorher getestet werden. In diesem Fall ist die Festlegung eines
Konferenzleiters empfehlenswert, der im Umgang mit der MCU geübt ist. Zumindest sollte
aber ein Ansprechpartner für eventuelle Probleme bekannt sein.
Es sollte auch geklärt werden, wer wen anruft oder bei einer MCU einlädt. Für Probleme
sollten die Telefonnummern der Partner sowohl im Konferenzraum selbst als auch am
Arbeitsplatz bekannt sein.
Version 3.2 9-2
Bei einer sprachgesteuerten MCU sollte dem Tontest erhöhte Aufmerksamkeit gewidmet
werden. Die Probleme mit dem Ton (Störgeräusche, Echos, falscher Pegel/Impedanz, etc.)
werden oft unterschätzt. Durch den problembehafteten Ton eines Teilnehmers kann eine
Mehrpunkt-Konferenz bis zur Unbrauchbarkeit gestört werden.
Eine Videokonferenz sollte nicht länger als ein bis zwei Stunden dauern. Längere Konferen-
zen sollten in zwei oder mehr Sitzungen aufgeteilt werden. Um den Zeitplan einhalten zu
können, sollte eine übersichtliche Agenda mit angestrebten Zielen des Treffens aufgestellt
werden, auf welcher gleichzeitig die Tagesordnungspunkte nach ihrer Wichtigkeit geordnet
sind, um die Zeit effizient zu nutzen. Die Tagesordnung, Skripte, Präsentationen und Folien
sollten rechtzeitig vorher allen Teilnehmern zugestellt werden, damit diese sich mit den
Themen der Konferenz vertraut machen können, was eine aktive Teilnahme fördert.
Überraschende Änderungen der Themen und des Ablaufes sind weitestgehend zu vermei-
den.
Bei Nutzung einer MCU werden zu Beginn der Konferenz kurzzeitig die H.323 Namen der
beteiligten Videokonferenzstandorte bzw -geräte eingeblendet. Vorteilhaft ist es, wenn die
Teilnehmer vor sich ein Schild platzieren (Abbildung 15), auf welchem der eigene Name
steht. Zumindest sollte aber ein Schild mit dem Namen des Standortes vor jeder Gruppe
stehen und für die anderen zu sehen sein.
Abbildung 15: Konferenz mit Namensschild des Standortes
Die Rückseite kann gleich für die Speicherung wichtiger Informationen, z.B. die eigene
Rufnummer und IP-Adresse (Abbildung 16), verwendet werden.
Abbildung 16: Beispiel der Rückseite eines Standortschildes
Version 3.2 9-3
Die Verbindung sollte dann nach Möglichkeit 10 – 15 Minuten vor dem vereinbarten
Starttermin aufgebaut werden.
In der Arbeitsumgebung sollte man alle Personen informieren, dass man eine Videokonfe-
renz abhält und nicht gestört werden will. Alle Teilnehmer sollten ihre Handys ausschalten
und sich auf die Konferenz konzentrieren.
9.3 Der Moderator in einer Mehrpunktkonferenz
Eine MCU-Konferenz wird durch einen Moderator geleitet, der die Regeln für eine erfolgrei-
che Sitzung vorgibt. Es muss schon im Vorfeld geklärt werden, wer diese Rolle übernimmt.
Falls sich die Teilnehmer nicht kennen, sollte allen die Gelegenheit gegeben werden, sich
kurz vorzustellen. Dadurch wird jeder Teilnehmer mit der Stimme der anderen vertraut, was
vor allem bei internationalen Konferenzen wichtig ist. Danach sollte noch einmal die
Tagesordnung besprochen werden, damit jeder Teilnehmer weiß, was von ihm erwartet wird.
Die Tatsache, dass in einer sprachgesteuerten MCU-Konferenz möglicherweise nur der
Teilnehmer zu sehen ist, welcher gerade spricht, kann bei ungeübten Teilnehmern zu
Verwirrung führen. Hier ist der Moderator gefordert, der sowohl sehr genau über das Thema
Bescheid wissen muss, als auch viel Erfahrung mit Videokonferenzen haben sollte.
9.4 Gestaltung von visuellen Hilfsmitteln
Für eine optimale Qualität der Folien oder Präsentationen sollten einige Punkte beachtet
werden:
ein dunkler Hintergrund mit großen hellen Buchstaben ist gut lesbar (z.B. Weiß
auf Blau)
die Schriftgröße mindestens 24
klare Schriften, z.B. Helvetica oder Arial verwenden
Großbuchstaben sind schlechter als Kleinbuchstaben zu lesen
Querformat ist besser als Hochformat (auf Grund der Abmessungen der Ausga-
begeräte)
eine Seite sollte nicht zu viele Informationen beinhalten
ein Bild sagt mehr als 1000 Worte
Um nach einem Vortrag eine Diskussion zu beginnen, kann dieser noch einmal mit wenigen
Worten zusammengefasst werden.
Die Übertragung von Folien mittels einer Videokamera ist nicht zu empfehlen. Hier bietet sich
der Einsatz von speziellen Dokumentenkameras mit entsprechend hoher Bildauflösung an.
Für die Übertragung von Dokumenten und Folien steht der Standard H.239 zur Verfügung
(siehe auch Kapitel 6.1).
Version 3.2 10-1
10 Durchführung einer Videokonferenz
10.1 Einwahlmöglichkeiten
Beim Aufbau einer Videokonferenz unterscheidet man zwischen einer Punkt-zu-Punkt-
Verbindung und der Teilnahme an Mehrpunktkonferenzen. Für letzteres steht der Dienst
DFNVideoConference zur Verfügung.
Die einzelnen Einwahlmöglichkeiten werden am Beispiel des Software-Clients Polycom
RealPresence Desktop gezeigt. Für andere Videokonferenz-Systeme sind die entsprechen-
den Eingabemöglichkeiten gegebenenfalls nachzuschlagen.
10.1.1 Punkt-zu-Punkt-Verbindung
Eine Punkt-zu-Punkt-Verbindung ist eine Videokonferenz zwischen zwei VC-Geräten. Diese
Systeme müssen beidseitig dasselbe Protokoll beherrschen. Diese Voraussetzung erfüllen
die ITU-Standards H.323 oder auch H.320. Das sind im Allgemeinen VC-Geräte der Firmen
Cisco, Polycom, Avaya Scopia, LifeSize und Sony.
Der Aufbau der Videokonferenz erfolgt durch Eingabe und Anwahl der IP-Adresse des zu
rufenden VC-Gerätes (Abbildung 17). die vorab in Erfahrung gebracht werden muss.
Abbildung 17: Anruf über IP-Adresse
10.1.2 Mehrpunktkonferenzen
Eine Mehrpunktkonferenz startet automatisch, sobald sich das erste VC-Gerät mit der MCU
(Multipoint Control Unit) verbindet. Der Verbindungsaufbau geschieht über die sogenannte
Konferenznummer. Hierzu muss das VC-Gerät an einem Gatekeeper angemeldet sein, der
mit dem internationalen Gatekeeperverbund GDS verbunden ist. Alternativ kann sich ein
ISDN-fähiges VC-Gerät über ein ISDN-H.323-Gateway einwählen (vgl. Kapitel 3.3: Gateway
H.320 / H.323 im Dienst DFNVideoconference).
MCU-Rufe erfolgen durch die Verwendung von E.164-Aliasen. Beim Anruf werden sowohl
die entsprechende MCU als auch die gewünschte Konferenz-ID gerufen. Die Konferenz-ID
ist die Konferenz-Identifikation als eindeutige numerische Bezeichnung der Konferenz. Im
Falle der MCU des DFN ist das z.B. 004910097918168; Abbildung 18 und Abbildung 19.
Version 3.2 10-2
Abbildung 18: Einwahl in eine Mehrpunktkonferenz
Der erste Teil der Nummer (0049100) stellt dabei die Rufzone im Gatekeeperbereich dar.
Danach folgt die KonferenzID (97918168). Jeder Konferenzteilnehmer kann sich über diese
Wählfolge in die Konferenz einwählen, solange er in der Gatekeeperstruktur angemeldet ist.
Abbildung 19: Mehrpunktkonferenz mit 6 Teilnehmern
Teilnehmer mit einem ISDN-fähigen VC-Gerät können durch Nutzung eines ISDN-H.323-
Gateways ebenfalls an der Mehrpunktkonferenz teilnehmen, indem Sie die Gatewaynummer
gefolgt von der Konferenznummer wählen.
Für Teilnehmer, die keinen Gatekeeper zur Verfügung haben, gibt es die Einwahlmöglichkeit
über das sogenannte URI-Dialing. Die dafür verwendete Syntax ist geräteherstellerabhängig.
Version 3.2 10-3
Oftmals wird die Syntax [email protected] oder vc.dfn.de##KonferenzID verwendet.
Optional ist auch noch die Syntax [email protected] oder
mcu.vc.dfn.de##KonferenzID möglich. Gerätespezifische Hinweise finden Sie unter
http://vcc.zih.tu-dresden.de/index.php?linkid=1.1.3.4.
Eine weitere Möglichkeit, an einer Mehrpunktkonferenz teilzunehmen, stellt die Einwahl
mittels eines SIP fähigen VC-Gerätes dar oder mobile Clients unter Android/iOS. Hierfür
erfolgt die Einwahl in die Konferenz mit: [email protected] oder Konferen-
[email protected]. Eine Registrierung an einem SIP Proxy ist nicht notwendig (vgl. Kapitel
3.1.2).
Weiterhin gibt es noch die Möglichkeit, über die Weboberfläche der MCU weitere Teilnehmer
einzuladen. Dabei werden entweder die IP-Adressen oder die E.164-Nummern der VC-
Geräte angewählt und somit der Konferenz hinzugefügt. Mit der E.164-Nummer ist ein VC-
Gerät eindeutig einem Gatekeeper zugeordnet (siehe auch Kapitel 7.2).
10.2 Verhalten in der Videokonferenz
Ein echter Blickkontakt ist während einer Videokonferenz leider nicht möglich. Wenn man auf
den Monitor schaut, um den Partner zu sehen, hat dieser den Eindruck, dass man an ihm
vorbeischaut. Nur ein direkter Blick in die Kamera vermittelt das Gefühl, direkt in die Augen
des Gesprächspartners zu sehen, allerdings sieht man so den Partner selbst nicht mehr.
Dieses Dilemma lässt sich ein wenig beheben, indem die Kamera direkt über dem Video des
Partners auf dem Monitor platziert wird. Beim Sprechen sollte man in die Kamera schauen,
beim Zuhören auf das Videobild des Gegenübers. Dies ist zwar nur ein Kompromiss, jedoch
die beste Methode, um einen Blickkontakt zu simulieren.
Bei längeren Sprechpausen sollte das Mikrofon bei lauten Umgebungsgeräuschen abge-
schaltet werden, um nicht ständig alle Hintergrundgeräusche zu übertragen. Bei einer
sprachgesteuerten MCU kämen so Teilnehmer ins Bild, welche zwar nicht sprechen, aber
andere Geräusche verursachen (z.B. durch Verrücken des Stuhles). Durch das Ausschalten
des Mikrofons werden auch Echos vermieden, die bei Mehrpunktkonferenzen bisweilen
auftreten können. Das Ausschalten des Mikrofons sollte den Gegenseiten mitgeteilt werden,
weil diese sonst mit hoher Wahrscheinlichkeit eine technische Störung vermuten, wenn sich
die Gegenseite unterhält, aber nichts zu hören ist. Es ist günstig, etwas lauter als gewöhnlich
zu sprechen, aber keinesfalls muss man für eine ordnungsgemäße Kommunikation schreien.
Für mehr Beteiligung kann man sorgen, indem Fragen gestellt und andere mit in die
Diskussion eingebunden werden. Je mehr Leute teilnehmen, desto schneller gewöhnen sie
sich an diese Kommunikationsform.
Häufige und schnelle Bewegungen sind bei Verbindungen mit geringer Bandbreite zu
vermeiden. Auf Grund der eingeschränkten Video-Übertragungsrate dauert der Bildaufbau
beim Gesprächspartner sonst zu lange und beeinträchtigt den Verlauf der Videokonferenz
übermäßig.
Version 3.2 10-4
Wenn auf Dokumentenkamera oder Präsentationsmodus umgeschaltet wird, um Anschau-
ungsmaterial zu zeigen, darf nicht vergessen werden, dieses zurückzuschalten, wenn die
Diskussion fortgesetzt wird.
Die Sendung eines Standbildes sollte vorher angekündigt werden, da es sonst bei den
Gegenstellen zu Unklarheiten kommen kann.
Nach dem Ende der Konferenz sollte man sich vergewissern, dass die Verbindung auch
wirklich getrennt wurde.
Version 3.2 A-1
Anhang A: Die wichtigsten Standards der Audiokodierung
Standard Bandbreiten-
bedarf in kbps
Audioband-
breite in kHz Basis - Algorithmus
G.711 64 3,1 PCM (Pulse Code Modulation)
G.721 32 3.1 ADPCM (Adaptive PCM)
G.722 48, 56 oder 64 bis 7 SB-ADPCM (Sub Band ADPCM)
G.722.1 24 oder 32 bis 7 -
G.722.1C
(Siren 14) 24, 32 oder 48 bis 14 -
G.723 5,3 oder 6,3 5,3 MP-MLQ (Multipulse Maximum
Likelyhood Quantization)
G.726 16 oder 24 3 ADPCM (Adaptive PCM)
G.727 32 oder 40 3 ADPCM (Adaptive PCM)
G.728 16 2.4 - 3 LD-CELP (Low Delay Code Excited
Linear Prediction)
G.729 8 3 CS-ACELP (Conjugate Structure
Algebraic Code Excited Linear
Predictive)
AAC-LD 24, 48, 96 oder 128 11 MPEG4-AAC (MPEG4 Advanced
Audio Coding)
G.711
G.711 basiert auf dem Verfahren Audio PCM (Pulse Code Modulation). Es transformiert
ein analoges Audiosignal bei einer Abtastrate von 8 kHz kompressionsfrei in digitales
Signal mit einer Auflösung von 8 bit und einer Bandbreite von 64 kbps.
G.711 ist einfach zu implementieren und liefert Signale mit einer ausreichenden Qualität.
Allerdings eignet es sich aufgrund seiner hohen Bitrate von 64 kbit/s nicht für den Einsatz
über Verbindungen mit geringer Bandbreite sowie wegen des Mangels an Fehlererken-
nungs- oder Fehlerkorrekturmechanismen auch nicht für den Einsatz über störanfällige
Netze.
G.721
Eine Empfehlung der ITU-T, die definiert, wie eine 8 kHz Samplingrate mit Hilfe der
Adaptive Differential Pulse Code Modulation (ADPCM) in einen 32kbps-Datenstrom
gewandelt wird. Dabei wird der Unterschied zwischen benachbarten Signalen ausgewer-
tet und daraus eine Vorhersage für das nächste Signal generiert.
G.722
G.722 ist ein Audiocodec, welcher 1988 von der ITU verabschiedet wurde.
Version 3.2 A-2
Mittels einer Abtastrate von 16 kHz werden die Signale mit 14 bit quantisiert. Der Codec
umfaßt eine Bandbreite von 7 kHz und keinen Mechanismus zur Fehlerkorrektur.
Die Datenübertragungsrate kann in drei Modi geschehen:
- 48 kbps
- 56 kbps
- 64 kbps
Für diese Komprimierung wird ein Kodierer verwendet, welcher auf ADPCM aufbaut.
G.722.1
G.722.1 ist ein Audiocodec, welcher auf dem Verfahren der Firma Polycom Siren7 ba-
siert. Die Abtastrate beträgt 16 kHz bei einem Frequenzband von 7 kHz, welche mittels
24 oder 32 kbps übertragen werden.
Eine Übertragung mit 16 kpbs ist nicht implementiert.
Die Algorithmen bei G.722.1 und Siren7 sind identisch, aber das Datenformat ist unter-
schiedlich.
G.722.1C beschreibt die Variante mit 14 kHz Frequenzband, welche die monophone
Version von Siren14 darstellt.
G.722.2
G.722.2 ist ein komprimierendes Verfahren zur Audioübertragung, welches technisch von
G.722 grundsätzlich verschieden ist. Die Sprachkompression wird mittels des Verfahrens
AMR-WB (Adaptive Multirate Wideband) realisiert.
Das Verfahren hat eine Bandbreite von 7 kHz, neun wählbare Bitraten und Sprachpau-
senerkennung. Es wird von allen Mobilfunksystemen unterstützt und wird für VoIP und
Webkonferenzen eingesetzt.
G.723
Eine Empfehlung der ITU-T mit dem Titel 'Dual Rate Speech Coder for Multimedia Com-
munication Transmitting at 5.3 and 6.4 kbps'. Die Verzögerungszeit ist mit 67-97 ms
allerdings sehr hoch.
G.726/G.727
Zwei Empfehlungen der ITU-T auf Grundlage des ADPCM-Verfahrens für unterschiedli-
che Bandbreiten. Die Sprachqualität ist zwar besser als jene von G.711, aber schlechter
als bei allen anderen G.72x-Standards.
G.728
G.728 ist ein ITU-Standard, welcher zur Komprimierung von Sprache eingesetzt wird.
Sein Haupteinsatzgebiet liegt im Bereich von VoIP.
Version 3.2 A-3
Er zeichnet sich durch eine geringe Latenz aus. Sie wird durch eine Schätzfunktion er-
reicht, welche immer aktuell aus den letzten fünf Abtastwerten gebildet wird.
Er ist besonders bei geringen Bandbreiten sehr leistungsstark, was durch eine hohe
Komplexität erkauft wird. Die Qualität wird ebenbürtig zu G.726 und G.727 angesehen.
G.728 besitzt Strategien zum Verbergen von Rahmen- und Paketverlusten und ist sehr
stabil gegenüber Bitfehlern.
G.729
G.729 ist ein ITU-Standard, welcher in seiner Qualität mit G.723 vergleichbar ist. Er ist
ein sogenannter Regenbogenstandard, welcher in 12 verschiedenen Varianten (Stand:
26.03.2014) verfügbar ist. Für eine ordnungsgemäße Übertragung müssen beide Seiten
dieselbe Variante (Anhang, Annex) beherrschen.
Der Codec ist für die Übertragung der menschlichen Sprache optimiert, andere Geräu-
sche werden nur unzureichend verarbeitet. Da auch Sprachpausen unterdrückt werden,
muß im praktischen Einsatz zur Vermeidung von irrtümlich angenommenen Verbin-
dungsbeendigungen, ein sogenanntes Komfortrauschen erzeugt werden.
Der Standard kommt vorwiegend im Bereich VoIP zum Einsatz.
Version 3.2 B-1
Anhang B: Videonormen
Die Darstellung von Bildern als Video erfordert mehr als 15 Bilder pro Sekunde. Dann kann
das Auge es als Film wahrnehmen. Für die Farbinformationen sind für jeden Bildpunkt 24 Bit
notwendig. Kompressionsalgorithmen nutzen die Zusammenhänge der Pixel sowohl
innerhalb eines Bildes als auch zwischen den aufeinander folgenden Bildern. Dadurch
können mit der Komprimierung räumliche und zeitliche Redundanzen ausgenutzt werden.
H.261
H.261 war der erste digitale Standard für die Kodierung von bewegten Bildern. Er wurde
1988 von der ITU verabschiedet.
Der Standard bildet die Grundlage, um über ISDN-Leitungen Videokonferenzen betreiben zu
können. Die notwendige Reduktion der Bilddaten für die geringe Bandbreite wird mittels des
DPCM-Verfahrens durchgeführt.
Die maximale Verzögerungszeit für Kompression und Dekompression wird im Standard mit
150 ms definiert. Neben einigen anderen Mechanismen wird ein Vorhersagemodell für die
nachfolgende Bildsequenz durch Intra- und Predicted-Frames verwendet.
H.262
H.262 ist eine andere Bezeichnung für MPEG-2 Part 3. Er definiert einen Videocodec,
welcher vorrangig für die Kodierung von DVDs verwendet wird. Bei Videokonferenzen findet
er keine Anwendung.
H.263
H.263 ist ein ITU-Standard, welcher zur Videokodierung eingesetzt wird. Er ist eine Weiter-
entwicklung von H.261, wobei aber seine Kompressionsrate deutlich verbessert wurde.
H.263 ist für niedrige Datenübertragungsraten und Sequenzen mit relativ wenig Bewegung
optimiert.
Er fand Eingang in MPEG-4 Part 2.
H.264
H.264 ist die ITU-Bezeichnung für einen Videokompressionsalgorithmus, welcher zusammen
mit der MPEG entwickelt wurde. Der wortgleiche Standard heißt dort MPEG-4/AVC und ist
Part 10 von MPEG-4.
H.264 baut sowohl auf den Vorgängern der ITU (H.261,H.263) als auch der MPEG (MPEG-
1, MPEG-2) auf. Die deutliche Weiterentwicklung führt bei Videokonferenzen mit gleicher
Bildqualität zu einer Datenreduktion auf die Hälfte gegenüber H.263.
H.265
H.265 ist eine andere Bezeichnung für den Standard High Efficiency Video Coding (HEVC).
Er wurde gemeinsam durch die Moving Picture Experts Group (MPEG) und die International
Telecommunication Union (ITU) entwickelt.
Er besitzt eine im Vergleich zu H.264 doppelt so starke Kompression ohne Qualitätsverlust
und kann Bildgrößen zwischen 320x240 bis 8192x4320 darstellen.
Version 3.2 C-1
Anhang C: Übersicht über Videoformate
Mit dem Begriff Videoformat wird zusammenfassend die Spezifikation eines Videos hinsicht-
lich
seiner Bildauflösung
des Seitenverhältnisses
der Bildwiederholfrequenz
der Farbtiefe
beschrieben.
Bildauflösung
Die Bildauflösung gibt die Anzahl der Bildpunkte an. Sie wird in Höhe x Breite angege-
ben. Im Bereich der Videokonferenz gibt es Auflösungen mit eigenem Namen, welche
sich aus den ITU-Standards ableiten.
Bildformat Auflösung
(x,y) Übertragungs-
protokoll
Bitrate (Mbit/s) (unkomprimiert)
10 Bilder/s 30 Bilder/s
s/w Farbe s/w Farbe
8 Bit 24 Bit 8 Bit 24 Bit
SQCIF 128 96 - H.263 H.264 1,0 2,8 2,9 8,6
QCIF 176 144 H.261 H.263 H.264 2,0 6,0 5,9 17,8
1/4 NTSC 320 240 - - - 6,0 18,0 18,0 54,0
CIF 352 288 H.261 H.263 H.264 7,9 23,8 23,8 71,2
1/4 PAL 384 288 - - - 8,6 26,0 25,9 77,8
VGA / NTSC 640 480 - - - 24,0 72,0 72,0 216,0
4 CIF 704 576 - H.263 H.264 31,7 85,0 95,0 285,2
PAL 768 576 - - - 34,6 103,6 103,7 311,0
SVGA 800 600 - - H.264 38,4 115,2 115,2 345,6
XGA 1024 768 - - H.264 62,9 188,7 188,7 566,2
SXGA 1280 1024 - - H.264 104,9 314,6 314,6 943,7
WXGA (16:9) 1024 576 - - H.264 47,2 141,6 141,6 424,7
WXGA (8:5) 1280 800 - - H.264 81,9 245,8 245,8 737,3
UXGA 1600 1200 - - H.264 153,6 460,8 460,8 1382,4
QXGA 2048 1536 - - H.264 251,7 755,0 755,0 2264,9
720p 1280 720 - - H.264 73,7 221,2 221,2 663,6
16 CIF 1408 1152 - H.263 H.264 129,8 389,3 389,3 1167,9
1080p 1920 1080 - - H.264 165,9 497,7 497,7 1493,0
Tabelle 3: Videostandards
Im Übertragungsprotokoll H.264 sind nur maximale Obergrenzen für die Bildformate
definiert.
Version 3.2 C-2
Seitenverhältnis
Das Seitenverhältnis definiert die Anzahl der Bildpunkte in der Höhe zur Anzahl der Bild-
punkte in der Breite.Im praktischen Gebrauch haben sich in der IT-Technik die Varianten
4:3, 5:4, 16:9 und 16:10 durchgesetzt.
Eine Wiedergabe von abweichenden Formaten wird mittels Streckung oder Stauchung
des empfangenen Bildes realisiert. Das kann zu Informationsverlusten oder Bildverfäl-
schungen führen.
Die Standards wurden inzwischen durch weitere (nicht standardisierte) Varianten durch
die Industrie erweitert:
- Q - Quarter (ein Viertel)
- Q - Quad (das Vierfache)
- W- Wide (für Anzeigen im 16:9- und 16:10-Bereich)
- U - Ultra (für Anzeigen im 4:3-Bereich)
- H - Hex (das Sechzehnfache)
Alle Varianten, welche kleiner als VGA sind, werden momentan nur noch im Bereich von
Smartphones eingesetzt.
Bildwiederholfrequenz
Die Bildwiederholfrequenz gibt die Anzahl der Einzelbilder pro Sekunde an, die in dieser
Zeiteinheit wiedergegeben oder aufgenommen werden.
Sie wird in Hertz (Hz) oder auch Frames per Second (fps) angegeben. Bei mehr als 30
Bildern pro Sekunde nimmt das menschliche Auge diese als flüssige Abfolge wahr.
Farbtiefe
Die Farbtiefe kennzeichnet die Helligkeits- und Farbwerte eines Bildes. Die Angaben
werden zusammen mit dem Bild gespeichert.
Die Angabe der Farbtiefe wird in Bit vorgenommen. Am häufigsten wird der RGB-
Farbraum verwendet, wo die Farben Rot, Grün und Blau für die Mischung der resultie-
renden Anzeige verwendet werden. Bei 24 Bit Farbtiefe werden für jeden Kanal 8 Bit
verwendet, wodurch theoretisch 16.777.216 verschiedene Farben möglich sind.
Version 3.2 D-1
Anhang D: Einfluss von Paketverlusten auf die Videoqualität
Die folgenden Bilder wurden uns freundlicherweise von David Gutierrez und Tyrus Valascho
zur Verfügung gestellt. Beide sind Mitarbeiter der Stanford University im Electrical Enginee-
ring Department.
Sie untersuchten im Frühjahr 2001 den Einfluss von Paketverlusten auf die Qualität einer
Videokonferenz. Das Experiment wurde mittels des NISTNet-Emulators durchgeführt. Dieser
kann verschiedene Netzwerkparameter simulieren, z.B. Paketverluste, Verzögerungen,
Bildschwankungen und andere. Für diese Untersuchung wurde nur die Verlustrate verändert.
Die verwendete Videokonferenz-Software war Microsoft NetMeeting. Bei jedem Versuch
wurden Bewegungen simuliert, um die Qualität auch bei Bewegtbildern abschätzen zu
können.
1 % Paketverlust
2 % Paketverlust
Version 3.2 D-2
3 % Paketverlust
4 % Paketverlust
5 % Paketverlust
Version 3.2 D-3
6 % Paketverlust
7 % Paketverlust
8 % Paketverlust
Version 3.2 D-4
9 % Paketverlust
10 % Paketver-
lust
20 % Paketver-
lust
Version 3.2 D-5
50 % Paketver-
lust
Version 3.2 E-1
Anhang E: Questionnaire zur Vorbereitung einer Videokonferenz
Bei Videokonferenzen mit neuen Partnern müssen vorher (z.B. per E-Mail) einige Daten
ausgetauscht werden, die für die Durchführung aus technischer und organisatorischer Sicht
notwendig sind.
Das hier vorgestellte Formular soll Ihnen dabei helfen, keinen Punkt zu vergessen. Die in
kursiver Schrift gehaltenen Teile sind an die Gegebenheiten Ihrer Einrichtung anzupassen.
Allgemeine Angaben
Datum / Zeit in UTC-Notation (GMT) der geplanten Videokonferenz:
………………………………………………………………………………………............................
Ungefähre Dauer:
………………………………………………………………………………………............................
Die Einwahl in die Konferenz sollte etwa 15 Minuten vorher geschehen. Falls Fragen auftauchen, hilft Ihnen das VCC gern weiter.
Geplante Teilnehmer:
1) TU Dresden, Germany
2) .......................................................................................................................................................
3) .......................................................................................................................................................
4) .......................................................................................................................................................
etc.
Die Konferenz wird einen zweiten Kanal benötigen, um
(bitte das entsprechende Kästchen ankreuzen)
[ ] den Bildschirm eines Computers oder Laptops darzustellen
[ ] Bilder / Folien eines Vortrags / PowerPoint darzustellen
[ ] Video / bewegte Bilder darzustellen
[ ] Es wird nur Audio und Video benötigt.
Version 3.2 E-2
Ortspezifische Angaben
(Diesen Teil bitte an alle teilnehmenden Standorte verteilen und ausfüllen lassen.)
Ort: Videokonferenzraum an der TU Dresden
Name des Teilnehmers (falls mehr als eine Person an diesem Ort, bitte die leitende Person nennen):
………………………………………………………………………………………............................
E-Mail (der Person oberhalb):
………………………………………………………………………………………............................
Telefon (Büro):
………………………………………………………………………………………............................
Lokale Zeit zu der Konferenz geplant ist:
………………………………………………………………………………………............................
Technische Daten
Telefon im Konferenzraum:
………………………………………………………………………………………............................
Technische Koordination:
………………………………………………………………………………………............................
E-Mail (der Person oberhalb):
………………………………………………………………………………………............................
Telefon (Büro):
………………………………………………………………………………………............................
Das lokale Videokonferenzsystem kann Verbindungen einrichten:
[ ] über Telefon / ISDN / H.320
[ ] über Internet / IP / H.323
Das lokale Videokonferenzsystem nimmt eingehende Anrufe an:
[ ] ja
[ ] nein
Das lokale Videokonferenzsystem ist über IP-Adresse erreichbar
[ ] ja, die IP ist: ………………………………………………………………………
[ ] nein
Version 3.2 E-3
Das lokale Videokonferenzsystem kann E.164-Nummern nutzen (über GDS-konformen Gatekee-per):
[ ] ja, die zu wählende Folge ist ……………………………………………............................
[ ] nein
Die bevorzugte und maximale Bandbreite sind:
bevorzugt: ………………………………………………………………............................
maximal: ……………………………………...……………………............................
Falls ein zweiter Kanal gebraucht wird, ist die folgende Technik verfügbar:
[ ] VNC
[ ] H.239
[ ] es gibt keine Technik, um einen zweiten Bildkanal zu empfangen
Version 3.2 F-1
Anhang F: 10 Regeln für ein gelungenes Online-Meeting
1. Pünktlichkeit
Es sollte eigentlich selbstverständlich sein, zu einer Besprechung, pünktlich zu erscheinen.
Bei Online-Veranstaltungen ist es aber noch störender als sonst, wenn eine nicht sichtbare
äußere Lärmquelle bei den Gegenstellen zu hören und nicht zu sehen ist.
2. Anordnung der Teilnehmer
Die technisch vermittelte Kommunikation bringt es mit sich, dass die Gegenstellen nur das
sehen können, was der Sender zeigen will. Jedoch sollte der Eindruck nicht einsehbarer
Stellen vermieden werden, wenn dort aktive Teilnehmer des Online-Meetings sitzen. Für die
Gegenstellen ist es sehr irritierend und unter Umständen verringert sich zusätzlich auch die
Verständlichkeit des gesprochenen Wortes, wenn manche Stimmen aus dem Raum nur zu
hören sind.
3. Wahl der Kleidung
Bei Videokonferenzen wird die Qualität des übermittelten Bildes von der Leistungsfähigkeit
der Systeme festgelegt. Das gilt natürlich auch für die Kleidung der Teilnehmer. Nadelstrei-
fen kommen als solche nicht auf der Gegenstelle an, Farben können verfälscht werden und
Karos neigen zu Moiré-Mustern im Bild der Gegenstelle.
4. Vermeidung von Nebengeräuschen
Die für Videokonferenzen eingesetzten Mikrofone nehmen unbestechlich jeden Ton auf. Was
unser Gehirn als unwichtig wegfiltert, wird von der Technik präzise übertragen. Hier klappert
ein Löffel in der Tasse, da wird der Stuhl gerückt und dort wird mit Papier geraschelt. Alle
diese Geräusche kommen gut hörbar auf der Gegenseite an. Sie beeinträchtigen die
Konzentration genauso wie andere externe Störungen, die man prinzipiell so gut es geht
vermeiden sollte.
5. Klare Aussprache
Bei Videokonferenzen sind die Rückmeldungen technisch bedingt zeitversetzt. Es ist
erwiesen, dass die Qualität des Audiokanals über den Erfolg eines virtuellen Meetings
entscheidet. Eine undeutliche oder genuschelte Botschaft führt zu einer Reihe von Rückfra-
gen und Unterbrechungen, denen man von vornherein durch eine klare und deutliche
Aussprache begegnen kann.
6. Moderator festlegen
Virtuelle Treffen neigen ohne Moderator leicht dazu, in einzelne, örtlich getrennte Diskussi-
onsrunden abzugleiten. Deshalb sollte jemand die Leitung der Sitzung übernehmen, der
aktiv das Handeln aller führt.
7. Die eigenen Reaktionen
In einem Gespräch vor Ort können wir sehr schnell entscheiden, ob der Partner nur eine
Sprechpause macht oder ob er seine Rede beendet hat. Bei einem Online-Meeting kann
Version 3.2 F-2
man diesen Unterschied nicht sofort erkennen, weil die Unterbrechung des Audios auch eine
Übertragungsverzögerung sein kann. Es muss also bewusst darauf geachtet werden, dass
die spontane Antwort auf eine Rede nicht unmittelbar erfolgt. Die Konzentration auf das
Gegenüber beim Antworten ist letztlich auch einer der Gründe dafür, warum Videokonferen-
zen anstrengender als normale Unterhaltungen sind.
8. Keine plötzlichen Änderungen vornehmen
Eine ruhig ablaufende Videokonferenz ist eine gelungene Videokonferenz! Sowohl hektische
Bewegungen als auch plötzliche Änderungen der Tagesordnung führen auf der Gegenseite
zu Irritationen.
9. Sachliche Atmosphäre wahren
Witze funktionieren in einer Videokonferenz nur sehr eingeschränkt. Erstens kann es zu
Übertragungsfehlern kommen, zweitens könnte Bild und Ton nicht völlig synchron sein und
drittens kann der zum Verständnis notwendige Kontext an der Gegenstelle fehlen.
10. Stummtaste nutzen
Bei längeren Online-Treffen rückt die virtuelle Präsenz der anderen Stellen im eigenen
Bewusstsein manchmal in den Hintergrund. Die Konzentration lässt nach, die physische
Anwesenheit aller Teilnehmer ist nicht gegeben, also kann man seinen Äußerungen freien
Lauf lassen. Man sollte sich jedoch vorher vergewissern, dass die Stummschaltung des
eigenen Mikrofons tatsächlich benutzt wurde.
Version 3.2 G-1
Glossar
0-9
1080 Zeilen in progressiver Vollbildabtastung
Wird auch als Full-HD bezeichnet. Es handelt sich um 1080 vertikale Linien mit 1920
horizontalen Bildpunkten. Das 'p' bei 1080p steht für progressive scan. Im Unterschied zur
klassischen Fernseh-Abtastung mit Zeilensprung und Zwischenzeilen (i - Interlacing) wird
hier wie bei Computerdisplays mit Vollbilddarstellung gearbeitet. In der Computertechnik
wird aber eine Bildwiederholfrequenz von mindestens 60 Hz eingesetzt. In der Videotech-
nik wird die Vollbildfrequenz derzeit noch halbiert bei 23,9 / 24 Hz für Film, 25 Hz für PAL
und 29,9 / 30 Hz für NTSC und kompatible Systeme. Auch enthält 1080p keine Aussage
über quadratische oder nicht-quadratische Pixel oder das Bild-Seitenverhältnis von stan-
dardmäßig (SD) 4:3 bis zu High Definition HD 16:9. Mit der Angabe von 1080p alleine ist
deshalb keine wirkliche Aussage über die Videoqualität möglich. Eine Spezifikation von
1920 x 1080p mit quadratischen Pixeln und 60 Hz Vollbildfrequenz ist schon eindeutiger.
A
A-Law-Verfahren (Pulse Code Modulation)
A-Law ist ein Kodierungsverfahren für Audiosignale, welches in der Empfehlung G.711
der ITU-T standardisiert wurde. Es wird hauptsächlich in Europa verwendet und entspricht
im Ansatz dem µ-Law-Verfahren. Die Unterschiede sind dabei in geringfügig anderen
Quantisierungsstufen zu finden. Bei geringen Eingangspegeln weist diese Kompression
eine hohe Dynamik auf und dementsprechend bei hohen Eingangspegeln eine geringe
Dynamik. Im Ergebnis wird bei niedriger Lautstärke das Rauschen reduziert.
AAC-LD
AAC-LD ist ein speziell mit geringer Verzögerung von 20 ms aus MPEG-4 AAC (Advan-
ced Audio Coding) abgeleitetes Verfahren für die Übertragung von Sprache. Die Qualität
der Übertragung steigt im Gegensatz zu G.7xx-Standards mit dem Einsatz einer höheren
Bandbreite.
ADPCM - Adaptive Differential Pulse Code Modulation
ADPCM ist ein Verfahren für Audiosignale, welches in einer Reihe von Audio-
Empfehlungen der ITU-T standardisiert wurde (G.721, G.722, G.725, G.726, G.727). Im
Standard G.721 wird für die Übertragung ein Bereich bis zu 4kHz, in den Standards G.722
und G.725 werden bis zu 7 kHz verwendet.
ADPCM ist eine Sonderform der Pulse Code Modulation (PCM), welche versucht, den
Signalverlauf im nächsten Abschnitt vorherzusagen. Bei der Quantisierung wird nur die
Differenz zwischen dem vorhergesagten und dem realen Signal berechnet. Die Differenz
Version 3.2 G-2
kann mit 2-5 Bits übertragen werden, wodurch eine schmale Bandbreite zur Übertragung
ausreichend ist. Die Ausgangsdatenrate kann bei ADPCM dynamisch zwischen 16 kbps
und 64 kbps angepasst werden.
ARP - Address resolution protocol
Das ARP (address resolution protocol) ist Teil der TCP/IP-Protokollsuite, welches IP-
Adressen in Netzwerkkarten-Adressen (MAC-Adressen) umsetzt.
Aspect ratio - Seitenverhältnis
Aspect ratio ist das Seitenverhältnis der Breite zur Höhe, in dem ein Video wiedergegeben
wird. Der Standard bei Fernsehgeräten (egal ob PAL, SECAM oder NTSC) und Monitoren
ist 4:3, wobei sich das Format 16:9 immer weiter durchsetzt. Im Kino ist 16:9 der Standard
und auch HDTV setzt auf 16:9.
Auflösung - Anzahl der Bildpunkte in einem Raster
Als Auflösung versteht man die Anzahl von Bildpunkten, sogenannten Pixel, in einem
Raster. Die Angabe der Bildpunkte erfolgt in Breite x Höhe. Die Qualität eines Bildes wird
durch die Auflösung bestimmt. Je höher die Anzahl der Bildpunkte, desto höher der De-
tailgrad eines Bildes.
Die Auflösung wird in eine relative und in eine absolute Auflösung unterteilt. Die relative
Auflösung beschreibt die Anzahl der Bildpunkte im Verhältnis zu einer physikalischen
Längeneinheit, z.B. dpi (dots per inch). Die absolute Auflösung wird nochmals in zwei
Varianten geteilt: a) Die absolute Anzahl der Bildpunkte (z.B. die Einheit Megapixel bei
Digitalkameras) b) Die Anzahl von Pixel pro Spalte und Zeile (z.B. bei Monitoren).
Auto Attendant - Automatisches Dialogsystem
Ein Auto Attendant - System hilft dem Anrufer vorzugsweise im Bereich der Telefonie
mittels halb- oder vollautomatischer Dialogsysteme sich an die richtige Stelle verbinden zu
lassen.
Autofokus
Autofokus ist die Fähigkeit eines optischen Gerätes, automatisch die Bildschärfe des
ausgewählten Motivs einzustellen. Es wird zwischen einem aktiven und einem passiven
Autofokus unterschieden. Der passive Autofokus benötigt genügend Kontraste und das
reflektierte Licht des Motivs. Der aktive Autofokus funktioniert demgegenüber auch bei
absoluter Dunkelheit durch den Einsatz von Ultraschallwellen oder direkter Objektbe-
leuchtung.
B
BFCP
BFCP (Binary Floor Control Protocol) ist ein Protokoll, welches den Zugriff auf geteilte
Ressourcen erlaubt. Innerhalb von SIP-gestützten Konferenzen wird es für die Übertra-
gung von Datenpräsentationen im zweiten Kanal genutzt.
Version 3.2 G-3
BLC - Back Light Compensation, Gegen-Licht-Kompensation
Bei Gegenlicht innerhalb einer Videoaufnahme kann es bei den darin befindlichen Objek-
ten zu starken Überstrahlungen oder Schattenbildungen kommen. Beispielsweise sind
Gesichter vor Fenstern oder Lichtquellen im abgeblendeten Bereich zu dunkel und
dadurch nicht optimal zu erkennen. Bei guten Aufnahmesystemen können deshalb Funk-
tionen zur Unterdrückung von Gegenlicht zugeschaltet werden. Sie erhellen abgeschatte-
te Bereiche im begrenzten Umfang, so dass diese wieder besser erkennbar sind.
Bluetooth
Bluetooth ist eine Funkverbindung zwischen Geräten über eine kurze Distanz, welche das
Kabel ersetzt. Geräte, die über diese Schnittstelle miteinander kommunizieren können,
sind Handys, Laptops, PDAs oder andere Peripheriegeräte mit einer entsprechenden
Schnittstelle. Die Datenübertragungsrate liegt zwischen 732,2 kbps und 2,1 Mbps.
C
CCD - Charge Coupled Device (ladungsgekoppeltes Bauteil)
CCD sind sogenannte Bildwandler, welche Licht in Elektronen umwandeln. Die Elektronen
werden dabei an den Rand des Chips transportiert und dort in elektrische Spannung
umgewandelt. CCD-Sensoren finden sich hauptsächlich als Bildsensor in digitalen Foto-
apparaten, Scannern und Videokameras. Die Anordnung wird in ein- oder zweidimensio-
nalen Arrays vorgenommen. Die Vorteile dieser Technologie liegen u.a. in der guten
Helligkeitsmessung. CCD erlauben aber auch die direkte Implementation von aufwändi-
gen Bildbearbeitungsmethoden.
Sie ersetzen immer mehr die frühere CMOS-Technologie.
CELP - Code Excited Linear Prediction
CELP ist ein Verfahren, welches auf LPC aufbaut. Es benutzt eine feste Datenrate von
4,8 kbps.
Der CELP-Coder arbeitet wie ein LPC-Coder. Zusätzlich berechnet er aber die Fehler
zwischen dem Original und dem synthetischen Modell. Die Fehler werden mittels eines
Codeaustauschs zwischen Coder und Encoder übermittelt. Alle Fehlercodes sind in einem
sogenannten „Codebuch“ auf beiden Seiten gleichermaßen definiert. Durch diesen etwa
eine Größenordnung höheren Aufwand als im LPC-Verfahren wird eine wesentlich besse-
re Sprachqualität erreicht.
CELP ging in Teil 3 des MPEG-4-Standards der ISO ein. Eine Variante mit sehr geringer
Signalverzögerung von unter 2 ms („low-delay CELP“) ist Grundlage des ITU-T Audio-
standards G.728.
Chromasignal - Farbanteil eines Videobildes
Das Chromasignal wird umgangssprachlich oft Chrominanz genannt. Es bestimmt den
kompletten Farbanteil des Videosignals durch Angabe des Farbtons, der Farbhelligkeit
und der Farbsättigung.
Version 3.2 G-4
Chrominanz - Farbeindruck eines Videobildes
Das Chrominanzsignal bestimmt den Farbeindruck eines Videobildes. Sie wird immer
zusammen mit der Helligkeitsinformation Luminanz übertragen. Beide Signale zusammen
liefern damit alle nötigen Informationen für ein farbiges Videobild. Ein Chrominanzsignal
besteht aus zwei Farbkomponenten, dem Farbton und der Farbsättigung. Das Chromi-
nanzsignal wird auch Farbartsignal genannt.
CIF - Common Intermediate Format
Einfaches Zwischenformat oder allgemeines Austauschformat für Videoanwendungen im
Seitenverhältnis von 4:3 mit nicht-quadratischen Pixeln. Es wurde im Standard H.261 der
ITU-T zur Lösung der Kompatibilitätsprobleme zwischen NTSC und PAL eingeführt. Es
kommen vorzugsweise 352x288 Bildpunkte mit einer Farbunterabtastung von 4:1:1 und
30 Bildern pro Sekunde zum Einsatz. Davon abgeleitet sind Formate wie 4CIF mit je
doppelter Breite und Höhe bis hin zu 16CIF mit je vierfacher Breite und Höhe vom ur-
sprünglichen CIF.
Cinch - Steckverbindung zur Übertragung elektrischer Signale
Cinch (in den USA 'RCA jack' genannt) bezeichnet eine ungenormte Steckverbindung, mit
welcher elektrische Signale übertragen werden können. Diese Stecker werden im Video-
und Audiobereich genutzt. Cinchstecker haben den Nachteil einer hohen Störanfälligkeit.
Codec
Ein Codec (Kodierer/Dekodierer) kann sowohl als Hardware- als auch als Softwarelösung
realisiert sein.
Viele Desktopvideokonferenzsysteme verwenden Hardware-Codecs, die auf den entspre-
chenden Einsteckkarten als eigene Chips realisiert sind. Für diese wird immer zumindest
eine Steckkarte (ISA, PCI oder PCIe) benötigt, an welche die Videokamera, die Audioein-
heit und auch das ISDN S0-Kabel angesteckt werden. Die Steckkarte übernimmt die
Aufgabe des Kodierens und Dekodierens der ein- und ausgehenden Medienströme.
Bei Desktopsystemen, welche per USB an den PC angeschlossen werden, wird die
Kodierung im Gerät selbst durchgeführt, die Dekodierung findet mittels des Prozessors im
PC statt.
Im Gegensatz zu Software-Codecs, bei denen der Prozessor des Computers die kom-
plette Arbeit der Bild- und Audiokompression und –dekompression (bis Faktor 1:1000)
sowie die Kodierung des Signals in den entsprechenden Standard (H.320/H.323) über-
nehmen muss, wird durch einen solchen Lösungsansatz die Leistung des Rechners nicht
in Anspruch genommen (von der normalen Ansteuerung der Grafikkarte durch den Com-
puter abgesehen), und die Minimal-Hardwareanforderungen an den Computer halten sich
in Grenzen.
Gewöhnlich können bestehende Rechnerinstallationen ohne weitere Aufrüstung weiter-
verwendet werden. Durch den Hardware-Codec ist garantiert, dass auch während einer
Videokonferenz ohne Leistungseinbußen am System (auch gemeinsam mit dem Ge-
sprächspartner) weitergearbeitet werden kann.
Version 3.2 G-5
CoS - Class of Service
Mit Hilfe der 'Class of Service'-Technologie kann der Datenverkehr in Netzwerken mittels
Priorisierung geregelt werden. CoS regelt im Gegensatz zu 'Quality of Service' nicht die
Dienstgüte sondern nur die Priorität des Datentransfers. Dies geschieht mittels einer
Gruppe von Verfahren, welche im Standard IEEE 802.1p geregelt sind.
D
Datenübertragungsrate
Die Datenübertragungsrate gibt die digitale Datenmenge an, welche innerhalb einer
bestimmten Zeiteinheit über ein Übertragungsmedium transportiert wird.
Desktop - System
Desktop-Systeme sind Videokonferenzlösungen, welche die Durchführung einer Video-
konferenz direkt vom Arbeitsplatz aus ermöglichen. Im Gegensatz zu Office-Systemen
sind sie keine integrierte Lösung aller notwendigen Bestandteile, sondern werden als
zusätzliche Software auf dem zugrundeliegenden System installiert. Sie sind ohne Com-
puter nicht allein lauffähig.
DHCP
DHCP (dynamic host configuration protocol) ist ein Anwendungsprotokoll der TCP/IP-
Protokollfamilie, welches in der RFC 1541 die automatische Konfiguration (z.B. IP-
Adresse und Netzmaske) von Endsystemen erlaubt.
Dienstgüte
Siehe QoS - Quality of Service
DNS - Domain Name System
Das Domain Name System stellt die Verbindung zwischen der IP-Adresse und dem
Hostnamen des Gerätes her. Es ist damit einer der wichtigsten Dienste des Internets, weil
mittels des DNS der komplette Namensraum verwaltet wird. Bei diesem Dienst handelt es
sich um einen hierarchisch aufgebauten Dienst.
DPCM - Differential Pulse Code Modulation
DPCM ist ein Verfahren zur Umwandlung von zeitlich diskreten Signalen in digitale Signa-
le. Es ist eine Erweiterung von PCM und die Vorstufe von ADPCM.
Es ist besonders geeignet für aufeinanderfolgende Signale, die eine hohe Korrelation
beinhalten. Das ist bei digitalen Audiosignalen der Fall, die dadurch mit hoher Datenkom-
primierung gewandelt werden können.
Duplex - Vollduplex/ Halbduplex
Vollduplex ist eine Kommunikationsmethode, bei die Partner gleichzeitig Daten senden
und empfangen können. Demgegenüber steht Halbduplex, bei welcher die Partner immer
nur abwechselnd Daten senden können. Der Ethernet-Standard IEEE 802.3 mit Koaxial-
Version 3.2 G-6
kabel als physikalischem Übertragungsmedium sah nur Halbduplex vor. Mit Einführung
der Twisted Pair-Kabel und dem Einsatz aktiver Netzkomponenten setzt sich aber überall
Vollduplex durch.
DVI - Digital Visual Interface
DVI ist eine Schnittstelle zur Übertragung digitaler Videoströme mit einer maximalen
Übertragungsrate von 1,65 Gbit/s.
Es existieren 3 DVI-Varianten, welche sich jeweils noch zusätzlich in der maximalen
Auflösung mit 1600 x 1200 (Single-Link) und 2048 x 1536 (Dual-Link) unterscheiden.
DVI-I (dabei steht das I für 'integrated' - also sowohl analog und digital), gibt es als Single-
Link mit 18 + 5 Pins und Dual-Link mit 24 + 5 Pins.
DVI-D (das D steht für nur digital) gibt es auch als Single-Link mit 18 + 1 Pins und Dual-
Link mit 24 + 1 Pins. Es gibt auch noch DVI-D mit 12 + 1 Pins, welches aber keine DDC-
Daten überträgt und auch nur sehr selten zur Anwendung kommt.
DVI-A (das A steht für nur analog) kommt fast gar nicht zum Einsatz.
E
E.164
Die Richtlinie E.164 der ITU-T beschreibt die Reglen für die internationale Verbindung der
nationalen Telefonnetze (numbering plan for the isdn era). In E.164 ist festgelegt, aus
welchen Bestandteilen eine Telefonnummer besteht und wie viele Stellen sie enthalten
darf. Sie definiert gleichzeitig die internationalen Vorwahlen (wie z.B. 43 für Österreich, 49
für Deutschland und 41 für die Schweiz). Mittels E.164 können Telefonnummern weltweit
eindeutig vergeben werden. Dieser Standard wurde inzwischen für zahlreiche andere
Bereiche übernommen.
EC - Echo Cancelling, Nachhall-Unterdrückung
Bei Videokonferenzen befinden sich Lautsprecher und Mikrofone in einem Raum.
Dadurch kann eine Rückkopplung und ein daraus resultierendes Echo auftreten. Im
ungünstigsten Fall kommt noch eine Verstärker-Rückkopplung hinzu, so dass die Audio-
signale und Frequenzen immer lauter werden und auch zur Zerstörung der Technik führen
können. Eine wahlweise aktivierbare oder automatische Echo-Unterdrückung dämpft
Echo-Rückkopplungen über Lautsprecher sowie Mikro und schont Gehör und Technik.
ePTZ - Electronic Pan-Tilt-Zoom
Bei elektronischen PTZ-Kameras wird weitestgehend auf mechanisch bewegliche Teile
innerhalb der Kamera verzichtet. Dadurch entsteht kein Verschleiß. Außerdem bieten
elektronische PTZ-Kameras den Vorteil, dass sie die volle HD-Auflösung als Ausgangs-
signal anbieten und dadurch die Qualität der Bilder deutlich besser ist.
Version 3.2 G-7
F
Firewall
Firewalls sind Systeme, die als Soft- oder Hardware realisiert werden und Rechner oder
ganze Teilnetze vor unerwünschten Zugriffen von außen schützen sollen.
Firewalls verursachen in H.323-Umgebungen immer Probleme. Sie sind oftmals mit NAT
gekoppelt, dürfen aber nicht mit diesem Problemfeld verwechselt werden.
H.323 beschreibt die Art und Weise, wie Systeme miteinander kommunizieren können.
Dazu werden in Echtzeit während der Verbindungsaufnahme TCP- und UDP-Ports im
Bereich 1024-65535 ausgehandelt. Die TCP-Ports sind für die Verbindungsaufnahme, die
UDP-Ports für die Medienströme vorgesehen.
Diese Ports sind bei einer Verbindung zwischen zwei Systemen zu unterschiedlichen
Zeiten immer verschieden. Firewalls können aus diesem Grund nicht statisch auf be-
stimmte Ports eingestellt werden. Sie müssen auf dynamische Verfahren ('stateful inspec-
tion') zurückgreifen.
Typisches Anzeichen einer gut arbeitenden Firewall ist der teilweise Ausfall von Medien-
strömen in einer H.323-Verbindung. Die Verbindung (TCP) kann aufgebaut werden, aber
die ankommenden Medienströme (UDP) werden geblockt.
FireWire oder auch IEEE 1394
FireWire ist eine von Apple entwickelte digitale Schnittstelle zum Austausch von Daten.
Bis 2008 gab es zwei Varianten von FireWire: IEEE 1394a mit einer Übertragungsrate von
100, 200, oder 400 MBit/s und IEEE 1394b mit einer Übertragungsrate von 800 MBit/s. Im
Oktober 2008 wurde eine vollständige Überarbeitung des Standards unter der Bezeich-
nung IEEE 1394-2008 veröffentlicht, welche die bisherigen Standards zusammenführt und
Übertragungsraten von bis zu 3,2 Gbit/s ermöglicht. Der Hauptverwendungszweck von
FireWire ist die Übertragung von Mediendaten wie digitale Videos (DV-Camcorder) oder
Bildern. Durch die schnelle Datenübertragung und die Möglichkeit externe Geräte mit 1,5
A zu versorgen, wird FireWire aber auch zum Datenaustausch mit Massenspeichern
genutzt. Sony nennt diese Technologie i.LINK.
fps - Frames per Second, Bildwiederholfrequenz in Hz
Die Angabe der Bildwiederholfrequenz bezeichnet die Anzahl der gesendeten oder auf-
genommenen Einzelbilder pro Sekunde. Die Bildrate kann sich auf Halbbilder (interlaced -
i) oder Vollbilder (progressive - p) pro Sekunde beziehen. Bei Videoaufnahmen kommen
derzeit 23,9 bis 60 fps oder Hz zum Einsatz, während im PC Bereich oder bei modernen
großformatigen Displays mindestens 60 Hz bis 120 Hz in der Bildwiedergabe genutzt
werden. Für den Menschen reichen 25 fps um eine flüssige und natürlich wirkende Bewe-
gung darzustellen.
Version 3.2 G-8
G
G.711
G.711 basiert auf dem Verfahren Audio PCM (Pulse Code Modulation). Es transformiert
ein analoges Audiosignal bei einer Abtastrate von 8 kHz kompressionsfrei in ein digitales
Signal mit einer Auflösung von 8 bit und einer Bandbreite von 64 kbps.
G.711 ist einfach zu implementieren und liefert Signale mit einer ausreichenden Qualität.
Allerdings eignet es sich aufgrund seiner hohen Bitrate von 64 kbps nicht für den Einsatz
über Verbindungen mit geringer Bandbreite sowie wegen des Mangels an Fehlererken-
nungs- oder Fehlerkorrekturmechanismen auch nicht für den Einsatz über störanfällige
Netze.
G.721
Eine Empfehlung der ITU-T, die definiert, wie eine 8 kHz Samplingrate mit Hilfe der Adap-
tive Differential Pulse Code Modulation (ADPCM) in einen 32kbps-Datenstrom gewandelt
wird. Dabei wird der Unterschied zwischen benachbarten Signalen ausgewertet und
daraus eine Vorhersage für das nächste Signal generiert.
G.722
G.722 ist ein Audiocodec, welcher 1988 von der ITU verabschiedet wurde.
Mittels einer Abtastrate von 16 kHz werden die Signale mit 14 bit quantisiert. Der Codec
umfasst eine Bandbreite von 7 kHz und keinen Mechanismus zur Fehlerkorrektur.
Die Datenübertragungsrate kann in drei Modi geschehen:
- 48 kbps
- 56 kbps
- 64 kbps
Für diese Komprimierung wird ein Kodierer verwendet, welcher auf ADPCM aufbaut.
G.722.1
G.722.1 ist ein Audiocodec, welcher auf dem Verfahren Siren7 der Firma Polycom basiert.
Die Abtastrate beträgt 16 kHz bei einem Frequenzband von 7 kHz, welche mittels 24 oder
32 kbps übertragen werden. Eine Übertragung mit 16 kpbs ist nicht implementiert.
Die Algorithmen bei G.722.1 und Siren7 sind identisch, aber das Datenformat ist unter-
schiedlich.
G.722.1C beschreibt die Variante mit 14 kHz Frequenzband, welche die monophone
Version von Siren14 darstellt.
G.722.2
G.722.2 ist ein komprimierendes Verfahren zur Audioübertragung, welches technisch von
G.722 grundsätzlich verschieden ist. Die Sprachkompression wird mittels des Verfahrens
AMR-WB (Adaptive Multirate Wideband) realisiert.
Das Verfahren hat eine Bandbreite von 7 kHz, neun wählbare Bitraten und Sprachpau-
Version 3.2 G-9
senerkennung. Es wird von allen Mobilfunksystemen unterstützt und wird für VoIP und
Webkonferenzen eingesetzt.
G.723
Eine Empfehlung der ITU-T mit dem Titel 'Dual Rate Speech Coder for Multimedia Com-
munication Transmitting at 5.3 and 6.4 kbps'. Die Verzögerungszeit ist mit 67-97 ms
allerdings sehr hoch.
G.726/G.727
Zwei Empfehlungen der ITU-T auf Grundlage des ADPCM-Verfahrens für unterschiedli-
che Bandbreiten. Die Sprachqualität ist zwar besser als jene von G.711, aber schlechter
als bei allen anderen G.72x-Standards.
G.728
G.728 ist ein ITU-Standard, welcher zur Komprimierung von Sprache eingesetzt wird.
Sein Haupteinsatzgebiet liegt im Bereich von VoIP.
Er zeichnet sich durch eine geringe Latenz aus. Sie wird durch eine Schätzfunktion er-
reicht, welche immer aktuell aus den letzten fünf Abtastwerten gebildet wird.
Er ist besonders bei geringen Bandbreiten sehr leistungsstark, was durch eine hohe
Komplexität erkauft wird. Die Qualität wird ebenbürtig zu G.726 und G.727 angesehen.
G.728 besitzt Strategien zum Verbergen von Rahmen- und Paketverlusten und ist sehr
stabil gegenüber Bitfehlern.
G.729
G.729 ist ein ITU-Standard, welcher in seiner Qualität mit G.723 vergleichbar ist. Er ist ein
sogenannter Regenbogenstandard, welcher in 11 verschiedenen Varianten (Stand:
13.08.2013) verfügbar ist. Für eine ordnungsgemäße Übertragung müssen beide Seiten
dieselbe Variante (Anhang, Annex) beherrschen.
Der Codec ist für die Übertragung der menschlichen Sprache optimiert, andere Geräu-
sche werden nur unzureichend verarbeitet. Da auch Sprachpausen unterdrückt werden,
muss im praktischen Einsatz zur Vermeidung von irrtümlich angenommenen Verbin-
dungsbeendigungen ein sogenanntes Komfortrauschen erzeugt werden.
Der Standard kommt vorwiegend im Bereich VoIP zum Einsatz.
Gatekeeper
Ein Gatekeeper ist eine logische Komponente des H.323-Standards, die sowohl als
Windows-oder UNIX-Software, als Router-Option, als Teil einer MCU oder eines Gate-
ways implementiert sein kann. Ohne einen Gatekeeper findet die Kommunikation zwi-
schen den Videokonferenzendgeräten direkt statt (stand-alone). Bei Vorhandensein eines
Gatekeepers müssen sich die anderen logischen Komponenten des H.323-Standards
(Terminals/Endgeräte, MCU) bei ihm registrieren. Er bildet dann mit diesen eine gemein-
same Zone und ist die zentrale Komponente für die Vermittlung des Verbindungsaufbaus,
der Authentifizierung und die Adressauflösung von E.164-Aliassen.
Version 3.2 G-10
Gateway
Ein Gateway verbindet unterschiedliche Netze miteinander und ist über die OSI-Schichten
4-7 realisiert. Bei Videokonferenzen dienen Gateways zur Konvertierung der Medienströ-
me nach H.320 in Medienströme nach H.323 und umgekehrt. Sie übernehmen die Ad-
resseninterpretation, Routenwahl, Fehlerbehandlung und Flusssteuerung. Wenn unter-
schiedliche Framegrößen in den beteiligten Netzen vorliegen, fragmentieren und reas-
semblieren sie zusätzlich die Nachrichten- oder Paketlängen.
GDS - Global Dial Scheme
Das Global Dial Scheme ist ein Nummernplan, welcher im Bereich H.323 und VoIP jedem
System eine weltweit eindeutige Nummer zuordnet. Sie besteht immer aus vier Teilen:
IAC: International Access Code
Er ist 00.
CC: Country Code
Die ITU hat jedem Land einen Country Code zugeordnet. Für Deutschland ist dieser 49.
OP: Organisational Prefix
Die nationalen Organisationen können hier für ihre Systeme eindeutige Nummernpläne
erstellen. Der DFN-Gatekeeper hat z.B. die 100.
EN: Endpoint Number
Hier wird die Nummer des Systems definiert. Die MCU im Dienst DFNVideoConference
besitzt die 979.
So ergibt sich in Aneinanderreihung der Teile für die MCU die weltweit eindeutige GDS-
Nummer:
00 49 100 979
Beim Wählen müssen die Leerzeichen weggelassen werden.
(Stand: 17.06.2013)
GOP - Group of Pictures
Bei einer Group of Pictures handelt es sich um eine Gruppe von aufeinanderfolgenden
Bildern (Frames) in einem Video. Ein MPEG-codiertes Video besteht aus aufeinanderfol-
genden GOPs. Diese lassen sich weiter in MPEG-Bilder aufschlüsseln, welche die sicht-
baren Einzelbilder darstellen.
GSM - Global System for Mobile Communications
Bei GSM handelt es sich um einen volldigitalen Standard für Mobilfunknetze, in welchem
sowohl Telefonie, Kurznachrichtendienst (SMS) als auch paketvermittelnde Datenübertra-
gung zur Verfügung steht. Der Nutzer von GSM bewegt sich in sogenannten Funkzellen.
Durch diese Zellen wird die Mobilität für Mobiltelefone gewährleistet. Wenn man eine
Version 3.2 G-11
Funkzelle verlässt, wird man zur nächsten übergeben. Ziel von GSM ist es, europaweit
ein Mobilfunknetz zur Verfügung zu stellen, welches mit ISDN und auch mit analogen
Telefonnetzen kompatibel ist.
H
H.239
Der Standard beschreibt im Bereich H.323. einen zweiten Medienstrom (Video, Audio
oder Daten), der von den Herstellern unter verschiedenen Namen (z.B. Polycom: Peop-
le+Content, Cisco/Tandberg: DuoVideo, Sony: Dual Video) in erster Linie für die Übertra-
gung von Präsentationen genutzt wird. Es ist nur Application Showing und kein Applicati-
on Sharing, da kein beiderseitiger Zugriff auf die Daten möglich ist.
H.261
H.261 war der erste digitale Standard für die Kodierung von bewegten Bildern. Er wurde
1988 von der ITU verabschiedet.
Der Standard bildet die Grundlage, um über ISDN-Leitungen Videokonferenzen betreiben
zu können. Die notwendige Reduktion der Bilddaten für die geringe Bandbreite wird
mittels des DPCM-Verfahrens durchgeführt.
Die maximale Verzögerungszeit für Kompression und Dekompression wird im Standard
mit 150 ms definiert. Neben einigen anderen Mechanismen wird ein Vorhersagemodell für
die nachfolgende Bildsequenz durch Intra- und Predicted-Frames verwendet.
H.262
H.262 ist eine andere Bezeichnung für MPEG-2 Part 3. Er definiert einen Videocodec,
welcher vorrangig für die Kodierung von DVDs verwendet wird. Bei Videokonferenzen
findet er keine Anwendung.
H.263
H.263 ist ein ITU-Standard, welcher zur Videokodierung eingesetzt wird. Er ist eine Wei-
terentwicklung von H.261, wobei aber seine Kompressionsrate deutlich verbessert wurde.
H.263 ist für niedrige Datenübertragungsraten und Sequenzen mit relativ wenig Bewe-
gung optimiert.
Er fand Eingang in MPEG-4 Part 2.
H.264
H.264 ist die ITU-Bezeichnung für einen Videokompressionsalgorithmus, welcher zu-
sammen mit der MPEG entwickelt wurde. Der wortgleiche Standard heißt dort MPEG-
4/AVC und ist Part 10 von MPEG-4.
H.264 baut sowohl auf den Vorgängern der ITU (H.261,H.263) als auch der MPEG
(MPEG-1, MPEG-2) auf. Die deutliche Weiterentwicklung führt bei Videokonferenzen mit
gleicher Bildqualität zu einer Datenreduktion auf die Hälfte gegenüber H.263.
Version 3.2 G-12
H.265
H.265 ist eine andere Bezeichnung für den Standard High Efficiency Video Coding
(HEVC). Er wurde gemeinsam durch die Moving Picture Experts Group (MPEG) und die
International Telecommunication Union (ITU) entwickelt.
Er besitzt eine im Vergleich zu H.264 doppelt so starke Kompression ohne Qualitätsver-
lust und kann Bildgrößen zwischen 320x240 bis 8192x4320 darstellen.
H.320
H.320 ist eine Rahmenspezifikation, welche H.261, H.221 (Multiplexen von Audio und
Video), H.242 (End-to-End Signalisierung), G.728, G.722, G.711, T.120 (Dokumentenaus-
tausch) und vieles mehr enthält. H.320 ist die Norm für schmalbandige Videotelephonie-
Endgeräte (ISDN). Es ist ein verbindungsorientiertes Protokoll.
H.321
Empfehlung der ITU, welche die Adaption von H.320-Videotelefonie auf ATM-basierte
Breitbandnetze spezifiziert. Es ist ein verbindungsorientiertes Protokoll.
H.322
Empfehlung der ITU, welcher Videotelefon-Systeme und Terminals für ein Ethernet spezi-
fiziert, in dem neben dem 10-Mbps-Kanal ein isochroner (Sonderform der asynchronen
Übertragung mit Zeitkennzeichnung) 6-Mbps-Kanal für Multimedia mit garantierter Band-
breite (QoS, Quality of Service) bereitgestellt wird. Es ist ein paketorientiertes Protokoll.
H.323
H.323 ist eine Spezifikation der ITU unter dem Titel „Packet-based Multimedia Communi-
cations Systems“, welche die spezifischen Fähigkeiten von Endgeräten im IP-Umfeld
beschreibt. Er ist aus dem H.320 Multimediastandard für ISDN abgeleitet.
H.323 definiert Netzübergänge zu ISDN und anderen Netzen und soll die Interoperabilität
der Herstellerprodukte untereinander garantieren, wobei vier Hauptgruppen definiert sind:
Terminals, Gateways, Gatekeeper und MCUs.
H.323 setzt RTP zum Einfügen der Zeit- und Synchronisationsinfos in die IP-Pakete,
RTCP zum Umsetzen dieser Informationen an der Empfängerstelle und UDP für den
Datentransfer ein. Die Steuerung der Verbindung und damit auch die Umsetzung von IP-
Adressen und Telefonnummern wird innerhalb der Spezifikation von H.225 übernommen.
Mittels H.245 einigen sich die Endgeräte darauf, welche Dienste sie unterstützen - im
einfachsten Fall Sprachübertragung über G.711 bis G.729 (siehe dazu auch Anhang A).
Weiterhin sind in dieser Spezifikation die Video- und parallele Datenübertragung festge-
legt. (nach http://www.gateway.de/)
H.323-Terminal
Mit diesem Begriff werden sowohl alle Endgeräte in Voice-over-IP-Netzen bzw. alle Gerä-
te bezeichnet, die Sprachübertragung über ein Datennetz ermöglichen wie z.B.
Telefone mit Ethernet-Anschluss
PCs mit entsprechender Software
Version 3.2 G-13
H.324
Empfehlung der ITU, welche Multimediaübertragungen über schmalbandige Netze (z.B.
analoge Telefonleitungen) spezifiziert.
HD720p - High Definition 720 Zeilen progressive
Hochzeilen-Auflösung für Video und Fernsehen mit progressiver Vollbildabtastung und
720 aktiven Zeilen. Dominierendes Bildseitenverhältnis ist Breite zu Höhe von 16:9. Das
Bildpunktraster ist 1280x720 Pixel. Die Vollbildabtastung mit quadratischen Pixeln ent-
spricht der üblichen Arbeitsweise von PC LCD-TFT sowie von LCD-TV Bildschirmen. Die
Breitbildauflösung bei 720p ist allerdings nur etwa halb so groß wie die volle HDTV-
Auflösung bei 1080p (Full-HD oder FHD).
HDCP - High-bandwidth Digital Content Protection
HDCP ist ein eigens von Intel entwickeltes Verschlüsselungssystem, das für die Schnitt-
stellen DVI und HDMI (beide übertragen digitale Daten) eine geschützte Übertragung von
Audio- und Videosignalen gewährleisten soll. Auch für HDTV, Blu-ray und HD-DVD soll
HDCP der Standard in Europa werden. Das System soll ein 'Abfangen' der Datenströme
zwischen Sender und Empfänger unterbinden. Voraussetzung ist aber, dass sowohl
Sender als auch Empfänger HDCP unterstützen.
HDMI - High Definition Multimedia Interface
HDMI ist eine volldigitale Schnittstelle zur Übertragung von Audio- und Videodaten. Es ist
der Standard für HD-Medien wie z.B. Blu-ray, HDTV und HD-DVD. Für HDMI 1.1 & 1.2
existieren zwei Steckernormen: Typ A und Typ B (ca. 4,5 x 13/21 mm). Für HDMI 1.3 gibt
es zusätzlich einen kleineren Stecker vom Typ C mit den Maßen von ca. 2,5 x 10,5 mm.
HDMI 1.2 erlaubt einen Datentransfer von 5 Gbit/s (Typ A) bis zu 10 Gbit/s (Typ B). Versi-
on 1.3 erlaubt sogar einen Datentransfer von 10.2 Gbit/s (Typ A & Typ C). Die Übertra-
gung von Audio kann bis zu einer Frequenz von 192 kHz erfolgen und Video bis zu 165
MHz. Es ist möglich HDTV bis zur heute maximal möglichen Auflösung von 1080p darzu-
stellen. HDMI ist abwärtskompatibel zu DVI. Zusätzlich wurde der Kopierschutzstandard
HDCP integriert.
HDTV - High definition television
HDTV ist ein Überbegriff für digitales TV, welches im Gegensatz zum herkömmlichen
analogen TV mit mehr Zeilen übertragen wird und somit eine deutlich bessere Bildqualität
erzielt. Ursprünglich sollte die analoge Auflösung verdoppelt werden, allerdings wurde
dieses Ziel deutlich übertroffen. Die Bildwiederholrate liegt zwischen 60 und 25 fps und
das Bildseitenverhältnis ist 16:9. HDTV bietet sowohl das Zeilensprungverfahren an, als
auch den Progressive scan.
Hosidenstecker
Werden auch mit Mini-Din bezeichnet. Hosidenstecker werden benutzt um Videodaten zu
transferieren. Die Helligkeits- und Farbinformationen werden dabei getrennt übertragen,
wodurch die Bildqualität im Vergleich zu Composite Video steigt. Dennoch kommt die
Qualität von S-Video, welches über Hosidenstecker übertragen wird, nicht an RGB oder
Version 3.2 G-14
Component-Video heran. Da keine Audiosignale übertragen werden können, muss zu-
sätzlich ein separates Kabel benutzt werden.
I
ILS - Internet Location Server
Der Internet Location Server, eine Erfindung von Microsoft für NetMeeting, kann mit
einem dynamischen Telefonbuch verglichen werden, das alle angemeldeten, konferenz-
fähigen Teilnehmer anzeigt und die Verbindung herstellt. Der IL-Server wandelt die beim
Anruf verwendete E-Mail-Adresse oder den Rechnernamen in die entsprechende IP-
Adresse um.
Interlacing - Zeilensprungverfahren
Ist der Standard bei der Darstellung von Fernsehsignalen auf Röhrenmonitoren. Wobei
diese Technik auch noch bei HDTV teilweise genutzt wird, und zwar bei der Auflösung
1080i. Das Zeilensprungverfahren wurde erfunden, um Bandbreite zu sparen. Bei dieser
Technik geht man von 2 Halbbildern aus. Für das erste Halbbild werden die ungeraden
Zeilen dargestellt und von dem zweiten Halbbild nur die geraden. Das hat als Effekt, dass
man die Hälfte der Bandbreite spart. Das menschliche Auge fügt beide Halbbilder dann zu
einem Gesamtbild zusammen.
IP - Internet Protocol
IP ist ein sehr weitverbreitetes Netzwerkprotokoll und ist zuständig für die Arbeit der
Vermittlungsschicht des TCP/IP-Modells. Mit Hilfe von IP-Adressen und Subnetzmasken
können Computer zu logischen Einheiten zusammengefasst werden und bilden so Sub-
netze. Dadurch ist es möglich Computer in Netzwerken zu adressieren und untereinander
zu kommunizieren. Ohne IP wäre das Internet nicht möglich, da es existentiell wichtig für
das Routing ist auf eine logische Adressierung zurückgreifen zu können.
IR - Infra-Red, Infra-Rot
In Videokonferenzen werden häufig Fernbedienungen eingesetzt, die mit IR arbeiten.
Damit man mit einer Fernbedienung nicht gleichzeitig und unerwünscht mehrere Geräte
bedient, ist eine Auswahl von verschiedenen Kanälen oder Geräten zur Fernsteuerung
wünschenswert.
IRC - Internet Relay Chat
IRC ist ein komplett textbasiertes Chat-System. Es stellt die Möglichkeit bereit Gesprächs-
runden mit beliebig vielen Teilnehmern in einem Channel (Gesprächskanal) abzuhalten.
Um sich solch einem Channel anzuschließen benötigt man einen IRC-Client, welche
sowohl als eigenständige Software verfügbar sind, aber manchmal auch schon in Brow-
sern implementiert sind. Um ein IRC zu realisieren wird ein Netzwerk aus IRC-Servern
bereit gestellt und somit die Rechenlast auf viele Rechner verteilt, wodurch dieses Chat-
Version 3.2 G-15
System sehr leistungsfähig wird und tausenden von Chatnutzern gleichzeitig die Möglich-
keit gibt untereinander zu kommunizieren.
ISDN - Integrated Services Digital Network
ISDN ist ein digitales Telefon- und Datennetz, welches eingeführt wurde, um das analoge
Telefon abzulösen. Mit ISDN war es möglich an einem Anschluss mehrere Telefonnum-
mern anzubieten und damit mehrere Telefone betreiben. Überdies bietet ISDN höhere
Datenraten und damit eine bessere Übertragungsqualität. Da digitale Daten verwendet
werden, ist es einfacher geworden Übergänge zu digitalen Geräten wie Computern zu
ermöglichen. Eine ISDN Leitung bietet 64 kbit/s und eine analoge Telefonleitung arbeitet
mit 56 kbit/s. Also bringt ISDN mit einer Leitung keinen großen Übertragungszuwachs. Da
es aber möglich ist Nutzkanäle zu bündeln, kann man bis zu 1920 kbit/s erreichen. Da
aber moderne Technologien wie UMTS oder DSL deutlich höhere Datenraten bieten, wird
ISDN langsam auch verdrängt.
ITU - International Telecommunication Union
Die ITU ist die International Telecommunication Union (Internationale Fernmeldeunion).
Sie ist eine Sonderorganisation der Vereinten Nationen mit 191 Mitgliedsstaaten (Stand
03/2014), die seit 1865 existiert.
Sie beschäftigt sich weltweit mit der Vereinheitlichung und Standardisierung von Telefon-
netzen.
Innerhalb der ITU ist der Bereich ITU-T (Telecommunication Standardization Sector) u.a.
für die Ausarbeitung und Verabschiedung der Normen im Bereich von Videokonferenzen
zuständig.
IVR - Interactive Voice Response
Mit einem IVR, auch Sprachdialogsystem genannt, können Anrufer teil- oder vollautomati-
sierte natürlichsprachliche Dialoge führen.
J
JPEG - Joint Photographic Experts Group, Standardisierungsgremium und Bildkom-
pressions-Format jpg
Ursprünglich war dieses Gremium mit gleichnamigem Format zuständig für die Kompres-
sion von fotorealistischen Standbildern seit Anfang 1990. Inzwischen ist daraus eine
ganze Format-Familie geworden, über Motion-JPEG und Einsatz in DV-Camcordern bis
hin zu JPEG 2000 in der Anwendung des digitalen Kinos (Digital Cinema). Entsprechend
der Einzelbild-Kompression sind auch die Schlüsselbilder beziehungsweise Intra-Frames
(I-Frames) in allen Bewegtbild-Kompressionen MPEG-1 bis MPEG-4 sowie MPEG-AVC /
H.264 aufgebaut.
Version 3.2 G-16
K
kbps - kilo bit per second, 1024 bit pro Sekunde
Bandbreiten, Datenübertragungsraten oder der Durchsatz von Verarbeitungsleistung
digitaler Signale werden in bps oder bit pro Sekunde angegeben. In der heutigen Kom-
munikation werden Bandbreiten von kbps (kilo) über Mbps (Mega) bis Gbps (Giga bit pro
Sekunde) genutzt.
L
LAN - Local Area Network
Bezeichnet ein Rechnernetzwerk von 2 oder mehreren Computern. Diese Art der Vernet-
zung nennt sich lokales Netzwerk und dient zur Verknüpfung von festinstallierten Compu-
tern an einem bestimmten Ort. LANs werden aber auch für kurzzeitige Einsätze, wie z.B.
LAN-Partys, aufgebaut. Man kann LAN-Strukturen aber auch mit Hilfe von Routern oder
Switches miteinander verbinden.
LDAP - Lightweight directory access protocol
Das LDAP (lightweight directory access protocol) ist ein TCP/IP basiertes Directory-
Zugangsprotokoll. Es definiert dabei nicht den Directory-Inhalt und auch nicht, wie der
Directory Service erbracht werden soll. LDAP hat ein weltweit eindeutiges Format, in dem
alle Namen darstellbar sind, es bietet unterschiedliche Layouts und eine eindeutige Zu-
ordnung zwischen Namen und ihrer internen Repräsentation.
LPC - Linear Predictive Coding
LPC ist eine Kodierungsart zur effizienten Übertragung von Sprachsignalen. Die Datenre-
duktion wird durch den Einsatz eines Prädiktionsverfahrens erreicht, welches Signale
linear vorhersagt. Dadurch muss nur die Differenz von zwei direkt aufeinanderfolgenden
Kurzzeitsegmenten übermittelt werden.
LPC nutzt ein einfaches synthetisches Modell der Sprache, das auf Lautstärke, Sprach-
grundfrequenz und Stimmhaftigkeit des Ausgangssignales aufbaut. Auf der Empfänger-
seite ist mittels eines LPC-Vocoders eine natürlich klingende Sprachwiedergabe möglich,
wogegen mit einem Phonem-Synthesizer nur eine sehr mechanisch klingende Sprach-
wiedergabe zu realisieren ist.
LPC wird oft fälschlicherweise mit dem Algorithmus CELP gleichgesetzt.
LPC - Vocoder
Der Begriff Vocoder entsteht aus der Mischung der Wörter 'voice' und 'coder'. Ein Vocoder
ist ein elektronisches Gerät um Sprache in codierter Form zu übermitteln und es beim
Empfänger wieder in die ursprüngliche Form zu transformieren. Ein LPC-Vocoder nutzt
nun die Technik von LPC zur Übertragung der Signale.
Version 3.2 G-17
Luminanz - Helligkeit (Luma), farbneutraler Intensitätswert
Jedem Farbwert oder Farbpunkt kann messtechnisch und subjektiv eine Helligkeit Y
zugeordnet werden. Die sich ergebende Helligkeit ist monochrom und farbneutral
(R=G=B). In der Kompression von Film-, Fernseh- und Video-Signalen dient die resultie-
rende Helligkeit Y zur Bildung der Farbdifferenzen oder Chrominanz-Signalen Cb und Cr
(Chroma).
M
MAC - Media Access Control
Mittels Media Access Control wird der Zugang zum eigentlichen Medium eines Netzes
(Kabel) realisiert. Es ist im Netzwerk-Controller implementiert, also in der Netzwerkkarte
eines Rechners. Diese Karte benötigt dann eine sogenannte MAC-Adresse, durch die
eine angeschlossene Station eindeutig im Netz identifiziert werden kann. Sie ist für jede
Netzwerkkarte weltweit eindeutig und auf der Karte festgehalten. Netzwerkadressen (etwa
IP-Adressen bei TCP/IP) werden durch bestimmte Mechanismen immer auf diese MAC-
Adresse abgebildet.
Mbps - Mega bit per second, Millionen bit pro Sekunde
Bandbreiten, Datenübertragungsraten oder der Durchsatz von Verarbeitungsleistung
digitaler Signale werden in bps oder bit pro Sekunde angegeben. In der heutigen Kom-
munikation werden Bandbreiten von kbps (kilo) über Mbps (Mega) bis Gbps (Giga bit pro
Sekunde) genutzt.
MCU - Multipoint Control Unit
MCUs sind Sternverteiler für Gruppenkonferenzen, welche in der ITU H.231-Richtlinie
spezifiziert sind. Sie werden bei Konferenzschaltungen zwischen drei oder mehreren
H.323-Terminals bzw. Gateways benötigt. Die MCU besteht aus einem Multipoint Control-
ler (MC) und einer beliebigen Anzahl von Multipoint Processors (MP). Der MC handelt
hierbei mit Hilfe des H.245-Protokolls die gemeinsamen Eigenschaften bezüglich Audio
und Video der Teilnehmer einer Konferenz aus. Er behandelt jedoch nicht den Daten-
strom von Audio, Video und Daten. Dieses ist Aufgabe des MP, der die Datenströme
mischt und verarbeitet.
Megapixel - 1 Megapixel = 1 Mio. Pixel
Der Begriff Megapixel ist ein Richtwert und wird benutzt um die Auflösung bei Digitalka-
meras zu bestimmen. Der Bildwandler, also der CCD- oder CMOS-Chip, der Digitalkame-
ra verfügt pro Megapixel etwas über 1 Millionen Pixel. Aber es gilt zu beachten, dass die
Anzahl der Megapixel keine Aussage über die Qualität der Bilder macht. Das Problem ist,
dass bei Chips mit einer hohen Auflösung jeder Bildpunkt auf der Kamera weniger Licht
bekommt und damit das Rauschen auf Bildern zunimmt und damit die Qualität arg in
Mitleidenschaft gezogen wird. Einen vernünftigen Kompromiss zwischen Auflösung und
Version 3.2 G-18
Bildstörungen bilden 6 Megapixel. Auch reichen 4 bis 6 Megapixel für einen großflächigen
DIN A4 Ausdruck aus.
MPEG
MPEG ist die Abkürzung für Moving Picture Experts Group. Sie erarbeitet die Standards
für Video- und Audiodatenkompression und dazugehörige Datenformate.
MPEG ist eine Unterorganisation der ISO/IEC (International Organization for Standardiza-
tion/International Electrotechnical Commission), welche eng mit der ITU zusammenarbei-
tet.
Umgangssprachlich wird mit MPEG oft einer der von der Expertengruppe entwickelten
ISO-Standards bezeichnet.
Multicast - Nachrichtenübertragung von einem Punkt zu einer Gruppe
Multicast ist die Bezeichnung für eine Gruppenadressierung. Dieses wird normalerweise
für Videokonferenzen mit H.323-Terminals nicht benötigt. Eine Ausnahme bildet hier
einerseits SunForum, welches Multicast nutzt, um Mehrpunktkonferenzen ohne MCU
durchzuführen. Die Firma VCON nutzt andererseits diese Technik, um ein Mehrpunkt-
streaming ohne Rückkanal innerhalb ihrer Software MeetingPoint zu realisieren. Ansons-
ten wird dieses Prinzip vorwiegend von den sogenannten MBone-Tools genutzt. Neben
dieser Adressierungsmöglichkeit, bei der ein Paket an einen logischen Verband von
Teilnehmern verschickt wird, existieren noch die Einzeladressierung Unicast und der
Broadcast (alle Teilnehmer adressieren). Um welche dieser Adressierungsarten es sich
handelt, wird im jeweiligen Telegramm durch spezielle Bits in der Zieladresse unterschie-
den (Class C- und Class D-Adressen). Durch diese Definition von speziellen Adressen
und Adressräumen unterstützt IP neben der Punkt-zu-Punkt-Kommunikation auch Punkt-
zu-Mehrpunkt (Broadcast) und Mehrpunkt-zu-Mehrpunkt-Kommunikation (Multicast).
µ-Law-Verfahren (Pulse Code Modulation)
µ-Law ist ein Kodierungsverfahren für Audiosignale, welches in der Empfehlung G.711 der
ITU-T standardisiert wurde. Es wird hauptsächlich in den USA und Japan verwendet und
entspricht im Ansatz dem A-Law-Verfahren. Die Unterschiede sind dabei in geringfügig
anderen Quantisierungsstufen zu finden. Bei geringen Eingangspegeln weist diese Kom-
pression eine hohe Dynamik auf und dementsprechend bei hohen Eingangspegeln eine
geringe Dynamik. Im Ergebnis wird bei niedriger Lautstärke das Rauschen reduziert.
N
NAT - Network Address Translation
NAT ist ein Verfahren, welches eingesetzt wird, um dem Mangel von IPv4-Adressen zu
begegnen. Dazu werden private Adressräume gebildet, die an einer definierten Schnitt-
stelle in eine weltweit bekannte Adresse umgesetzt werden.
NAT verursacht im Zusammenhang mit H.323 immer Probleme. Oftmals werden noch
weitere, zusätzliche Schwierigkeiten durch den Einsatz von Firewalls geschaffen. Die
Version 3.2 G-19
beiden Problemfelder dürfen nicht verwechselt werden, auch wenn sie meist parallel
auftreten.
Als Lösungsmöglichkeiten für NAT und H.323 bieten sich an:
- Vollständiges Öffnen der Firewall
- Einsatz eines Proxys
- Verwenden von Produkten, die den Standard H.460 unterstützen
nativ - natürlich, unverändert, ursprünglich, physikalisch, systemeigen, original
Bei der Erfassung, Aufnahme, Verarbeitung, Archivierung, Übertragung bis zur Wiederga-
be kommt es zu zahlreichen Formen der digitalen Verarbeitung. Diese Anpassungen
führen nicht nur zur Qualitätsverbesserung sondern häufig auch zur deutlichen Signalver-
schlechterung. Skalierungen, Verzerrungen, Zoomen, Frequenzänderungen, Resampling,
Transcodierungen, Interpolationen und dergleichen hinterlassen wahrnehmbare Störun-
gen im Audio, Video und bei Präsentationen in Konferenzen. Die möglichst durchgängige
Beibehaltung nativer Formate und Auflösungen garantiert meistens optimale Ergebnisse.
non-square Pixel - nicht quadratisches Seitenverhältnis
Mit non-square Pixel wird eine Auflösung beschrieben, in welcher die Pixelseitenverhält-
nisse auf der vertikalen und horizontalen Achse nicht identisch sind. Im Gegenteil dazu
gibt es square Pixel.
NTSC - National Television Standards Committee
NTSC ist die Fernsehnorm in den USA und Japan. Die Abkürzung steht für National
Television Standards Committee. Sie besitzt eine Bildgröße von 640 x 480 Bildpunkten
bei einer Framerate von 30 fps bzw. 60 Halbbildern in der Sekunde.
O
Optoelektronik - Kombination von Optik und Mikroelektronik
Dieser Überbegriff umfasst alle Produkte und Verfahren, in der elektronisch erzeugte
Daten und Energien in Lichtemission umgewandelt werden, oder umgekehrt. Die Opto-
elektronik schließt z.B. Laser, Rechner, optische Speicher und Bildschirme ein.
Overscan - Überabtastung, nur Ausschnitt des vergrößerten Videobildes wird sichtbar
Frühere Monitore hatten unterschiedlich dicke Glaskolben, verschiedene Alterungser-
scheinungen und in den Fernsehnormen sind in den Randbereichen zusätzliche Informa-
tionen kodiert. Zur Vermeidung von Reklamationen und Serviceaufwendungen wurde also
sicherheitshalber das Fernsehbild um 10 % und sogar mehr über die Ränder hinaus
vergrößert, damit nur der kleinste gemeinsame Nenner unterschiedlichster Fabrikate und
Technologien sichtbar bleibt. Der Overscan und damit die Randabschneidung des Video-
bildes betrug auch im Jahr 2007 immer noch standardisierte rund 3 % auch bei den
flachen LCD-TV Bildschirmen an jeder Seite. Erst mit Einführung des vollen HD Formates
mit 1920x1080 Bildpunkten wurde ab dem Jahr 2008 wahlweise auch die native vollstän-
Version 3.2 G-20
dige Videobilddarstellung ohne Overscan gefordert, um eine unverfälschte digitale Bild-
qualität wie bereits lange in der Computergrafik zu gewährleisten.
P
PAL - Phase Alternation Line
PAL ist die Abkürzung für 'Phase Alternation Line' (zeilenweise Phasenänderung). Es ist
eine mögliche Norm für Farbfernseher, in Deutschland der Standard. Sie besitzt eine
Bildgröße von 768 x 576 Bildpunkten und eine Framerate von 25 fps bzw. 50 Halbbildern
pro Sekunde.
PCM - Pulse Code Modulation
PCM ist ein Verfahren zur kompressionsfreien Umwandlung analoger Audiosignale in
digitale Daten. Es bildet die Grundlage des Audio-Standards G.711.
Dazu wird ein analoges Ton-Signal mit einem Impuls multipliziert (moduliert) und das
Ergebnis durch einen binären Code mit der sogenannten Abtasttiefe / Sampling-Tiefe
(z.B. 16 Bit) dargestellt. Der Vorgang wird periodisch mit der Abtast- oder Sampling-Rate
(z.B. bei G.711 8 Bit und 8 kHz Samplingrate) wiederholt. Der erreichte Kompressionsfak-
tor liegt bei 1,75:1.
Das Verfahren wird in Nordamerika und Japan als µ-Law und in Europa auch als A-Law
bezeichnet.
Preset - Voreinstellung von Parametern
Presets sind Voreinstellungen, welche elektronisch oder mechanisch gespeichert werden
und jederzeit vom Benutzer aufgerufen werden können. So kann man Zeit und Mühe
sparen, da man auf oft verwendete Einstellungen, z.B. bei Kameras, jederzeit schnell
zurückgreifen kann.
progressive scan - Vollbildabtastung - schrittweise durchgeführte Abtastung
Progressive scan bedeutet Vollbildabtastung. Dieses Verfahren beschreibt den Bildaufbau
bei Anzeigegeräten wie Monitoren, Beamern oder TV-Geräten, welche mit echten Vollbil-
dern gespeist werden und nicht wie beim Zeilensprungverfahren mit zeilenverschränkten
Halbbildern. Das entstehende Bild wirkt dadurch schärfer und ruhiger. Außerdem wird das
Zeilenflimmern des Bildes komplett getilgt.
Proprietär - im Eigentum stehend; jemandem zugehörig; urheberrechtlich geschützt
Proprietär bedeutet im IT-Bereich, das entsprechende Dateiformate, Protokolle etc. oder
auch Hardware nicht dem Standard entsprechen und nicht frei zur Verfügung stehen. Als
proprietär werden Eigenentwicklungen von Herstellern bezeichnet. Zum Beispiel darf das
Dateiformat WMA nicht 'frei' benutzt werden. Als Gegenstück ist zum Beispiel das Format
Ogg Vorbis zu nennen. Proprietäre Daten dürfen nicht ohne Zustimmung vom Hersteller
modifiziert oder benutzt werden.
Version 3.2 G-21
Proxy - Stellvertreterdienst
Proxy bedeutet soviel wie Stellvertreterdienst. Es ist ein Prinzip der lokalen Informations-
zwischenspeicherung. Dabei werden Objektdaten verschiedener Dienste, wie HTTP, FTP,
GOPHER und WAIS zwischengespeichert und entsprechende Anfragen aus dem lokalen
Datenbestand sehr schnell bedient (caching) oder weitergereicht (proxying).
PTZ - Pan, Tilt, Zoom
Pan / Panorama steht für horizontales Schwenken oder Rundumblick nach links und
rechts, Tilt für neigen beziehungsweise die Kamera nach oben oder unter ausrichten.
Unter Zoomen wird hinein blicken durch Vergrößerung bei kleinerem Bildausschnitt und
alternativ heraus Zoomen durch Verkleinerung der Personen bei größerem Bildausschnitt
verstanden.
Q
QoS - Quality of Service
Die garantierte Dienstgüte ist eine Parametrisierung von Protokollen zur Bestimmung des
Übertragungsverhaltens. Das OSI-Referenzmodell definiert bestimmte Dienste, die von
der Vermittlungsschicht der übergeordneten Transportschicht angeboten werden. Bei den
OSI-Protokollen der Transportschicht werden gleichzeitig mit dem Verbindungsaufbau
Dienstgüteparameter vereinbart. Dabei wird von der initialisierenden Transportinstanz
eine Liste vorgeschlagen, die entweder von der gerufenen Transportinstanz akzeptiert
oder verändert wird.
Mögliche Dienstgütemerkmale sind: Verbindungsaufbauverzug, Störungswahrscheinlich-
keit des Aufbaus, Durchsatz, Transitverzug, Restfehlerrate, Störungswahrscheinlichkeit
des Transfers, Abbauverzug, Störungswahrscheinlichkeit des Abbaus, Schutz der Trans-
portverbindung, Priorität von Transportverbindungen und Rücksprung aus einer Trans-
portverbindung.
Die Dienstgüte kann für verschiedene Dienste und Netze unterschiedlich definiert sein.
Bei ATM werden z.B. mit der Dienstgüte die Service-Parameter einer ATM-Verbindung
spezifiziert. Dazu gehören u.a. die Zellenverlustrate und die Zellenverzögerung. Bei IP-
Verbindungen gibt es keine garantierte Güte des Dienstes. Eine Möglichkeit der Steue-
rung ist das Einsetzen der 'Class of Service' - Technologie.
Quad-HD - Quad- High Definition, Vierfache HD-Auflösung
Von allen bisherigen Auflösungen gibt es in der Weiterentwicklung natürlich auch die
jeweils doppelte Breite und doppelte Höhe. Wenn nun 4 HD-Systeme in einer typischen
Mehrpunkt-Videokonferenz ohne Auflösungsverlust dargestellt werden sollen, benötigt
man natürlich vier derartige HD-Displays in einem Display-Mosaik oder die vierfache
Auflösung in einem Display. Für das halbe HD-Format 1280x720 ergeben sich 2560x1440
Bildpunkte und für das volle HD-Format mit 1920x1080 Bildpunkten wird eine Auflösung
von 3840x2160 erforderlich. Derartige Displays und Technologien sind inzwischen bereits
von allen namhaften Herstellern verfügbar. Auch in den Standard-Gremien wurden ent-
Version 3.2 G-22
sprechende Spezifikationen bereits verabschiedet. Mit HDMI 1.3 von 2006 werden nicht
nur 720p oder 1080p sondern 1440p im Seitenverhältnis 16:9 mit bis zu 120 Hz und 10
Gbps nutzbar.
R
RC - Remote Control, Fernsteuerung
Fernsteuerungen von Geräten und Systemen können drahtgebunden oder drahtlos erfol-
gen. Es gibt zahlreiche standardisierte sowie proprietäre Lösungen und Signal-Protokolle.
RGB - rot, grün, blau
RGB ist ein analoges Videosignal, bei welchem pro Farbwert (rot, grün, blau) die Hellig-
keit auf je einer Leitung übertragen wird. Das grüne Farbsignal enthält zusätzlich das
Synchronisationssignal.
Am Scart-Stecker normaler TV-Geräte sind die Pins für RGB oft nicht belegt.
RTP - Real time protocol
RTP (real time protocol) ist Bestandteil der TCP/IP-Protokoll-Suite und das Internetstan-
dard-Protokoll für den Transport von Echtzeitdaten, welche Audio- und Videoströme
einschließen. Es wird über UDP übertragen. RTP teilt sich in einen Teil für die Daten und
einen Kontrollteil, welcher RTCP (real time control protocol) genannt wird. Dieser Teil
sichert in Verbindung mit einem Zeitstempel, dass die Audio- und Videopakete beim
Empfänger richtig zusammengesetzt werden können.
S
S-Video - Separate Video
Es wird auf zwei getrennten Leitungen die Luminanzinformation (Y) und die Chrominanz-
information (C) pro Bildpunkt übertragen. Die Qualität ist deshalb besser als bei Composi-
te-Signalen. Dieses Verfahren wird auch mit Y/C bezeichnet. Für die Erzeu-
gung/Aufzeichnung dieser Signale sind S-VHS oder Hi8 Geräte nötig. Der Anschluss
erfolgt über Hosidenstecker.
Scart (frz.) - Vereinigung der Hersteller von Rundfunkempfängern und Fernsehappara-
ten
Scart ist eine Schnittstelle und überträgt sowohl Bild- als auch Audiosignale, und ist eine
europäische Standardschnittstelle für Audio- und Videogeräte (z.B. Fernseher oder Video-
rekorder). Es werden alle notwendigen Signale in einem mehrpoligen Stecker zusam-
mengefasst und weitergeleitet. Scart kann die analogen Signale RGB, Composite Video
sowie S-Video übertragen.
Bei hochwertigen Kabeln ist die Qualität deutlich besser als bei schlechten Kabeln. Das
liegt an den unterschiedlichen Abschirmungen der Leitungen innerhalb der Kabel.
Version 3.2 G-23
SECAM (frz.) - Séquentiel couleur à mémoire (Sequenzielle Farbe mit Speicher)
SECAM ist eine analoge Fernsehnorm, wie auch NTSC und PAL, welche besonders in
Osteuropa und Frankreich zum Einsatz kommt. Diese Norm soll eine bessere Farbwie-
dergabe als NTSC erzeugen, wenn die Empfangsbedingungen nicht optimal sind. SECAM
sendet zusätzlich zum Helligkeitswert auch noch zwei Farbdifferenzsignale. Das genutzte
Farbmodell nennt sich Y/Db/Dr-Farbmodell und funktioniert vom Prinzip genau wie
Y/Cb/Cr.
Sensor - Signalaufnehmer, Messfühler, Messabtaster
Für Audio und Video werden verschiedene Sensoren zur Signalaufnahme eingesetzt. Bei
Bildaufnehmern kommen heute häufig CCD- oder CMOS- Sensoren in den Kameras zur
optoelektronischen Wandlung zum Einsatz.
Settopbox - Beistellgerät
Eine Settopbox ist ein Gerät, welches meist an einen Fernseher angeschlossen wird und
so dem Anwender neue Nutzungsmöglichkeiten bereitstellt. Eine typische Anwendung für
Settopboxen ist zum Beispiel die Bereitstellung von Digitalem TV oder Spielkonsolen. Es
gibt 2 grundsätzlich unterschiedliche Arten von Settopboxen. Zum einen die aktiven
Geräte, sie geben dem Empfangsgerät Daten oder Funktionen ohne das sie eine Rück-
meldung vom Empfänger erwarten. Zum anderen passive Geräte, sie sind auf Funktionen
oder Daten vom Empfangsgerät angewiesen, ohne aber selbst neue Funktionen anzubie-
ten.
SIP - Session Initiation Protocol
SIP ist ein von der IETF (Internet Engineering Task Force) entwickeltes Netzprotokoll und
ist im RFC 3261 spezifiziert. Auch wenn der Name etwas irreführend ist, kann SIP inzwi-
schen sowohl zum Aufbau als auch zur Steuerung und zum Beenden einer Kommunikati-
onssitzung benutzt werden. Haupteinsatzgebiet ist die Übertragung von Audio- und Vi-
deoinhalten.
Siren
Siren ist eine Sammelbezeichnung für Audiocodecs, welche von der Firma PictureTel
entwickelt worden ist (später von Polycom übernommen).
Es existieren drei Varianten:
- Siren7 (auch Siren 7): Die Abtastrate beträgt 16 kHz, welche in ein 7 kHz Frequenzband
mit Bitraten von 16, 24 oder 32 kbps transformiert wird.
Es besteht ein enger Zusammenhang zu G.722.1.
- Siren14 (auch Siren 14): Die Abtastrate beträgt 32 kHz, welche in ein 14 kHz Frequenz-
band transformiert wird. Siren14 überträgt monophones Audio mit 24, 32 oder 48 kbps,
Stereo mit 48, 64 oder 96 kbps.
Die monophone Version ist in die ITU-Richtlinie G.722.1C eingeflossen.
Version 3.2 G-24
- Siren22 (auch Siren 22): Die Abtastrate beträgt 48 kHz, welche in ein 22 kHz Frequenz-
band transformiert wird. Siren14 überträgt monophones Audio mit 32, 48 oder 64 kbps,
Stereo mit 64, 96 oder 128 kbps.
Siren22 ist in die ITU-Richtlinie G.719 eingeflossen.
Siren LPR
Siren LPR (Lost Packet Recovery) ist ein proprietäres Verfahren der Fa. Polycom, um
Audiofehler in Netzen mit hohen Paketverlusten auszugleichen. Es kann zusammen mit
allen Codecs der Siren-Gruppe angewendet werden.
square Pixel - quadratisches Seitenverhältnis
Mit square Pixel werden Auflösungen beschrieben, in welchen das Pixelseitenverhältnis
auf der horizontalen Achse und auf der vertikalen Achse identisch ist. Das Gegenteil von
square Pixel sind non-square Pixel.
Subsampling - untere Abtastung
Mit Subsampling bezeichnet man die Abtastung mit einer niedrigen Rate um Bandbreite
zu sparen. Dieses Verfahren wird z.B. beim Chroma Subsampling verwendet, hierbei
werden also Farbinformationen abgetastet.
T
TCP - Transmission control protocol
TCP (transmission control protocol) ist Teil der TCP/IP-Protokollfamilie und für die gesi-
cherte Datenübertragung zuständig. Bei TCP wird die Zuverlässigkeit der einzelnen
Pakete kontrolliert und verlorengegangene Pakete werden gegebenenfalls noch einmal
gesendet.
TCS4 - ISDN Subadressierung
TCS4 ist eine Methode um bei ISDN-Nummern zusätzliche, durch ein Sonderzeichen
getrennte, Verbindungsinformationen zu übermitteln.
Telepresence - Telepräsenz
Beschreibt bei Videokonferenzen Systeme, die mit großem technischen Aufwand Szena-
rien simulieren wollen, bei denen sich die Konferenzteilnehmer fühlen sollen als wären sie
alle im selben Raum. Firmen die an dieser Technologie arbeiten sind z.B. Cisco und
Polycom. Bei Telepresence-Lösungen sind normalerweise Kameras, große Bildschirme,
Mikrofone und Lampen enthalten um allen Teilnehmern dieselben Vorrausetzungen zu
bieten. Durch diese Ausstattung sind solche Systeme allerdings auch sehr teuer und sind
daher nur eine Lösung für große Firmen, die oft Meetings mit Geschäftspartnern in großer
Entfernung abhalten.
Version 3.2 G-25
TMDS - Transition Minimized Differential Signaling
TMDS ist ein Übertragungsprotokoll, mit welchem digitale Signale zwischen Computern
und Displays ausgetauscht werden. Mit diesem Protokoll werden unkomprimierte Multi-
mediadaten digital transportiert. Dieser Standard ermöglicht es elektromagnetische Stö-
rungen, wie sie bei analogen Übertragungen auftreten, komplett zu unterbinden. Bei DVI
und HDMI wird diese Technik benutzt um hochauflösende Displays anzusteuern.
TVL - TV-Lines, Fernseh-Zeilen
Die erreichbare Auflösung von Film, Fernsehen und Video wird zum besseren Vergleich
und zur Qualitätssicherung oft in TVL angegeben. Man unterscheidet die Auflösung je
nach Raster und Abtastung in horizontal H und vertikal V sowie auch diagonal D. Da die
Bildformate heute zum Breitbild übergehen, ist das horizontale Auflösungsvermögen
tendenziell größer als das vertikale. Einige Sensoren werden um 45 Grad in der Kamera
gedreht, um in den Vorzugsrichtungen ohne mehr Bildpunkte subjektiv höhere Werte zu
erreichen. Qualitativ anspruchsvolle Lösungen erreichen oberhalb der bisherigen Stan-
dardauflösung 640H bis 960H TVL sowie 540V bis 720V TVL. Zur Messung gibt es inter-
national standardisierte Testbilder.
U
UDP - Users datagram protocol
UDP (users datagram protocol) ist Teil der TCP/IP-Protokoll-Suite und beschreibt die
ungesicherte Datenübertragung über ein sogenanntes verbindungsloses Protokoll, d.h. es
gibt keine Bestätigung für korrekt übertragene Pakete.
USB - Universal Serial Bus, Universeller Serieller Bus
Ursprünglich für Steuergeräte am PC wie Tastatur und Maus entwickelt, hat sich diese
Datenverbindung in den Versionen von 1.0, 1.1 über 2.0 bis 3.0 mit wachsenden Übertra-
gungsgeschwindigkeiten zur bestimmenden externen Schnittstelle im PC durchgesetzt
und ist nunmehr auch für MP3 Audio-Player, Head-Sets, Web-Kameras oder externe
USB-Sticks von derzeit bis zu 512 GByte und bei Festplatten im TeraByte-Bereich nutz-
bar.
V
VGA - Video Graphics Array
VGA ist ein Standard von Grafikkarten und Bildschirmen mit vorzugsweise 60 Vollbildern
pro Sekunde, in Anlehnung an das Videoformat NTSC. Web-Kameras verwenden über
den USB Anschluss das VGA Format mit nur 30 Videobildern pro Sekunde in der Video-
kommunikation. Im Grafikmodus beträgt die Auflösung 640 x 480 Bildpunkte bei 16 Far-
ben bzw. 320 x 300 Bildpunkte bei 256 Farben. Die Weiterentwicklung SVGA besitzt 800
x 600 Pixel und XGA 1024 x 768 Bildpunkte.
Version 3.2 G-26
W
WAN - Wide Area Network (Weitverkehrsnetz)
WAN bezeichnet ein Rechnernetz welches, ähnlich dem LAN, Rechner oder andere
WANs zum Austausch von Daten miteinander verbindet. Es erstreckt sich über einen
großen geografischen Bereich. Es gibt keine Beschränkung der Rechneranzahl oder der
Entfernung, so können WANs Rechner weltweit miteinander verbinden.
WB – Weißabgleich
Der Weißabgleich soll Farbneutralität in Grauwertbildern und in der Bildhelligkeit sowie die
Farbreproduktion entsprechend der natürlichen Wahrnehmung sichern. Als Maß gilt die
Farbtemperatur, typischerweise im Bereich von 1.000 K bis 10.000 K. Belichtung, Be-
leuchtung, Farbtemperatur und Weiß-Punkt sind für die verschiedenen Systeme mess-
technisch standardisiert. Dadurch erscheinen der Himmel blau, das Gras grün, Weiß ohne
Farbstich und Hauttöne können natürlich aussehend wiedergegeben werden.
Webcam - Kameras für das Internet
Webcams sind eine günstige Variante, um Videokonferenzen im privaten Bereich durch-
zuführen. Normalerweise werden sie via USB an den PC angeschlossen, wobei es auch
wenige Varianten mit FireWire gibt. Es ist darauf zu achten, dass die Webcam möglichst
viele Bilder pro Sekunde leisten kann. Dabei wird man oft auf eine hohe Auflösung ver-
zichten müssen, zu der die Webcam theoretisch in der Lage wäre.
WXGA - Wide eXtended (Video) Graphics Array
Breitbild-Format vorzugsweise in Europa und Gebieten mit bisheriger PAL oder Wide-PAL
Fernsehnorm aber mit 60 Vollbildern (Kompatibilität zu PC, NTSC, LCD-TV) oder optional
50 Vollbildern (Kompatibilität zu PAL, 50 Hz Stromversorgung) pro Sekunde in Weiterent-
wicklung des früheren VGA Formates. WXGA hat weit verbreitet 1366x768 quadratische
Bildpunkte im exakten Seitenverhältnis Breite zu Höhe von 16:9. Heute verwenden auch
Videokonferenzen dieses PC Bildformat zur Übertragung von Präsentationen mit Text und
Grafik, um eine ausreichende Lesbarkeit der einzelnen Präsentationsfolien oder Standbil-
der mit erhöhter Schärfe in der Videokommunikation zu ermöglichen.
X
XGA - eXtended (Video) Graphics Array
PC Bildformat von Grafikkarten und Bildschirmen mit heute vorzugsweise 60 Vollbildern
pro Sekunde, in Weiterentwicklung des früheren VGA Formates. XGA hat weit verbreitet
1024x768 quadratische Bildpunkte im exakten Seitenverhältnis Breite zu Höhe von 4:3.
Heute verwenden auch Videokonferenzen dieses PC Bildformat zur Übertragung von
Präsentationen mit Text und Grafik, um eine ausreichende Lesbarkeit der einzelnen
Version 3.2 G-27
Präsentationsfolien oder Standbilder mit erhöhter Schärfe in der Videokommunikation zu
ermöglichen.
XLR - ein Industriestandard für elektrische Steckverbindung
XLR ist ein qualitativ sehr hochwertiger Stecker zur Übertragung analoger und digitaler
Audiosignale. Er wird bei professionellen Mischpulten und Mikrofonen genutzt. XLR nutzt
eine symmetrische Signalführung, das hat als Konsequenz, dass sich Störsignale auf den
Leitungen gegenseitig aufheben. Von Vorteil sind auch die metallische Abschirmung und
die mechanische Verriegelung des Steckers. Am häufigsten trifft man auf die 3-polige
Variante, aber es gibt auch noch 5- und 7-polige Varianten.
Y
Y/C - Y für die Helligkeitsinformation und C für Farbinformation
Bei dem analogen Signal werden auf zwei getrennten Leitungen die Luminanzinformation
(Y) und die Chrominanzinformation (C) pro Bildpunkt übertragen. Die Qualität ist deshalb
besser als bei Composite-Signalen. Dieses Verfahren wird auch mit S-Video bezeichnet.
Für die Erzeugung/Aufzeichnung dieser Signale sind S-VHS oder Hi8 Geräte nötig. Der
Anschluss erfolgt über Hosidenstecker.
Y/Cb/Cr - Y Helligkeits-Signal und Cb, Cr Farbdifferenz-Signale
Grundlage der Fernsehtechnik und Videosysteme ist die Farbraum-Transformation von
additiven RGB Farbkanälen in Helligkeit Y und Farbdifferenzen CbCr. Dadurch wird eine
bessere Anpassung an die psychovisuelle Wahrnehmung des Menschen erreicht bei
zugleich erhöhter Komprimierbarkeit. Nach der Übertragung werden die Y/Cb/Cr Signale
zur Dekompression und Darstellung wieder in den RGB Farbraum zurückgewandelt.
Y/Pb/Pr - Y Helligkeits-Signal und Pb, Pr Farbdifferenz-Signale
Das analoge Videosignal sendet auf 3 physikalisch getrennten Leitungen 3 unterschiedli-
che Signale. Y steht für die Helligkeit, Pr für die Farbdifferenz Y-R und Pb für die Farbdif-
ferenz Y-B. Die Signale werden im Vollbildformat (Progressive) ausgegeben. Y/Pb/Pr wird
meistens bei der Component-Video erfolgenden analogen Übertragung von Videosignalen
aus digitalen Y/Cb/Cr farbcodierten Quellen genutzt.
Z
Zone
Zonen sind ein Administrationskonzept auf einem Gatekeeper. Innerhalb einer Zone
werden alle für eine Videokonferenz nötigen Geräte unter einem Namen zusammenge-
fasst.
Version 3.2 G-28
Zoom - Bildausschnitt anpassen durch vergrößern oder verkleinern
Unter Zoomen wird hinein blicken durch Vergrößerung bei kleinerem Bildausschnitt und
alternativ heraus Zoomen durch Verkleinerung der Personen oder Bildobjekte bei größe-
rem Bildausschnitt verstanden. Die Mehrzahl heutiger Foto- und Videokameras verfügt
über entsprechende Zoom-Objektive. Das Zoomen ist außerdem Bestandteil der so
genannten PTZ-Kameras mit Pan-/Tilt- und Zoom- Funktionen, die beispielsweise bei
Überwachungskameras sowie in Videokonferenzen zum Einsatz kommen.