Glossar

Avid Studio corner top left Glossar Avid Studio border Glossar Avid Studio corner top right Glossar
Avid Studio border Glossar
Avid Studio spacer Glossar
Avid Studio spacer Glossar Avid Studio blue button Glossar Avid Studio spacer Glossar

Wenn Sie mehr über

Avid Studio erfahren möchten,

bitte hier klicken und Sie erhalten eine Auflistung aller auf unserer
Webseite verfügbaren Studio-Tutorials (Internetanschluss erforderlich)!

Avid Studio spacer Glossar
Avid Studio spacer Glossar
Avid Studio border Glossar
Avid Studio corner bottom left Glossar Avid Studio border Glossar Avid Studio corner bottom right Glossar

Die Multimedia-Fachsprache enthält eine Vielzahl von Begriffen aus den Bereichen Computer und Video. Die folgende Auflistung erläutert dabei die wichtigsten Schlüsselbegriffe. Querverweise sind durch ein & gekennzeichnet.

720p: Hochauflösendes (High-Definition / HD) Videoformat mit einer Auflösung von 1280 x 720 Bildpunkten sowie progressiven (Non-Interlaced) Frames.

108i: Hochauflösendes (High-Definition / HD) Videoformat mit einer Auflösung von 1440 x 1080 Bildpunkten und Interlaced Frames.

Abgeschlossene GOP: & GOP

ActiveMovie: Softwareschnittstelle von Microsoft für die Ansteuerung von Multimedia-Geräten unter Windows. & DirectShow, DirectMedia

ADPCM: Abkürzung für Adaptive Delta Pulse Code Modulation. Dies ist eine Methode der Speicherung von Audioinformationen in einem digitalen Format, ein Kodier- und Kompressionsverfahren, wie es bei CD-I- und & CD-ROM-Produktionen verwendet wird.

Adresse: Alle im Computer vorhandenen Speicherstellen sind nummeriert (adressiert). Mit Hilfe dieser Adressen kann jede Speicherstelle angesprochen werden. Einige Adressen sind ausschließlich für bestimmte  Hardwarekomponenten reserviert und dürfen nicht mehr verwendet werden. Verwenden zwei Hardwarekomponenten dieselbe Adresse, spricht man von einem „Adresskonflikt“.

Aliasing: Ungenaue (pixelhafte) Anzeige eines Bildes aufgrund der eingeschränkten Möglichkeiten des Wiedergabegerätes. Aliasing tritt typischerweise in Form des Treppcheneffektes bei Rundungen und eckigen Formen auf.

Anfangsmarke/Endmarke: Im Bereich der Videobearbeitung beziehen sich Anfangs- und Endmarken auf die Anfangs- und Endcodes, mit denen die Abschnitte derjenigen Clips gekennzeichnet werden, die in ein Projekt integriert werden sollen.

Antialiasing: Ein Verfahren zum Ausgleichen des Pixeleffektes bei Text, wie er in häufig Bitmap-Bildern auftritt. Normalerweise werden dabei die Kanten mit Bildpunkten geglättet, deren Farbe aus einem Zwischenton von Randfarbe und Hintergrundfarbe zusammengesetzt ist, wodurch der Übergang unauffälliger wird. Auch durch die Wahl von Ausgabegeräten mit höheren Auflösungen können Aliasing-Effekte u. U. Vermieden werden.

Auflösung: Die Anzahl der Bildpunkte, die auf Ihrem Monitor horizontal und vertikal dargestellt werden können. Je höher die Auflösung, desto mehr Details können abgebildet werden. & Pixel

AVI: Abkürzung für Audio Video Interleaved, ein Format für digitales Video (und & Video for Windows) auf PCs.

Batchaufnahme: Es handelt sich hierbei um einen automatisierten Prozess, bei dem für die Lokalisierung und Neuaufnahme von bestimmten Clips eines Videobandes eine Art & Prioritätenliste für die Bearbeitung (Edit Decision List) verwendet wird. In der Regel werden die betreffenden Clips dabei mit einer – im Vergleich zur Entstehungsrate des Originalclips – höheren Datenrate aufgenommen.

Bild: Ein Bild ist eine Reproduktion oder ein Abbild eines Gegenstandes oder Lebewesens. In diesem Fall wird der Ausdruck für die Beschreibung von digitalisierten Pixelbildern verwendet, die auf einem Computerbildschirm angezeigt und mit Bildbearbeitungssoftware bearbeitet werden können.

Bildgröße: Die maximale Größe für die Anzeige von Bilddaten in einem Video oder einer Animationssequenz. Wenn ein für eine Sequenz bestimmter Frame die zulässige Größe übersteigt, muss dieser entsprechend beschnitten bzw. skaliert werden.

Bildkompression: Verfahren zur Verringerung der Datenmenge von digitalen Bild- und Videodateien.

Bildrate: & Framerate

BIOS: Basic Input Output System. Anzahl von grundlegenden Ein- und Ausgabebefehlen, die in einem & ROM, PROM oder & EPROM gespeichert sind. Wesentliche Aufgabe des BIOS ist die Steuerung der Ein- und Ausgabeprozesse. Nach dem Systemstart führt das ROM-BIOS einige Tests durch. & Parallelport, IRQ, I/O

Bit: Abkürzung für „BInary digiT“, die kleinste Informationseinheit eines Computers. Neben anderen Aufgaben dienen Bits zur Speicherung von Pixel-Farbwerten in einem Bild. Je mehr Bits für jeden & Pixel verwendet werden, desto größer ist die Anzahl verfügbarer Farben für das Bild. Beispiel:

1-Bit: jeder Pixel ist entweder Schwarz oder weiß.

4-Bit: ermöglicht 16 Farben oder Grautöne.

8-Bit: ermöglicht 256 Farben oder Grautöne.

16-Bit: ermöglicht 65.536 Farben.

24-Bit: ermöglicht ca. 16,7 Millionen Farben.

Bitmap: Ein Bild aus einer Ansammlung von Bildpunkten oder & Pixeln, die in Zeilen angeordnet sind.

Byte: Ein Byte sind acht & Bit. Mit einem Byte kann genau ein Zeichen (Buchstabe, Zahl, etc.) dargestellt werden.

CD-ROM: Massenspeicher für digitale Daten, wie z. B. digitales Video. CD-ROMs können nur gelesen, jedoch nicht beschrieben werden. & ROM ist ein Akronym für Nur-Lese-Speicher.

Clip: Bei Avid Studio ist dies jedes Medienelement auf der Timeline eines Films oder Disc-Projekts. Clip-Medien umfassen Videos, Audiodateien, Photos, Titel und Montagen.

Codec: Abkürzung für Compressor/Decompressor, zuständig für die Kompression und Dekompression von Bilddaten. Codecs können in der Software oder in der Hardware implementiert sein.

COM Port: Ein serieller Port an der Rückseite Ihres Computers für den Anschluss eines Modems, Plotters, Druckers oder einer Maus an Ihr Computersystem.

Composite Video: Composite Video-Signale enthalten einen getrennten Luminanz- und Chrominanzanteil; & VHS und 8mm sind Aufnahmeformate, die in der Lage sind, Composite Video-Signale aufzuzeichnen und wiederzugeben. Wird auch als FBAS bezeichnet.

Cropping: Auswahl des Bildbereichs, der angezeigt werden soll; rechteckige Beschneidung von Bildkanten.

Dateiformat: Die Art, in der Information in einer Computerdatei organisiert sind, wie z. B. ein Bild- oder ein Textdokument. Das Format einer Datei wird in der Regel durch eine spezifische „Dateiendung“ gekennzeichnet (z. B. doc, avi oder wmf).

Datenrate: Übertragene Datenmenge in der Sekunde. Z. B. Anzahl der Bytes, die eine Festplatte pro Sekunde lesen und beschreiben kann oder auch die Menge der Daten einer digitalen Videosequenz, die pro Sekunde verarbeitet werden kann.

Datentransferrate: Die Geschwindigkeit, mit der Informationen zwischen Speichermedium (z. B. & CD-ROM oder Festplatte) und Anzeigegerät (z. B. Monitor oder & MCI-Gerät) ausgetauscht werden. Datentransferraten können, abhängig vom verwendeten Gerät, höher bzw. niedriger ausfallen.

DCT: Abkürzung für Diskrete Cosinus Transformation. Bestandteil der & JPEG-Bilddatenkompression: Die Helligkeits- und Farbinformationen werden als Frequenzkoeffizienten gespeichert.

Dezibel (dB): Physikalische Maßeinheit für die Lautstärke von Geräuschen. Bei einem Anstieg um 3 dB verdoppelt sich die Lautstärke.

Digital8: Digitales Videobandformat, das & DV-kodierte Video- und Audiodaten auf & Hi8-Bänder aufzeichnet. Zur Zeit sind nur Digital8-Camcorder/ Videorekorder von Sony in der Lage, Hi8- und 8mm-Kassetten abzuspielen.

Digitales Video: Beim digitalen Video werden die Informationen – anders als bei analogen Speichermedien wie z. B. Videorekorder – als & bitweise Information in einer Datei abgelegt.

DirectMedia: Systemerweiterung von Microsoft für Multimedia-Anwendungen unter Windows. & ActiveMovie

DirectShow: Systemerweiterung von Microsoft für Multimedia-Anwendungen unter Windows. & ActiveMovie

DirectX: Ein zusammenfassender Ausdruck für die von Microsoft anfänglich für Windows 95 entwickelten Systemerweiterungen zur Video- und Spiele-Beschleunigung.

Dithering: Vermischung der Pixeln von verfügbaren zur Simulation von fehlenden Farben. Durch die Verwendung derartiger Farbnuancen wird die Anzahl der Farben für das menschliche Auge künstlich erhöht.

DMA: Abkürzung für Direct Memory Access.

DV: Videobandformat für die Aufzeichnung von digitalen Audio- und Videomaterialien auf mit Metall bedampften ¼-Zoll-Bändern. Mini DV-Bänder können bis zu 60 Minuten Videos, Standard-DV-Bänder bis zu 270 Minuten aufzeichnen.

ECP: Abkürzung für Enhanced Compatible Port. Ermöglicht einen beschleunigten bi-direktionalen Datentransfer über die & parallele Schnittstelle. & EPP

EDL-Liste (Edit Decision List): Eine Liste von Clips und Effekten in einer bestimmten Reihenfolge, die auf Ihre Ausgabe-Disc oder Ausgabe-Datei aufgezeichnet oder gespeichert werden. Studio gestattet Ihnen die Erstellung einer eigenen EDL: Dabei können Sie Clips und Effekte im Filmeditor und im Disc-Editor hinzufügen, löschen und neu anordnen.

Ein-/ausblenden (Schwarzblende): Digitaler Videoeffekt, der am Anfang eines Clips aus einem Schwarzbereich ein- bzw. am Clipende in einen Schwarzbereich ausblendet.

Einzelbild: Ein Einzelbild bzw. einzelner Frame ist Teil einer Serie bzw. Sequenz. Wenn diese Serie mit entsprechender Ablaufgeschwindigkeit betrachtet wird, entsteht daraus erst ein „bewegtes Bild“, ein Film. & Frame

EPP: Abkürzung für Enhanced Parallel Port. Ermöglicht einen beschleunigten bi-direktionalen Datentransfer über die & parallele Schnittstelle.& ECP

EPROM: Abkürzung für Erasable Progammable Read Only Memory. Speicher-Chip, der nach Programmierung seine Daten ohne Stromversorgung behält. Der Speicherinhalt kann mit UV-Licht wieder gelöscht und neu geschrieben werden.

Farbmodell: Ein Modell zur mathematischen Beschreibung und Definition von Farben und deren Relation zueinander. Die verschiedenen Farbmodelle dienen unterschiedlichen Zwecken. Die beiden geläufigsten Modelle sind & RGB und & YUV.

Farbsättigung: Intensität einer Farbe.

Farbtiefe: Die Anzahl der Bits, mit denen die Farbinformation für jedes Pixel beschrieben wird. Im Schwarzweißbetrieb werden mit 1-Bit Farbtiefe 21=2 Farben (schwarz und weiß) dargestellt. Bei 8-Bit Farbtiefe steht eine Farbpalette von 28=256 Farben zur Verfügung. Bei 24-Bit Farbtiefe umfasst die Farbpalette 16.777.216 (=224) Farben.

Filter: Mathematische Algorithmen, die vorhandene Bild- oder Tonwerte zwecks Erzeugung von Spezialeffekten manipulieren.

FireWire: Markenbezeichnung des seriellen Datenprotokolls & IEEE-1394 von Apple.

Frame: Ein Einzelbild einer Film- oder Animationssequenz. Bei voller NTSC- oder PAL-Auflösung besteht ein Frame aus zwei Halbbildern (Fields). & NTSC, PAL, Halbbild, Auflösung

Framegröße: & Bildgröße

Framerate: Die Bildrate definiert, wie viele Einzelbilder einer Videosequenz in einer Sekunde abgespielt werden. Die Bildrate für ein & NTSC-Video beträgt 30 Bilder pro Sekunde. Die Bildrate für ein & PAL-Video beträgt 25 Bilder pro Sekunde.

Frequenz: Anzahl von periodisch wiederkehrenden Vorgängen (z. B. Tonschwingungen, Bilder, Wechselspannung) pro Zeiteinheit, meist pro Sekunde gemessen (Hertz).

GOP: Bei der & MPEG-Verarbeitung wird der Datenstrom zunächst in Bereiche von jeweils mehreren Einzelbildern, sogenannten GOPs (Group of Pictures (= Gruppe von Bildern) eingeteilt. In einem GOP kommen drei Bildarten (= Frames) vor: I-Frames, P-Frames und B-Frames.

GOP-Länge: Die GOP-Länge gibt an, wieviel I-, B- oder P-Frames in einer & GOP vorhanden sind. Übliche Werte sind z. B. eine GOP-Länge von 9 oder 12.

Grundfarben: Die Farben des RGB-Farbsystems: Rot, Grün und Blau. Durch Mischen dieser Grundfarben können die meisten anderen Farben auf einem Computermonitor dargestellt werden.

Halbbild: Ein & Frame eines & Interlaced-Videos besteht aus horizontalen Zeilen und ist in zwei Halbbilder unterteilt. Die ungeraden Zeilen des Frames sind das 1. Halbbild und die geraden Zeilen des Frames sind das 2. Halbbild.

Hardware-CODEC: Kompressionsverfahren zur Erzeugung komprimierter digitaler Videosequenzen, die zur Aufnahme/Wiedergabe spezielle Zusatzhardware benötigen und damit eine höhere Bildqualität als Software-CODECs ermöglichen. & Codec, Software-CODEC

HD: Hochauflösendes (High-Definition / HD) Videoformat. Die meisten der gebräuchlichen HD-Formate besitzen eine Auflösung von entweder 1920 x 1080 oder 1280 x 720 Bildpunkten, wobei ein substantieller Unterschied zwischen den beiden Standards 1080 und 720 besteht: Das größere Format verwendet 2,25 mehr Pixel pro Frame. Dieser Unterschied erhöht allerdings die für die Verarbeitung von 1080-Videocontent benötigten Anforderungen wie Kodierungszeit, Dekodierungsgeschwindigkeit und Speicherung enorm. Die 720er Formate sind durchgehend progressiv und das 1080-Format ist eine Mischung aus progressiven und interlaced Frametypen. Computer und die daran angschlossenen Monitore sind von Haus aus progressiv, wohingegen Fernsehgeräte auf Interlaced-Techniken und –Standards basieren. Im Zusammenhang mit HD-Technologie wird die Eigenschaft “progressiv” mit einem kleinen “p” und die Eigenschaft “Interlaced” mit einem kleinen “i” gekennzeichnet.

HDV: Format für die Aufzeichnung und Wiedergabe von hochauflösenden Videomaterialien auf ein DV-Band. Anstelle des “DV”-Codecs, verwendet HDV ein MPEG-2-basierendes Komprimierungsverfahren. Es gibt zwei HDV-Varianten: HDV1 und HDV2. Bei HDV1 handelt es sich um eine Auflösung von 1280 x 720 Bildpunkten mit progressiven Videoframes (720p), wobei der MPEG-Datenstrom 19,7 Mbps/Sek. beträgt. HDV2 verfügt über eine Auflösung von 1440 x 1080 Bildpunkten mit interlaced Videoframes (1080i). Der entsprechende MPEG-Datenstrom umfasst 25 Mbps in der Sekunde.

Helligkeit: Auch als „Luminanz“ bezeichnet. Gibt die Bildhelligkeit eines Videos an.

Hi8: Verbesserte & Video8-Version, bei der Videos im & S-Videoformat auf mit Metallpartikel versehenen bzw. mit Metall bedampften Bändern aufgezeichnet werden können. Aufgrund der höheren Luminanzauflösung und Bandbreite verfügen die Aufzeichnungen im Verhältnis zu Video8 über eine höhere Bildschärfe.

HiColor: Bei der Bildbearbeitung bezieht sich dieser Begriff in der Regel auf einen 16-Bit-(5-6-5-)Bildtyp, der bis zu 65.536 Farben enthalten kann. TGA-Dateiformate unterstützen diese Art von Bildern. Bei anderen Dateiformaten ist oft erst eine Konvertierung des HiColor-Bildes in ein & TrueColor-Bild erforderlich. Bei Bildschirmen bezeichnet HiColor normalerweise 15-Bit-(5-5-5-) Bildschirmadapter, mit denen bis zu 32.768 Farben angezeigt werden können. & Bit

Huffman Kodierung: Bestandteil der & JPEG-Bilddatenkompression. Häufig auftretenden Werten wird hierbei ein kurzer, seltener auftretenden Werten ein langer Code zugeordnet.

I/O: Abkürzung für Input/Output (= Eingang/Ausgang).

IDE: Abkürzung für Integrated Device Electronics, einer Schnittstelle für Festplatten, die alle für das Laufwerk benötigten Steuerelemente auf dem Laufwerk selbst zur Verfügung stellt. Mit dieser Technologie wird der konventionelle Adapter, der das Laufwerk mit dem Erweiterungsbus verbindet, hinfällig.

IEEE-1394: Von Apple Computers entwickeltes und unter der Bezeichnung FireWire auf dem Markt eingeführtes serielles Datenübertragungs-Protokoll mit Datenraten bis zu 400 Mbit in der Sekunde. Die Firma Sony bietet eine leicht modifizierte Version für die Übertragung von DV-Signalen an, die als i.LINK bezeichnet wird und Übertragungsraten bis zu 100 Mbit in der Sekunde möglich macht.

Interlaced: Die Methode des Bildaufbaus bei TV-Geräten: Interlaced bezeichnet das Halbbildverfahren, das u. a. beim & PAL-System verwendet wird: Das Fernsehbild besteht aus zwei & Halbbildern zu je 312½ Zeilen, die nacheinander aufgebaut werden. Das & NTSC Fernsehbild besteht aus zwei Bildhälften mit jeweils 242½ Zeilen. Die Halbbilder werden abwechselnd angezeigt und ergeben das zusammengesetzte Vollbild.

Interleave: Eine Anordnung von Ton und Bild zur verbesserten Wiedergabe und Synchronisierung bzw. Komprimierung. Beim Standardformat & AVI werden Ton- und Bilddaten gleichmäßig verteilt.

IRQ: „Interrupt Request“. Bei einem „Interrupt“ handelt es sich um eine vorübergehende Unterbrechung eines laufenden Computer-Prozesses, damit interne bzw. Hintergrundprozesse ausgeführt werden können. Interrupts können sowohl von der Hardware (z. B. Tastatur, Maus, etc.) als auch von der Software angefordert werden.

JPEG: Abkürzung für Joint Photographic Experts Group. Bezieht sich auch auf ein Standard-Kompressionsverfahren für die Komprimierung von digitalen Videoframes auf Basis der Diskreten Kosinus-Transformation. & DCT

Kanal: Klassifizierung von Datei-Informationen zur Herausstellung und Isolierung von bestimmten Datenaspekten. So verwenden Farbbilder z. B. verschiedene Kanäle, um die einzelnen Farbkomponenten des Bildes zu klassifizieren. Stereo-Audio-Dateien benutzen Kanäle, um die Klänge für die rechte und die linke Lautsprecherbox zu identifizieren. Video-Dateien benutzen eine Kombination der vorhandenen Kanäle für Bild- und Audio-Dateien.

KByte (auch KB): Ein KByte (Kilobyte) entspricht dabei 1024 & Bytes. Das „K“ (Kilo) entspricht grundsätzlich der Zahl 1024 (210), und steht nicht für die Zahl 1000, wie es im Rahmen des Dezimalsystems üblich ist.

Key Color (Schlüsselfarbe): Farbe, welcher Transparenzwerte zugewiesen werden, damit ein Hintergrundbild „durchscheinen“ kann. Am häufigsten für die Überlagerung einer Videosequenz mit einer anderen verwendet; dadurch scheint das unten liegende Video an allen Stellen durch, an denen die zugewiesenen Transparenzwerte auftreten.

Ein Videoframe, bei dem der Wert eines bestimmten Parameters für einen Video- oder Audioeffekt festgelegt ist. Bei der Wiedergabe erfolgt die Animation der Effekte durch die gleichmäßige Anpassung der Parameter von einem Keyframe-Wert zum nächsten Keyframe-Wert. Animationseffekte unter Verwendung von Keyframes werden man oftmals auch als „Keyframing“ bezeichnet.

Komplementärfarbe: Komplementärfarben besitzen den entgegengesetzten Wert von Primärfarben. Wenn eine Farbe mit ihrer entsprechenden Komplementärfarbe gemischt wird, entsteht die Farbe Weiß. Die Komplementärfarben von Rot, Grün und Blau sind z. B. Cyan, Magenta und Gelb.

Komprimierung: Methode zur Verkleinerung von Dateien. Es gibt zwei Arten der Komprimierung: ohne Verlust und mit Verlust. Dateien, die mit der nicht verlustbehafteten Methode komprimiert werden, können ohne Veränderung ihrer Originaldaten wiederhergestellt werden. Bei der verlustbehafteten Methode werden in Abhängigkeit des verwendeten Komprimierungsgrades Daten verworfen, wobei der damit verbundene Qualitätsverlust oftmals vernachlässigt werden kann.

Lauflängenkodierung (RLE): RLE = Run Length Encoding. Bestandteil der & JPEG-Kompression. Aufeinanderfolgende Nullwerte werden nicht einzeln, sondern mit einem Null-Zähler abgespeichert.

LPT: & Parallele Schnittstelle

Luminanz: & Helligkeit

M1V: (Dateierweiterung für) MPEG-Dateien, die ausschließlich Videodaten beinhalten. & MPA, MPEG, MPG

MByte (auch MB): 1 MByte (Megabyte) entspricht 1024 & KBytes bzw. 1024 x 1024 Bytes.

MCI: Abkürzung für Media Control Interface. Eine von Microsoft entwickelte Programmierschnittstelle, über die Audio- und Videodaten aufgenommen und wiedergegeben werden können. MCI wird auch als Verbindungsschnittstelle des Computers mit externen Videoquellen eingesetzt, wie z. B. mit Videorekordern oder Laser Discs.

Modulation: Verfahren zur Übertragung elektrischer Informationen.

Motion-JPEG (M-JPEG): Von Microsoft für Video for Windows festgelegtes Format für die Kodierung von Videosequenzen. Bei dem & JPEG-Verfahren wird jedes Bild einzeln komprimiert.

MPA: (Dateierweiterung für) MPEG-Dateien, in denen nur Audiodaten enthalten sind. & M1V, MPEG, MPG

MPEG: Abkürzung für Motion Pictures Experts Group. Standard für die Komprimierung von digitalen Bewegtbildern. Im Vergleich zu M-JPEG bietet dieses Verfahren eine Datenreduzierung zwischen 75 – 80 %, ohne dass ein wahrnehmbarer Bildverlust zu verzeichnen wäre.

MPG: (Dateierweiterung für) MPEG-Dateien, in denen sowohl Video als auch Audiodaten gespeichert sind. & M1V, MPEG, MPA

MPV: (Dateierweiterung für) MPEG-Dateien, die nur Videodaten enthalten. & MPA, MPEG, MPG

Non-Interlaced: Verfahren für den Bildaufbau: Non-Interlaced bezeichnet das Vollbildverfahren, bei dem ein Bild vollständig und ohne Zeilensprünge, erzeugt wird, d. h. die Zeilen eines Bildes werden sequentiell abgerastert. Bei diesem Verfahren (Anwendung bei Computer-Monitoren) flimmert ein Bild deutlich weniger als dies bei der Interlaced-Technik (2 Halbbilder wie bei den meisten Fernsehgeräten) der Fall ist.

NTSC: Abkürzung für National Television Standards Committee; eine TV-Norm, die im Jahre 1953 von diesem Komitee mit 525 Zeilen und 60 Halbbildern in der Sekunde festgelegt wurde. Die NTSC-Norm wird in Nord- und Mittelamerika, Japan sowie auch in einigen anderen Ländern verwendet. & PAL, SECAM

PAL: Abkürzung für Phase Alternation Line. In Deutschland entwickelte Farbfernsehnorm, die mit 625 Zeilen und 50 Halbbildern je Sekunde arbeitet. Der vorherrschende TV-Standard in Europa. & NTSC, SECAM

Parallele Schnittstelle: Via Parallel-Schnittstelle werden Daten über eine 8-Bit-Datenleitung übertragen. Das bedeutet, dass 8 & Bit (1 & Byte) auf einmal transportiert werden können. Diese Art der Übertragung ist deutlich schneller als über die & serielle Schnittstelle, wobei diese Art der Datenübertragung bei weiten Strecken störanfälliger ist. Parallele Schnittstellen werden mit LPT und einer Ziffer gekennzeichnet (z. B. LPT1). & Serielle Schnittstelle

Pixel (Bildpunkte): Pixel sind die kleinsten Einheiten, aus denen das Bild auf Ihrem Monitor aufgebaut ist.

Port: Schnittstelle für die Anpassung von Audio-, Video-, oder Steuerdaten zwischen zwei Geräten. & Serielle Schnittstelle, Parallele Schnittstelle

QSIF: Quarter Standard Image Format. MPEG I-Format. Unter PAL beträgt die Auflösung 176 x 144 und unter NTSC 176 x 120. & MPEG, SIF

Quantisierung: Bestandteil der & JPEG-Bilddatenkompression. Bei diesem Verfahren werden wichtige Bildbildanteile in höchster Genauigkeit und nicht so wichtige Informationen weniger genau abgebildet.

Raster: Bildschirmbereich eines Videomonitors, der von einem Elektronenstrahl in Form von Horizontallinien von oben links bis unten rechts abgetastet wird (aus der Perspektive des Betrachters).

Redundanz: Die in Bildern enthaltene Redundanz wird generell von Kompressionsalgorithmen ausgenutzt, wobei redundante (überflüssige) Informationen entfernt werden, die bei der Dekomprimierung lückenlos wiederhergestellt werden können.

RGB: Abkürzung für Rot, Grün, Blau, den Grundfarben der additiven Farbmischung. Bezeichnet ein u. a. in der Computertechnik verwendetes Verfahren, Bildinformationen getrennt nach den drei Grundfarben zu übertragen.

ROM: Abkürzung für Read Only Memory. Speicher-Chip, das nach einmaliger Programmierung seine Daten ohne Stromversorgung behält. & EPROM

Schwarzband: Methode der Bandvorbereitung für den Insert-Schnitt, indem auf dem gesamten Videoband schwarz aufgezeichnet und damit eine fortlaufende Steuerspur angelegt wird. Wenn das Aufnahmedeck Timecode unterstützt, wird simultan fortlaufender Timecode aufgezeichnet (auch als „Striping“ bezeichnet).

Schwarzblende: & Ein-/ausblenden

SCSI: Abkürzung für Small Computers System Interface. SCSI wird wegen der damit verbundenen hohen Datenraten bei leistungsstarken PCs als Schnittstelle für Festplatten verwendet. Bis zu acht SCSI-Geräte können gleichzeitig an einem Computer angeschlossen werden.

SECAM: Abkürzung für Sequential Couleur à Mémoire. In Frankreich und Osteuropa auf Basis des PAL-Systems entwickelte Farbfernsehnorm mit 625 Zeilen und 50 Halbbildern pro Sekunde. & NTSC, PAL

Seitenverhältnis: Das Verhältnis von Breite zu Höhe eines Frames oder einer Grafik. Bei einem festen Seitenverhältnis zieht eine Änderung des einen Wertes auch die Änderung des anderen Wertes nach sich.

Serielle Schnittstelle: Über die serielle Schnittstelle werden Daten über eine 1-Bit-Datenleitung übertragen. Das bedeutet, dass Daten bei einer Übertragung nur Bitweise, 1 & Bit nach dem anderen, transportiert werden. Dadurch ist diese Art der Übertragung deutlich langsamer als über die parallele Schnittstelle, über die mehrere Bits gleichzeitig übertragen werden. Parallele Schnittstellen werden mit COM und einer Ziffer gekennzeichnet (z. B. COM2). & Parallele Schnittstelle

SIF: Standard Image Format. MPEG I-Format mit einer Auflösung unter PAL von 352 x 288 und unter NTSC von 352 x 240. & MPEG, QSIF

Skalierung: Justierung an die gewünschte Bildgröße.

Software-CODEC: Kompressionsverfahren zur Erzeugung komprimierter digitaler Videosequenzen, die ohne Zusatzhardware von PCs abgespielt werden können. Die Qualität ist dabei stark von der Leistung des Gesamtsystems abhängig. & Codec, Hardware-Codec

Still-Video: Aus Videoclips gewonnene Standbilder.

S-VHS: Verbesserte VHS-Version auf Basis der S-Videonorm sowie Bändern mit Metallpartikeln und höherer Luminanzauflösung sowie – im Verhältnis zu VHS – verbesserter Bildschärfe. & VHS, S-Video

S-Video: Mit Hilfe von S-Video (Y/C)-Signalen werden die Informationen für Helligkeit (Luminanz oder „Y“) und Farbe (Chrominanz oder „C“) getrennt über mehrere Kabel transportiert, womit die Modulation und Demodulation eines Videos sowie die damit verbundene verringerte Bildqualität umgangen werden kann.

Timecode: Der Timecode (Zeitkode) identifiziert die aktuelle Position eines Frames in einer Videosequenz in Relation zum Startpunkt – in der Regel der Anfang eines Clips, wobei der Zeitkode meistens in der Form [Stunden:Minuten:Sekunden:Frames] angezeigt wird (Beispiel: 01:22:13:21). Im Gegensatz zu einem herkömmlichen Bandzähler, der auf Null oder jeden anderen Bandpunkt zurückgesetzt werden kann, handelt es sich bei einem Timecode um ein elektronisches und permanentes Signal, das auf Videoband geschrieben wird.

Treiber: Eine Programmdatei, die Informationen zur Steuerung von Peripheriegeräten enthält. Der Video-Capture-Treiber steuert z. B. eine Video-Capture-Karte.

TrueColor: Diese Bezeichnung wird für Bilder verwendet, die eine so hohe Auflösung besitzen, dass sie für den Betrachter als „lebendige Echtfarben“ erscheinen. Normalerweise steht der Begriff TrueColor für eine Farbtiefe von 24-Bit RGB, mit der etwa 16,7 Millionen verschiedene Kombinationen der Grundfarben Rot, Grün und Blau möglich sind. & Bit, HiColor

Twaintreiber: TWAIN definiert eine standardisierte Softwareschnittstelle für die Kommunikation zwischen Grafik- bzw. Capture-Programmen und Geräten, die Bildinformationen bereitstellen. Ist ein Twaintreiber installiert, können über eine Grafikanwendung direkt Bilder von der Videoquelle in das betreffende Grafikprogramm eingelesen werden. Der Twaintreiber unterstützt nur 32-Bit-Programme und nimmt Bilder im 24-Bit-Modus auf.

Überblendung (Übergang): Ein überbrückender Effekt zwischen benachbarten Video- oder Audioclips. Dabei kann es sich um einen einfachen „Schnitt“ oder einen kunstvoll ausgearbeiteten Animationseffekt handeln. Häufig verwendete Übergänge wie Schnitte, Überblendungen, Ein- und Ausblendungen, Wischeffekte, Gleiteffekte und Kreuzblenden sind die Sprache eines jeden Films und Videos. Mit Ihnen werden Zeitsprünge und ein Wechsel des Standpunkts deutlich – oftmals aber auch unterschwellig – veranschaulicht.

VCR: Englische Abkürzung für Videocassette Recorder.

VHS: Abkürzung für Video Home System. Bei Videorekordern verbreitetes System zur Aufnahme und Wiedergabe von Bild und Ton auf 1/2″ Magnetband. Das verwendete Composite-Signal fasst Helligkeits- und Farbinformationen zu einem Signal zusammen.

Video8: Analoges Videosystem auf Basis von 8-mm-Bändern. Video8-basierende Recorder erzeugen ein Composite-Signal.

Video CD: CD-ROM-Standard mit & MPEG-komprimierten Videos.

Video for Windows: Mit Hilfe dieser Technologie – einer Systemerweiterung für Microsoft Windows-Betriebssysteme – können digitale Videosequenzen aufgezeichnet, gespeichert und wieder abgespielt werden.

Videoabtastrate: Frequenz in MHz, mit der ein Videosignal abgetastet wird, wobei eine höhere Videoabtastrate gleichzeitig auch eine höhere Bildqualität zur Folge hat.

Video-Decoder: Wandelt analoge in digitale Signale um.

Video-Encoder: Wandelt digitale in analoge Signale um.

Videostandbilder: & Still-Video

VISCA: Protokoll, das für bestimmte Geräte zur Steuerung externer Videoquellen in Kombination mit einem Computer verwendet wird.

WAV: Weit verbreitetes Audioformat (Dateierweiterung) für Audiosignale.

Weißabgleich: Bei diesem Verfahren werden in einer elektronischen Kamera die Verstärker der drei Farbkanäle Rot, Grün und Blau so aneinander angeglichen, dass weiße Bildteile einer Szene ohne Farbstich sowie alle Farben innerhalb des für Farbfernseher gültigen Farbraums unverfälscht abgebildet werden können.

Y/C: Bezeichnung für ein 2-Komponenten-Signal: Y = Helligkeitsinformationen, C = Farbinformationen.

YUV: Farbmodell, in dem Y die Helligkeitsinformation, U und V die Farbinformation liefern.

Zwischenablage: Ein temporärer Speicherplatz, auf den alle Windows-Programme während des Ausschneidens, Kopierens und Einfügens von Daten zugreifen können. Die Aufnahme von neuen Daten in die Zwischenablage bewirkt das sofortige Löschen der alten Daten.

Glossar