ifbbw seit 2010 ihr Video und Livestreaming Dienstleister
ifbbw Institut für Bildbewegung - Ihr Video und Livestreaming Dienstleister für digitalen Video-Content und Live-Übertragungen

VIDEO WIKI

Absorber, Diffusoren und Bassfallen sind akustische Elemente, die verwendet werden, um den Klang in Räumen zu optimieren – besonders in Tonstudios, Proberäumen, Heimkinos oder Veranstaltungsräumen. Sie beeinflussen, wie Schallwellen sich im Raum verhalten.

1. Absorber

Ziel: Schallwellen „schlucken“, also Nachhall und Reflexionen reduzieren

  • Bestehen meist aus porösen Materialien (z. B. Schaumstoff, Mineralwolle, Textil)

  • Wirken besonders gut im mittleren bis hohen Frequenzbereich

  • Verhindern, dass der Raum „hallig“ oder „scheppernd“ klingt

  • Beispiel: Schaumstoffplatten an der Wand, Deckenabsorber

2. Diffusoren

Ziel: Schall streuen, statt ihn zu absorbieren oder direkt zurückzuwerfen

  • Bestehen aus harten, unregelmäßigen Oberflächen (z. B. Holz, Kunststoff)

  • Zerstreuen Schallwellen in viele Richtungen → gleichmäßigere Raumakustik

  • Erhalten die „Lebendigkeit“ des Klangs, ohne störende Echos

  • Besonders nützlich in Regieräumen, Studios, Konzertsälen

3. Bassfallen (Bass Traps)

Ziel: Tieffrequente Schallwellen (Bass) kontrollieren

  • Basswellen „stauen“ sich in Raumecken – Bassfallen werden dort platziert

  • Meist aus dichten, absorbierenden Materialien in dreieckiger oder zylindrischer Form

  • Wirken im tiefen Frequenzbereich (unter 250 Hz)

  • Verhindern dröhnende oder unpräzise Bässe

Ein*e Ablaufregisseur*in (auch Showcaller oder Showregisseur*in genannt) sorgt bei Veranstaltungen, Shows oder Live-Produktionen dafür, dass alles exakt nach Plan abläuftauf die Sekunde genau.

Aufgaben eines / einer Ablaufregisseur*in:
1. Verantwortung für den Showablauf
  • Koordiniert den gesamten zeitlichen Ablauf der Produktion

  • Achtet darauf, dass alle Programmpunkte zur richtigen Zeit starten und enden

2. Kommunikation mit allen Gewerken
  • Gibt Regieanweisungen über Intercom (z. B. „Ton ab“, „Licht auf Cue 4“, „Kamera 2 live“)

  • Koordiniert Technik, Kamera, Licht, Ton, Moderation, Bühnenteam etc.

3. Live-Steuerung während der Show
  • Sitzt oft in der Regie oder an einem zentralen Platz mit Headset

  • Ruft jeden „Cue“ (also jeden Ablaufbefehl) präzise zum richtigen Moment ab

4. Vorbereitung & Ablaufplanung
  • Erstellt den Ablaufplan oder Cue-Sheet (jede Sekunde und Aktion der Show wird genau aufgeschrieben)

  • Arbeitet eng mit Regie, Produktion, Technikleitung und ggf. Kund*innen zusammen

5. Schnittstelle zwischen Kreativ und Technik
  • Übersetzt kreative Ideen in technische Abläufe

  • Sorgt dafür, dass alle Gewerke dieselbe Sprache sprechen – und gleichzeitig handeln

Typische Einsatzbereiche:
  • TV-Shows und Live-Formate

  • Konferenzen, Messen, Galas

  • Produktpräsentationen, Livestreams, Firmen-Events

  • Fashion Shows, Konzerte, Hybrid-Events

Fazit:

Der / die Ablaufregisseur*in hält bei komplexen Produktionen alle Fäden in der Hand und sorgt dafür, dass alles „on time“ und „on point“ passiert – sichtbar wird das oft nur, wenn etwas schiefläuft. Wenn alles perfekt läuft, war es meist gute Ablaufregie.

Aufnahmeleitung (Film & Video)

Die Aufnahmeleitung ist eine zentrale organisatorische Funktion in der Film- und Videoproduktion. Sie ist verantwortlich für die Planung, Koordination und Durchführung der Dreharbeiten – vom ersten Drehtag bis zum letzten Take.

Die Aufnahmeleitung sorgt dafür, dass der Dreh reibungslos, effizient und im vorgegebenen Zeit- und Budgetrahmen abläuft. Sie ist das Bindeglied zwischen Produktion, Regie, Technik, Cast und allen anderen Gewerken am Set.

Aufgaben der Aufnahmeleitung im Überblick:
  • Erstellung des Drehplans auf Basis des Drehbuchs und in Absprache mit Regie und Produktion

  • Organisation von Drehorten, Drehgenehmigungen, Unterkünften, Transport und Catering

  • Koordination von Cast, Crew und Equipment am Set

  • Kommunikation mit Behörden, Locations und Dienstleistern

  • Tagesdispositionen erstellen (tägliche Ablaufpläne für das Team)

  • Überwachung des Zeitplans während des Drehs

  • Ansprechpartner*in für alle organisatorischen Fragen am Set

Wichtig zu wissen:
  • In großen Produktionen gibt es oft mehrere Ebenen:

    • Aufnahmeleiter*in (AL) – übergeordnete Organisation

    • Set-Aufnahmeleiter*in – direkte Organisation am Drehort

    • Produktionsleiter*in – übergeordnete Budget- und Personalverantwortung

  • Die Aufnahmeleitung arbeitet eng mit der Regieassistenz, Produktionsleitung und Motivaufnahmeleitung zusammen.

Ziel der Aufnahmeleitung:

Ein gut geplanter und stressfreier Dreh, bei dem alle Beteiligten zur richtigen Zeit am richtigen Ort sind – mit allem, was sie brauchen.

Bildmischung beim Livestreaming bezieht sich auf den Prozess, verschiedene Videoquellen in Echtzeit zu kombinieren, um ein finales, zusammengefügtes Bild zu erzeugen, das während eines Live-Streams gezeigt wird. Dabei werden unterschiedliche Inhalte – zum Beispiel Kamerabilder, Grafiken, Vorab-Aufnahmen oder externe Quellen – zusammengeführt und in eine kohärente visuelle Präsentation umgewandelt.

Typische Anwendungen der Bildmischung im Livestreaming umfassen:
  1. Kamerawechsel: In einem Livestream, der mehrere Kameras verwendet, kann der Bildmischer zwischen verschiedenen Kameraperspektiven wechseln, um den Zuschauer immer den besten Blick auf das Geschehen zu bieten.

  2. Überlagerungen und Grafiken: Während eines Streams können Texteinblendungen (wie Namen oder Scores bei Sportübertragungen), Logos, Animationen oder andere visuelle Elemente hinzugefügt werden, um den Stream informativer oder ansprechender zu gestalten.

  3. Bild-in-Bild (PiP): Ein kleines Bild von einer Kamera wird in das Hauptbild eingefügt, um beispielsweise ein Interview oder eine zweite Perspektive zu zeigen.

  4. Übergänge: Der Bildmischer kann zwischen verschiedenen Szenen oder Kameraperspektiven sanfte Übergänge wie Überblendungen oder Wisch-Effekte einfügen, um den Stream flüssig und professionell wirken zu lassen.

Im professionellen Livestreaming wird oft eine Bildmischmaschine oder ein Video-Switcher verwendet, um diese verschiedenen Videoquellen zu steuern und in Echtzeit zu bearbeiten. Bei weniger aufwendigen Streams können Software-Lösungen wie OBS Studio oder vMix zum Einsatz kommen, die diese Funktionen ebenfalls ermöglichen.

Bildmischung trägt also dazu bei, einen gut strukturierten und dynamischen Livestream zu erstellen, der für die Zuschauer visuell ansprechend und informativ ist.

Ein CDN (Content Delivery Network) ist ein globales Netzwerk aus weltweit verteilten und miteinander verbundenen Servern, das dafür sorgt, dass Webinhalte wie Bilder, Videos oder Webseiten schnell und zuverlässig beim Nutzer ankommen.

Kurz gesagt:

Ein CDN speichert Kopien von Inhalten auf Servern in der Nähe des Nutzers, um Ladezeiten zu verkürzen, Serverlast zu reduzieren und die Verfügbarkeit zu erhöhen.

Beispiel: Ruft jemand aus Deutschland eine US-Website auf, liefert ein europäischer CDN-Server die Inhalte – schneller und effizienter.

Ein cineastischer Look (auch cinematic look) beschreibt in der Filmbranche einen visuellen Stil, der an große Kino­produktionen erinnert. Er sorgt dafür, dass ein Bild „wie Film“ aussieht – atmosphärisch, hochwertig, emotional und bewusst gestaltet.

Was bedeutet cineastischer Look?

Ein cineastischer Look entsteht, wenn mehrere gestalterische und technische Elemente zusammenspielen. Er sorgt dafür, dass Bilder filmisch, ästhetisch und tiefgründig wirken – im Gegensatz zu einem eher „flachen“ oder „videotypischen“ Look.

Kurz gesagt:

Ein cineastischer Look lässt ein Video so wirken, als wäre es eine Szene aus einem Kinofilm – emotional, hochwertig und gestalterisch durchdacht.

Color Grading in der Videoproduktion ist der kreative Prozess, bei dem die Farben eines Videos nach der Aufnahme angepasst und gestaltet werden, um eine bestimmte Stimmung, Atmosphäre oder einen einheitlichen Look zu erzeugen. Es ist ein wichtiger Teil der Postproduktion und geht über die rein technische Farbkorrektur hinaus.

Hier ein kurzer Überblick:
Was passiert beim Color Grading?
  1. Stimmung erzeugen:
    Farben beeinflussen Emotionen. Warme Töne können Geborgenheit oder Nostalgie erzeugen, kühle Töne wirken distanziert oder düster.

  2. Visuelle Einheitlichkeit:
    Besonders bei Szenen, die zu unterschiedlichen Tageszeiten oder an verschiedenen Orten gedreht wurden, hilft Color Grading, ein einheitliches Gesamtbild zu schaffen.

  3. Look & Stil:
    Bestimmte Filme oder Serien haben einen klar erkennbaren Look – z. B. der grünlich-kühle Stil in The Matrix oder der entsättigte Western-Look in Breaking Bad.

  4. Künstlerischer Ausdruck:
    Durch das gezielte Verändern von Farben, Kontrast, Sättigung und Lichtanteilen kann ein einzigartiger visueller Stil kreiert werden.

Corner Logos (oder Eck-Logos) sind Logos, die typischerweise in einer der Ecken eines Bildes, Videos oder einer Webseite platziert werden. Sie dienen häufig als Branding-Element, ohne den Hauptinhalt zu sehr zu dominieren.

In der Regel sieht man Corner Logos in Bereichen wie:
  1. Livestreams oder Videos: Hier wird das Logo eines Unternehmens oder einer Marke in einer der Ecken des Videos platziert, um die Marke während der gesamten Übertragung sichtbar zu halten, ohne die Zuschauererfahrung zu beeinträchtigen.

  2. Webseiten: Auch auf Webseiten kann das Logo in einer Ecke erscheinen, um die Identität der Seite zu zeigen, ohne zu sehr vom Inhalt abzulenken.

  3. Marketing-Materialien: Bei gedruckten oder digitalen Materialien kann das Logo in einer Ecke erscheinen, um eine subtile Markenpräsenz zu schaffen.

Ein Corner Logo ist also eine dezente Möglichkeit, die Markenidentität zu fördern, ohne dass es die Aufmerksamkeit des Nutzers stark vom eigentlichen Inhalt ablenkt.

Dedizierte IP-Verbindungen (auch: dedizierte Leitungen oder Dedicated Internet Access) sind exklusive, fest zugewiesene Datenverbindungen, die nur von einem einzigen Kunden genutzt werden – im Gegensatz zu „Shared Connections“, die sich mehrere Nutzer teilen.

Eine dedizierte IP-Verbindung ist wie eine eigene digitale Autobahn zwischen deinem Standort und dem Internet bzw. einem anderen Netzwerk –
schnell, stabil und ganz ohne Stau durch andere Nutzer.

Beispiel aus der Praxis:

Bei einem großen Livestream-Event oder einer Remote-Regie-Produktion wird oft eine dedizierte Glasfaserleitung mit statischer IP geschaltet, damit:

  •  die Bandbreite gehört nur dir – kein Leistungsverlust durch andere
  • das Signal ohne Unterbrechung oder Verzögerung übertragen wird

  • die Regie sichere, direkte Kontrolle hat

  • es keine Performanceeinbrüche durch andere Nutzer gibt

Ein Digital Imaging Technician (DIT) ist ein spezialisierter Fachmann in der Film- und Videoproduktion, der eine zentrale Rolle im digitalen Aufnahmeprozess spielt. Der DIT sorgt dafür, dass das digitale Bildmaterial korrekt aufgenommen, gesichert, kontrolliert und für die Weiterverarbeitung vorbereitet wird.

Die Hauptaufgaben eines DIT im Überblick:
Bildkontrolle und Qualitätssicherung
  • Überwacht die Kameraeinstellungen (z. B. Belichtung, Farbbalance, Kontrast)

  • Arbeitet eng mit Kameraleuten und dem Regisseur zusammen, um den gewünschten Look zu erzielen

  • Nutzt professionelle Monitore und Tools zur Farbbeurteilung

Datenmanagement
  • Überträgt das Filmmaterial sicher von den Speichermedien auf Backup-Festplatten

  • Erstellt mehrere redundante Backups (mind. 2–3 Kopien)

  • Organisiert die Datenstruktur für den reibungslosen Ablauf der Postproduktion

Vorbereitung für die Postproduktion
  • Wandelt das Rohmaterial ggf. in passende Formate um (Transcoding)

  • Erstellt Proxys (kleinere Versionen der Aufnahmen) für den Schnitt

  • Dokumentiert alle Metadaten und ggf. On-Set-Notizen für die Editoren und Coloristen

Look-Management
  • Legt sogenannte LUTs (Look-Up-Tables) an, mit denen ein gewünschter Bildlook simuliert wird

  • Stellt sicher, dass der künstlerische Look schon am Set sichtbar und bewertbar ist

Warum ist ein DIT so wichtig?

Ein DIT ist das Bindeglied zwischen Kameraabteilung und Postproduktion. Er garantiert, dass alle Aufnahmen technisch einwandfrei, sicher gespeichert und organisiert sind. Besonders bei hochwertigen Produktionen – wie etwa Konzerten mit vielen Kameras – ist ein DIT unverzichtbar.

Ein Easyrig ist ein tragbares Kamera-Stützsystem, das Kameraleuten hilft, schwere Kameras bei längeren Drehs rückenschonend und stabil zu führen.

Kurz erklärt:

Ein Easyrig sieht aus wie ein Rucksack mit einem Auslegerarm über dem Kopf. An diesem Arm hängt die Kamera über ein Seilzugsystem mit Dämpfung. Das Gewicht der Kamera wird dadurch auf den Rücken und die Hüften verteilt, anstatt nur auf die Arme oder Schultern.

Einsatzbereiche:
  • Dokumentarfilme

  • Reportagen

  • Musikvideos

  • Events & Livestreams

  • Werbedrehs

Gerade bei viel Bewegung, Handkamera-Einstellungen oder längeren Takes (z. B. Interviews) ist ein Easyrig ideal.

Vorteile eines Easyrigs:
  • Entlastet Rücken, Schultern und Arme

  • Längere Drehzeiten ohne Ermüdung

  • Stabilisiert die Kamera für ruhige Bewegungen

  • Kompatibel mit Gimbals, DSLRs, Cine-Kameras etc.

  • Verschiedene Modelle je nach Kamera-Gewicht (z. B. Easyrig Vario 5, Minimax)

Wichtig:

Ein Easyrig ersetzt kein Gimbal oder Steadicam – es stabilisiert nicht elektronisch, sondern mechanisch durch Entlastung. Viele Kameraleute kombinieren es jedoch mit Gimbals (z. B. Ronin 2 oder Movi Pro), um das Beste aus beiden Welten zu nutzen.

Ein/e Cutter*in – oder auch Editor*in genannt – ist in der Postproduktion die Person, die das Rohmaterial (alle gedrehten Szenen) zu einem fertigen Film oder Video zusammenschneidet. Ein/e Cutter*in sorgt dafür, dass aus vielen einzelnen Clips eine mitreißende, gut erzählte Geschichte wird.

Was genau macht ein/e Cutter*in in der Postproduktion?
1. Sichtung des Materials
  • Schaut sich das gesamte Rohmaterial an (oft viele Stunden).

  • Wählt die besten Takes und Momente aus.

2. Schnitt & Montage
  • Fügt Szenen in der richtigen Reihenfolge zusammen.

  • Bestimmt das Tempo, den Rhythmus und die Übergänge.

  • Achtet auf Anschlussfehler (Kontinuität bei Bewegung, Kleidung, Licht usw.).

  • Arbeitet oft nach einem Storyboard oder Drehbuch – aber mit kreativen Freiheiten.

3. Tonbearbeitung
  • Schneidet Dialoge, Soundeffekte, Musik und Atmo sauber zusammen.

  • Entfernt störende Geräusche oder Lautstärkeunterschiede.

  • Manchmal auch erste einfache Tonmischung, bevor das Sounddesign übernimmt.

4. Einfügen von Musik und Effekten
  • Setzt Musik gezielt ein, um Emotionen zu verstärken.

  • Fügt Übergänge, Blenden, Texttafeln oder visuelle Effekte hinzu (je nach Projekt).

5. Zusammenarbeit mit dem/r Regisseur*in
  • Ein/e Cutter*in setzt die Vision des/r Regisseur*in um – bringt aber auch eigene kreative Ideen ein.

  • Es gibt oft mehrere Schnittfassungen („Cuts“), bis alle zufrieden sind (z. B. Rough Cut → Fine Cut → Final Cut).

Ziel eines/r Cutter*in:

Die Zuschauenden emotional mitnehmen, eine klare Geschichte erzählen und gute Übergänge schaffen.

Ein Embedded Code ist ein Stück Code (meist HTML, JavaScript oder ähnliches), das in eine Webseite oder Anwendung eingebunden wird, um externe Inhalte oder Funktionen anzuzeigen oder zu integrieren. Dieser Code ermöglicht es, Inhalte wie Videos, Karten, Formulare, Social-Media-Feeds oder Widgets direkt in eine bestehende Seite zu integrieren, ohne dass die Inhalte auf dem eigenen Server gehostet werden müssen.

Ein Beispiel für eingebetteten Code ist der YouTube-Embed-Code, der verwendet werden kann, um ein YouTube-Video direkt auf einer Webseite anzuzeigen. Der Code wird einfach in den HTML-Code der Seite eingefügt, und das Video wird daraufhin auf der Seite angezeigt, ohne dass der Besucher YouTube direkt aufrufen muss.

Kurz gesagt:

Embedded Code ermöglicht die Einbettung von externen Inhalten oder Funktionen in deine eigene Webseite oder Anwendung.

Encoding und Decoding einfach erklärt

Encoding bedeutet, dass ein Video- oder Audiosignal komprimiert und in ein digitales Format umgewandelt wird, damit es gestreamt oder gespeichert werden kann. Zum Beispiel: Die Kamera liefert das Rohbild, und ein Encoder macht daraus einen Livestream für YouTube oder Facebook.

Decoding ist der umgekehrte Prozess: Das komprimierte Signal wird wieder lesbar gemacht, also “entschlüsselt”, damit es auf einem Bildschirm oder in einem Regieraum korrekt angezeigt oder weiterverarbeitet werden kann.

Beispiel:
  • Encoding: Kamera → Encoder → Livestream

  • Decoding: Livestream → Decoder → Bildschirm oder Regie-Software

Kurz gesagt:

Encoding macht das Video sendefähig, Decoding macht es sichtbar. Beide Prozesse sind essenziell für reibungsloses Livestreaming.

Ein EVS Operator:

arbeitet in Live-TV-Produktionen und ist verantwortlich für die Aufzeichnung, Wiedergabe und Bearbeitung von Videomaterial in Echtzeit – z. B. für Zeitlupen, Replays oder Highlight-Zusammenschnitte.

Ein EVS-System:

ist ein professioneller Video-Server, der speziell für Live-TV-Produktionen entwickelt wurde. Es ermöglicht die gleichzeitige Aufnahme, Wiedergabe und Bearbeitung von Videomaterial in Echtzeit – ideal für Replays, Zeitlupen und Highlight-Clips bei Sportevents, Shows oder Konzerten.

Ein Flightcase ist ein robuster Transportkoffer, der speziell dafür gebaut ist, empfindliches Equipment sicher und stoßfest zu transportieren – besonders in der Veranstaltungs-, Musik-, Film- und Medientechnik.

Wofür wird ein Flightcase verwendet?
  • Licht- & Tontechnik (z. B. Mischpulte, Mikrofone, Kabel)

  • Musikinstrumente (z. B. Gitarren, Synthesizer)

  • Kameratechnik & Objektive

  • Monitore, Server, Computer

  • Messe- & Präsentationsequipment

Vorteile:
  • Schutz beim Transport (auch per Flugzeug, daher der Name)

  • Langlebig und wiederverwendbar

  • Professioneller Look & Organisation

Glasfaser:

(auch Glasfaserkabel oder im Englischen fiber optics) ist eine moderne Technologie zur Datenübertragung mit Licht – superschnell, stabil und zukunftssicher.

Glasfaser ist ein dünner Faden aus Quarzglas oder Kunststoff, durch den Lichtsignale geschickt werden, um Daten in Höchstgeschwindigkeit zu übertragen – viel schneller als mit Kupferkabeln.

Ein Greenscreen ist eine grüne Hintergrundfläche, die in der Film-, Video- und Fotoproduktion verwendet wird, um den Hintergrund digital zu ersetzen. Dieses Verfahren nennt man Chroma Keying.

Wie funktioniert ein Greenscreen?
  1. Motiv wird vor einem grünen Hintergrund aufgenommen

  2. In der Postproduktion wird die grüne Farbe herausgefiltert (keyed out)

  3. Der grüne Bereich wird durch ein beliebiges Bild, Video oder digitale Umgebung ersetzt
    → z. B. Wetterkarten, Fantasiewelten, virtuelle Sets

Warum grün?
  • Grün ist eine Farbe, die in der menschlichen Haut kaum vorkommt, was das Herausfiltern erleichtert

  • Kamerasensoren reagieren besonders empfindlich auf Grün (sauberere Trennung)

  • Alternativ kann auch Blau verwendet werden → Bluescreen (z. B. bei grüner Kleidung)

Eine Hybrid-Veranstaltung ist ein Eventformat, das physische und digitale Teilnahme kombiniert.

Das bedeutet: Ein Teil des Publikums ist vor Ort anwesend, während ein anderer Teil live per Videoübertragung (Livestream) oder über digitale Plattformen (z. B. Zoom, YouTube Live, MS Teams) remote teilnimmt.

Fazit:

Eine Hybrid-Veranstaltung ist ein Event, das gleichzeitig vor Ort und online stattfindet, wobei die Inhalte live per Video gestreamt werden, sodass sowohl physische als auch virtuelle Teilnehmer:innen in Echtzeit teilnehmen und interagieren können.

Interaktives Online-Shopping bezeichnet eine Einkaufserfahrung im Internet, bei der Käufer*innen aktiv in den Entscheidungsprozess eingebunden werden, oft mit Funktionen, die eine direkte Interaktion mit der Website oder der App ermöglichen. Anders als beim traditionellen Online-Shopping, bei dem Käufer*innen passiv Produkte durchsuchen und kaufen, bietet interaktives Online-Shopping zusätzliche Funktionen, die die Benutzererfahrung personalisieren und den Kaufprozess ansprechender gestalten.

Merkmale des interaktiven Online-Shoppings:
  • 360-Grad-Ansichten und Zoom:
  • Interaktive Features wie 360-Grad-Ansichten oder Zoomen ermöglichen es den Käufer*innen, Produkte aus allen Blickwinkeln zu betrachten und Details zu überprüfen, was den physischen Einkauf im Laden simuliert.

Live-Shopping-Events und Social Commerce:
  • Bei Live-Shopping-Events können Kund*innen in Echtzeit mit Moderator*innen, Produktexpert*innen oder Influencer*innen interagieren, die Produkte vorstellen und Fragen der Zuschauenden beantworten. Nutzer*innen können sofort einkaufen, während sie der Präsentation folgen.

  • Social Commerce integriert interaktive Funktionen in soziale Medien, sodass Nutzer*innen Produkte direkt über Plattformen wie Instagram, TikTok, Fb, LinkedIn oder eigenen Webseiten kaufen können, während sie Inhalte durchsuchen.

Interkom-Systeme:

(auch Intercom) sind Kommunikationssysteme, mit denen sich alle Teammitglieder einer Videoproduktion – z. B. Regie, Kameraleute, Ton und Technik – in Echtzeit per Headset verständigen können.

Warum sind sie wichtig in der Videobranche?

Sie ermöglichen eine schnelle, klare und koordinierte Kommunikation, was bei Liveproduktionen, komplexen Drehs oder Livestreams entscheidend ist. Ohne Interkom wären präzise Kamerafahrten, spontane Regieanweisungen oder reibungslose Abläufe kaum möglich.

Ein Kamera-Dolly ist ein fahrbares Kamerawagen-System, das es erlaubt, die Kamera gleichmäßig und kontrolliert zu bewegen, z. B. seitlich, vorwärts, rückwärts oder im Kreis. Er wird oft auf Schienen (Tracks) oder speziellen Rädern bewegt und kommt bei professionellen Film-, TV- und Werbeproduktionen zum Einsatz.

Was macht ein Kamera-Dolly?

Ein Kamera-Dolly ermöglicht:

  • flüssige Kamerafahrten ohne Wackeln

  • dynamische Perspektivwechsel während der Aufnahme

  • Verfolgungsfahrten von Personen, Autos etc.

  • ruhige Bewegungen im Studio oder am Set

Aufbau eines Kamera-Dollys:

Ein klassischer Dolly besteht aus:

  • Fahrgestell (mit Rädern oder Schienenrollen)

  • Sitz für den Kameramann oder Dolly-Grip (optional)

  • Bühne für Stativ, Stativkopf oder Kameraarm

  • Schienen (Tracks) für präzise Linearbewegungen

  • manchmal mit Hydraulik oder elektrischen Antrieben

Einsatzmöglichkeiten:
  • Lineare Kamerafahrten (z. B. Dialogszenen)

  • Kreisfahrten um ein Motiv

  • Push-ins (Kamera fährt auf das Motiv zu)

  • Pull-outs (Kamera fährt vom Motiv weg)

Fazit:

Ein Kamera-Dolly ist ideal für kontrollierte, ruhige Fahrten, besonders bei professionellen Produktionen. Er sorgt für hohe Bildqualität und cinematische Kamerabewegungen – ein Klassiker am Filmset.

Eine LED Wall (oder LED-Wand) ist eine große, digitale Anzeigefläche, die aus vielen kleinen LED-Modulen (Light Emitting Diodes = Leuchtdioden) besteht. Diese Module leuchten in unterschiedlichen Farben und bilden zusammen ein Bild oder Video in Echtzeit ab.

Was macht eine LED Wall besonders?
  • Helles, brillantes Bild – auch bei direkter Sonneneinstrahlung gut sichtbar

  • Große Flächen möglich – von wenigen Quadratmetern bis zu ganzen Hausfassaden

  • Nahtlose Darstellung – im Gegensatz zu zusammengesetzten Monitoren

  • Flexibel einsetzbar – indoor und outdoor, mobil oder fest installiert

Ein Live-Chat ist eine Echtzeit-Kommunikationsmöglichkeit, bei der Nutzer direkt mit einem Support-Team, einer Person oder einem System über Textnachrichten kommunizieren können. Dieser Service wird häufig auf Webseiten oder in Apps genutzt, um schnelle Hilfe oder Antworten auf Fragen zu bieten.

Live-Chats kommen in verschiedenen Kontexten zum Einsatz, wie zum Beispiel:
  • Interaktive Unterhaltung: Bei Livestreams oder Online-Events können Zuschauer Fragen stellen oder Kommentare abgeben, die in Echtzeit beantwortet werden.
  • Kundensupport: Nutzer können sofort mit einem Mitarbeiter sprechen, um Hilfe zu technischen Fragen, Bestellungen oder Problemen zu erhalten.

  • Verkaufsberatung: Kunden können mit einem Verkäufer in Echtzeit chatten, um Informationen über Produkte oder Dienstleistungen zu erhalten.

Im Vergleich zu traditionellen Kommunikationswegen wie E-Mails oder Telefonaten ist der Live-Chat schneller und direkter, da Antworten fast sofort erfolgen.

Die Live-Regie bei einer Video-Übertragung bezeichnet den Prozess der Echtzeit-Steuerung und -Koordination aller visuellen und audiovisuellen Elemente während eines Livestreams oder einer Live-Übertragung. Die Aufgabe der Live-Regie ist es, sicherzustellen, dass das, was die Zuschauer*innen sehen, gut präsentiert wird, indem verschiedene Kameras, Grafiken, Videos und Tonquellen in Echtzeit gemischt und gesteuert werden.

Wichtige Aspekte der Live-Regie:
  1. Kamerawechsel: Die Live-Regie koordiniert, welcher Kamerawinkel oder welche Kamera zu einem bestimmten Zeitpunkt gezeigt wird. Wenn mehrere Kameras im Einsatz sind, sorgt die Regie dafür, dass der richtige Blickwinkel zur richtigen Zeit angezeigt wird, um das Geschehen optimal abzubilden.

  2. Grafiken und Einblendungen: Es werden oft Grafiken eingeblendet, z. B. Namen, Statistiken, Logos, Titel oder Texte. Die Live-Regie fügt diese grafischen Elemente in den Stream ein und steuert, wann sie erscheinen und verschwinden.

  3. Tonmischung: Neben dem Bild sorgt die Live-Regie auch dafür, dass der Ton richtig gemischt wird. Das bedeutet, dass Mikrofone, Musikinhalte und andere Audioquellen in Einklang gebracht und gegebenenfalls Lautstärkepegel angepasst werden.

  4. Übergänge und Effekte: Während der Übertragung verwendet die Live-Regie Übergangseffekte, wie z. B. Überblendungen oder Wischen, um flüssige und ansprechende Übergänge zwischen Szenen oder Kamerawinkeln zu schaffen. Dadurch wird die Übertragung professionell und visuell interessant.

  5. Regieanweisungen: Der Regisseur oder die Person in der Live-Regie gibt Anweisungen an das Team, um sicherzustellen, dass alle Elemente gut koordiniert sind. Dazu gehören die Steuerung der Kameras, das Timing von Grafiken, das Einblenden von Videos oder das Reagieren auf unerwartete Ereignisse.

Werkzeuge der Live-Regie:
  • Video-Switcher: Ein Gerät oder Software, das es ermöglicht, zwischen verschiedenen Kameras und Videoquellen in Echtzeit zu wechseln.

  • Teleprompter und Regie-Ansagen: Um den Sprechern oder Moderatoren zu helfen, ihre Texte oder Anweisungen zu verfolgen, insbesondere bei Live-Übertragungen von Nachrichten oder Shows.

  • Audio-Mischpult: Ein Gerät, das für das Mischen der verschiedenen Audioquellen zuständig ist, um sicherzustellen, dass der Ton klar und ausgewogen ist. Diese Position wird oftmals um einen erfahrenen Ton Techniker aufgestockt.

Anwendungen der Live-Regie:
  • Fernsehübertragungen: In Live-Nachrichtensendungen, Sportübertragungen oder Live-Events ist eine präzise und schnelle Live-Regie notwendig, um das Geschehen reibungslos und professionell darzustellen.

  • Streaming von Events: Bei großen Veranstaltungen, Konzerten oder Online-Streaming-Events wird die Live-Regie oft verwendet, um die verschiedenen visuellen und auditiven Elemente zu kombinieren und eine flüssige Präsentation zu gewährleisten.

  • Live-Produktionen: Auch bei Live-Produktionen wie Theateraufführungen, Konferenzen oder Seminaren ist eine Live-Regie erforderlich, um alle technischen Aspekte der Übertragung zu steuern.

Fazit:

Die Live-Regie ist entscheidend, um eine qualitativ hochwertige und ansprechende Video-Übertragung zu gewährleisten. Sie sorgt dafür, dass alle visuellen und audiovisuellen Elemente in Echtzeit perfekt aufeinander abgestimmt sind und den Zuschauern ein professionelles und reibungsloses Erlebnis bieten.

Eine Live-Schalte ist eine Echtzeit-Video- oder Audioverbindung zwischen zwei oder mehreren Orten, die genutzt wird, um Inhalte oder Gespräche live zu übertragen – also unmittelbar zum Zeitpunkt des Geschehens.

Der Begriff stammt ursprünglich aus dem Rundfunk und Fernsehen, wird heute aber auch in Unternehmen, bei Veranstaltungen und im digitalen Umfeld verwendet. Eine Live-Schalte kann einseitig (nur Übertragung) oder zweiseitig (Dialog) erfolgen.

Typische Einsatzbereiche:
  • TV-Übertragungen: z. B. Schalten zu Reportern vor Ort

  • Unternehmenskommunikation: z. B. Ansprachen der Geschäftsleitung an mehrere Standorte

  • Veranstaltungen & Events: z. B. Zuschaltungen von Gästen, Rednern oder Experten

  • Politik & Konferenzen: z. B. Zuschaltungen von Delegationen oder Teilnehmern

Technisch gesehen:

Bei einer Live-Schalte wird das Video- und/oder Audiosignal in Echtzeit über digitale Netzwerke (z. B. Satellit, Internet, Glasfaser oder Mobilfunk) übertragen. Genutzt werden dabei häufig:

  • Livestreaming-Plattformen (z. B. YouTube Live, Vimeo)

  • Videokonferenzsysteme (z. B. Zoom, MS Teams)

  • Broadcast-Technik (z. B. SNG-Übertragungen bei TV)

Livestreaming:

bezeichnet die Übertragung von Audio- und Videoinhalten in Echtzeit über das Internet. Dabei werden Ereignisse, Shows, Nachrichten, Spiele oder andere Aktivitäten live übertragen, sodass die Zuschauenden sie sofort ansehen können, ohne auf eine spätere Aufzeichnung warten zu müssen.

Livestreaming wird oft auf Plattformen wie YouTube, Twitch, Facebook oder Instagram genutzt. Es wird für verschiedenste Zwecke eingesetzt, von Unterhaltungsformaten über Nachrichtenübertragungen bis hin zu interaktiven Events, bei denen das Publikum in Echtzeit mit den Streamer*innen oder Moderator*innen kommunizieren kann.

Ein Patchfeld:

(auch Patchpanel) in der Videotechnik ist eine zentrale Verbindungs- und Umschaltstelle für Kabelverbindungen – insbesondere für Video-, Audio- und Steuersignale. Es wird genutzt, um Signalwege flexibel zu organisieren, umzuleiten und zu verwalten – ohne dauerhafte Neuverkabelung.

Pay-per-View:

kurz (PPV) in der Video- und Livestream-Produktion ist ein Bezahlmodell, bei dem Zuschauer*innen einmalig für den Zugang zu einem bestimmten Livestream oder Video-On-Demand-Inhalt bezahlen.

Der Zugriff ist in der Regel zeitlich oder nutzungsbezogen begrenzt – z. B. für die Dauer des Livestreams oder für einen festgelegten Zeitraum bei On-Demand-Inhalten.

Postproduktion bezeichnet den Prozess, der nach der eigentlichen Aufnahme oder Produktion eines Films, Videos oder Audioinhalts stattfindet. Dabei geht es um alle Schritte, die notwendig sind, um das Rohmaterial zu bearbeiten und zu verfeinern, bevor es veröffentlicht oder verbreitet wird.

Die Postproduktion umfasst mehrere wichtige Bereiche, darunter:
  1. Schnitt (Editing): Das Zusammenstellen und Bearbeiten der aufgenommenen Aufnahmen, um die gewünschte Struktur und Erzählweise zu erreichen.

  2. Tonbearbeitung: Dazu gehört das Mischen und Bearbeiten von Tonaufnahmen, das Hinzufügen von Musik, Soundeffekten und Synchronisation.

  3. Visuelle Effekte (VFX): Computergenerierte Bilder (CGI) oder andere visuelle Effekte, die hinzugefügt werden, um das visuelle Erlebnis zu verbessern.

  4. Farbkorrektur: Die Anpassung der Farben im Bild, um eine bestimmte Atmosphäre zu erzeugen oder das Material zu verbessern.

  5. Titel und Grafiken: Hinzufügen von Texten, Logos oder animierten Grafiken.

Postproduktion ist ein entscheidender Schritt, um Rohmaterial in ein fertiges, professionell wirkendes Produkt zu verwandeln. Der Prozess wird sowohl in der Filmproduktion als auch in der Musikproduktion, für Videos und bei vielen anderen Medieninhalten durchgeführt.

Der Begriff PiP steht für „Picture-in-Picture“ – zu Deutsch etwa: „Bild-im-Bild“. Das ist eine Technik aus der Video- und Livestream-Produktion, bei der mehrere Videoquellen gleichzeitig in einem Bild dargestellt werden, wobei eine oder mehrere kleiner eingeblendet sind.

Was ist Picture-in-Picture (PiP)?

Picture-in-Picture ist ein Layout, bei dem:

  • ein Hauptbild (z. B. der Moderator oder ein Musikvideo) den Großteil des Bildschirms einnimmt,

  • ein oder mehrere kleinere Fenster (z. B. Bandmitglieder, Interviewpartner, Präsentationen) gleichzeitig eingeblendet werden – oft am Rand oder in einer Ecke.

Typische Einsatzbereiche:
  • Livestreaming von Interviews (z. B. Moderator im Hauptbild, Interviewpartner im PiP-Fenster)

  • Gaming-Streams (Gameplay groß, Streamer-Kamera klein eingeblendet)

  • Präsentationen oder Webinare (PowerPoint-Folie groß, Redner klein im Bild)

  • TV-Übertragungen (z. B. Kommentatoren-Fenster bei Sportübertragungen)

  • Konferenzen & hybride Events (mehrere Sprecher gleichzeitig sichtbar)

Vorteile von PiP im Livestreaming:
  • Mehr Interaktion und Dynamik im Stream

  • Gleichzeitige Darstellung mehrerer Perspektiven

  • Professioneller Look (wie im Fernsehen)

  • Ideal für dezentrale Produktionen (wie bei eurer Metallica-Schalte)

PTZ-Kameras sind spezielle Videokameras, die ferngesteuert werden können – und zwar in drei Richtungen:

PTZ = Pan – Tilt – Zoom
  • Pan → seitlich schwenken (links/rechts)

  • Tilt → neigen (hoch/runter)

  • Zoom → heran- oder herauszoomen

PTZ-Kameras sind motorisierte Kameras, die man aus der Ferne bewegen und steuern kann – ideal für Events, Livestreams, Konferenzen, Gottesdienste, Theater, Sportübertragungen u. v. m.

Ein Recording bezeichnet eine Aufnahme von Audio, Video oder beidem. Es handelt sich dabei um den Prozess, bei dem Ton- oder Bildmaterial erfasst und gespeichert wird, sei es für Musik, Podcasts, Interviews, Filme, Konferenzen oder andere Formate.

Im Audio-Bereich kann ein Recording beispielsweise ein Musikstück, ein Podcast oder eine Sprachnachricht sein. Bei Video-Aufnahmen handelt es sich um das Festhalten von bewegten Bildern, etwa bei Filmen, Tutorials oder Konferenzen.

Das Recording ist also der technische Schritt, bei dem der Inhalt erstellt und auf einem Medium wie Festplatten, CDs oder in der Cloud gespeichert wird.

Eine Regisseur*in ist in der Videoproduktion die kreative Leitungsperson – quasi der/die “Visionär:in” hinter dem Projekt. Er oder sie sorgt dafür, dass die Geschichte, die Stimmung und der Stil des Films oder Videos so umgesetzt werden, wie es geplant (oder erträumt) wurde.

Was macht eine Regisseur*in konkret?

1. Künstlerische Vision entwickeln

  • Entscheidet, wie die Geschichte erzählt werden soll – in Ton, Bild, Rhythmus und Emotion.

  • Arbeitet eng mit Autor*innen zusammen (wenn es ein Drehbuch gibt).

  • Bestimmt den visuellen und erzählerischen Stil (z. B. düster, komödiantisch, dramatisch).

2. Leitet das Team

  • Gibt Anweisungen an:

    • Kameraleute (wie soll gefilmt werden?)

    • Schauspieler*innen (wie sollen sie spielen, fühlen, reagieren?)

    • Ton-, Licht-, Kostüm- und Szenenbildner*innen

  • Koordiniert alle kreativen Bereiche, um die Vision umzusetzen.

3. Arbeitet mit den Schauspieler*innen

  • Führt sie durch ihre Rollen.

  • Gibt Feedback zu Gestik, Mimik, Tempo, Emotionen.

4. Überwacht den Dreh

  • Ist bei jeder Szene dabei.

  • Entscheidet, ob ein Take „gut“ ist oder wiederholt werden muss.

  • Achte auf Details wie Timing, Stimmung, Anschlussfehler.

5. Postproduktion mitgestalten

  • Arbeitet mit Editor*innen beim Schnitt zusammen.

  • Gibt Feedback zu Musik, Sounddesign, Color Grading.

  • Entscheidet mit über die finale Version des Videos.

Ziel:

Ein stimmiges, emotional wirkungsvolles Endprodukt, das die Zuschauer*innen in die Geschichte hineinzieht – egal ob bei einem Musikvideo, Kurzfilm, Werbespot oder Spielfilm.

Eine Remote-Videoproduktion bezeichnet eine Videoübertragung- oder Aufzeichnung, bei der die beteiligten Produktionsmitglieder nicht am gleichen physischen Ort sind. Stattdessen werden verschiedene Teile der Produktion (wie Kameras, Ton, Schnitt und Regie) über das Internet oder andere Netzwerke verbunden und in Echtzeit gesteuert.

In einer Remote-Videoproduktion können einzelne Teammitglieder oder sogar die gesamte Produktion von unterschiedlichen geografischen Standorten aus arbeiten. Dies wird durch den Einsatz moderner Technologien wie Cloud-basierter Software, Netzwerktechnologie und spezieller Hardware ermöglicht.

Merkmale und Komponenten einer Remote-Videoproduktion:
  1. Verteilte Teams: In einer Remote-Produktion können Kameraleute, Regisseure, Toningenieure und Editor*innen an verschiedenen Orten arbeiten, aber ihre Arbeit wird in Echtzeit koordiniert. Dies kann besonders nützlich für Live-Übertragungen oder große, internationale Events sein.

  2. Cloud-basierte Tools und Software: Viele Remote-Produktionen nutzen Cloud-Dienste wie vMix, OBS Studio, Wirecast oder spezialisierte Plattformen wie LiveU oder Airtime. Diese Tools ermöglichen es, Videos zu streamen, zu schneiden und zu bearbeiten, während sie über das Internet zugänglich sind.

  3. Datenübertragung in Echtzeit: Die Kamerabilder und Audiosignale werden über Netzwerke an eine zentrale Regiestelle oder ein Kontrollzentrum gesendet, das die Übertragung überwacht, bearbeitet und in Echtzeit ausstrahlt.

  4. Kommunikation zwischen den Teams: Teams verwenden Kommunikations-Tools wie Intercom-Systeme, Zoom, Skype oder speziell dafür entwickelte Lösungen, um sicherzustellen, dass alle Produktionsmitglieder gut miteinander verbunden sind und ihre Aufgaben koordinieren können.

  5. Virtuelle Regie: Die Regiearbeit wird häufig aus der Ferne gesteuert, wobei der Regisseur die verschiedenen Videoquellen (z. B. Kameras, Grafiken) überwacht und in Echtzeit steuert, ähnlich wie bei einer traditionellen Live-Produktion, aber ohne sich physisch am Drehort zu befinden.

Vorteile einer Remote-Videoproduktion:
  1. Kostenersparnis: Da keine Reisen oder große Produktionsteams vor Ort erforderlich sind, können Remote-Produktionen Kosten für Personal, Reisen, Unterkunft und Equipment sparen.

  2. Flexibilität: Produktionsmitglieder können von überall aus arbeiten, was insbesondere in einer globalisierten Welt von Vorteil ist. Es ermöglicht auch eine größere Auswahl an Talenten und Expert*innen, unabhängig von ihrem geografischen Standort.

  3. Schnellere Reaktionszeiten und Agilität: Remote-Produktionen ermöglichen es, schnell auf Änderungen oder neue Anforderungen zu reagieren, da sie oft auf flexiblen, skalierbaren Softwarelösungen basieren.

  4. Erreichbarkeit größerer Zielgruppen: Besonders bei großen Live-Events können Inhalte durch Remote-Produktionen weltweit gestreamt und gleichzeitig bearbeitet werden, was eine breitere und globalere Zielgruppe erreicht.

Anwendungen von Remote-Videoproduktion:
  • Live-Streaming von Events: Sportereignisse, Konferenzen, Webinare und Musikfestivals können live gestreamt werden, wobei das Produktionsteam aus der Ferne die Veranstaltung überwacht und steuert.

  • Nachrichtenübertragungen: Nachrichten-Teams können Beiträge in Echtzeit aus verschiedenen Teilen der Welt zusammenstellen und senden, ohne dass alle Reporter und Techniker physisch an einem Ort sind.

  • Corporate-Produktionen: Unternehmen können ihre Videoinhalte (z. B. für Schulungen oder Marketing) aus der Ferne produzieren und dabei Ressourcen effizient einsetzen.

  • Film- und TV-Produktionen: Auch bei Filmen oder Serienproduktionen, bei denen bestimmte Szenen oder Teile der Produktion remote bearbeitet oder gesteuert werden, kommt diese Technik zum Einsatz.

Fazit:

Remote-Videoproduktion nutzt moderne Technologien, um eine qualitativ hochwertige Videoerstellung und -übertragung zu ermöglichen, ohne dass alle Beteiligten am selben Ort sind. Sie bietet eine hohe Flexibilität, kostensparende Vorteile und ist besonders in der heutigen, digital vernetzten Welt von großer Bedeutung.

Ein/e Sound Designer*in ist in der Postproduktion verantwortlich für die akustische Gestaltung eines Films oder Videos.

Während ein/e Cutter*in mit dem Bildmaterial arbeitet, formt ein/e Sound Designer*in die Klangwelt, die die Geschichte emotional, realistisch oder sogar magisch wirken lässt.

Was macht ein/ Sound Designer*in genau?

1. Soundeffekte erstellen und einbauen

  • Fügt realistische Geräusche hinzu, z. B. Schritte, Türen, Regen, Autogeräusche – oft als Foley-Sounds aufgenommen.

  • Nutzt Soundeffekte, um Dinge zu unterstreichen oder zu übertreiben (z. B. Sci-Fi-Geräusche, Explosionen).

2. Klangwelten bauen (Soundscapes)

  • Erzeugt Atmosphären: Wald, Stadt, U-Bahn, verlassene Räume.

  • Sorgt dafür, dass jede Szene räumlich und stimmungsvoll klingt.

3. Dialogbearbeitung

  • Reinigt und optimiert Sprachaufnahmen (Rauschunterdrückung, Lautstärkeanpassung).

  • Passt Dialoge an Umgebungen an, damit sie „echt“ wirken.

  • Bearbeitet ADR (nachsynchronisierte Dialoge), wenn nötig.

4. Kreative Gestaltung

  • Entwickelt völlig neue Sounds für z. B. Fantasy- oder Sci-Fi-Welten.

  • Nutzt Verzerrungen, Layering, Reverbs oder Synthesizer, um einzigartige Klänge zu erzeugen.

5. Sound-Mix & Finalisierung (Mixing)

  • Mischt alle Tonspuren (Dialog, Musik, Geräusche) so ab, dass alles gut hörbar ist.

  • Arbeitet eng mit Komponist*innen, Tonmeister*innen und Regisseur*innen zusammen.

Ziel eines/r Sound Designer*in:

Den Film hörbar lebendig machen. Der Sound gibt Tiefe, Emotion, Spannung und Realismus.

Eine Steadicam ist ein kamerastabilisierendes System, das es Kameraleuten ermöglicht, flüssige und wackelfreie Aufnahmen zu machen – auch während sie sich bewegen.

Einfach erklärt:

Statt dass die Kamera direkt in der Hand gehalten wird (was schnell zu Verwacklungen führt), hängt sie an einem mechanischen Gestell, das an einer Weste befestigt ist, die der Kameramensch trägt. Ein ausgeklügeltes Feder- und Gegengewichtsystem gleicht Bewegungen wie Gehen, Rennen oder Treppensteigen aus.

Vorteile einer Steadicam:
  • Fließende Kamerafahrten ohne Wackeln

  • Dynamische Perspektiven (z. B. durch Gänge, zwischen Menschen, über Bühnen)

  • Kein Stativ nötig, aber trotzdem stabil

  • Professioneller Look, wie man ihn aus Kino-Produktionen kennt

Wo kommt sie zum Einsatz?
  • Bei Live-Events wie Konzerten oder Konferenzen (z. B. re: publica)

  • In Film und Fernsehen

  • Bei Sportübertragungen

  • In Musikvideos und Werbespots

Tally-Funk-Systeme zeigen Kamerapersonal und Moderator*innen per Leuchtanzeige (meist rot), welche Kamera gerade live geschaltet ist.

Warum sind sie wichtig in der Videobranche?

Sie sorgen für klare Orientierung während einer Liveproduktion. So wissen Kameraleute, wann sie “on air” sind, und Moderator*innen können direkt in die aktive Kamera sprechen – das macht die Produktion professioneller, effizienter und fehlerfreier.

Ein Teleprompter ist ein Gerät, das Text spiegelt, sodass Moderator*innen oder Sprecher*innen ihn direkt vom Kamerablickwinkel aus ablesen können, ohne den Blick von der Kamera abzuwenden.

So funktioniert ein Teleprompter:
  • Ein Bildschirm zeigt den Text (z. B. ein Skript oder Stichpunkte).

  • Eine halbtransparente Glasscheibe spiegelt diesen Text in Richtung der Person vor der Kamera.

  • Die Kamera filmt durch das Glas hindurch, sodass das Publikum nicht sieht, dass vorgelesen wird.

Warum ist ein Teleprompter in der Videoproduktion wichtig?
  • Er hilft, flüssig und sicher zu sprechen, ohne auswendig lernen zu müssen.

  • Blickkontakt zur Kamera bleibt erhalten → professioneller Auftritt.

  • Besonders nützlich bei Live-Sendungen, Nachrichten, Werbespots oder moderierten Shows.

Kurz gesagt:

Ein Teleprompter ist das unsichtbare Lesegerät für Profis vor der Kamera – er sorgt für klare Ansprache, weniger Versprecher und mehr Souveränität.

Was bedeutet Transcoding in der Videobranche?

Transcoding bezeichnet in der Videobranche den Prozess, bei dem ein digitales Video von einem Format, Codec oder einer Qualität in ein anderes umgewandelt wird. Ziel ist es, das Videomaterial optimal an verschiedene Ausgabegeräte, Plattformen oder Bandbreiten anzupassen.

Beim Transcoding werden Videodateien neu kodiert – das heißt, sie werden zunächst dekomprimiert (decodiert) und anschließend mit einem anderen Codec, einer anderen Bitrate oder Auflösung wieder komprimiert (encodiert). Dadurch entsteht eine neue Datei, die auf die jeweilige Anforderung zugeschnitten ist.

Typische Anwendungsfälle für Transcoding:
  • Anpassung an verschiedene Endgeräte (z. B. Smartphone, Tablet, Smart-TV, Desktop)

  • Optimierung für unterschiedliche Internetverbindungen (z. B. Full-HD, HD, SD, Low Quality)

  • Umwandlung in streamingkompatible Formate (z. B. HLS oder MPEG-DASH)

  • Erstellung von mehreren Qualitätsstufen für adaptive Bitrate-Streaming

Beispiel aus der Praxis:

Bei einer Live-Übertragung wird der originale Video-Feed in mehreren Versionen parallel bereitgestellt – etwa in 1080p, 720p, 480p und 360p. Ein sogenannter Media Server oder Cloud-Encoder transcodiert den eingehenden Stream automatisch in diese Auflösungen. Die Zuschauer*innen erhalten dann je nach Gerät und Netzwerkqualität automatisch die passende Version.

Kurz gesagt:

Transcoding macht Videoinhalte flexibel nutzbar – auf allen Geräten, bei jeder Bandbreite und in der jeweils optimalen Qualität.

Ein Ü-Wagen (kurz für Übertragungswagen):

ist ein mobiles Studio auf Rädern, das in der Film-, Fernseh- und Videoproduktion für Liveübertragungen oder Aufzeichnungen vor Ort eingesetzt wird.

Je nach Größe und Zweck enthält ein Ü-Wagen u. a.:

  • Schnitt- und Regieplätze

  • Bild- und Tonmischpulte

  • Live-Monitoring-Systeme

  • Intercom-Systeme (Kommunikation)

  • Signalverarbeitungstechnik

  • Speicher- und Aufzeichnungssysteme

  • Satellitentechnik oder Glasfaseranbindung (für Liveübertragungen)

Unter Video-Content versteht man alle Arten von Inhalten, die in Form von Videos erstellt und verbreitet werden. Diese können eine Vielzahl von Formaten und Zwecken haben, von Unterhaltung und Information bis hin zu Werbung und Bildung. Video-Content kann auf Plattformen wie YouTube, Instagram, x, Fb, Vimeo, sozialen Medien oder auch auf Websites veröffentlicht werden.

Beispiele für Video-Content sind:
  • Erklärvideos: Vermitteln komplexe Themen auf anschauliche Weise.

  • Tutorials: Zeigen den Zuschauern, wie man etwas tut oder benutzt.

  • Werbevideos: Dienen der Markenbildung oder Werbung für Produkte und Dienstleistungen.

  • Vlogs (Video-Blogs): Persönliche oder themenspezifische Video-Tagebücher.

  • Livestreams: Live-Übertragungen von Events oder interaktiven Inhalten.

  • Unterhaltung: Filme, Serien, Musikvideos oder Comedy-Clips.

Video-Content ist besonders effektiv, weil er sowohl visuell als auch akustisch wirkt und eine hohe Interaktivität und Begeisterung erzeugen kann.

Ein*e Videograph*in ist eine Person, die sich professionell oder künstlerisch mit der Erstellung von Videos beschäftigt. Er oder sie plant, filmt, schneidet und produziert Bewegtbildinhalte – oft im kleineren oder mittleren Rahmen.

Was macht ein*e Videograph*in genau?
Typische Aufgaben:
  • Planung und Konzeption (z. B. Drehbuch, Storyboard)

  • Kameraführung und Tonaufnahme

  • Schnitt und Postproduktion (Farbkorrektur, Musik, Effekte)

  • Veröffentlichung oder Übergabe an Kunden

Ein*e Videograph*in arbeitet oft allein oder in kleinen Teams und übernimmt mehrere Rollen gleichzeitig – im Gegensatz zu größeren Filmproduktionen, bei denen Kamera, Ton, Schnitt etc. auf mehrere Personen verteilt sind.

Ein*e Videotechniker*in (oder Video-Techniker*in) ist eine Fachkraft, die sich mit der technischen Seite der Videoproduktion, -wiedergabe oder -übertragung beschäftigt – im Gegensatz zu Videograph*innen, die meist eher kreativ-gestalterisch arbeiten.

Typische Aufgaben:
  • Aufbau, Einrichtung und Wartung von Video-Equipment:

    • Kameras

    • Monitore

    • Bildmischer

    • Videowände

    • Projektoren

  • Signalübertragung prüfen und sicherstellen (SDI, HDMI, NDI, etc.)

  • Live-Regie oder Mitarbeit an Mehrkamera-Produktionen

  • Videoaufzeichnung und -wiedergabe

  • Umgang mit Encodern / Streamern für z. B. Live-Streams

  • Fehlerbehebung bei technischen Problemen

Eine Videoregie ist der Bereich oder die Einrichtung, in der die technische Steuerung einer Video-Produktion stattfindet. Sie ist der zentrale Ort, an dem das gesamte audiovisuelle Material überwacht, bearbeitet und in Echtzeit gemischt wird, um das endgültige Video oder die Live-Übertragung zu produzieren. Die Videoregie übernimmt dabei eine Vielzahl von Aufgaben, von der Bild- und Tonmischung bis hin zur Steuerung der Kameras und der Integration von Grafiken.

Tools und Equipment in der Videoregie:
  • Video-Switcher: Ein Gerät oder eine Software, die es der Videoregie ermöglicht, zwischen verschiedenen Videoquellen zu wechseln.

  • Tonmischpult: Ein Gerät, mit dem die verschiedenen Tonquellen in Echtzeit gemischt und bearbeitet werden.

  • Grafiksysteme: Systeme, die Text, Logos, Animationen oder andere visuelle Elemente in das Video integrieren.

  • Monitor-Wände: Eine Sammlung von Bildschirmen, die es dem Regisseur ermöglichen, alle Kamerabilder und Quellen gleichzeitig zu überwachen.

  • Regiekommunikationssysteme: Systeme, über die das Team in der Videoregie mit den Kameraleuten, Moderatoren und anderen Beteiligten kommunizieren kann.

Unterschied zwischen Videoregie und Live-Regie:

Obwohl der Begriff „Videoregie“ oft im Kontext von Live-Übertragungen verwendet wird, gibt es eine feine Unterscheidung: Die Videoregie konzentriert sich auf das Bild- und Tonmanagement, während die Live-Regie sich mit der Gesamtkoordination der Produktion, der Regieanweisung und der Planung der Szenen beschäftigt. Der Live-Regisseur gibt also die übergeordneten Anweisungen, während die Videoregie die technische Umsetzung dieser Anweisungen übernimmt.

Fazit:

Die Videoregie ist der technische Herzschlag einer Video-Produktion. Sie sorgt dafür, dass alle visuellen und audiovisuellen Elemente in Echtzeit bearbeitet und kombiniert werden, um ein hochwertiges Endprodukt zu liefern. Sie ist eine Schlüsselkomponente in vielen Bereichen wie TV-Übertragungen, Live-Streams, Filmproduktionen und Veranstaltungen.

Video on Demand (VOD):

bezeichnet einen Service, bei dem Nutzer Videos jederzeit und nach Belieben anschauen können, ohne an feste Sendezeiten gebunden zu sein. Im Gegensatz zu traditionellen Fernsehsendungen, bei denen die Inhalte zu festen Zeiten ausgestrahlt werden, ermöglicht VOD den Zugriff auf Filme, Serien, Dokumentationen oder andere Videoinhalte zu jeder Zeit und von verschiedenen Geräten aus, wie etwa Smartphones, Tablets, Computern oder Smart-TVs.

VOD hat die Art und Weise, wie wir Medien konsumieren, revolutioniert, da es Flexibilität und eine riesige Auswahl an Inhalten bietet.

Ein MediorNet ist ein modulares, dezentrales Echtzeit-Mediennetzwerk, das alle wichtigen Produktionssignale – Video, Audio, Intercom und Steuerdaten – gemeinsam über ein einziges Glasfasernetz transportiert. Der Begriff stammt vom Hersteller Riedel Communications, der MediorNet als professionelles Infrastruktur-System für Broadcast, Events, Messen und Live-Produktionen entwickelt hat.

Ein MediorNet verbindet mehrere sogenannte Nodes (Knoten). Jeder Knoten kann Signale empfangen, verarbeiten, routen und wieder ausgeben. Dadurch ersetzt MediorNet viele einzelne Signalwege (z. B. SDI-Kabel, Audioleitungen oder Intercom-Strecken) durch eine zentrale und flexible Netzwerkstruktur.

Was macht ein MediorNet besonders?

 – Echtzeit-Routing

Alle Signale laufen ohne merkliche Verzögerung über das Netzwerk.

 – Dezentraler Aufbau

Nicht ein großer Router übernimmt die Arbeit, sondern viele kleine Einheiten, die zusammenarbeiten.

 – Hohe Ausfallsicherheit

Das System arbeitet redundant. Fällt eine Verbindung aus, übernimmt automatisch eine andere.

 – Integrierte Signalverarbeitung

MediorNet kann Signale direkt im Netzwerk konvertieren, verteilen, synchronisieren oder splitten – ohne zusätzliche Hardware.

 – Flexible Erweiterbarkeit

Man kann jederzeit neue Nodes hinzufügen und das Netzwerk wächst mit der Produktion.

Wofür nutzt man MediorNet?
  • Verteilung von Kamerasignalen

  • Videozuspielung an LED-Wände

  • Einbindung von Intercom-Systemen

  • Übertragung über große Distanzen

  • Live-Events, Sportproduktionen, Messen und Industrieproduktionen

  • Temporäre Regien und mobile Produktionen

Kurz gesagt:

Ein MediorNet ist das Rückgrat moderner Live-Produktionen und ersetzt viele Einzelgeräte durch ein intelligentes, robustes Glasfasernetzwerk.

Eine Bauchbinde (auch als Lower Third bezeichnet) ist eine grafische Darstellung, die in Videos im unteren Bereich des Bildes eingeblendet wird. Sie zeigt in der Regel wichtige Informationen wie den Namen einer Person, den Titel einer Sendung oder eines Beitrags, die Position einer Person oder auch andere relevante Details.

Bauchbinden werden häufig in Nachrichtensendungen, Interviews, Talkshows, Dokumentationen und Livestreams verwendet, um den Zuschauern zusätzliche Informationen zu geben, ohne den visuellen Fluss des Videos zu stören.

Beispiel:
  • In einem Interview könnte eine Bauchbinde den Namen des Interviewten und seine Funktion anzeigen: „Max Mustermann – CEO, Musterfirma.“

  • Bei einem Nachrichtenbeitrag könnte sie den Titel des Beitrags oder die Quelle der Information zeigen.

Bauchbinden sind ein nützliches Mittel, um Informationen klar und ansprechend zu vermitteln, ohne die Aufmerksamkeit vom Hauptinhalt abzulenken.

HD steht für High Definition und bezieht sich auf eine höhere Auflösung von Bild- und Videoformaten im Vergleich zu älteren Standard-Definition (SD)-Formaten. HD sorgt für eine klarere, schärfere und detailliertere Darstellung von Bildern und Videos, was besonders bei größeren Bildschirmen bemerkbar wird.

Es gibt zwei Hauptarten von HD-Auflösungen:
  1. 720p (HD Ready):

    • Auflösung: 1280 x 720 Pixel

    • Dies war die erste Stufe von HD und wird oft als “HD Ready” bezeichnet. Es bietet eine merkliche Verbesserung gegenüber dem Standard-Definition-Format (SD) und ist immer noch gängig für kleinere Fernseher und in bestimmten Anwendungsbereichen wie Streaming auf mobilen Geräten.

  2. 1080p (Full HD):

    • Auflösung: 1920 x 1080 Pixel

    • Full HD ist die häufigste HD-Auflösung und wird häufig bei modernen Fernsehern, Computermonitoren und Streaming-Plattformen verwendet. Es bietet eine noch schärfere Bildqualität im Vergleich zu 720p und ist der Standard für viele Medieninhalte wie Blu-ray-Discs und Videospiele.

Merkmale von HD:
  • Schärfere Bilder: Im Vergleich zu Standard Definition (SD), das typischerweise eine Auflösung von 720 x 480 Pixel hat, liefert HD viel schärfere Bilder und mehr Details.

  • Bessere Farben und Kontraste: HD-Formate bieten auch eine bessere Farbtreue und genauere Kontraste, was zu einer realistischeren und lebendigeren Bildqualität führt.

Verwendung:

HD-Formate sind in verschiedenen Bereichen weit verbreitet:

  • Fernsehen: Die meisten modernen Fernsehsender und Streaming-Dienste bieten Inhalte in HD-Qualität an.

  • Blu-ray und digitale Filme: Blu-ray-Discs bieten typischerweise 1080p-Videos, was eine bessere Qualität im Vergleich zu DVDs bietet.

  • Gaming: Viele Spielekonsolen und Computer unterstützen 1080p für eine bessere visuelle Darstellung.

  • Streaming: Plattformen wie Netflix, YouTube, und Amazon Prime Video bieten eine Vielzahl von HD-Inhalten.

Zusammengefasst:

HD ist ein Format, das für High Definition steht und eine hohe Bildauflösung bietet. Es umfasst 720p (HD Ready) und 1080p (Full HD) und ist mittlerweile der Standard in der digitalen Bild- und Video-Welt.

4K bezeichnet eine Auflösung von etwa 4000 Pixeln in der horizontalen Achse, was eine deutlich höhere Bildqualität im Vergleich zu früheren Auflösungen wie Full HD (1920 x 1080 Pixel) bietet. Es ist ein Begriff, der hauptsächlich in Bezug auf Fernseher, Monitore, Kameras und Filme verwendet wird.

Die genaue Auflösung von 4K variiert je nach Standard, aber der gängigste Standard ist 3840 x 2160 Pixel, was auch als Ultra High Definition (UHD) bezeichnet wird. Für das Kino wird 4K oft als 4096 x 2160 Pixel definiert.

Vorteile von 4K:
  1. Schärfere Bilder: Durch die hohe Auflösung werden Details viel klarer und schärfer dargestellt. Insbesondere auf größeren Bildschirmen oder bei sehr detaillierten Inhalten kann man den Unterschied zu niedrigeren Auflösungen wie Full HD deutlich sehen.

  2. Bessere Farbdarstellung: 4K-Inhalte können oft auch mit besseren Farbtiefen und mehr Farbräumen (z. B. HDR – High Dynamic Range) kombiniert werden, was das visuelle Erlebnis insgesamt verbessert.

  3. Zukunftssicherheit: Da immer mehr Inhalte in 4K produziert werden, bietet es eine gute Zukunftsperspektive, um die neuesten Medienformate in höchster Qualität zu genießen.

Anwendungen von 4K:
  • Fernsehen und Streaming: Viele moderne Fernseher unterstützen 4K, und Plattformen wie Netflix, Amazon Prime Video und YouTube bieten bereits 4K-Inhalte.

  • Kameras und Fotografie: 4K ist auch bei Videokameras und modernen Smartphones populär, die in dieser Auflösung filmen können, um Filme oder Videos in höchster Qualität zu produzieren.

  • Computermonitore und Gaming: 4K-Monitore sind zunehmend im Bereich des Gaming und der professionellen Bildbearbeitung verbreitet. Sie bieten eine bessere Klarheit für anspruchsvolle Anwendungen.

Zusammenfassung:

4K ist ein Standard für eine sehr hohe Bildschirmauflösung, die viermal mehr Pixel bietet als Full HD und eine gestochen scharfe Bildqualität liefert. Es wird zunehmend in vielen Bereichen wie Fernsehen, Kino, Fotografie und Gaming verwendet.

5G ist das neueste Mobilfunknetz, das schnelleres Internet, kürzere Reaktionszeiten (Latenz) und mehr gleichzeitige Verbindungen ermöglicht – perfekt für Streaming, Gaming, Smart Cities, autonomes Fahren und mehr.

5G ist die fünfte Mobilfunkgeneration – also der Nachfolger von 4G/LTE – und bringt deutlich schnellere, stabilere und smartere mobile Verbindungen.

Wo wird 5G eingesetzt?
  • Smartphones & Tablets – für ultraschnelles mobiles Internet

  • Autonomes Fahren – Fahrzeuge kommunizieren in Echtzeit

  • Industrie & Robotik – Maschinen vernetzt und in Echtzeit steuerbar

  • Medizin – z. B. Fern-OPs oder smarte Diagnostik

  • Augmented & Virtual Reality – z. B. in Gaming oder Schulungen

  • In vielen Städten ist 5G schon verfügbar, auf dem Land wird noch ausgebaut

  • 5G nutzt neue Frequenzbereiche, z. B. bei 3,6 GHz und in Zukunft Millimeterwellen (für noch mehr Speed)

Major Festivals:

Bezeichnen bedeutende, oft weltbekannte Veranstaltungen, die in bestimmten Bereichen wie Musik, Kunst, Film, Kultur oder Religion stattfinden und typischerweise eine große Anzahl von Besuchern aus verschiedenen Regionen oder sogar Ländern anziehen. Diese Festivals sind oft jährlich oder in regelmäßigen Abständen und haben einen erheblichen Einfluss auf die Kultur und das gesellschaftliche Leben. Sie bieten eine Plattform für herausragende Künstler, Leistungen und kulturelle Ausdrucksformen.

Das 9:16-Format ist ein Hochformat-Seitenverhältnis, das bedeutet, dass die Breite des Bildes oder Videos 9 Einheiten beträgt und die Höhe 16 Einheiten. Dieses Format ist das Gegenteil des traditionellen 16:9-Formats, das in der Regel für Fernseher, Computerbildschirme und viele Videoformate verwendet wird, und eignet sich besser für Inhalte, die auf mobilen Geräten wie Smartphones oder Tablets betrachtet werden.

Merkmale des 9:16-Formats:
  • Hochformat: Das 9:16-Format ist vertikal ausgerichtet, was es ideal für die Darstellung von Inhalten auf mobilen Geräten macht, die in der Regel in Hochformat gehalten werden.

  • Beliebt bei sozialen Medien: Plattformen wie Instagram Stories, TikTok, Snapchat und YouTube Shorts verwenden oft das 9:16-Format, um Videos und Bilder anzuzeigen, da die Nutzer ihre Handys in der Regel vertikal halten.

  • Video und Foto: Es wird sowohl für Fotos als auch für Videos verwendet, insbesondere für Content, der speziell für mobile Geräte und Social Media optimiert ist.

Vorteile des 9:16-Formats:
  1. Optimierung für Smartphones: Da Smartphones meist im Hochformat gehalten werden, ist das 9:16-Format perfekt für die Betrachtung und Erstellung von Inhalten auf mobilen Geräten.

  2. Bessere Benutzererfahrung: Nutzer können Inhalte ohne Drehung ihres Geräts konsumieren, was die Benutzererfahrung auf mobilen Geräten verbessert.

  3. Engagement in sozialen Medien: Besonders in sozialen Netzwerken und bei Kurzvideo-Plattformen hat das 9:16-Format eine hohe Beliebtheit, da es die ganze Bildschirmfläche des Handys nutzt und so das visuelle Erlebnis intensiviert.

Beispielhafte Anwendungen:
  • Instagram Stories: Die typischen Stories auf Instagram haben das Format 9:16.

  • TikTok-Videos: TikTok-Videos sind ebenfalls im 9:16-Format und bieten eine vertikale Darstellung von Inhalten.

  • YouTube Shorts: Auch bei YouTube Shorts, dem Kurzvideo-Format der Plattform, wird das 9:16-Format verwendet.

Fazit:

Das 9:16-Format ist ideal für die Darstellung von Inhalten auf mobilen Geräten und sozialen Plattformen, da es die vertikale Ausrichtung eines Smartphones perfekt nutzt. Es ist besonders beliebt bei Kurzvideos und Geschichten auf sozialen Netzwerken und bietet eine bessere Nutzererfahrung auf Handys.

Das 16:9-Format ist ein Seitenverhältnis, bei dem die Breite eines Bildes oder Videos 16 Einheiten beträgt und die Höhe 9 Einheiten. Es ist das Standardformat für die meisten modernen Fernseher, Computerbildschirme und viele Videoformate, einschließlich der meisten YouTube-Videos und Filme. Das 16:9-Format ist horizontal ausgerichtet, was bedeutet, dass es breiter als hoch ist.

Merkmale des 16:9-Formats:
  • Horizontal: Das 16:9-Format ist für die horizontale Darstellung von Inhalten konzipiert und eignet sich hervorragend für Filme, Fernsehsendungen und Videoinhalte.

  • Standardformat für HD und 4K: Das 16:9-Verhältnis ist das Standardformat für High Definition (HD) und Ultra High Definition (4K)-Inhalte. Das bedeutet, dass die meisten modernen Fernseher und Computerbildschirme dieses Seitenverhältnis verwenden.

  • Kompatibilität: Das Format wird auf Plattformen wie YouTube, Netflix, Hulu und anderen Video-Streaming-Diensten verwendet. Auch Blu-ray-Discs und die meisten digitalen Kameras nutzen dieses Format.

Vorteile des 16:9-Formats:
  1. Weit verbreitet: Es ist das am weitesten verbreitete Format für Filme, Fernsehsendungen, Streaming-Dienste und auch für viele Online-Videos.

  2. Visuelle Balance: Das Seitenverhältnis von 16:9 bietet eine gute visuelle Balance, indem es genug Breite für Landschaftsaufnahmen, Action-Szenen und Details bietet, während es immer noch genug Höhe für Gesichter und vertikale Elemente gibt.

  3. Ideal für Breitbild-TV und Kino: Das Format ist gut geeignet, um Filme im Breitbildformat zu präsentieren, und wird auch in der professionellen Videoproduktion weitgehend verwendet.

Typische Anwendungen:
  • Fernseher und Monitore: Die meisten modernen Fernseher, Computerbildschirme und Laptops haben ein 16:9-Display.

  • Filme und TV-Shows: Viele Filme und Fernsehsendungen werden in einem 16:9-Format produziert und gezeigt, besonders in HD.

  • YouTube-Videos: Die meisten YouTube-Videos und Online-Inhalte sind im 16:9-Format.

  • Videospiele: Viele Videospiele werden für Bildschirme im 16:9-Format entwickelt, um eine breite und immersive Spielerfahrung zu bieten.

Beispiele für Auflösungen im 16:9-Format:
  • HD (High Definition): 1280×720 Pixel

  • Full HD (1080p): 1920×1080 Pixel

  • 4K Ultra HD: 3840×2160 Pixel

Fazit:

Das 16:9-Format ist das Standard-Seitenverhältnis für Video- und Bildschirmdarstellungen und bietet eine breite, horizontale Ansicht, die für viele Anwendungen wie Fernsehen, Filme, Videospiele und Online-Streaming ideal ist. Es ist besonders weit verbreitet und wird auf den meisten modernen Geräten verwendet.