Mittwoch, 29. September 2010

Cumulus und Nimbostratus ... ist Cloud Computing die Zukunft?

Wenn man derzeit mit Branchen-Insidern über mittelfristige Trends in der Postproduction spricht, dann wird es meistens recht rasch wolkig: die »Cloud« gilt als das Modell der Zukunft. Der Begriff kommt aus dem IT-Bereich und weist keine feste Definition auf — was ja gut zu Wolken, Nebel und Dampf passt. Die meisten meinen aber damit, dass man Rechenleistung und Speicherkapazität, ja sogar die verwendete Software, gar nicht mehr selbst vorhält, sondern ganz nach Bedarf über Netzwerke abruft und nutzt. Der Anfang dieses Trends war schon vor drei Jahren gut erkennbar (siehe Editorial aus dem Juli 2007). Ein branchennahes Beispiel für den aktuellen Stand ist Youtube: Man lädt seine Filme hoch, ohne genau zu wissen, wo sie nun tatsächlich gespeichert werden, man kann sie online bearbeiten und mit Metadaten versehen, Youtube rendert automatisiert die verschiedenen Auflösungsstufen und stellt die Daten beim Abspielen wieder für die Zuschauer bereit. Und tatsächlich gibt es mittlerweile bei Youtube auch einen rudimentären, online nutzbaren Video-Editor. Die Idee für so etwas wie ein Profi-Youtube liegt da natürlich nahe — vor allem für Anwendungen, bei denen viele geografisch verteilte Mitarbeiter ein Team bilden. Ideen dafür, wie etwa Sender die »Cloud« nutzen könnten, gab es etwa bei der IBC an verschiedenen Ständen zu sehen. Quantel wählte mit QTube gleich ein passendes Wortspiel. Editshares Forscene zielt ebenso in die Wolke, wie die Tatsache, dass dieser Hersteller das NLE-Programm Lightworks als OpenSource-Projekt weiterführen und zum kostenlosen Download anbieten will. Schon beim Kauf von MaxT im vergangenen Jahr deutete auch Avid an, dass man mit deren Technologie web-basiertes Editing entwickeln könne, sehr viel Konkreteres ist von Avid seither allerdings nicht zu erfahren. Und wäre nicht auch Apple ein Kandidat, der cloud-basierte Postproduction vom Stapel lassen könnte? Von Firmen wie Signiant oder Aspera, die sich auf schnellen File-Transfer spezialisiert haben, könnten in diesem Bereich ebenfalls wichtige Impulse kommen. Wie genau die Modelle aussehen können, Remote Production und Cloud-Postproduction zu realisieren, ist noch weitgehend offen, bisher schweben die Technologien noch in der oftmals auch sehr heißen Luft, die dieses Thema umweht. Viele Fragen stellen sich, so etwa: Will der professionelle Anwender seinen Content irgendwo in einem virtualisierten Speicher ablegen, womöglich bei einem Dienstleister, der wie Youtube, Facebook oder Google, jederzeit die Spielregeln ändern kann? Vielleicht ist »Postproduction in the Cloud« aber auch tatsächlich das nächste große Ding. Quelle: http://www.film-tv-video.de/newsletter.html?&sNL=364

Posted via email from FatBobber's Personal Blog ...

Dienstag, 28. September 2010

Dolby Digital Plus als Erfolgsgeschichte - 10 Millionen Geräte verkauft ...

Mehr als zehn Millionen Unterhaltungselektronik-Geräte sind nach Angaben des Audiospezialisten Dolby Laboratories weltweit zwischen Juni 2009 und Juni 2010 mit dem hauseigenen Tonsystem Dolby Digital Plus ausgeliefert worden.

Dolby sprach in einer Veröffentlichung am Donnerstag von einem Rekordwert, der dokumentiere, dass das Audioformat für TV-Übertragungen und Online-Entertainment im Massenmarkt angekommen sei. Im Vergleichszeitraum 2008/2009 waren lediglich 3,7 Millionen Geräte mit Dolby Digital Plus in den Handel gekommen. Das Format ist Bestandteil zahlreicher europäischer
HDTV-Sendespezifikationen und kommt unter anderem auf terrestrischen Plattformen in Frankreich, Italien, Schweden, Polen und Großbritannien als Mehrkanal-Tonformat zum Einsatz.

"Wir freuen uns sehr, dass so viele namhafte Hersteller von TV-Geräten und
Set-Top-Boxen in verschiedensten Regionen weltweit auf 'Dolby Digital Plus'
setzen", sagte Jason Power, Senior Director, Broadcast, Sales and Marketing, Dolby. Neben der effizienten Wiedergabe von Surround-Sound bietet Dolby Digital Plus neue Funktionen wie etwa verbesserte Kommentarspuren für Sehbehindert.

Quelle:

http://www.digitalfernsehen.de/Dolby-Digital-Plus-als-Erfolgsgeschichte-10-Mi...

Posted via email from FatBobber's Personal Blog ...

Fernsehforscher diskutieren eine "TV-Währung" ...

Die Arbeitsgemeinschaft Fernsehforschung (AGF) hat bei ihrem 13. AGF-Forum über neue Entwicklungen, Technologien und Messverfahren in der TV-Welt diskutiert.

Da der TV-Markt sich zunehmend fragmentiert und diversifiziert, sei eine zuverlässige TV-Währung ein Muss, betonte die AGF am Montag auf ihrem jährlichen Forum. "Aufgabe der AGF ist und bleibt es, dem Markt im Rahmen bestehender konsensualer Grundprinzipien ein valides und verlässliches Währungssystem zu liefern", sagte Florian Ruckert, Vorsitzender des AGF-Vorstandes. Die AGF ist ein Zusammenschluss der großen Fernsehanbieter in Deutschland, in deren Auftrag die Einschaltquoten im deutschen Fernsehmarkt gemessen werden.

Nach Ansicht des stellvertretenden Vorstandsvorsitzenden Martin Berthoud müssen die bestehenden Modelle der Erfassung und Datenzugangsmöglichkeiten auf ihre "Zukunftstauglichkeit und Optimierbarkeit" hin überprüft werden. Das AGF-System werde kontinuierlich um die Erfassung von Fernsehnutzung über neue Technologien und Angebotsformen erweitert.

Gut ein Jahr nach der Vervollständigung der AGF-Währung durch die Erfassung und Ausweisung der zeitversetzten Nutzung und Außerhausnutzung hätte sich gezeigt, dass das lineare Fernsehen lebt und innerhalb des AGF-Universums im Gesamtmarkt immer noch ein Volumen von über 99 Prozent habe. Die neu ausgewiesenen Nutzungsformen erzielen im laufenden Jahr 2010 am TV-Volumen des Gesamtmarktes einen Anteil von 2,2 Prozent.

Nach Ansicht der Forscher muss die Erfassung der Gästenutzung noch feinjustiert werden. So zeigen die aktuellen Ergebnisse des aktuellen Internen Coincidental Check 2010 (ICC), dass sich der Anteil der im AGF-Panel erfassten TV-Gäste auf 0,4 Prozent verringert hat. Aktuell arbeitet die AGF an neuen Methoden: So werde unter anderem die IPTV-Messung getestet. Ab 1. Januar erfolgt die Ausweisung der TV-Nutzung der Deutschen und der EU-Ausländer zudem zusammen und nicht mehr getrennt.

Quelle:

http://www.digitalfernsehen.de/Fernsehforscher-diskutieren-TV-Waehrung.38709....

Posted via email from FatBobber's Personal Blog ...

Freitag, 24. September 2010

Elvis has left the building ... Apple und seine Einstellung zum Broadcast-Markt ...

Bei der IBC vor zwei Jahren war Apple in aller Munde: »Wenn man über die IBC2008 läuft, kann man phasenweise den Eindruck gewinnen, dass Final Cut Pro mittlerweile fast schon so etwas wie ein Standard-NLE-System darstellt«, hieß es damals in einer IBC-Meldung.

Und heute? Der Zustand hat sich verfestigt. Dass mit RTL vor kurzem Deutschlands größte private TV-Senderfamilie komplett auf Final Cut Pro umgestellt hat, ist ein weiterer, klarer Indikator. Ein symbolträchtiges Beispiel auf der Herstellerseite rundet das Bild ab: Arris digitale Erfolgskamera Alexa nutzt Apples für Final Cut erfundenen ProRes-Codec.

Und was macht Apple? Herzlich wenig: Man kann sich des Eindrucks nicht erwehren, dass Apple die Lust am professionellen Videobereich verloren hat und alle Ressourcen auf lukrativere, wachstumsstärkere Bereiche lenkt. Aus dem aktiven Messe- und Roadshow-Geschehen im Broadcast-Bereich hat sich Apple ohnehin komplett verabschiedet und für den Profibereich schon viel zu lange keine großen Produktneuheiten mehr vorgestellt. Droht nun auch den Apple-Softwares Color und vielleicht sogar FCP, das Schicksal von Shake?

Ob diese Sorge berechtigt ist, könnte nur Apple selbst beantworten, aber der erfolgreiche Konzern hat es eben nicht nötig, zu kommunizieren, wenn er gerade keine Lust dazu hat. Und so herrscht Schweigen im Wald.

Mit einer gewissen Bissigkeit könnte man sagen: Apple hat den Profi-Videomarkt ordentlich aufgemischt, die NLE-Preise ruiniert, damit einige Konkurrenten ausgeschaltet und viele Post- und Broadcast-Häuser überzeugt, mit Apple-Produkten zu arbeiten — nur um dann die Lust an diesem Markt wieder zu verlieren, den Bereich zu verlassen und sich neuen Märkten zuzuwenden, die vielversprechender wirken. Rächt sich nun die phasenweise Apple-Euphorie der Branche?

Noch immer ist Apple indirekt bei den großen Broadcast-Messen omnipräsent: mit seiner Schnitt-Software, mit zahllosen iPhones und iPads in den Taschen von Medienmenschen, und mit Apps, in denen viele die Zukunft der Medienbranche sehen. Außerdem haben sich Systemintegratoren daran gemacht, die Videofunktionalität von Apple-Computern vielfältig zu nutzen und diese in Mediensysteme zu integrieren. Apple selbst hat aber eben schon viel zu lange keine Impulse mehr in der Videobearbeitung gesetzt, als dass man nicht stutzig werden könnte.

Ebenso rätselhaft wie die Sphinx namens Apple, bleibt das Verhalten der NLE-Konkurrenz: Keiner nutzt es im Profi-Markt bisher wirklich aus, dass von Seiten des Marktaufrollers derzeit nur ein laues Lüftchen weht.

Vielleicht wird ja bei Apple am nächsten großen Wurf für den Videomarkt gearbeitet — vielleicht aber auch nicht. Innovationsfelder gäbe es hier jedenfalls noch genug. Und so bleibt die Frage, ob die Branche nun letztlich wieder unter sich ist und nur zu einem größeren Teil mit anderen Computern arbeitet.

Quelle:

http://www.film-tv-video.de/newsletterinfos.html

Posted via email from FatBobber's Personal Blog ...

Dienstag, 21. September 2010

IBC2010: Teleprompting-Software-App fürs iPad ...

Autoscript präsentierte auf der IBC2010 mit iPlus eine Prompting-Software für iPad, iPhone oder iPod touch, die mit den WinPlus-Systemen des Herstellers zusammenarbeitet.

Autoscript positioniert iPlus in seiner Produktpalette als portables und kostengünstiges Prompting-System, das auch professionellen Ansprüchen genügen soll. So wird zum Beispiel ein iPad durch die Installation der iPlus-Software zum Teleprompter-Display, das mit der WinPlus News- und WinPlus Studio-Software des Herstellers zusammenarbeitet. Dabei lädt der Anwender die Skripte aus WinPlus auf die Apple-Hardware. Die Übertragung der Texte zwischen der iPlus-App und WinPlus geschieht mittels Peer-to-Peer-Verbindung. WinPlus lässt sich auch in ein Newsroom-System integrieren, dann können via WiFi weltweit Reporter mit Teleprompter-Texten aus dem Newsroom bedient werden.

Sind die Texte aus WinPlus auf das mit iPlus ausgestattete iPhone, iPad oder den iPod touch geladen, kann das Apple-Gerät als Stand-Alone-Teleprompter eingesetzt werden. Ein portabler und netzunabhängiger Einsatz ist dann auch aufgrund der Akkus in den Apple-Systemen möglich. Über ein per Bluetooth, WiFi oder Kabel angebundenes Zweitgerät kann die Abspielgeschwindigkeit der Texte auf dem Teleprompter-Display in Echtzeit variiert werden.

Autoscript bietet Halterungen zur Montage des iPads, iPhones oder iPod touch an einer Kamera oder auf einem Stativ. iPlus von Autoscript soll im Apple App-Store zum Download bereit stehen.

Quelle:

http://www.film-tv-video.de/newsdetail+M57811f823a4.html

Posted via email from FatBobber's Personal Blog ...

Montag, 20. September 2010

Intel bestätigt Aushebelung von HDCP ...

In US-amerikanischen Internetforen macht die Nachricht die Runde, dass der HDCP-Kopierschutz (High-Bandwidth Digital Content Protection) für die gesicherte Übertragung von Daten über die HDMI-Schnittstelle ausgehebelt wurde.

Wie in US-Internetforen am Montag berichtet wurde, betrifft das alle Geräte, die HDCP unterstützen und einen eigenen Satz für die Verschlüsselung und Entschlüsselung von Daten verwenden. Dies betreffe zum Beispiel Blu-ray-Player, Set-Top-Boxen und Flachbild-Fernseher, die über HDMI-Anschlüsse verfügen. Die Anwender verwiesen auf die Entdeckung eines sogenannten "Master-Key", mit dem man das Verschlüsselungssystem knacken und eigene Verschlüsselungen programmieren könne. Zahlreiche Mediendienste griffen die Thematik auf und bezeichneten die Schilderungen als plausibel.

Zu den Entdeckern der Sicherheitslücke und der eingesetzten Technik ist bislang noch nichts bekannt. Bereits 2001 hatte der Sicherheitsexperte Niels Ferguson vorhergesagt, dass die HDCP-Technologie für Cracks anfällig sei. Wenn man die Verschlüsselung von weniger als 50 Geräten kenne, könnten entsprechende Schlüsseldaten errechnet werden. Derzeit gibt es schon Programme, die das Rippen von Blu-ray Discs erlauben. Wenn die Information über den "Master-Key" stimmen sollten, wäre es kein Problem, von allen HD-Inhalten Kopien anzufertigen und verbraucherfeindliche Schutzmaßnahmen auszuhebeln.

HDCP wurde 2003 von Intel entwickelt. Es ist ein Verschlüsselungssystem, das für die Schnittstellen DVI und HDMI zur geschützten Übertragung von Audio- und Video-Daten eingesetzt wird. HDCP kann für sämtlichen Arten von Übertragungen hochauflösender Inhalte (z.B. Blu-ray Disc-Player, Sat-, Kabel- IPTV-Receiver) aktiviert werden - etwa, um die verlustfreie Archivierung hochauflösender Signale auf angeschlossenen Geräten zu unterbinden.

Quelle:
http://www.digitalfernsehen.de/Intel-bestaetigt-Aushebelung-von-HDCP.37825.0....

Posted via email from FatBobber's Personal Blog ...

Freitag, 17. September 2010

Einführung von Google TV verschoben - wegen Apple ...?

Der Suchmaschinen-Betreiber Google will sein ambitioniertes Fermsehprojekt Google TV in den USA laut Medienberichten um zwei Wochen nach hinten verschieben.

 
Der Branchendienst "Engadget" zitierte in der Nacht zum Dienstag (Ortszeit) aus einem internen Dokument der US-Handelskette Best Buy. Darin ist von einer Verschiebung des ursprünglich geplanten Starts am 3. November um zwei Wochen nach hinten die Rede. Da Best Buy als offizieller Partner von Google TV fungiert, wurde der neue Termin 17. November als glaubwürdig eingestuft.

Als Grund für die Verzögerung wurde von "Engadget" die geplante Auslieferung der überarbeiteten Apple-Streaminglösung Apple TV Anfang Oktober ins Spiel gebracht. Google könnte die zusätzliche Zeit nutzen, um Funktionen des Mitbewerbers zu übertrumpfen oder in der eigenen Werbekampagne gezielt Schwächen von Apple TV aufzugreifen, hieß es.

Google TV soll TV-Sender, Bezahlvideos und Youtube-Videoclips über eine zentrale Benutzeroberfläche auf entsprechend ausgerüstete Fernsehgeräte und Set-Top-Boxen bringen. Dabei soll sich der Übergang zwischen klassischem TV und Webinhalten nahtlos vollziehen. Ab 2011 soll der Service weltweit starten, hatte Google-Chef Eric Schmidt in der vergangenen Woche auf der IFA in Aussicht gestellt. Zuvor stünden aber noch Verhandlungen mit Fernsehsendern weltweit an.

Quelle:

http://www.digitalfernsehen.de/Einfuehrung-von-Google-TV-verschoben-wegen-App...

Posted via email from FatBobber's Personal Blog ...

Gerüchte: HDCP-Verschlüsselung angeblich ausgehebelt ...

In US-amerikanischen Internetforen macht die Nachricht die Runde, dass der HDCP-Kopierschutz (High-Bandwidth Digital Content Protection) für die gesicherte Übertragung von Daten über die HDMI-Schnittstelle ausgehebelt wurde.

Wie in US-Internetforen am Montag berichtet wurde, betrifft das alle Geräte, die HDCP unterstützen und einen eigenen Satz für die Verschlüsselung und Entschlüsselung von Daten verwenden. Dies betreffe zum Beispiel Blu-ray-Player, Set-Top-Boxen und Flachbild-Fernseher, die über HDMI-Anschlüsse verfügen. Die Anwender verwiesen auf die Entdeckung eines sogenannten "Master-Key", mit dem man das Verschlüsselungssystem knacken und eigene Verschlüsselungen programmieren könne. Zahlreiche Mediendienste griffen die Thematik auf und bezeichneten die Schilderungen als plausibel.

Zu den Entdeckern der Sicherheitslücke und der eingesetzten Technik ist bislang noch nichts bekannt. Bereits 2001 hatte der Sicherheitsexperte Niels Ferguson vorhergesagt, dass die HDCP-Technologie für Cracks anfällig sei. Wenn man die Verschlüsselung von weniger als 50 Geräten kenne, könnten entsprechende Schlüsseldaten errechnet werden. Derzeit gibt es schon Programme, die das Rippen von Blu-ray Discs erlauben. Wenn die Information über den "Master-Key" stimmen sollten, wäre es kein Problem, von allen HD-Inhalten Kopien anzufertigen und verbraucherfeindliche Schutzmaßnahmen auszuhebeln.

HDCP wurde 2003 von Intel entwickelt. Es ist ein Verschlüsselungssystem, das für die Schnittstellen DVI und HDMI zur geschützten Übertragung von Audio- und Video-Daten eingesetzt wird. HDCP kann für sämtlichen Arten von Übertragungen hochauflösender Inhalte (z.B. Blu-ray Disc-Player, Sat-, Kabel- IPTV-Receiver) aktiviert werden - etwa, um die verlustfreie Archivierung hochauflösender Signale auf angeschlossenen Geräten zu unterbinden.

Quelle:

http://www.digitalfernsehen.de/Geruechte-HDCP-Verschluesselung-angeblich-ausg...

Posted via email from FatBobber's Personal Blog ...

Handheld-Markt: Apple nimmt Tuchfühlung zur Spitze auf ...

Konkurrenz für PSP & Co.: Apple-Produkte wie das iPhone oder das iPad jagen den etablierten Handheld-Konsolen laut einer aktuellen Studie zunehmend Marktanteile ab.

Nach wie vor dominiert der japanische Konzern Nintendo den internationalen Handheld-Markt mit seinen Produkten DS und DSi. Apple könnte dem Marktführer allerdings schon bald die Spitze streitig machen, wie eine aktuelle Analyse zeigt, die das Marktforschungsunternehmen "Newzoo BV" am Montag veröffentlichte.

In den USA gibt es den Zahlen zufolge insgesamt rund 77 Millionen Handheld-Nutzer. Mittlerweile 40,1 Prozent der User spielen derzeit regelmäßig Spiele auf ihrem iPad, iPhone oder iPodTouch. Für Deutschland werden aktuell rund zehn Millionen Nutzer von Nintendo Handheld-Produkten ausgewiesen – im Vergleich zu sieben Millionen Apple-Nutzern. Die Studie räumte allerdings ein, dass es bei der Nutzung durchaus zu Überschneidungen komme. In den USA, beispielsweise, besäßen rund 14 Millionen Personen sowohl eine Nintendo-Konsole als auch ein Apple-Produkt. Sonys PSP ist im internationalen Vergleich lediglich Dritter.

Quelle:

http://www.digitalfernsehen.de/Handheld-Markt-Apple-nimmt-Tuchfuehlung-zur-Sp...

Posted via email from FatBobber's Personal Blog ...

Stereo-3D in der Live-Produktion: Neuland erforscht ...

Live-Produktionen in Stereo-3D sind für die meisten noch Zukunftsmusik – auf der Zuschauer- ebenso, wie auf der Produktionsseite. Andere haben sich dagegen schon intensiv mit diesem Thema befasst: Experten von Wireworx präsentierten bei der Hausmesse von Broadcast Solutions die wichtigsten Grundlagen, Technologien, Hintergründe, aktuelle Produkte und mögliche Workflows für Stereo-3D in der Live-Produktion – eine Zusammenfassung.

Kein anderes Thema ist derzeit im Bewegtbildbereich so präsent wie Stereo-3D. Auf den kommenden Messen im Consumer-, wie im Profibereich, wird es dominant sein. Noch immer ist Stereo-3D aber letztlich ein Exotenthema, über das zwar sehr viel geredet wird, bei dem aber vergleichsweise wenig Reales zu greifen ist. Als Schlüssel für den Erfolg auf breiter Basis gilt vielen die Live-Übertragung von Sportereignissen und anderen Events, etwa Konzerten und Kulturereignissen in Stereo-3D. Mit diesem Thema befasst sich das Planungsbüro Wireworx, das unter anderem in die Konzeption und Realisation des ersten von Beginn an auch für Stereo-3D-Produktionen eingerichteten Ü-Wagens aus Deutschland eingebunden ist.
Der folgende Artikel gibt – basierend auf einer Präsentation von Wireworx – einen Abriss, welche Anforderungen und Abläufe die Live-Produktion in Stereo-3D mit sich bringt.

Stereo-3D-Grundlagen

Das Grundprinzip aller momentan gängigen Stereo-3D-Verfahren beruht darauf, zwei leicht versetzte Bilder aufzunehmen und dafür zu sorgen, dass die Zuschauer jedes dieser beiden Bilder mit nur einem Auge sehen. Das menschliche Gehirn kann dann aus diesen Bildern einen räumlichen Eindruck gewinnen – wobei auch Aspekte wie Erfahrung und Sehgewohnheiten eine wesentliche Rolle spielen.
Versucht man diesen Vorgang mit Film- oder Videokameras in einem Live-Umfeld umzusetzen, ist ein wenig Theorie unumgänglich. Deshalb sind im folgenden zunächst einige zentrale Begriffe aus diesem Themenbereich kurz erläutert und vereinfacht definiert, die im weiteren Verlauf dieses Beitrags wichtig sind.
Interokularabstand: Abstand zwischen den Augen, der üblicherweise mit 6,5 cm angegeben wird, auch wenn der individuell verschieden ist. Werden zwei Kameras nebeneinander platziert, spricht man beim Abstand zwischen den optischen Achsen der beiden Kameras auch von der Interaxial-Distanz.
Konvergenz: Denkt man sich zwei Linien, die jeweils vom Auge zu einem Gegenstand laufen, der betrachtet wird, so schneiden sich diese Linien im Objekt. Dieser Schnittpunkt definiert den Abstand zwischen Kamera und Konvergenzebene – in dieser Entfernung von der Kamera sind rechtes und linkes Bild deckungsgleich. Der Winkel, den die gedachten Linien bilden, wird als Konvergenzwinkel bezeichnet. Je weiter der betrachtete Gegenstand von der Kamera entfernt ist, desto kleiner ist der Konvergenzwinkel und desto geringer ist der räumliche Eindruck, der entsteht. Bei Objekten im Nahfeld verändert sich der Konvergenzwinkel sehr stark, wenn sich der Abstand zum Objekt verändert.
Parallaxe: Hält man den Daumen in einigem Abstand vors Gesicht und betrachtet ihn abwechselnd mit dem linken und rechten Auge, entsteht der Eindruck, der Daumen springe hin und her. Dieser Effekt heißt Parallaxe, und ist umso größer, je näher man den Daumen zu den Augen bringt.
Praktische Anwendung: Baut man das menschliche Sehen mit zwei Kameras nach, dann nehmen diese Kameras – auch aufgrund der Parallaxe – zwei getrennte, unterschiedliche Bilder auf. Nur dort, wo sich die optischen Achsen der Kameras schneiden, in der Konvergenzebene, kommen rechtes und linkes Bild zur Deckung, man spricht auch von Null-Parallaxe.
Was bei der Aufnahme vor der Konvergenzebene liegt, scheint beim späteren Betrachten aus dem Display heraus in den Raum versetzt (negative Parallaxe), was dahinter liegt, wirkt nach hinten verschoben (positive Parallaxe). Die Konvergenz bestimmt also die Objektposition im 3D-Raum.
Objekte, die in der Konvergenzebene liegen, sieht man bei der Vorführung auch ohne 3D-Brille relativ scharf. Objekte, die vor oder hinter der Konvergenzebene liegen, werden dagegen beim Betrachten ohne 3D-Brille mit Doppelkonturen dargestellt. Vor und hinter der Konvergenzebene werden die Bildobjekte seitlich gegeneinander verschoben dargestellt, je weiter entfernt von der Konvergenzebene, umso stärker.
Probleme beim Betrachten von Stereo-3D entstehen bei den Zuschauern, wenn den Augen »unnatürliche« Bildkombinationen zugeführt werden: Wenn rechtes und linkes Bild auseinanderlaufen (Divergenz), wenn sie vertikal springen (V-Shift) oder unterschiedliche Objektgrößen aufweisen.

Stereo-3D in der Praxis

Mit Stereo-3D beschäftigen sich auch einige Sender in Deutschland. Mit HD Broadcast gibt es in Deutschland zudem den ersten TV-Dienstleister, der einen neuen, von Beginn an auch für Stereo-3D ausgelegten Ü-Wagen bauen lässt. Stereo-3D ist somit auch hierzulande in der Live-Produktion angekommen.
Die ersten Tests in der Live-Produktion von Stereo-3D sind erfolgt und spätestens seit der Fußball-WM, bei der 25 Spiele in Stereo-3D produziert wurden, liegen Erfahrungswerte in größerem Umfang vor, die im folgenden zusammengefasst sind.
Kameratechnik und Rigs
Das Kamera-Setup sollte es erlauben, bei Änderungen der Kameraposition zum Objekt auch die Abbildungsparameter Schärfe, Konvergenz und gegebenenfalls Brennweite der beiden Objektivsysteme absolut synchron zueinander zu verändern. Das stellt einige Anforderungen ans Kamera-Set-Up und die Art und Weise, in der die beiden Kameras auf ein Rig montiert werden.
Prinzipiell unterscheidet man zwischen Side-by-Side- und Beamsplitter-Rigs. Bei den Side-by-Side-Rigs werden zwei Kameras nebeneinander montiert. Das ermöglicht in der Regel einen schnellen Auf- und Abbau der Kamera-Setups, was im AÜ-Bereich Vorteile bietet. Side-by-Side-Rigs haben aber den Nachteil, dass bei Einsatz normaler Broadcast-Kameras durch deren Baugröße die Interaxial-Distanz in der Regel größer ist als 6,5 cm. Der Objektabstand sollte bei solchen Rigs mehr als fünf bis acht Meter betragen, wenn man eine realistische, für die Zuschauer gut verträgliche Stereo-3D-Aufnahme erzielen will. Im Live-Sport gibt es durchaus Kamerapositionen, in denen Side-by-Side-Rigs ihre Berechtigung haben.
Die überwiegende Anzahl gängiger Rigs arbeitet aus den genannten Gründen mit einer anderen Kameraanordnung und dem Beamsplitter-Prinzip: Dabei werden die Kameras im rechten Winkel zueinander montiert, zwischen den Objektiven ist ein halbdurchlässiger Spiegel im 45-Grad-Winkel angeordnet. Diese Bauweise erlaubt es, den Interokularabstand selbst mit großen, sperrigen Kameras richtig zu justieren. Dadurch ist ein geringerer Objektabstand möglich, was diese Systeme insgesamt flexibler macht.
Manche Beamsplitter-Rigs lassen sich zudem in unterschiedlichen Konfiguration nutzen, um möglichst flexibel zu sein: Die vertikale Kamera kann von unten oder von oben auf den Spiegel gerichtet werden.
Bei von unten montierter Kamera wírd eine kompaktere Silhouette erreicht, wodurch das Kamera-Setup etwa für Zuschauer hinter der Kameraposition weniger störend ist. Bei von oben montierter Kamera bleibt dagegen mehr Platz zum Neigen des Rigs. Nachteile gibt es bei Beamsplitter-Rigs allerdings auch: Aufbau und Justage sind komplexer, zudem ist bei vielen Kameratypen aufgrund der Anordnung der Kameras ein externes H/V-Flipping des Kamerasignals notwendig. Außerdem muss man bei diesen Rigs mit dem Verlust einer Blendenstufe durch den halbdurchlässigen Spiegel leben.

Manuelle und motorisierte Rigs

Bei den bisherigen Stereo-3D-LiveProduktionen haben sich einige Rigs als besonders praktikabel erwiesen: So sind beispielsweise beim manuellen Standard-Rig von P+S wie auch beim Swiss Rig Interaxial-Differenz wie auch Konvergenz manuell verstellbar. Beide Rigs lassen sich mit den »normalen« Full-Body-Kameras nutzen, die im Broadcast-Bereich üblich sind. P+S Technik bietet zudem mit dem Freestyle Rig ein kompaktes Modell an, das via Handfernbedienung gesteuert werden kann und mit Stellmotoren ausgerüstet ist.
Motorisierte Rigs wurden bei der Fußball-WM eingesetzt. So nutzte der Fifa-Dienstleister HBS Quasar-Rigs von Element Technica. Sie haben den Vorteil, dass sie sich modular sowohl als Side-by-Side wie auch nach dem Beamsplitter-Prinzip aufbauen lassen. Weiter ist das Quasar-Rig mit Stellmotoren für Interaxial-Differenz und Konvergenz bestückt, zudem ist die Steuerung des Rigs per Handfernbedienung oder über den Sony-3D-Prozessor MPE-200 möglich.
3D-Pionier 3ality bietet mit der TS-Serie ebenfalls ein motorisiertes System inklusive des 3D-Prozessors SIP 2100/2900 an. Kamera, Optik und das komplette Rig lassen sich mittels Stellmotoren motorisiert per Handfernbedienung einstellen.
Synchrone Bedienung
Bei der 3D-Produktion muss neben der Brennweite und dem Zoomwert auch die Schärfeneinstellung der beiden Objektive jedes Kamerapärchens zu jedem Zeitpunkt übereinstimmen. Hierfür hat Fujinon das 3D Synchronous Control System entwickelt. Es besteht aus dem Zoomgriff ERD-10A-D01 sowie dem Fokusgriff und Synchronizer HJ-303A-06A. Zwei Kabel vom Typ SA-206H stellen die Verbindung zwischen dem 3D-Controller und den Optiken her. Das System synchronisiert die Objektive für linkes und rechtes Bild, Zoom- und Fokuswerte beider Optiken werden exakt aufeinander abgestimmt. Canon bietet eine ähnliche Möglichkeit für die Synchronisierung von HD-Optiken mittels Splitter-Box an.
Trotz solcher synchronisierten Steuersysteme kann es aufgrund der Summe von kleineren Toleranzfehlern sowohl der Optiken als auch des Kameraflansches und der CCD-Chip-Montage zu Abbildungsabweichungen zwischen zwei Optiken kommen. In solchen Fällen sind Korrekturen über externe Hardware nötig (mehr dazu im Abschnitt MPE-200).
Für Stereo-3D-Produktionen ist es zudem wichtig, Kameras via OCP synchron bedienen zu können. Sony stellte zu diesem Zweck mit RCP-1500 eine Steuerung vor, die sich mittels Firmware-Update so einrichten lässt, dass man von einer OCP aus gleichzeitig zwei Kameras steuern kann. Dies erleichtert die Steuerung und das Matching der Kameras im Stereo-3D-Betrieb für den Bildtechniker erheblich. Grass Valley bietet dies analog mit der OCP-400 an.

MPE-200, Konvergenzoperator, Stereographer

Sony hat mit der Prozessorbox MPE-200 eine Analyse-Hardware für Stereo-3D-Live-Produktionen entwickelt, die gleich mehrere Funktionen bietet: Als Analysewerkzeug hilft die Box den Technikern beim Einrichten des mechanischen Setups der beiden Kameras auf dem Rig. Bei den 3D-Produktionen der Fifa-WM etwa war in die Signalkette jedes Kamerapärchens ein MPE-200 eingebaut.
Stimmen Rotation, Vertical-Shift, Interaxial-Differenz und Konvergenz der Kameras? Hierfür erhalten die Konvergenzoperatoren in der Aufbau- und Justagephase den Waveform-Ausgang des jeweiligen MPE-200 als Kamera-Rückbild. Nachdem das Rig mechanisch optimal justiert wurde, beginnt dann das Abgleichen der optischen Achsen der Objektive. Bedingt durch den Einsatz von Zoomobjektiven, kommt es zu einer Verschiebung des Bildmittelpunktes in Abhängigkeit von der Brennweite. MPE-200 ist in der Lage, diesen Bildfehler digital zu korrigieren und in Abhängigkeit des jeweiligen Brennweitenwertes zu speichern. Nach einem einmaligen Justage-Durchlauf ist gewährleistet, dass die optische Achse des Bilds auch bei Zoomvorgängen gleich bleibt und sich nicht durch die unvermeidlichen Linsenfehler und Toleranzen der Objektive und des Kameraflansches verschiebt.
Bleibt noch das Problem, dass die Optiken der beiden Kameras bei Zoom und Fokus-Vorgängen nicht absolut synchron laufen, wenn nicht einer der oben erwähnten Objektiv-Synchronizer eingesetzt wird. Die MPE-200-Box kann auch diesen Fehler digital auffangen, in dem sie das betreffende Bild up- oder down-skaliert und den Korrekturwert in Abhängigkeit der Brennweiteneinstellung des betreffenden Objektives speichert. Auch diese Justage muss also nur einmal durchgeführt werden, die permanente, jeweils passende digitale Korrektur erfolgt dann während des Sendebetriebs automatisch.
Während der Sendung steuert der Konvergenzoperator dann nur noch die Interaxial-Differenz und die Konvergenz der Kameras auf dem Rig. Hierfür hat Sony die Software MPES-3D01 entwickelt, mit der sich der Prozessor MPE-200 in dieser Phase übersichtlich steuern lässt. MPE-200 analysiert die Parallaxe und zeigt Fehler wie »Überbasis« an.
Erforderlich ist das, weil Brennweitenveränderungen (also das Zoomen) zu Veränderungen der Parallaxe führen, die korrigiert werden müssen. Parallaxen-Sprünge sind zudem bei den Umschnitten von Kamera zu Kamera extrem störend für den Betrachter und müssen durch Anpassung der Konvergenzeinstellung vermieden werden.  Hierfür gibt es den zusätzlichen Job des Stereographers, dem die Konvergenzoperatoren untergeordnet sind. Die Konvergenzoperatoren regeln also Interaxial-Differenz und Konvergenz des jeweiligen Rigs entsprechend der Anweisungen des Stereographers.

weitere Details zur Bildgestaltung unter:

http://www.film-tv-video.de/newsdetail+M533593ceb46.html?&no_cache=1

Posted via email from FatBobber's Personal Blog ...

Blick in die Alpen: Stereo-3D bei TPC in Zürich ...

Der Schweizer Broadcast-Dienstleister TPC hat auf der Basis von Quantels Pablo-System ein Business-Modell entwickelt, das Stereo-3D-Produktionen nicht nur technologisch, sondern auch wirtschaftlich interessant machen soll.

TPC gehört zu den Technologie-Pionieren in Europa: So entwickelte und realisierte der Schweizer Broadcast-Dienstleister schon früh interessante Konzepte für anspruchsvolle HD-Produktionen. Es kann daher kaum verwundern, dass sich TPC derzeit auch intensiv mit Stereo-3D-Technik auseinandersetzt.

Sascha Klement, Leiter Business Development bei TPC, ist sich sicher, dass Stereo-3D auch für Broadcas­ter großes Potenzial habe, weiß aber auch um die Schwierigkeiten, diese Technologie voranzubringen: »Derzeit sind alle großen Broadcaster damit beschäftigt, ihre alten SD-Straßen auf HD umzustellen, was Geld und Ressourcen verschlingt. Wir versuchen deshalb mit neuen Konzepten und konkreten Business-Plänen aufzuzeigen, wie sich 3D trotzdem schon heute einsetzen lässt. Das ist reine Pionierarbeit.«

Wie kann ein solches Konzept aussehen? Die Antwort darauf erschließt sich besser, wenn man zunächst einen Schritt zurückgeht und fragt, welche Bereiche sich besonders gut für Stereo-3D-Produktionen eignen. Aus der Sicht von Sascha Klement sind das neben großen Events auch Imagefilme, etwa in der Autoindustrie oder im Tourismus. »Die Nachrichten des Tages werden wir wohl auch in Zukunft nicht in Stereo-3D sehen«, konstatiert Sascha Klement.

Mit dieser Sicht des Marktes im Hinterkopf und auf Basis einer analytischen Bestandsaufnahme, hat man sich bei TPC dazu entschieden, Stereo-3D von der Postproduktionsseite her aufzuzäumen. Aus Sicht von Sascha Klement und seinem Team gibt es nämlich gerade hier viele Engpässe, weil eine anspruchsvolle Stereo-3D-Nachbearbeitung viel Knowhow, aber auch teure Postproduction-Systeme erfordere – und beides eben keineswegs auf breiter Basis vorhanden sei.

TPC selbst arbeitet schon seit vielen Jahren mit verschiedenen eQ- und iQ-Systemen von Quantel und so lag die Idee nahe, auch bei Stereo-3D-Technologie auf Equipment von Quantel zu setzen. Das Unternehmen entschied sich also, in ein Pablo-Sys­tem zu investieren, dieses aber nicht als festinstallierte Suite zu betreiben, sondern als mobile Einheit zu konzipieren. Die mobile Technik bietet TPC zusammen mit dem Knowhow der eigenen Stereo-3D-Abteilung nun auch externen Kunden an.

Sascha Klement urteilt: »Quantels 3D-Option zu erlernen ist nicht aufwändig, aber es ist viel Erfahrung erforderlich, um ein gutes Resultat zu erzielen.« Mit dem Pablo-System, in das TPC Anfang des Jahres 2010 investierte, wurden schon mehrere Stereo-3D-Projekte realisiert, weitere sind schon fest geplant. Die Produktionen wurden und werden mit Partnern oder als Auftragsproduktionen für verschiedenen Kunden realisiert. »Dafür bieten sich auch Showroom-Projekte oder Werbeproduktionen in 3D an«, so Sascha Klement. Dabei soll das mobile Color-Grading-System Pablo jeweils in die bestehende Infrastruktur beim Endkunden integriert werden.

Um es auf den Kern zu reduzieren: TPC glaubt, dass man mit dem mobilen Pablo-System zum einen die eigene Auslastung verbessern, aber auch dazu beitragen kann, einen größeren Stereo-3D-Markt zu entwickeln. In der Stereo-3D-Akquisition ist TPC mit seinem Team zwar ebenfalls aktiv, doch Klement sagt auch ganz klar, dass man sich insbesondere bei Mehrkamera-Produktionen nicht als Vorreiter sehe.

Stereo-3D bei TPC

»Wir haben uns in den Anfängen zunächst in einem kleinen Team mit Stereo-3D beschäftigt«, führt Sascha Klement aus, »und haben aus unserer Postproduktionsgruppe heraus einen Pool von Leuten aufgebaut, die sich intensiv mit der neuen Technologie beschäftigt haben.«

Einer davon ist Donovan Courtney, der als 3D-Consultant für TPC 3D-Produktionen plant, Teams zusammenstellt und dann über die komplette Produktion hinweg betreut. Aus seiner Sicht ist ein funktionierendes Team bei Stereo-3D-Produktion noch notwendiger als bei einer ganz normalen Produktion, weil man eben in vielen Bereichen noch Neuland betrete und darauf angewiesen sei, Hand in Hand zu arbeiten.

Einer der faszinierenden Aspekte von Stereo-3D ist aus seiner Sicht die Entwicklung einer neuen Bildsprache, die es nun zu finden gilt. »Die richtige Bildsprache kann man aber letztlich nur finden, wenn man die Produktion sehr gut plant«, erklärt Courtney, »denn in Stereo-3D funktioniert die Redensart »fix it in the post« weniger denn je. Wenn bei der Aufzeichnung grundlegende Gestaltungsrichtlinien nicht beachtet und etwa die Konvergenzebene falsch positioniert wird, lässt sich dies in der Postproduction nur schwer oder gar nicht korrigieren – und in der Folge kann man dann eben auch sehr wenig mit dem Material experimentieren«.

Nicolas Sieber, Senior Editor Postproduction, hält das Color- und Depth-Grading in der Postproduction für einen zentralen Faktor um eine erfolgreichen Stereo-3D-Produktion zu schaffen. »Man muss beim 3D-Balancing immer zwei Kameras zueinander matchen, um eine Ausgangsebene fürs Color Grading zu haben. Nicht zuletzt deshalb haben wir uns mit Pablo für ein Tool entschieden, dass in diesem Bereich sehr gute Möglichkeiten eröffnet«, so Sieber. Der gesamte Workflow in der Post sei entscheidend – und bei Pablo sehr schlank und leistungsfähig ausgelegt: Beide Ströme werden jederzeit mitgeführt, es gibt einen Echtzeit-3D-Output und auch beim Depth Grading, wo es um die Tiefenwirkung der Bilder geht, liefert Pablo Echtzeit-Tools.

Ganz generell sind sich Courtney und Sieber einig, dass es bei einer Stereo-3D-Produktion einige grundlegende Dinge gebe, die man immer im Hinterkopf behalten sollte:  Wie ist die Tiefenwirkung einer Szene? Wie schaffe ich es, eine Tiefenlogik zu schaffen? Was soll vorne am Bildschirm, was auf dem Bildschirm, was dahinter zu sehen sein?

Beim Schnitt: Kann man von der einen auf die andere Szene schneiden, ohne dass dabei ein Tiefensprung entsteht? Passt das Balancing von linkem und rechtem Auge? Was soll am Schluss im Depth-Grading noch möglich sein und erreicht werden? Fragen, die man schon in einem möglichst frühen Stadium beantworten sollte, so die beiden TPC-Experten.

Aktuelle Stereo-3D-Produktionen

Die ersten Stereo-3D-Einsätze hat das Pablo-System bei TPC schon hinter sich. Dabei setzte TPC neben dem eigenen Team auch auf das Know-how externer Spezialisten, darunter Alaric Hamacher und Christian Witschi.

Eine der ersten Stereo-3D-Produktionen entstand beim Hahnenkamm-Rennen in Kitzbühel: TPC installierte vor Ort, direkt am Fuße der steilen Abfahrtsstrecke, sein Pablo-System. Vier verschiedene 3D-Kamerasysteme zeichneten dann den Abfahrtslauf auf, zusätzlich war ein Hubschrauber im Einsatz, der mit zwei Red-Kameras als kreiselstabilisiertem Kamerasystem bestückt war.

Das so aufgezeichnete Material, schnitten und bearbeiteten Nicolas Sieber und Fabian Hochreutener dann vor Ort in Rekordzeit und legten den Film auf einem FTP-Server ab. Über Nacht realisierte dann Dolby das Sounddesign der Produktion. Auf diese Weise entstand ein fünfminütiger Film, den Red Bull Media schon am Tag nach dem Dreh mit einem digitalen Projektionssystem von Dolby in Kitzbühel präsentieren konnte. Die Stereo-3D-Bilder wurden hierfür als Tif-Datei aus Quantels Pablo exportiert und für die Wiedergabe ins Projektionssystem importiert.

Ein anspruchsvolles Projekt, das laut Sascha Klement nur deswegen innerhalb seines sehr engen Zeitrahmens umzusetzen war, weil man dank der erfahrenen Mitarbeiter eben gerade in der Postproduction sehr schnell und effektiv arbeiten konnte.

Eine andere, sehr anspruchsvolle Live-Produktion realisierte TPC mit der Aufzeichnung der »Budo-Gala«. Das ist eine Kampfkunstshow, die als aufwändig inszenierte Martial-Arts-Vorführung vor rund 7.000 Zuschauern in Basel stattgefunden hat. Bei dem großen Event ging es darum, mit mehreren Rigs die bewegungs- und actionreichen Auftritte verschiedener Budo-Kämpfer in Szene zu setzen.

Schon vor der Veranstaltung hatte TPC mit einem Si-2K-Kamerapärchen Material zu diesem Thema gedreht und daraus einen Trailer für die Veranstaltungsreihe produziert. Bei der eigentlichen Gala waren dann zwei 3D-Rigs im Einsatz: eine Steadicam mit Freestyle-Rig direkt auf der Bühne und zusätzlich ein P+S-Rig auf einem Panther-Dolly, der rund um die Bühne bewegt werden konnte.

»Es war für uns das erste Mal, dass wir eine Veranstaltung dieser Art realisierten, bei der man letztlich den Ablauf nicht beeinflussen und nichts wiederholen konnte. Die Einstellungen mussten einfach sitzen«, resümiert Nicolas Sieber. Bei den Proben für die Gala war ein TPC-Team vor Ort und stimmte sich eng mit den Veranstaltern ab. Bei der eigentlichen Gala arbeitete TPC dann mit einem Focus Puller, der mit dem Fernbediensystem C-Motion bei beiden Kamera-Rigs die Schärfe nachführte. »Auch unser Stereographer arbeitete mit einer C-Motion-Remote, um die Konvergenz zu steuern«, berichtet Nicolas Sieber, der bei dem Event die Regie führte.

Ein weiteres Stereo-3D-Projekt ist mehr oder weniger aus den ersten Testaufnahmen entstanden, die TPC realisierte: »Dabei geht es um die alte Junkers JU52, von der es in der Schweiz noch vier Stück gibt«, berichtet Sascha Klement. Aus den Aufnahmen von der alten Wellblech-Maschine Tante JU vor beeindruckenden Schweizer Landschaften, entsteht nun ein Dokumentarfilm, der zum Jahresende als 3D-Blu-ray verfügbar werden soll. Wie so oft im Dokumentarfilmbereich ist dann aus dem JU52-Projekt ein weiteres Filmprojekt entstanden, bei dem TPC gemeinsam mit einem Partner eine Produktion für die Schweizer Tourismus Organisation umsetzte.

Die Erfahrungen mit diesen Produktionen gaben TPC letztlich genug Vertrauen, in Stereo-3D zu investieren und an das Potenzial der neuen Technologie zu glauben. Ein weiteres großes Ziel könnten für die Schweizer die Olympischen Spiele in London sein: Als Dienstleister war TPC unter anderem schon für den Host-Broadcaster in Vancouver tätig, und für London wünscht sich Klement, dort ebenfalls Stereo-3D produzieren zu dürfen. »Bis dahin müssen wir allerdings noch eine ordentliche Wegstrecke zurücklegen«, urteilt Klement – auch wenn das Ziel sehr attraktiv ist.

weitere Details unter:

http://www.film-tv-video.de/newsdetail+M52e7878e57a.html?&no_cache=1

Posted via email from FatBobber's Personal Blog ...

Digitale Anarchie bei Broadcastern und TV-Sendern ...?

Bandloses Arbeiten hat sich auch im Broadcast-Bereich zum Status Quo entwickelt: Nicht einmal drei Jahre hat es gedauert, die bandlose Aufzeichnung zum Standardverfahren in der Akquisition zu machen. Und mit der Ankündigung des PMW-500 ist auch bei Sony absehbar, dass es schon in Kürze der Normalfall sein wird, auf Speicherkarten aufzunehmen — sei es auf P2, SDHC, SxS oder CF. Dass Panasonic auch bei seinen Broadcast-Produkten früher oder später von P2 auf SDHC umschwenken wird, kann dabei als sehr wahrscheinlich gelten.

In der Postproduction ist es in größeren, modernen Infrastrukturen ebenfalls normal, Material zentral einzuspielen und dann file-basiert weiter zu verarbeiten. Bis auf wenige Ausnahmen gilt also: Wer neu investiert, steigt auf tapeless um.

Die Infrastruktur in modernen Produktions- und TV-Betrieben hat sich dadurch vollständig verändert. Was allerdings noch auf sich warten lässt, das sind einfachere, gut steuerbare und überschaubare Workflows: Teilweise sind immer noch hanebüchene Umwege und vielfache Transcoding-Schritte nötig, um vom Rohmaterial über den fertigen Beitrag bis zur Ausstrahlung zu gelangen. Die versprochenen Erleichterungen und Effektivitätssteigerungen werden dadurch zumindest geschmälert und zusätzlich bleibt auch Qualität auf der Strecke. Das ganze wird begleitet von immer neuen Codecs, Formaten und anderen Verkomplizierungen. Letztlich klemmt und hakt es — obwohl schon viel geschehen ist — immer noch allen Ecken und Enden.

Für die Anwender ist diese Situation genauso unbefriedigend, wie letztlich auch für die Hersteller: Ständig hechelt man irgendwelchen Entwicklungen hinterher, und wenn der Hase am Ende des Ackers ankommt, ist der Igel nicht nur schon längst da, sondern hält auch schon neue Spielregeln bereit. Die Parabel von Hase und Igel zeigte schon lange vor der Entdeckung digitaler Codecs, dass Geschwindigkeit eben längst nicht alles ist: Wer auch sein Hirn benutzt, ist klar im Vorteil.

weitere Infos unter:

http://www.film-tv-video.de

Posted via email from FatBobber's Personal Blog ...

Montag, 6. September 2010

IBC — alles wieder beim alten ...?

Im vergangenen Jahr hatte es die IBC etwas schwerer als sonst: Die Krise war in aller Munde und Zugpferd Sony blieb der Messe fern. Außerdem unkten viele im Vorfeld der IBC2009, dass das Konzept einer Broadcast-Messe sich ohnehin überlebt habe und es sich daher nicht mehr lohne, nach Amsterdam zu fahren. Es kam — wie so oft — anders als erwartet: Die Messe brach trotz schlechter Vorzeichen bei weitem nicht so stark ein, wie ihre Kritiker gehofft und ihre Aussteller befürchtet hatten. Bei manchem belebte das die alte Erkenntnis: »Wer nicht an der Messe teilnimmt, überlässt der Konkurrenz das Feld.«

Und so sind mittlerweile fast alle, die sich in den Vorjahren von der IBC mal in der einen oder anderen Form eine Auszeit nahmen, in diesem Jahr wieder vertreten: Avid, Sony, Panasonic, Snell und viele mehr. Kleinere Standflächen sind aber untrügliche Zeichen für geschrumpfte Budgets — und vielleicht auch für etwas mehr Vernunft.

Die Veranstalter der IBC, die ohnehin schon seit Jahren versuchen, Aussteller aus Bereichen jenseits des Broadcast-Markts anzulocken, haben deshalb diese Anstrengungen weiter intensiviert, um die Hallen und die eigenen Taschen weiter zu füllen: Davon zeugen wachsende Messebereiche wie die Mobile- und die IPTV-Zone.

Aber auch klassische Broadcaster, die im vergangenen Jahr über das Ausstellungsangebot der IBC die Nase rümpften, werden 2010 wohl wieder verstärkt nach Amsterdam reisen — und das nicht nur wegen des Rückkehrers Sony. Gründe dafür gibt es viele, so etwa: Im entspannten Gespräch während und nach der Messe kann man besser Beziehungen knüpfen, als in jedem virtuellen Netzwerk. Und aus Amsterdam kommen die Europäer auch dann noch vergleichsweise einfach zurück nach Hause, wenn eine Aschewolke drohen sollte.

weitere Infos unter:

http://www.film-tv-video.de/newsletterinfos.html

Posted via email from FatBobber's Personal Blog ...