Available at http://www.zfdh.de
Sofern nicht anders angegeben
Available at http://www.zfdg.de"> (c) Forschungsverbund MWW
Ausgewählte Beiträge der DHd-Tagung 2014 in Passau
Transformation der WORD-Vorlage nach XML/TEI-P5 durch Apache TIKA 1.7 und XSLT
Lektorat des Textes durch die Redaktion.
Medienrechte liegen bei den Autoren
All links checked
In dem vorliegenden Beitrag werden die Möglichkeiten sowie der daraus resultierende Mehrwert der Anwendung einer webbasierten Datenbank für Videoannotationen (Pan.do/ra) in der kulturwissenschaftlichen Untersuchung von Bewegtbildmaterial beleuchtet. Der erste Teil beschäftigt sich am Beispiel eines Musikvideos konkret mit einer Anzahl von Nutzungsmöglichkeiten, während der anschließende zweite Teil das verwendete System in einen allgemeineren Kontext einbettet.
In this paper, we discuss the possibilities as well as the added value of using a web-based databank for video annotation (Pan.do/ra) in cultural studies research on film. The first part demonstrates a variety of potential uses through the example of a music video, and the second part introduces the software on a more general level.
Im ersten Teil des BeitragsHeidelberg Research Architecture, im sich daran anschließenden
zweiten Teil die dahinter liegenden technischen Aspekte und die
globaleren Möglichkeiten darstellen und diskutieren werden.
Zusammengenommen soll am Ende deutlich werden, dass durch die Verzahnung
der Informationstechnologie mit der Fachwissenschaft ein Mehrwert
erreicht werden kann, der durch analoge Möglichkeiten nicht hätte
erzielt werden können – sozusagen ein geradezu idealtypisches Modell aus
dem Gebiet der Digital Humanities.
Zahlreiche Musikvideos weisen über ihren genuinen Zweck als Werbeträger hinaus einen ästhetischen Mehrwert auf, der eine eingehendere bildwissenschaftliche Betrachtung herausfordert und aufzeigt, dass sich in diesem Bereich eine eigene Kunstform entwickelt hat. Die künstlerischen Ausdrucksmöglichkeiten, die hier durch die flexible Verknüpfung von Text, Bild und Musik vorhanden sind, eröffnen Szenarien, in denen Text und Musik nicht nur einen kurzen Schwall von heterogenen Bildern zusammenhalten, vielmehr wird ein komplexer Diskurs auf drei Ebenen gestaltet. Das Musikvideo als visuelles Produkt referenziert dabei auch immer wieder auf ›verwandte‹ Medien (Kino- und Fernsehfilm), aber auch auf Werke der bildenden Kunst, andere Kommunikations- und Unterhaltungsformen und auf sich selbst.
Und obgleich das Thema des Musikvideos inzwischen eine verstärkte
Aufmerksamkeit innerhalb von Disziplinen wie der Film-, Musik- und
Medienwissenschaft sowie der Kunstgeschichte erfahren hat,
In der Vergangenheit habe ich gemeinsam mit Henry Keazor zu zeigen
versucht, dass eine fruchtbare Betrachtung des Musikvideos nur durch den
Blick auf die drei oben erwähnten Ebenen sinnvoll ist.
Am Beispiel des Clips zu R.E.M.’s Losing My Religion
Out of Time.Tired of Sleeping. Seinen
Durchbruch erzielte er jedoch mit dem hier vorgestellten
Musikvideo.
Es ist im Nachhinein schwer zu sagen, inwieweit sich der Erfolg des Songs
seiner Präsentation in Clip-Form verdankt, doch allein der Umstand, dass
der Clip nicht nur im Erscheinungsjahr Aussichten auf einen Grammy
hatte, sondern auch für gleich acht MTV Video Music Awards nominiert war
(sechs der Trophäen erhielt das Video dann auch, darunter in den
Kategorien ›Video of the Year‹, ›Breakthrough Video‹ und ›Best Direction
in a Video‹), zeigt, dass man den Anteil der visuellen Interpretation am
Erfolg des Stücks keinesfalls unterschätzen darf – zumal das Video den
Liedtext in eine Richtung hin interpretiert, die zwar von Texter und
Leadsänger Michel Stipe möglicherweise mitgedacht (vgl. auch die
Liedzeile »Choosing my confessions«), doch keinesfalls ausschließlich
intendiert gewesen ist; und es ist eben diese Deutung, die dem Song den
(weite Verbreitung sichernden) Stempel des Skandals und der Anrüchigkeit
aufdrückt. Denn die Titelzeile »Losing my religion« ist als Hinweis
darauf verstanden worden, dass der Protagonist des Textes seinen Glauben
verliert. Tatsächlich aber hat Stipe damit eine vergessene Redewendung
aus den Südstaaten der USA aufgegriffen, die soviel bedeutet wie ›die
Fassung zu verlieren‹.
Wie die vielen Hörer nach ihm (und diese dann möglicherweise bereits im Gefolge seiner visuellen Interpretation) konzentriert sich Regisseur Tarsem Singh bei der Konzeption seines Videos auf die mit den Reizworten »religion« und »confessions« angedeutete Sphäre des Glaubens und der Frömmigkeit. Und um diese sowie den im Songtitel angedeuteten Verlust derselben auszugestalten, legt er dem Clip eine Dramaturgie zugrunde, in der es letztendlich um die Durchdringung zweier Ebenen geht: Das ist zum einen die religiöse Sphäre, repräsentiert durch Szenerien, welche dem hinduistischen wie dem christlichen Bilderkosmos entlehnt sind und in letzterem Fall auf Werke der bildenden Kunst des 17. und 20. Jahrhunderts rekurrieren, namentlich auf Schöpfungen des Fotografenduos Pierre et Gilles und des Barockmalers Caravaggio. Ihnen gegenüber gestellt werden nach dem ersten Viertel des Videos und mit Beginn der zweiten Strophe die unter ihnen auf der Erde lebenden Menschen, die in ihrer fahlen Farbigkeit, den starken Hell-Dunkel-Kontrasten und den robusten, eher ärmlich und archaisch anmutenden Typen an Gemälde der Caravaggio-Schule erinnern, die hier gleichwohl nie detailgetreu umgesetzt werden, sondern lediglich einzelne Details liefern (wie z.B. den aus Caravaggios »Berufung des Heiligen Matthäus« bekannten, diagonal die Szene durchziehenden Lichtstrahl.
Wie sehen die Möglichkeiten des Umgangs mit dem Musikvideo nun in der
Annotationssoftware aus (vgl. Abbildung 1)?
Da dieses Musikvideo eine mannigfaltige Anzahl von nachgehenswerten
Referenzen beinhaltet, müssen an dieser Stelle einige wenige Beispiele
ausreichen. Es soll dabei versucht werden, die Möglichkeiten der
Software aus Anwendersicht dicht an den Inhalten zu beleuchten – bei
diesem Vorgehen möge man die teils eher deskriptive Art verzeihen.
Der Leadsänger von R.E.M, Michael Stipe, erscheint von Anfang an immer wieder mit riesigen Engelsflügeln, was sich sodann leitmotivisch durch das ganze Video zieht (Abbildungen 2a-d).
Eine dieser Szenen stellt ein Gemälde des Barockmalers Caravaggio mit dem
in seiner Verzückung von einem Engel gehaltenen Heiligen Franziskus
nach, der hier im Clip allerdings durch einen zweiten, älteren
Himmelsboten ersetzt wird (vgl. Abbildung 3 und Abbildung 4).
In dem Moment, wo der alte Engel versehentlich zur Erde herabstürzt und
der andere Engel nach ihm zu greifen versucht, zitiert Singh ein
weiteres Gemälde Caravaggios (Die sieben Werke der
Barmherzigkeit), in dem ebenfalls prägnant das Motiv eines zur
Erde hinabgereckten Engels-Armes erscheint (Abbildung 5).
Wenn der ältere, gefallene Engel auf der Erde sodann auf neugierige,
argwöhnische und grausame Weise von den Menschen untersucht wird, spielt
Singh wiederum auf ein Bild Caravaggios (Der
ungläubige Thomas) an (Abbildung 6).
Die solcherart nachgestellten oder zitierten Gemälde werden dabei
zuweilen in einer poppig-bunten und kitschig-schrillen Ästhetik
präsentiert, die sich an den Werken eines französischen Künstlerpaars,
des Fotografen Pierre (Commoy) und des Malers Gilles (Blanchard)Heiliger
Sebastian dann auch in einer Einstellung des Clips zitiert wird
(Abbildung
7).
Abgerundet wird das Personal des Videos durch Männer, die zum einen für die Beleuchtung zuständig zu sein scheinen, zugleich jedoch – als eine eiserne Flügel-Skulptur herstellende Schmiede – als Vertreter der (russisch-kommunistischen) Arbeiterklasse ausgewiesen werden, die dem Jenseitsbezug der Religion das erdverhaftete Vertrauen in die technischen Fähigkeiten des Menschen gegenüberstellen (Abbildung 8a und Abbildung 8b).
Der Bezug zu Russland wird ebenfalls in Form des Kostüms und der
Choreographie von Stipe hergestellt: Sie sind beide an Aufnahmen vom
Auftritt des berühmten Tänzers Vaslav Nijinsky in dem von Claude Debussy
geschriebenen Ballett Jeux aus dem Jahre 1913
angelehnt (Abbildung
9a und Abbildung 9b).
Allein die hier aufgezeigten Bezüge (die z.B. noch um den Verweis auf die
1968 erschienene Kurzgeschichte Ein sehr alter Mann
mit riesengroßen Flügeln des kolumbianischen Schriftstellers
Gabriel García Márquez zu ergänzen wäre, aus der das Motiv des zur Erde
gestürzten und dort von Menschen misshandelten Engels stammt) machen
deutlich, welche Vielfalt an Verweisen und Zitaten in einen Clip wie
demjenigen Singhs eingewoben sein kann.
Im Jahr 2000 hat Tarsem Singh diese im Musikvideo entwickelte Bilderwelt
dann auch in seinem Kinodebüt The Cell
unterzubringen versucht, und so begegnet man dort den bereits bekannten
Motiven und Vorbildern, die zuweilen sogar zu identisch anmutenden
Szenarien zusammengeführt werden – fast scheint es, als seien einzelne
Szenen in der Kulisse des R.E.M.-Videos gedreht worden (vgl. Abbildung 10a und
Abbildung 10b).
Wo liegen aber nun die Vorteile in der Bearbeitung des Materials mit einer – und im Speziellen – mit dieser Videoannotationssoftware?
Für webbasierte Systeme gilt allgemein – nach wie vor erwähnenswert – die zeit- und ortsunabhängige Verfügbarkeit der Inhalte. Für die kollaborative Bearbeitung bei verteilten Forscher- und Studierendengruppen ist dies ein basaler, aber wichtiger Faktor.
Wenn ein Clip mit der Annotationssoftware bearbeitet ist (was aber natürlich nie als ›abgeschlossen‹ betrachtet werden kann) und er für eine spätere Weiterbearbeitung unter einem neuen Aspekt angesehen wird, dann sind die Referenzen an der entsprechenden Stelle im Clip zu finden, ohne dass die entscheidenden Passagen wieder aus einem Text zusammengesucht werden müssen.
Dadurch ist auch für Nichtkenner ein exploratives Sehen des Clips möglich, da sie an den entscheidenden Punkten auf die Bezüge hingewiesen werden, nach denen sie nicht recherchieren konnten, weil sie schlicht nichts davon wussten.
Daneben ist sicherlich aber das Arbeiten im Clip selbst der wichtigste Punkt wissenschaftlicher Auseinandersetzung. Die Bezüge zu bewegten Einheiten, zu Filmausschnitten und nicht nur zu Stills setzen zu können, entspricht dem Medium und bietet die Möglichkeit, sozusagen ›in Film zu denken‹ und zu arbeiten.
Bei der Beschäftigung mit Pan.do/ra konnten eine Reihe von Punkten identifiziert werden, um die das System noch erweitert werden muss, um Musikvideos in ihrem medienübergreifenden Kontext befriedigend analysieren zu können.
Als Beispiele seien hier nur die folgenden genannt:
Wie eingangs gezeigt, stellt sich dieser Forschungsbereich durch seine enge Verbindung von Bild-, Text- und Musik/Audio-Schichten bisher im Hinblick auf Informationsverwaltung und Visualisierung des komplexen Bezugsystems als Problemfall dar, und es erweist sich als Glücksfall, dass im Rahmen des Heidelberger DFG-Projekts Zur ästhetischen Umsetzung von Musikvideos im Kontext von Handhelds (Laufzeit: 2011–13) ein möglicher Weg aufgezeigt werden konnte, gemeinsam mit den Kollegen vom Heidelberg Research Architecture an ähnlichen Fragestellungen zu arbeiten.
Die Heidelberg Research Architecture, kurz HRA, ist die Digital Humanities Unit am Exzellenzcluster Asien und Europa im Globalen Kontext der Universität Heidelberg. Zum Kerngeschäft der HRA gehört die Entwicklung des modularen Metadatenframeworks Tamboti. Es ermöglicht das gemeinsame Sammeln, Organisieren und Annotieren von digitalisiertem Forschungsmaterial (Text, Bild, Video, Audio). Das System erlaubt das Teilen der Daten und Metadaten innerhalb von Gruppen, von Forschungsgruppen bis hin zu einer weltweiten Veröffentlichung. Dabei setzt die HRA auf eine Kombination hochdeskriptiver internationaler Metadatenstandards (derzeit MODS, TEI und VRA Core) mit einem hohen Anteil kontrollierter multilingualer Vokabulare (wie die Getty Thesauri oder das Virtual International Authority File) und einer modularen Systemarchitektur, die das nachhaltige Erfassen und Annotieren multilingualer Metadaten nach wissenschaftlichen Standards erlaubt.
Tamboti ist für eine Kooperation auf Universitätsebene und darüber hinaus ausgelegt, wobei Kooperationen im Sinne einer gemeinsam nutzbaren Infrastruktur verstanden wird. Mit Tamboti entwickelt die HRA eine auf dem XML-Datenbanksystem eXist-db basierende Open Source-Lösung. Tamboti ist als Application für eXist-db weltweit frei nutz- und erweiterbar. Die HRA arbeitet derzeit an zusätzlichen Applikationen (Bildmodul Ziziphus und das Wiki-Modul), die Tamboti um weitere Funktionsbereiche modular erweitern.
Eine größere Nutzergruppe im Exzellenzcluster setzt in der Forschung auf die Arbeit an und mit visuellen Medien, daher liegt hier ein Schwerpunkt der Entwicklungen der HRA. Dabei wurde bereits während der ersten Förderphase des Exzellenzclusters auf die Kombination vorhandener Softwarelösungen mit Eigenentwicklungen gesetzt.
Im Bereich der kollaborativen Videoannotation hat die HRA bereits in der
ersten Förderphase des Exzellenzclusters (2007–2012) in mehreren
Projekten Erfahrungen sammeln können. Nach einer Bedarfsanalyse und
Tests unterschiedlicher frei zugänglicher Softwarelösungen zur
Videoannotation fiel die Wahl auf pad.ma, die von einem freien Entwicklerteam
Ausschlaggebend für die Wahl von pad.ma war, dass sie es damals als
einzige uns bekannte Software erlaubte, beliebige Sequenzen innerhalb
eines Videos mit mehreren Nutzern gleichzeitig zu annotieren. Zudem
verfügt sie über eine ausreichende Nutzer- und Rechteverwaltung und kann
mit ihrer einfachen Handhabung mehrerer unterschiedlicher
Annotationsspuren überzeugen. Der Funktionsumfang ist in der
Zwischenzeit, auch vorangetrieben durch gezielte Investitionen der HRA,
deutlich gewachsen und in die ebenfalls als Open Source-Software
veröffentlichte Nachfolgeversion Pan.do/ra eingeflossen. So wurden
beispielsweise eine LDAP-Authentifizierung integriert sowie
mehrsprachige Audio- und Annotationsspuren implementiert. Zeitbasierte
Annotationen können im .srt und JSON Format im- und exportiert werden.
Das erlaubt es zum Beispiel, Audiotranskriptionen in Tools wie Speedtrans
Für Annotationen stehen in Pan.do/ra unterschiedliche Spuren oder Layer zur Verfügung. So können beispielsweise Annotationen vom Typ ›Subtitle‹ direkt in den Film eingeblendet oder Annotationen vom Typ ›Location‹ auf einem Karteninterface dargestellt werden. Es wird festgehalten, welcher Nutzer oder welche Nutzerin wann welche Annotationen hinzugefügt hat und es ist möglich, die Anzeige von Annotationen nach Autor bzw. Autorin zu filtern – eine Funktion, die sich nicht nur während des Einsatzes im Unterricht bewährt hat.
In den Annotationen ist es grundsätzlich möglich Markup zu verwenden. Die
bereits unterstützten HTML5-Tags erlauben Textformatierungen sowie das
Einfügen von Hyperlinks und eröffnen auch die interessante Option,
Bilder direkt in Annotationen einzubinden (vgl. die Beispiele im ersten
Teil). Da sämtliche Annotationen mit URLs versehen sind, lassen sich
bequem Szenen in einem oder mehreren Filmen verlinken. Ebenso können
Verweise auf einzelne Annotationen von externen Websites gesetzt werden.
Dank der Möglichkeit, auch Suchen über eine URL auszulösen, können
Anwender beispielsweise sämtliche Stellen im Film aufrufen, die mit
demselben Keyword annotiert wurden.
Mit dem im Frontend für jede Annotation bereitgestellten embed code können darüber hinaus ohne großen
Aufwand Filme oder ›Filmschnipsel‹ in andere Webseiten eingebunden
werden. Am Exzellenzcluster wird diese Funktion beispielsweise im Open
Access e-Journal
Die Nutzung von embed codes ist nur eine
Möglichkeit aus anderen Webseiten heraus auf Daten in Pan.do/ra
zuzugreifen. Per API stellt Pan.do/ra eine ganze Reihe von Funktionen
für die Anbindung an andere Webapplikationen zur Verfügung.
Im akademischen Bereich wird die Software am Exzellenzcluster Asien und
Europa seit 2010 in unterschiedlichen Projekten und Fachbereichen in
Forschung und Lehre eingesetzt. Zusätzlich zu dem in diesem Artikel
ausführlich beschriebenen Projekt sei noch das öffentlich zugängliche
Global Politics on Screen-Projekt von Madeleine Herren-Oesch et al.
erwähnt.
Die im Rahmen des Heidelberger Projekts vorgenommene Untersuchung des Films konzentriert sich auf eine vermutlich unveröffentlichte Version mit englischen Texttafeln, die eine frühe Fassung des Filmmaterials mit dem Charakter eines Rohschnitts zeigt. Bei der ersten Durchsicht des Filmmaterials waren noch vielen Fragen offen. Es war lediglich klar, dass es sich um ein filmisches Dokument zur Lord Lytton Mission handelte. Sowohl Auftraggeber als auch das anvisierte Zielpublikum waren zunächst nicht bekannt. Mit Hilfe von Pan.do/ra konnte die HRA dem Projekt ein Werkzeug an die Hand geben, diesen und anderen offenen Fragen nachzugehen.
In der ersten Arbeitsphase wurde Pan.do/ra genutzt, um subjektive Auffälligkeiten und Besonderheiten im Film zu finden, zu markieren und zu kommentieren. In den nächsten Phasen hat sich dann das Team Schritt für Schritt dem Film immer stärker und systematisch angenähert. So wurden sämtliche englische Texttafeln transkribiert und dann nach Querverweisen zu Dokumenten in Archiven gesucht. Im Japan Center for Asian Historical Records wurden mehrere Dokumente mit unterschiedlichen Sprachversionen und in unterschiedlicher Reihenfolge der Texttafeln gefunden.
Da es sich um einen Stummfilm handelt, wurde sämtlichem geschriebenen Text im Film schnell dieselbe Aufmerksamkeit zu Teil wie den Texttafeln. Im Film gezeigte Schriftzüge auf Bannern, Hinweisschildern oder ähnlichem wurden transkribiert und wo nötig ins Englische übersetzt. Dabei hat es sich als sehr vorteilhaft herausgestellt, dass Übersetzungen sofort bei Eingabe in die Datenbank für alle Projektmitglieder zur Verfügung standen. Die Banner, die an vielen Stellen im Film den Weg der Kommission begleiten, wirken im Film oft wie Untertitel, die sich je nach verwendeter Sprache an ein unterschiedliches Publikum wenden. Oft stellt sich die Frage, ob die Kommission, das Publikum vor Ort oder das Publikum vor der Leinwand angesprochen werden soll.
Durch das Transkribieren wurde den Projektteilnehmern, die sonst wenig mit Stummfilmen in Berührung gekommen waren, der Stellenwert von geschriebenem Text im Stummfilm deutlich vor Augen geführt. Hinweise, die man ohne die gezielte Verschriftlichung mit den heutigen Sehgewohnheiten vielleicht einfach übersehen hätte, wurden so relevant. Als Beispiel sei hier eine Szene in einem Hafen (vermutlich Dairen) angeführt. In einem Kameraschwenk wird gezeigt, wie ein Schiff entladen wird. Dabei ist beiläufig für ca. 3 Sekunden ein Schild, das den Hersteller des Krans identifiziert, zu sehen. Zeit genug, um für einen zeitgenössischen Betrachter aus europäischen Diplomatenkreisen zu bemerken, dass es sich um einen Kran der Demag AG aus Duisburg handelt. Der Rückschluss, dass Japan mit der Besetzung der Mandschurei auch für Sicherheit und Stabilität von Großkunden deutscher Unternehmen sorgt, bleibt den informierten Betrachtern überlassen.
Im weiteren Verlauf des Projekts wurden noch zusätzliche Annotationsebenen verwendet. Mit den Annotationen vom Typ ›Location‹ konnten die gezeigten Schauplätze im Film nachgezeichnet werden und mit Karten aus dem Kommissionsreport verglichen werden (vgl. Abbildung 11 ).
Zur thematischen Aufarbeitung wurden häufig wiederkehrende Argumentationsmuster und Themen des Films mit Keywords versehen. Eines der übergeordneten Ziele des Filmes ist es beispielsweise, den Einmarsch japanischer Truppen in die Mandschurei zu legitimieren. Ein Legitimationsgrund, der immer wieder aufgeführt wird, ist die Zerstörung wichtiger Eisenbahnbrücken durch Anschläge sogenannter ›Soldier-Bandits‹. Heute geht man davon aus, dass die Anschläge inszeniert waren, um einen Einmarsch vor der Weltöffentlichkeit zu rechtfertigen.
Ebenfalls mit Keywords versehen wurden die Auftritte bestimmter Kommissionsmitglieder im Film. Dabei wurden lediglich die Auftritte von Lord Lytton und des deutschen Abgesandte Heinrich Schnee über die gesamte Länge des Films transkribiert. Das manuelle Suchen und Markieren hat sich jedoch als sehr zeitaufwändig und nur bedingt aussagekräftig herausgestellt. Um tatsächlich sinnvolle und quantitativ belegbare Aussagen darüber machen zu können, wer wann wie oft und mit wem zusammen gezeigt wird, wäre eine komplette Erfassung aller Gruppenmitglieder nötig. Der dazu nötige Aufwand stand im Rahmen des Projektbudgets aber in keinem vernünftigen Verhältnis zum möglichen Erkenntnisgewinn. Hier wäre eine (semi-)automatisierte Lösung wünschenswert.
Im November 2013 und April 2014 wurde eine größere, ergebnisoffene Recherche der aktuell verfügbaren Anwendungen im Bereich Videodatenbanken und -annotation durchgeführt. Ziel war es, einen genaueren Überblick über den Stand der Entwicklungen auf diesem Gebiet zu erhalten. Darüber hinaus sollte auch geprüft werden, ob neuere oder eventuell für den Einsatz am Exzellenzcluster besser geeignete Lösungen entwickelt wurden, um gegebenenfalls darauf umzusteigen. Die Recherche gestaltete sich schwieriger als erwartet. Die Informationen waren weit verstreut und nur wenige Zusammenstellungen von Tools für Videoanalyse oder Videoannotation bis dato veröffentlicht (vgl. Liste von Video-Annotationssystemen).
Vielversprechend schienen die Einträge in der ›Digital Research Tools‹
(DIRT) Datenbank des Project Bamboo, doch waren sie leider nur bedingt
hilfreich. Zum einen waren viele Einträge veraltet und die Liste sehr
unvollständig. Auch war es zwar möglich, die Einträge nach Tags zu
browsen, doch schon eine kombinierte Suche beispielsweise nach ›video‹
und ›annotation‹ war nicht möglich. Die 24
Einträge beim Tag ›video‹ waren sehr divers und enthielten selbst
Bilddatenbanken (Flickr) oder Screen recording Tools (Screenr). Nur 6
Einträge in ›video‹ waren auch mit ›annotation‹ getagged (Advene,
Annotator’s Workbench, ELAN, Project Pad, Vertov, VideoANT). Darüber
hinaus waren die Einträge zwar annotiert, die Inhalte aber meist den
Selbstdarstellungen der Webseiten entnommen.
Um die Verlässlichkeit der Informationen und deren Potential als
Entscheidungshilfe auf der Suche nach einer geeigneten Software war es
auf der ›Video‹-Seite der ›Annotations at Harvard‹ besser bestellt. Die
dort veröffentlichte Liste war zwar mit 18 Einträgen auch überschaubar
und die Inhalte stammen aus dem Jahr 2010, aber die Zusammenstellung war
inhaltlich deutlich fokussierter und die Anmerkungen oft nicht einfach
nur wörtlich von der Website kopiert.
Interessant war auch festzustellen, dass das Thema Annotation auch bei
Online Guides ausgelassen wurde, so beispielsweise zu beobachten beim
ansonsten vorbildlich zusammengestellten ›Activists Guide to Archiving
Video‹.
Auflistungen in den Buchpublikationen waren hingegen inhaltlich sehr eng gefasst und beschränkten sich auf wenige Tools aus den Bereichen qualitativer Datenanalyse (QDA) bzw. Broadcast Video. Auch lag der Zeitpunkt der Zusammenstellung meist mehrere Jahre vor dem Publikationsdatum. Die folgende Liste zeigt eine Auswahl veröffentlichter Zusammenstellungen von Video-Annotationssystemen:
Neben der Verstreutheit der Informationen wurde während der Recherchen
sehr schnell deutlich, dass Analyse und Annotation von Videos in sehr
vielen Bereichen und mit sehr unterschiedlichen Zielsetzungen eingesetzt
werden. So gibt es Anwendungen
Alle Tools bieten im weiteren Sinne Annotationen an. Viele fanden dabei auch elegante - aber eben doch bereichsspezifische Lösungen. Keins deckt alle Bereiche ab.
Es schien daher sinnvoll, die Ergebnisse der eigenen Recherchen zu
systematisieren und einer breiteren Community zur Einsicht und Ergänzung
zur Verfügung zu stellen. Darüber hinaus sollten in der Zusammenstellung
auch inhaltliche Kriterien erfasst werden, die es Lesern erleichtern,
auf der Suche nach einer für sie geeigneten Software eigene
Entscheidungen zu treffen. Dazu wurde auch erfasst, ob ein Tool noch
aktiv entwickelt wird, ob der Sourcecode veröffentlicht wurde und ob es
frei benutzbar ist. Weiterhin war für uns relevant, ob es sich um ein
online Tool handelt, es kollaborativ nutzbar ist und ob es potentiell in
andere Datenbanken integriert werden kann. Es wurden auch (sehr grobe)
Kategorien vergeben, um die jeweilige ›Zielgruppe‹ festzuhalten,
beispielsweise ›filmstudies‹, ›linguistic‹ oder ›video platform‹.
Schließlich wurde auch erfasst, welche Personen oder Institutionen die
Entwickler sind und ein kurzer Beschreibungstext aus den online
Informationen entnommen. In den etwa fünf Monaten unterschiedlich
intensiver Recherchen kamen so knapp 60 Einträge zusammen. Das Dokument
ist auf Google Docs veröffentlicht und kann von jedem Nutzer eingesehen,
ergänzt und bearbeitet werden.
Bei den Recherchen kamen auch Ressourcen zum Vorschein, in denen
Anforderungen für Videoannotationssysteme formuliert werden. Hier sind
insbesondere die im Rahmen des Harvard Annotation Projektes
zusammengestellten ›Requirements of a Video Annotation System‹
Ein solches Annotationssystem sollte lokal oder online verfügbar sein und
auf offene Datenstandards setzen. Dabei sollte das Interface erlauben,
Videos insgesamt oder in Teilen zu annotieren und Bilder oder andere
Videos neben der Visualisierung der Soundspur als Overlays möglich sowie
gesprochener Text automatisch als ›baseline annotation‹ verfügbar sein.
Außerdem sollten Marker im Bild gesetzt werden können und ihr Aussehen
anpassbar sein, wobei einfache geometrische Flächen, Linien und Polygone
ebenso erwünscht wären wie kurze, in Farbe, Füllung, Strichstärke usw.
anpassbare und möglichst mit der Zoomstufe mitskalierende
Text-Tags.
Viele dieser Anforderungen stimmen mit den Wünschen der Nutzer am
Exzellenzcluster Asien und Europa überein. Während die Videoannotationen
durch die Funktionalitäten in Pan.do/ra gut abgedeckt sind, ist
besonders spannend, wie nah viele der weiterführenden Punkte den bereits
im Moment verfügbaren Features der ebenfalls im Cluster eingesetzten
virtuellen Forschungs- und Publikationsumgebung HyperImage und dessen
durch semantische Annotationen erweiterten Nachfolgers Yenda
kommen.
Ein Bericht über den Weg der Technischen Informationsbibliothek (TIB) von
einer Bedarfsanalyse hin zum im Frühjahr 2014 gemeinsam mit dem
Hasso-Plattner-Institut für Softwaresystemtechnik an der Universität
Potsdam (HPI) eröffneten AV-Portal, einer webbasierten Plattform für
audiovisuelle Medien, wurde von Margret Plank auf der LIBER Konferenz
2012 vorgestellt und auf dem LIBER-Blog veröffentlicht.
Das AV-Portal ist allerdings nicht für den Einsatz im Forschungsalltag
von Geisteswissenschaftlern konzipiert, sondern »optimiert den Zugang zu
und die Nutzung von wissenschaftlichen Filmen aus Technik und
Naturwissenschaften, wie z.B. Computeranimationen, Vorlesungs- und
Konferenzaufzeichnungen.«
Um die in der Datenbank enthaltenen Annotationen der Wissenschaftler über
das zentrale Suchinterface in Tamboti verfügbar zu machen wurde als
›Proof-of-concept‹ bereits eine Anbindung der Metadaten implementiert.
Dabei werden die Metadaten aus der entsprechenden .srt-Spur als
<relatedItem>
in den MODS Eintrag des Videos
integriert. Der Inhalt der Annotation wird im Subelement
<note>
und die Zeitspanne in
<part>
ausgegeben. Dies ist eine Lösung, die für
Objektmetadaten inklusive Untertiteln noch sinnvoll erscheint, bei
gleichzeitigem mapping von Nutzerannotationen nach MODS aber zu einer
Überfrachtung des Eintrags führt. Hier ist in Zukunft eine Trennung von
Objektmetadaten (MODS) und Annotation (OADM)
Dank dieser Erweiterung des Metadatenframeworks ist es möglich, in Tamboti parallel in Metadaten und Annotationen von Videos, Bildern, Texten und bibliographischen Datensätzen zu suchen.
Es gibt noch eine ganze Reihe von Features, die für unterschiedliche
Anwendungsszenarien in Forschung und Lehre wünschenswert
erscheinen.
Was die Weiterentwicklung im Rahmen des Exzellenzclusters angeht, so stehen die Einbindung kontrollierter Vokabulare für Schlagworte und Personen sowie die dynamische Anbindung an das Metadatenframework Tamboti auf der Agenda. Ebenso soll beim Datenaustausch zwischen Videoobjekt-Metadaten (z.B. als MODS Repräsentation) und Nutzerannotationen (im Open Data Annotation Model) unterschieden werden, auch um eine Überfrachtung der Objektmetadaten zu vermeiden.
Die Vorstellung des Projekts und der Austausch mit den Kollegen auf der
DHd 2014 in Passau erwies sich als überaus fruchtbar. Fabian Cremer
beschrieb das Projekt in seinem DHd-Blogbeitrag als »idealtypisch« und
»nicht nur leichtgängiger sondern auch nachhaltiger«.Annotation von digitalen Medien im
Heidelberger Karl Jaspers Centre mit Teilnehmern verschiedener
Fachdisziplinen aus Berlin, Darmstadt, Essen, Heidelberg und Rom. Research Annotations statt.