Header

Suche

DAVALab – Digital Audio-Visual Annotation Lab

Das Digital Audio-Visual Annotation Lab (DAVALab) entwickelt eine benutzerfreundliche, webbasierte Infrastruktur zur automatisierten Analyse von Text-, Sprach- und Videodaten. Forschende können Interviews, Gespräche oder audiovisuelle Aufnahmen hochladen und erhalten hochwertige Annotationen – darunter Transkriptionen, Sprecher:innensegmentierung, Gesichtsausdrucks- und Gestenerkennung sowie Sentiment- und Emotionsanalysen. Diese Ergebnisse werden in standardisierten Formaten geliefert und können für Forschung, Lehre oder öffentliche Kommunikation genutzt werden. Da das DAVA Lab als Webanwendung mit grafischer Benutzeroberfläche (GUI) an der Universität Zürich (UZH) gehostet wird, sind weder Programmierkenntnisse noch spezielle Hardware erforderlich.

Forschende aus verschiedenen Disziplinen – von Linguistik und Psychologie bis zu Medienwissenschaft und KI – können DAVA nutzen, um standardisierte, wiederverwendbare Datensätze für multimodale Forschung zu erzeugen. Die Plattform senkt technische Hürden und fördert die Prinzipien von FAIR Data, um komplexe audiovisuelle Analysen an der UZH und darüber hinaus zugänglich und nachhaltig zu gestalten.

DAVALab baut auf bestehenden Infrastrukturinitiativen auf:

Das Projekt wird von der DSI, LiRI und dem Institut für Computerlinguistik der Universität Zürich (UZH) unterstützt.



Projektlaufzeit: 01.09.2025 - 31.08.2027

Kontakt: Dr. Teodora Vuković



Projektteam

DAVALab wird von einem interdisziplinären Team aus Sprachwissenschaft, Computerlinguistik, Filmwissenschaft, Datenwissenschaft und weiteren Bereichen entwickelt: