Veröffentlicht am

Data Crunching für Texte aller Art – eine neue Dienstleistung an der Philosophischen Fakultät

Das neue Text Crunching Center (TCC) hilft bei Textanalysen und bei Fragen wie: Wie komme ich zu meinen Daten? Wie muss ich sie für meine Forschungsfrage aufbereiten, oder – welche Fragen kann ich an meine Daten stellen? Angesiedelt am Institut für Computerlinguistik und konzipiert als Dienstleistungszentrum – wir hören in diesem Beitrag, für wen das TCC gedacht ist und welche Dienstleistungen angeboten werden.

Bitte stellen Sie sich vor!

[Tilia Ellendorff, TE]: Mein Name ist Tilia Ellendorff. Ursprünglich habe ich Grundschullehramt mit den Fächern Englisch und Deutsch studiert an der Universität Paderborn. Anschliessend habe ich mich aber entschlossen, mich auf Linguistik und Computerlinguistik zu konzentrieren – zunächst mit einem Bachelor in Linguistik, dann mit einem Internationalen Masterstudium in Computerlinguistik in Wolverhampton (GB) und Faro (P), über Erasmus Mundus. Schliesslich bin ich für das Doktorat in Computerlinguistik nach Zürich gekommen. Mein Thema war Biomedical Text Mining – in meinem Projekt ging es darum, in medizinischen Publikationen die Beziehung zwischen ätiologischen, also auslösenden, Faktoren von psychiatrischen Erkrankungen zu extrahieren. Hier besteht nämlich das Problem, dass es unmöglich ist, die gesamte Literatur auf diesem Gebiet zu lesen. Es ist schwierig, so einen Überblick über alle Faktoren zu gewinnen. Ich habe dazu ein System gebaut, das dies unterstützt und automatisch aus den Texten extrahiert.

[Gerold Schneider, GS]: Ich habe Englische Literatur- und Sprachwissenschaft und Computerlinguistik an der Universität Zürich studiert. Während des Doktorats habe ich einen syntaktischen Parser für Englisch entwickelt. Es ist ein System, das eine syntaktische Analyse eines Texts liefert: Was ist das Subjekt, was das Objekt, welches die untergeordneten Sätze, etc. Mit der Anwendung dieses Tools bin ich schliesslich in das Gebiet des Text Minings gelangt. Zunächst habe ich das auch zu Fachliteratur im biomedizinischen Bereich angewendet. Die gleichen Methoden konnte ich später in weiteren Disziplinen verwenden, z.B. in Projekten mit dem Institut für Politikwissenschaft im NCCR Democracy zu Demokratieforschung, oder auch in einem Projekt zu Protestforschung. Dabei geht es ja nicht nur um eine Faktensammlung, sondern meist um Meinungen, Stimmungen oder Assoziationen, die aus den Medien extrahiert werden müssen: Gerade da braucht man statistische Methoden, mit logikbasierten stösst man nur auf Widersprüche. Somit sind auch die Methoden des maschinellen Lernens unerlässlich. Die Daten und Ergebnisse müssen zum Schluss aber auch interpretiert werden können – sonst nützt die Datensammlung nicht viel. Mein breiter Hintergrund ist hier sicher von Vorteil – ich sehe mich auch als Brückenbauer zwischen Disziplinen.

Vielen Dank für die Vorstellung – wie ist denn nun das Text Crunching Center entstanden?

[GS] Entstanden ist das Text Crunching Center dadurch, dass das Institut für Computerlinguistik bzw. Martin Volk inzwischen so viele Anfragen im Gebiet Text Mining und Textanalyse erhält, dass es nicht mehr länger möglich ist, diese alle selbst zu bearbeiten.
Das Text Crunching Center bietet in diesem Gebiet Dienstleistungen an: Bei allem, was mit Text Mining, Sentimentanalyse, Textanalyse im Allgemeinen – generell mit Methoden der Digital Humanities oder Machine Translation – zu tun hat, können wir Projekte unterstützen. Auch allgemeine Unterstützung für Digitalisierungsprozesse oder Textverarbeitung wie OCR, aber auch Beratung zu Tools, Software oder Best Practices bieten wir an. Wir helfen ebenfalls gerne beim Schreiben von Projektanträgen, geben Coaching und Unterricht in der Textanalyse, oder können fertige (Software-)Lösungen anbieten.
[TE] Wir sind die Ansprechpartner für alle, die in ihren Projekten mit viel Text umgehen müssen, das technische Knowhow aber nicht haben und nicht genau wissen, wo sie anfangen sollen. Man kann z.B. zu uns kommen, wenn man einfach Text vor sich hat und eine Idee braucht, was man damit mit der Maschine alles anfangen könnte.

Könnten Sie mir ein konkretes Beispiel einer Anfrage geben – wie muss man sich den Ablauf vorstellen, wenn man auf Sie zukommt?

[TE] Wenn z.B. jemand aus einem bestimmten Forschungsgebiet untersuchen möchte, was der öffentliche Diskurs zu einem Thema ist – nehmen wir mal das Thema «Ernährung». Dazu möchten sie dann gerne Social Media Daten auswerten, die technische Umsetzung ist gehört aber nicht zu ihrem Fachgebiet. In dem Fall kann man zu uns gelangen und wir beraten in einem ersten Schritt: Wir klären die Fragen, wie man überhaupt an Daten gelangen kann, was man mit den Daten machen könnte. Es kann so weit gehen, dass wir einen Prototypen erstellen, mit dem sie dann direkt ihre Daten auswerten und Forschungsergebnisse erhalten können.

Welche konkreten Möglichkeiten würden Sie in den Personen in diesem Beispiel vorschlagen und wie würden sie es umsetzen?

[GS] In diesem konkreten Beispiel haben wir Twitter-Daten mit Hilfe von Text Mining gesammelt und ein Coaching angeboten. Die R Skripts haben wir ebenfalls geschrieben, die Personen aber zusätzlich so weit gecoacht, dass sie diese schliesslich selbst anwenden konnten. Die über das Text Mining erhaltenen Daten werden mit den Skripts exploriert und verschiedene Outputs generiert. Dabei haben wir «klassische» Digital Humanities Methoden angewendet wie z.B. Distributionelle Semantik, Topic Modeling, oder auch analysiert, wie in den Tweets bestimmte linguistische Merkmale gebraucht werden.
[TE] Es kommt immer auf die Kunden darauf an: In diesem Beispiel wollten die Kunden die Anwendung gerne selber lernen. Wenn sie dafür aber keine Zeit oder kein Interesse daran gehabt hätten, hätten wir auch alles selbst implementieren können: Also das fertige System oder die aufbereiteten Daten.
[GS] Ein Produkt, das dabei entstanden ist, ist eine «konzeptuelle Karte» von Bier, Cidre und Wein. Es ist eine semantische Karte, in der ähnliche Konzepte näher beieinander liegen als Konzepte, die inhaltlich weiter voneinander entfernt sind. Rund um den Cidre liegen beispielsweise die Begriffe «Äpfel», «Jahreszeit», «Wärme» usw. Man sieht auch, dass die Essenskultur mit «dinner», «cooking», etc. viel näher am Konzept «Wein» liegt als bei «Bier» oder «Cidre». Solche automatisch erstellten Karten vereinfachen stark, sind aber anschaulich und gut interpretierbar, deshalb zeigen wir sie als ein Beispiel unter vielen.

Eine ähnliche Karte etwa entstand in einem anderen Projekt aufgrund von Daten ausgewählter Reden von Barack Obama und Donald Trump. Barack Obama spricht etwa mehr von «opportunity» oder «education», während Donald Trump davon eher weiter weg ist und eher über China und Deals spricht, und wer ihm alle angerufen haben. «Peace and Prosperity» als Vision versprechen natürlich beide.

Nun rein technisch gefragt – wie entsteht so eine konzeptuelle Karte? Die Verbindungen stellen die Distanzen zwischen den Konzepten dar, nehme ich an – mit welcher Methode bestimmen Sie denn die Ähnlichkeiten?

[GS] Es handelt sich um eine Methode der distributionellen Semantik: Man lernt aus dem Kontext. D.h. dass Wörter, die einen ähnlichen Kontext haben, auch semantisch ähnlich sind. Gerade bei grossen Textmengen führt so ein Ansatz zu guten Ergebnissen. Es gibt da verschiedene Methoden, um dies zu bestimmen – gemeinsam ist ihnen jedoch der kontextuelle Ansatz.
In diesem konkreten Beispiel wurde mit Kernel Density Estimation gearbeitet. Man zerlegt dafür den Korpus zunächst in kleine Teile – hier waren es etwas 2000. Für jedes Wort prüft man dann, wie das gemeinsame Auftreten in den 2000 «Teilen» ist. Wörter, die sehr häufig miteinander auftreten, kommen dann das Modell. Dabei werden nicht die absoluten Zahlen verwendet, sondern Kernel-Funktionen gleichen die Zahlen etwas aus. Daraus kann schliesslich die Distanz zwischen den einzelnen Konzepten berechnet werden. In diesem Prozess entsteht ein sehr hochdimensionales Gebäude, das für die Visualisierung auf 2D reduziert werden muss, um es plotten zu können. Da dies immer eine Vereinfachung und Approximierung ist, braucht es immer die Interpretation.

Wie wichtig ist es für Ihre Aufgabe, dass Sie einen breiten disziplinären Hintergrund haben?

[TE] Man darf nicht denken, dass die Texttechnologie das «Wunderheilmittel» für alle Probleme ist. In einer Beratung geben wir immer eine realistische Einschätzung darüber ab, was möglich ist und was nicht.
Daher ist die Frage sehr relevant. Man muss einen gemeinsamen Weg zwischen der computerlinguistischen und der inhaltlichen Seite finden. Es ist wichtig, dass wir beide durch unseren Werdegang viele Disziplinen abdecken und schon in vielen verschiedenen Bereichen mitgearbeitet haben.
Gerade in einem Projekt aus der Biomedizin, in dem es darum ging, welche Auswirkungen bestimmte Chemikalien auf gewisse Proteine haben, hat mein biologisches Wissen aus dem Biologie-Leistungskurs und einem Semester Studium sehr geholfen. Als Laie würde man diese Texte überhaupt nicht verstehen, deshalb könnte man auch keine geeignete Analyse entwerfen. Insbesondere auch auf der Ebene der Fehleranalyse ist das Disziplinen-Wissen wichtig: Möchte man herausfinden, warum das entwickelte System in manchen Fällen nicht funktioniert hat, hat man ohne disziplinäres Wissen wenig Chancen.
Deshalb ist es wichtig, dass wir realistische Einschätzungen darüber abgeben können, was umsetzbar ist – manche Fragen sind aus computerlinguistischer Sicht schlicht nicht auf die Schnelle implementierbar.
[GS] Dennoch können oft neue Einsichten generiert werden, oder auch nur die Bestätigung der eigenen Hypothesen aus einer neuen Perspektive… Die datengetriebenen Ansätze ermöglichen auch eine neue Art der Exploration: Man überprüft nicht nur eine gegebene Hypothese, sondern kann aus der Datenanalyse neue Hypothesen generieren, indem man Strukturen und Muster in den Daten erkennt.
Hier hat sich bei mir ein Kreis geschlossen: Aus der Literaturwissenschaft kenne ich das explorative Vorgehen sehr gut. Dagegen ist ein rein computerlinguistisches Vorgehen schon sehr anders. Mit Ansätzen der Digital Humanities kommt nun wieder etwas Spielerisches in die Technologie zurück. Die Verbindung von beidem erlaubt einen holistischeren Blick auf die Daten.

Wie würden Sie denn Digital Humanities beschreiben?

[GS] Es ist wirklich die Kombination der beiden Ansätze: «Humanities» kann man durchaus wortwörtlich nehmen. Gerade in der Linguistik ist damit auch ein Traum wahr geworden, wenn man an Ferdinand de Saussures Definition von Bedeutung denkt. «La différence», die Bedeutung, ergibt sich nicht daraus, was etwas «ist», sondern was es im Zusammenhang, im Ähnlich-Sein, im «Nicht-genau-gleich-sein» mit anderen Dingen ist. In der Literaturwissenschaft wird dieser Umstand in der Dekonstruktion mit der «différance» von Jacques Derrida wieder aufgenommen. Die distributionale Semantik hat genau das berechenbar gemacht. Es ist zwar einerseits sehr mathematisch, andererseits ist für mich dieser spielerische Zugang sehr wichtig.
Die genaue philosophische Definition von Digital Humanities ist für mich dagegen nicht so wichtig: Doch die Möglichkeiten, die sich mit den digitalen Methoden ergeben – die sind toll und so viel besser geworden.
[TE] Die Humanities, die bisher vielleicht noch nicht so digital unterwegs waren, geraten momentan auch etwas unter Druck, etwas Digitales zu benutzen…

Mein Eindruck war bisher nicht nur der eines «Müssens», sondern auch eines «Wollens» – doch der Einstieg in die Methodik ist einfach sehr schwierig, die Schwelle sehr hoch.

[TE] … und gerade hier können wir einen sehr sanften Einstieg mit unseren Beratungen bieten: Wenn jemand noch gar keine Erfahrung hat, aber ein gewisses Interesse vorhanden ist. So muss niemand Angst vor der Technologie haben – wir begleiten das Projekt und machen es für die Kunden verständlich.
[GS] Aber auch Kunden, die schon ein Vorwissen haben und bereits etwas programmieren können, können wir immer weiterhelfen…

Gilt Ihr Angebot nur für Lehrende und Forschende oder auch für Studierende?

[TE] Das Angebot gilt für alle, auch für externe Firmen. Für wissenschaftliche Projekte haben wir aber natürlich andere, günstigere Tarife.
[GS] Die Services werden zum Selbstkostenpreis angeboten. Ein Brainstorming, d.h. ein Einstiegsgespräch können wir sogar kostenlos anbieten. Auch für die anschliessende Beratungs- oder Entwicklungsarbeit verlangen wir keine überteuerten Preise. Für unser Weiterbestehen müssen wir allerdings eine gewisse Eigenfinanzierung erreichen.

Wo soll das Text Crunching Center in einigen Jahren stehen?

[TE] Natürlich möchten wir personell noch wachsen können… Wir bilden uns dauernd weiter, um state-of-the-art-Technologien anbieten zu können. Die Qualität der Beratung soll sehr hoch sein – das wünschen wir uns.
[GS] … und wir wollen die digitale Revolution unterstützen, Workshops anbieten, das Zusammenarbeiten mit dem LiRI oder mit Einzeldisziplinen verstärken. Letztlich können alle von der Zusammenarbeit profitieren, indem man voneinander lernt und Best Practices und Standardabläufe für gewisse Fragestellungen entwickelt. Auch die Vernetzung ist ein wichtiger Aspekt – wir können helfen, für ein bestimmtes Thema die richtigen Experten hier an der UZH zu finden.

Ich drücke Ihnen die Daumen! Vielen Dank für Ihr Gespräch!

Links:

Text Crunching Center: https://www.cl.uzh.ch/en/TCC.html
Ein Anwendungsbeispiel aus Projekten des TCC: https://www.cl.uzh.ch/en/TCC/Teasers.html
Openbook zu Statistik für Linguisten (Gerold Schneider und Max Lauber): https://dlf.uzh.ch/openbooks/statisticsforlinguists/
Ferdinand de Saussure: https://de.wikipedia.org/wiki/Ferdinand_de_Saussure
Jacques Derrida: https://de.wikipedia.org/wiki/Jacques_Derrida
Kernel Density Estimation: https://de.wikipedia.org/wiki/Kerndichteschätzer
NCCR Democracy: http://pwinfsdw.uzh.ch/
LiRi: https://www.liri.uzh.ch/en.html

Off Topic:

Ein eigenes Openbook bei Digitale Lehre und Forschung publizieren: https://dlf.uzh.ch/openbooks/erste-schritte/

Veröffentlicht am

Freier Zugang zu Wissen – durch Digitalisate

Digitalisierte Karten mit Ad Fontes und Digital Mappa – Karten und Lernwege für die Lehre. In diesem Beitrag unserer Reihe zu «Digital Humanities an der Philosophischen Fakultät» stellen uns Judith Vitale, Privatdozentin am Historischen Seminar, und Nobutake Kamiya, wissenschaftlicher Bibliothekar am Asien-Orient-Institut, ihr Lehrprojekt mit Ad Fontes und Digital Mappa vor. In der Reihe geben Lehrende und Forschende der PhF uns einen Einblick in Forschungsprojekte und Methoden «ihrer» Digital Humanities und zeigen uns, welche Technologien in ihrer Disziplin zum Einsatz kommen. Wir diskutieren den Begriff «Digital Humanities» von ganz verschiedenen Perspektiven aus.

Bitte stellt Euch vor, Judith Vitale und Nobutake Kamiya!

[Judith Vitale, im Folgenden JV] Ich bin Privatdozentin am Historischen Seminar und unterrichte Geschichte der Neuzeit. Da ich zu japanischer Geschichte forsche, habe ich Nobutake Kamiya von der Japanischen Bibliothek des Asien-Orient-Instituts kennen gelernt – er ist immer sehr hilfsbereit, wenn es um japanische Bücher geht. Aus dieser Bekanntschaft hat sich ein gemeinsames E-Learning Projekt entwickelt, das wir später noch vorstellen werden.
[Nobutake Kamiya, im Folgenden NK] Ich bin wissenschaftlicher Bibliothekar in der Bibliothek des Asien-Orient-Instituts und habe Judith – wie schon gesagt – durch ihr Forschungsgebiet kennengelernt. Ich interessiere mich sehr für Digitales – die Bibliothek bekommt auch zunehmend digitale Materialien.

Was für digitale Materialien habt Ihr in der Bibliothek?

[NK] Wir haben z.B. Karten aus der Edo- und Meiji-Zeit, Flyers aus dem 2. Weltkrieg und weitere alte Materialien, die wir in der Bibliothek lange behalten möchten. Ein Teil dieser Materialien, Karten und Flyer, sind zuerst zum Zweck der Langzeitarchivierung digitalisiert. Die digitalisierten Flyers sind über den Bibliothekskatalog zugänglich. Die digitalisierten Karten habe ich mit IIIF Standard online zur Verfügung gestellt. Wir haben aber nicht nur eigenen Bestand, sondern geben auch Zugriff auf Digitalisiertes im Internet, vieles stammt aus Japan. Einige Bibliotheken bieten digitalisierte Bilder oder Karten frei an – so werden diese Materialien ganz einfach zu benutzen.

Ein Digitalisat mit IIF Viewer der National Diet Library in Japan.

 

Was ist denn ein gemeinsames Projekt, wie seid Ihr auf die Idee gekommen, zusammen zu arbeiten?

[JV] Wie ich mich erinnere, erwähnte Nobutake, dass die Bibliothek alte japanische Karten besitze, die er in der Zentralbibliothek Zürich digitalisieren lassen hat. Dabei ging es darum, die Karten zu schützen und zu erhalten. Da der Bibliothekskatalog NEBIS aber nicht darauf ausgerichtet ist, Digitalisate im Internet zur Verfügung zu stellen, habe ich vorgeschlagen, diese Digitalisate in Ad Fontes als E-Learning Modul zu verwerten.

Ein Digitalisat, mit einem IIF Viewer publiziert von Nobutake Kamiya. Mit dem Viewer lässt sich weit in die Karte hineinzoomen.

 

Was ist Ad Fontes – kannst Du das den Leserinnen und Lesern vorstellen?

[JV] Ad Fontes wurde am Historischen Seminar entwickelt, mit Hilfe und Finanzierung von Digitale Lehre und Forschung (DLF). Man findet darauf Einführungen und Übungen zu europäischen Manuskripten, die als «Lernprogramm», Lernpfad durchgearbeitet werden können. Es geht darum, diese alten Urkunden oder Briefe lesen zu lernen, auch die Schriften.

Die digitalisierten Karten wollten wir nun auch auf Ad Fontes zur Verfügung stellen, so dass sie einerseits nicht nur Wissenschaftlerinnen und Wissenschaftlern zugänglich sind, sondern auch mehr Aufmerksamkeit erhalten. Wir haben die Karten in Leseübungen integriert, so dass auch Studierende damit in Berührung kommen können.

[NK] Andere Bibliotheken besitzen vielleicht die gleichen Drucke, diese sind aber noch nicht digitalisiert. In dem Sinne bieten wir hier eine seltene Dienstleistung, auch für die Öffentlichkeit, an. Es wäre schön gewesen, diese Digitalisate z.B. über e-rara, einer an der ETH Bibliothek angesiedelten Plattform, anzubieten, doch dazu wäre es nötig gewesen, dass die gesamte Institutsbibliothek des Asien-Orient-Instituts eine Mitgliedschaft beantragt, nicht nur eine einzelne Abteilung. Dies ist schliesslich, auch aus finanziellen Gründen, leider nicht zustande gekommen.

[JV] Ad Fontes ist nun ganz frei der Öffentlichkeit zugänglich, nicht an eine Immatrikulation an einer Universität gebunden. Man kann sich neben einem AAI Login auch als «einfache» Benutzerin registrieren und darauf zugreifen.

Eine Übung zur Datierung von Karten in Ad Fontes …

 

… mit der Lösung.

Ad Fontes wurde ja 2018 mit Hilfe von DLF Fördermitteln komplett neu programmiert und bietet erst seither die Möglichkeit, hochauflösendes Bildmaterial mit aufzunehmen. Ist auch die Integration des Kartenmaterials erst seither möglich?

[JV] Genau, wir haben gleich Ende 2018 auch bei Digitale Lehre und Forschung einen Förderantrag für die Umsetzung dieser Lerneinheit eingereicht und sie dann 2019 umgesetzt. Generell ist durch die Neuprogrammierung die Usability viel besser geworden, auch im Admin-Bereich, wo wir die Lerneinheiten zusammenstellen. Der zweite grosse Vorteil ist, dass man seither IIIF Bilder einbinden kann. [Anm. LC: IIIF Bilder sind Bilder, die nach Standards des International Image Interoperability Frameworks im Internet publiziert sind. Der IIIF Viewer macht es erst möglich, sehr hoch aufgelöste Bilder einzubinden und v.a. darzustellen. Mit diesem Viewer kann man sehr weit hinein zoomen und das Material in einem grossen Detaillierungsgrad betrachten.

Was machen die Studierenden nun konkret mit diesem Kartenmaterial, welche geisteswissenschaftlichen Methoden sollen sie anwenden?

[JV] Bei Ad Fontes geht es darum, eine Einführung in das Arbeiten mit historischen Quellen zu geben. Unsere Übung ist in gewisser Hinsicht einmalig, weil wir darauf aufmerksam machen, dass Quellen nicht nur in Archiven aufbewahrt werden, sondern häufig auch in Bibliotheken, häufig sogar als Leihmaterial. Natürlich geht es v.a. auch darum, den Umgang mit Karten als historischen Quellen zu lernen. Die Benutzer/-innen sollen lernen, diese zu betrachten, sie als Text-Bild-Symbol-Systeme zu erkennen: Einerseits kann man alte Schriftzeichen lesen lernen, andererseits auch eine kunsthistorische Perspektive kennenlernen. Welche Funktion haben ausserdem ornamentale Bilder in Karten? Auf der Ebene der Symbole soll man ein bisschen «historische/-r Geograph/-in» sein, indem man z.B. Schraffierungen oder Schifffahrtswege erkennen lernt.

In dieser Übung müssen z.B. Schiffe erkannt und markiert werden.

 

Die eigenen Markierungen werden angezeigt – ermöglicht wird dies durch das Tool Digital Mappa, das hier in Ad Fontes integriert ist.

 

[NK] Heute kann man schon vieles Kartenmaterial digitalisiert im Internet finden, es ist aber sehr zerstreut. Deshalb finde ich es gut, dass wir in Ad Fontes eine Quellensammlung erstellen konnten. Natürlich bringt das ein Copyright-Problem mit sich: Ich finde es wichtig, dass man lernt, Quellen zu finden, aber auch mit der Wiederverwendung der digitalen Medien richtig umzugehen. Das wird sicher in Zukunft noch wichtiger, und deshalb zeigen wir das auch in unserem Modul.

Ein Beispiel eines Tutoriums, das in ein Thema einführt.

 

Brauchen die Studierenden für diese Lerneinheit andere als «nur analoge» Kenntnisse, um sie nutzen zu können?

[JV] Wir sind dem klassischen Aufbau von Ad Fontes gefolgt, dieser enthält verschiedene Einheiten: Tutorials, die in die Geschichte der Karten einführen, dann die Ressourcen, d.h. eine Zusammenstellung einer Bibliographie und wichtigen Datenbanken. Ausserdem einen Übungsteil, in dem Fragen zu den Karten gestellt werden. In diesen Teilen benötigen die Studierenden keine speziellen technischen Kenntnisse. Ein Alleinstellungsmerkmal ist aber, dass wir Digital Mappa integrieren möchten: Das ist ein Quelleneditionstool, entwickelt von der University of Wisconsin, mit dem man alte Karten oder Manuskripte edieren kann.

[LC] Genau, ein Prototyp wurde bereits durch Digitale Lehre und Forschung auf einem eigenen Webserver für Digital Humanities Tools in Betrieb genommen, eine definitive Inbetriebnahme ist per Herbst 2020 geplant. Ein grosser Vorteil dieses Tools ist auch, dass man die Quellen annotieren und auch kollaborativ in Teams arbeiten kann.

Wie würdet ihr denn den Mehrwert beschreiben, den ihr durch die Digitalisierung erhaltet?

[NK] Zunächst einmal ist es schlicht möglich, das Material auch anzusehen – ortsunabhängig. Ausserdem schützt die Digitalisierung das Material, das sonst durch die Verwendung abgenutzt würde. Wenn man in den vorhandenen Tools gewandt ist, kann man die Quellen viel besser präsentieren, annotieren usw., d.h. die eigenen Forschungsergebnisse sehr attraktiv darstellen. Das Wissen wird so kostenlos und frei ins Allgemeinwissen eingeschlossen. Das sind für mich die grossen positiven Punkte. Man weiss dann, dass das Internet zum gemeinsamen Wissen beiträgt.

Wenn man das Kartenmaterial darüber hinaus auch noch mit Geodaten versehen kann, kann man die historischen Quellen zusammen mit anderem Kartenmaterial verknüpfen und darstellen. So gibt es auch viele neue Erkenntnisse.

[JV] Ich schliesse mich Nobutake an – noch vor wenigen Jahren wurde ich eher zufällig von Kolleginnen oder Kollegen über Quellen informiert, die z.B. in der British Library oder der Waseda Bibliothek in Tokyo vorhanden waren. Alle diese Quellen sind mittlerweile digitalisiert online verfügbar. Das Modul in Ad Fontes hätten wir noch vor wenigen Jahren nie so schnell zusammenstellen können, weil man früher tagelang vor Ort in die Bibliotheken gehen musste. Gerade in Japan sind sie mit Digitalisaten schon sehr weit und sehr grosszügig – sie sind meist frei zugänglich. Für mich ist das einer der grossen Vorteile der Digital Humanities.

Wie würdet ihr denn diesen Begriff beschreiben – Digital Humanities?

[NK] Das ist ein sehr breiter Begriff, muss ich sagen… Was die digitalen Karten angeht – die digitalen Karten wegen einer historischen Forschung zu bearbeiten, ist für mich schon ein Teil der Digital Humanities, weil man Digitalisate im Rahmen der Geisteswissenschaften verarbeitet. Karteninformationen verarbeitet man aber auch in den Naturwissenschaften, z.B. der Biologie… [lacht]  Die Be/Verarbeitung der digitalen Karten  gehört also nicht nur zu Digital Humanities, sondern sie gilt einfach als eine von vielen digitalen Kompetenzen, die auch für Geisteswissenschaft eingesetzt werden können.

[JV] Humanities sind Geisteswissenschaften und Digital heisst digital – für mich ist es also die Entwicklung der Geisteswissenschaften unter der digitalen Wende. Darunter fällt natürlich auch die Aufbereitung von Materialien als Digitalisate, so, dass sie aufbewahrt und zugänglich gemacht werden können. Ich persönlich gehe auch nicht weiter.

Aktuell werden viele neue Professuren für Digital Humanities geschaffen, mit der Hoffnung, dass man über den Schritt der Aufbewahrung hinausgehen kann. Auch die Georeferenzierung, die Nobutake angesprochen hat, ist ja bereits eine Art Interpretation bzw. eine neue Art, Karten zu analysieren, die man früher nicht hätte anwenden können. Oder auch «Thick Mapping», also der Versuch, historische Daten auf Karten einzuzeichnen, ebenso wenn man Netzwerke geografisch referenziert und darstellt. Ein anderes Beispiel ist die virtuelle Rekonstruktion von alten Stätten.

Die Frage ist dann, ist das wirklich eine neue Methode, führt das zu neuen Perspektiven und Fragestellungen?

Nobutake Kamiya und ich haben zusammen mit Tobias Hodel, der an der Universität Bern eine Professur für Digital Humanities innehat, ein neues Projekt zu Schweizer Geschichte in der Antragsphase. Wir werden auch auf Ad Fontes ein Modul zu Schweizer Geschichte aufbereiten. Das Neuartige wird sein, dass es sich an Sekundarschülerinnen und -schüler richtet und sie die Möglichkeit haben werden, dort eigene Projekte zu erarbeiten. Es soll eine Art «Bürgerwissen», Citizen Science, sein – die Schülerinnen und Schüler sollen vor Ort gehen und z.B. historische Namen mit den aktuellen vergleichen und auf Karten darstellen. Die andersartige Darstellung als in der klassischen Buchform soll hier zu neuen Perspektiven führen.

Ich bin da manchmal etwas skeptisch – gerade z.B. Big Data mag in gewissen Bereichen wie in den Naturwissenschaften funktionieren. Aber die Geschichtswissenschaft ist kein quantitatives Fach; es ist auch kein Fach, das auf ein Buch verzichten kann, es bleibt bei der Narration.

Es muss auch kein Entweder-Oder sein – es ist doch immer die Frage, was Digital Humanities sein sollen? Das Fachwissenschaftliche entfällt doch eigentlich nie …

Möchtet Ihr noch etwas ergänzen?

[NK]: Durch die Digitalisierung der Gesellschaft erhält man sehr viele Information im Internet. Wenn die Geisteswissenschaft ihre Erkenntnisse für die Gesellschaft öffnet, leistet sie schon einen Beitrag für die Gesellschaft. Aber abgesehen von dieser Bereicherung des frei zugänglichen Wissens werden die geisteswissenschaftlichen Fähigkeiten, z.B. strenger und kritischer Umgang mit Quellenmaterial, als Teil des Informationskompetenz immer wichtiger, mit Hilfe dessen man mit der Informationsüberflut umgeht.

 

Im Beitrag erwähnte Technologien und Links:

https://www.adfontes.uzh.ch/

https://www.e-rara.ch/

https://dlf.uzh.ch/2018/09/19/relaunch-ad-fontes/

https://iiif.io/

https://www.digitalmappa.org/

Zu Thick Mapping z.B.: http://pennyjohnston.org/blog/digital-humanities-2/thick-mapping/ oder https://www.hypercities.com/

Veröffentlicht am

Zürcher Erklärung zur digitalen Kunstgeschichte 2014

Vom 26. bis 27. Juni 2014 fand die Arbeitstagung Digitale Kunstgeschichte. Herausforderungen und Perspektiven statt. Organisiert wurde diese internationale Tagung vom Schweizerischen Institut für Kunstwissenschaft (SIK-ISEA) gemeinsam mit dem Kunsthistorischen Institut der Universität Zürich und dem Institut gta der ETH Zürich.

Zweck dieses Treffens war, in acht Workshops fachspezifische Positionen und Forderungen zu drängenden Fragestellungen im Zeichen des digitalen Wandels zu erarbeiten. Alle Teilnehmenden – die Vortragenden ebenso wie die Verantwortlichen für die Workshops und das sachkundige, interessierte Publikum – haben mit ihrer engagierten Mitarbeit Impulse gesetzt und zum Gelingen der Veranstaltungen beigetragen.

Zürcher Erklärung zur digitalen Kunstgeschichte 2014 weiterlesen

Veröffentlicht am

Gastvortrag: Digitalisierung des Kulturellen Erbes – Foliensatz

Ich bin noch etwas schuldig – und zwar die Folien zu meinem Gastvortrag am IPMZ. Dies hole ich nun gerne nach. Vor allem auch deshalb gerne, weil der neue Webblog, den meine Kollegin dankenswerter Weise für uns aufgesetzt hat, Präsentationen aus Slideshare anzeigt.


Gastvortrag von Marion R. Gruber an der Universität Zürich, IPMZ – Institut für Publizistikwissenschaften und Medienforschung, Abteilung Medienwandel & Innovation, Dezember 2012.