Ein weiteres Toolverzeichnis für die Digital Humanities?!

Aber diesmal offen und mit Wikidata

Sophie Eckenstaler, Till Grallert

Humboldt-Universität zu Berlin

Universitätsbibliothek, Grimm-Zentrum

Institut für Geschichtswissenschaften

Future e-Research Support in the Humanities (FuReSH, DFG, 2022–25)

NFDI4Memory

https://blogs.hu-berlin.de/furesh/

Hintergrund

Wer sind wir?
Und warum bauen wir ein weiteres Toolverzeichnis für die Digital Humanities?

Wer sind wir?

Sophie Eckenstaler, IfG und UB, Kompetenzwerkstatt DH
Till Grallert, IfG, NFDI4Memory, Methods Innovation Lab

NFDI4Memory

NFDI4Memory fokussiert auf die spezifischen Herausforderungen der Datafizierung für:

1. Disziplinen, die …

… historische Methoden anwenden (also zunächst einmal die Geschichtswissenschaften selbst).

2. Disziplinen, die …

… auf Daten angewiesen sind, die eine historische Kontextualisierung erfordern (also so gut wie alle anderen Geistes- und Sozialwissenschaftlichen Disziplinen, inklusive GLAM Institutionen).

Die Task Area “Data culture”

Aus der Datafizierung folgt, dass unsere Arbeit nicht auf das Forschungsdatenmanagement (FDM) verengt werden kann, sondern zugleich von einem datafizierten Forschungsprozess ausgehen müssen. Ein datafizierter Forschungsprozess jedoch bedarf einer gelebten Datenkultur.

Die Notwendigkeit eines Kulturwandels

Aus der Datafizierung folgt, dass unsere Arbeit nicht auf das Forschungsdatenmanagement (FDM) verengt werden kann, sondern zugleich von einem datafizierten Forschungsprozess ausgehen müssen. Ein datafizierter Forschungsprozess jedoch bedarf einer gelebten Datenkultur.

Ausgangslage

  • Nutzung von Forschungsdaten und datengetriebener Methoden in den historisch arbeitenden Fächern noch wenig verbreitet
  • Konzept, Inhalt und Potential von Forschungsdaten und deren Nutzen noch weitgehend unbekannt
  • Vorbehalte gegen datengetriebene Methoden und die Arbeit mit Forschungsdaten
  • Sich stetig verändernder technisch-kultureller Kontext mit neuen Herausforderungen (Digitalität → KI-Zeitalter)

Zielstellung

  • Den Aufbau einer robusten und nachhaltigen, innovativen und kritisch-reflektierenden Datenkultur in den historisch arbeitenden Fächern fördern und gestalten
  • Die Akzeptanz von Forschungsdaten und datengetriebener Forschung erhöhen

Was meinen wir mit Datenkultur?

Aus der Datafizierung folgt, dass unsere Arbeit nicht auf das Forschungsdatenmanagement (FDM) verengt werden kann, sondern zugleich von einem datafizierten Forschungsprozess ausgehen müssen. Ein datafizierter Forschungsprozess jedoch bedarf einer gelebten Datenkultur

im weiteren Sinne

eine Fachkultur, bei der (Forschungs-)daten und datengetriebener Methoden ein integraler Bestandteil sind, die Arbeit mit und an Daten also nicht mehr als ein netter Appendix zum “eigentlichen” Forschungsprozess verstanden wird.

im engeren Sinne

alltägliche Praktiken und Verantwortlichkeiten (auch rechtlich und ethisch) im Umgang mit Forschungsdaten, bei deren Erzeugung, Bereitstellung und Nutzung mit Hilfe von computationellen Methoden und Werkzeugen.

braucht

Verständnis der theoretischen und epistemologischen Grundlagen und Implikationen der Datafizierung und Diskussion über deren Folgen

Orientierung, Guidelines und Unterstützung

Das Methodenlabor als Experimentierwerkstatt
an der Schnittstelle von Datenkultur im weiteren und engeren Sinn

Forschende brauchen ein klares Verständnis dafür, welche Möglichkeiten (Forschungs-)Daten für ihre Arbeit bieten und welche Anforderungen spezifische Daten an Infrastruktur und Fähigkeiten stellen. Dafür sollen digitale und computationelle Methoden identifiziert und für ihre Anwendung in den historisch arbeitenden Wissenschaften evaluiert, erklärt und (nach)nutzbar bereitgestellt werden.

Aufgaben

  • Evaluation und Exploration einzelner Methoden und deren Demonstration und Bereitstellung durch Tutorials und exemplarische Data Stories
  • Field Surveys zum Gebrauch von Forschungsdaten und computationellen Methoden in den Geschichtswissenschaften
  • Austausch mit DH-Zentren
  • Förderung kollaborativer Projekte durch gemeinsame Bearbeitung von Fallstudien aus der Community

Die Kompetenzwerkstatt Digital Humanities unterstützt Forscher*innen in allen Fragen computergestützter Forschung in den Geistes- und Kulturwissenschaften.

Unser Angebot umfasst:

  • individuelle Beratung,
  • Projektberatung,
  • Workshops und Prototypenentwicklung.

Im Vordergrund steht dabei die Tool Literacy, das heißt die Entwicklung eigener Kompetenzen im Umgang mit digitalen Tools.

DFG-Projekt 2022-2025

Toolverzeichnisse in den DH

Überblick über ein sich kontinuierlich wandelndes Feld

Word cloud der häufigsten Werkzeuge in den Digital Humanities gemessen an der Anzahl von Abstracts für die ADHO Konferenzen
  • Toolverzeichnisse bedienen einen evidenten Bedarf
  • Informationen zu Werkzeugen:
    • Was gibt es?
    • Wofür kann es im DH Kontext eingesetzt werden?
  • Informationen zum Gebrauch von Werkzeugen:
    • Wie kann ich das Lernen?
    • Wer hat es wie und mit welchem Ergebnis bereits angewendet?

Tool Registries sind Legion und ein eigenes Genre der DH

Einige Beispiele

Schwächen der bestehenden Tool Registries

directories require ongoing upkeep, and it is unrealistic for an individual – particularly in an alternative academic career track – to do that work indefinitely.

Dombrowski („The Directory Paradox“ 2021)

  • Projektfinanzierung
  • Datensilos
    • Fokus auf Präsentationsschicht
    • Proprietäre bzw. custom Infrastrukturen
    • schlecht dokumentierte oder gar keine Schnittstellen (API’s)
    • Kein Normdatensätze
  • Kuratierung
    • (unbezahlte) Expert_innen und Gremien
    • praktisch kein community engagement
    • unmöglich Informationen aktuel zu halten
TAPoR’s about page
TAPoR asking you to send the late Stéfan Sinclair an email

Zusammenfassung

Im Ergebnis sind diese Toolverzeichnisse in dem Anspruch eines umfassenden, representativen und je aktuellen Abbildes der verfügbaren Möglichkeiten computationeller Forschung und digitaler Wissenschaft als gescheitert zu verstehen.

Unser Vorschlag:
Ein weiteres Toolverzeichnis

Wirklich?

Source: https://xkcd.com/927

Grundlagen

Wir müssen die Frage “was brauchen wir” mit “was haben wir” beantworten können

Was brauchen wir?

  • Toolverzeichnis (s.o.), als Abbild
    • der sich wandelden Tool-Landschaft bzw. Tool-Bandbreite
    • des Toolgebrauchs in den Digital Humanities, Digital History …
  • Tools sollen
    • beschrieben werden
    • klassifiziert werden
    • referenzierbar sein
    • auffindbar sein
  • Einbettung in bestehende Infrastruktur
    • Linked Open Data
    • hohe Sichtbarkeit
    • Community Management

Wer sind wir?

  • 4 Personen
  • Projektfinanziert
  • Gemeinschaft von Praktitioners

Was haben wir?

  • Know-how
  • Kontakte
  • Anschubfinanzierung
  • anteilige Arbeitszeit

Hintergrund: minimal computing

minimal computing connotes digital humanities work undertaken in the context of some set of constraints. This could include lack of access to hardware or software, network capacity, technical education, or even a reliable power grid.

(Risam und Gil „Introduction: The Questions of Minimal Computing“ 2022, Abschn. 3)

Screenshot einer Website für luxuriöse Küchen

this implies learning how to produce, disseminate, and preserve digital scholarship ourselves, without the help we can’t get, even as we fight to build the infrastructures we need at the intersection of, with, and beyond institutional libraries and schools.

(Gil und Ortega „Global Outlooks in Digital Humanities“ 2016, 29)

Frankfurter Küche, Source: WikiCommons, CCO

Vorschlag

Was brauchen wir?

  • Toolverzeichnis (s.o.), als Abbild
    • der sich wandelden Tool-Landschaft bzw. Tool-Bandbreite
    • des Toolgebrauchs in den Digital Humanities, Digital History …
  • Tools sollen
    • beschrieben werden
    • klassifiziert werden
    • referenzierbar sein
    • auffindbar sein
  • Einbettung in bestehende Infrastruktur
    • Linked Open Data
    • hohe Sichtbarkeit
    • Community Management

Was machen wir?

  • Setzen alles auf Wikidata auf
    • (Linked) Open Data
    • Community und User Management
    • Multilingualität von Interface und Daten
    • hohe Sichtbarkeit: Suchmaschinen, Integration in Normdateien (VIAF)
  • (Nach)-nutzung bestehender Datensätze
  • Entwicklung minimaler Datenmodelle

Umsetzung

Community: WikiProject DH Tool Registry

Link zu unserem WikiProject
  • Anlegen und redaktionelle Betreuung eines WikiProjekts in Wikidata
  • Dient der Dokumentation , als Hilfestellung (Beispielqueries) und Diskussionsforum sowie zum Monitoring von Tools
Wikidata:WikiProjekt DH Tool Registry

Minimales Datenmodel

  • Software-Werkzeuge implementieren Verfahren
    • stellen Anforderungen an Hardware und Infrastrukturen
    • interagieren mit Formaten (lesen, schreiben).
    • sind in Sprachen geschrieben und benötigen ohne GUI Sprachen zur Interaktion.
  • Basisdatenmodell als gemeinsame Ausgangslage
  • Mapping nach nach TaDiRAH zur Methoden-Zuordnung sowie zur Wiederauffindbarkeit in Wikidata:

[…] anwendungsorientierte Taxonomie, die unter Einbeziehung der Community dazu dient, Ressourcen aus dem Kontext der digitalen Geisteswissenschaften nach bestimmten Kategorien des Forschungsprozesses klassifizieren zu können.

Minimales Datenmodell am Beispiel der Beschreibung von “Gephi”

Erweiterte Datenmodelle

Erweitertes Datenmodell am Beispiel der Beschreibung von “Gephi”

Daten: SPARQL abfragen

SELECT DISTINCT ?tool ?toolLabel ?tadirahID ?methodLabel ?method
WHERE {
  ?method wdt:P9309 ?tadirahID.
  ?tool wdt:P366 ?method;
    wdt:P31/wdt:P279* wd:Q7397.
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
}
ORDER BY ?toolLabel

Daten: Demonstration TaDiRAH-Mapping

Prototypisches Frontend

Zusammenfassung

Nachhaltiges Konzept mit dem Ziel …

  • Übertragbar und anwendbar in anderen DH-Kontexten
  • Offen und skalierbar:
    • Zugangsperspektive: Jede/r kann Tools recherchieren, editieren, hinzufügen (höchste Open Data Stufe nach 5 Sterne Modell von Tim Berners-Lee).
    • Datenmodellperspektive: Das Modell kann durch die Community erweitert und angepasst werden.
      • Wichtig: Man einigt sich auf ein gemeinsames minimales Datenmodell.
  • Modular:
    • Multiple projektspezifische Wikidata-Projekte können angelegt werden.
      • Datenmodell kann um domänspezifischen Krititerien erweitert werden.
    • Multiple projektspezifische Anwendungen können auf Wikidata aufsetzen.
      • Unabhängig von Interfaces.

Vielen Dank für Ihre Aufmerksamkeit!

WikiProject

Link zu unserem [WikiProject][wikiproject]

DHd2024

Frontend Prototyp

Link zum Frontend: <https://furesh.github.io/tool-storage-interface/>

Literatur

Barbot, Laure, Frank Fischer, Yoann Moranville, und Ivan Pozdniakov. 2019. „Tools mentioned in the proceedings of the annual ADHO conferences (2015–2019)“. 6. Dezember 2019. https://lehkost.github.io/tools-dh-proceedings/index.html.
———. 2019. „Which DH Tools Are Actually Used in Research?“ weltliteratur.net: A Black Market for the Digital Humanities (blog). 6. Dezember 2019. https://weltliteratur.net/dh-tools-used-in-research/.
Dombrowski, Quinn. 2021. „The Directory Paradox“. In People, Practice, Power: Digital Humanities Outside the Center, herausgegeben von Anne B. McGrail, Angel David Nieves, und Siobhan Senier. Debates in the Digital Humanities. Minneapolis: University of Minnesota Press. https://www.upress.umn.edu/book-division/books/people-practice-power.
Gil, Alex, und Élika Ortega. 2016. „Global Outlooks in Digital Humanities: Multilingual Practices and Minimal Computing“. In Doing digital humanities: practice, training, research, herausgegeben von Constance Crompton, Richard J Lane, und Ray Siemens, 22–34. Abingdon: Routledge.
Risam, Roopika, und Alex Gil. 2022. „Introduction: The Questions of Minimal Computing“. Herausgegeben von Alex Gil und Roopika Risam. Digital Humanities Quarterly 16 (2, "Minimal Computing"). http://digitalhumanities.org/dhq/vol/16/2/000646/000646.html.