Zur Unterrepräsentation der Schweiz auf DH-Tagungen…

…findet sich auf dem DHd-Blog ein interessanter Artikel von Michael Piotrowski, Assistenzprofessor für DH an der Universität Lausanne und Co-Direktor des UNIL–EPFL Centers in Digital Humanities:

Wo ist die Schweiz?

Aus seiner Sicht tragen die geringe Institutionalisierung der DH in Lehre und Forschung und die Förderpolitik des SNF, die «kleine» interdisziplinäre Projekte explizit ausschliesst, strukturell zur vorgefundenen Unterrepräsentation bei.


Nachstehend eine Auflistung der Beiträge mit Schweizer Beteiligung auf der DHd-Konferenz, die letzte Woche in Mainz und Frankfurt stattfand:

  • Vom Text zum Bild und wieder zurück. Maria Christoforaki (Passau), Bernhard Bermeitinger (Passau), Simon Donig (Passau), Siegfried Handschuh (Universität St. Gallen) – Vortrag.

Hin zum digitalen Cappelli – HaCkapelli

cappelli_farbcode

Unter dem Titel „Ad fontes Cappelli Hackathon“ läuft seit Ende September das Vorhaben, Adriano Cappellis Lexicon abbreviaturarum unter Mithilfe des interessierten Publikums ins digitale Medium zu transportieren. Das „Wörterbuch lateinischer und italienischer Abkürzungen, wie sie in Urkunden und Handschriften besonders des Mittelalters gebräuchlich sind; dargestellt in über 14000 Zeichen, nebst einer Abhandlung über die mittelalterliche Kurzschrift, einer Zusammenstellung epigraphischer Sigel, der alten römischen und arabischen Zählung und der Zeichen für Münzen, Masse und Gewichte“ – so der deutsche Volltitel der zweiten Auflage – wurde 1899 veröffentlicht und danach schnell zum unabdingbaren Standardwerk der Mittelalterforschung.

Durch das Projektteam von „Ad fontes“ sowie eine wachsende Zahl an Beta-Testern und Interessierten wurden in der Zwischenzeit bereits fast ein Sechstel der Abkürzungen transkribiert und die verwendeten Abkürzungszeichen graphisch verortet. Es bleibt aber viel zu tun und jede Hilfe ist willkommen.

Auf der Seite http://www.adfontes.uzh.ch/cappelli findet sich eine hilfreiche Anleitung und nach der Registrierung steht der Mitarbeit nichts entgegen.

HaCkapelli

HACKAPPELLIUm dem Projekt zusätzliche Schubwirkung zu verleihen, findet am 22. Oktober in Zürich zwischen 14:00 und 23:00 Uhr der HaCkapelli-Hackathon statt, an welchem möglichst viele Abkürzungen transkribiert und kategorisiert werden sollen. Der Anlass findet im Hauptgebäude der Universität Zürich, KO2-F-153, statt und die OASE des Historischen Seminars wird zur Verpflegungsstätte mit Essen und Trinken. Computer stehen bereit, aber selbstverständlich können auch eigene Rechner mitgebracht werden.

Während des Hackathons berichten die folgenden Referentinnen und Referenten über ihre aktuellen digitalen Projekte:

  • Erik Hasselberg, 14:00 :
    Einführung in «Ad fontes»
  • Basil Vollenweider, 15:00:
    App fontes – die App für’s Archiv
  • Eliane Kurmann, 15:30:
    Afrika im Fokus – Fotografie in «Ad fontes»
  • Thomas Bruggmann, 16:00 :
    Urkundenbücher im Netz: Das Bündner und das Liechtensteinische Urkundenbuch
  • André Bruggmann, 16:30 :
    Geographisch-interaktive Darstellung des HLS
  • Rainer Hugener, 17:00:
    Rechtsquellen im Netz. Neue Präsentationsformen, Zugänge und Kooperationen
  • Infoclio, 17:30:
    Compas – eine Ressource für Studierende
  • Natalia Korchagina, 18:00:
    Automated recognition of temporal information in Swiss law sources
  • Erik Hasselberg, 18:30:
    Cappelli & Digital Humanities – Neue Perspektiven
  • Pascale Sutter/Bernhard Ruef, 19:00:
    Ontologien in Rechtsquellen
  • Rezia Krauer, 19:30:
    Das Chartularium Sangallense und monasterium.net
  • Jonas Schneider, 20:00:
    HLS und GIS
  • Jolanda Hunziker, 20:30:
    App fontes – die App für’s Archiv

Weitere Informationen zum Projekt und zum Anlass finden sich unter http://www.adfontes.uzh.ch/1000.php und http://www.adfontes.uzh.ch/capelli.

Nach der Erfassung werden die insgesamt rund 14’000 Abkürzungen mittels elaborierter Abfragemöglichkeiten durchsuchbar sein, so dass sich auch nur partiell lesbare Zeichenfolgen erfolgreich entziffern lassen sollten. Zudem ist ein Einsatz in der hier bereits früher vorgestellten App fontes sowie die Offenlegung des Datensatzes zur Nachnutzung geplant. Begrüssenswert ist weiterhin, dass das Projekt nach der Erfassung Cappellis Abkürzungen nicht zu geruhen gedenkt, sondern bereits an die Aufnahme und Systematisierung zusätzlicher Abkürungen denkt, etwa deutsch- und französichsprachiger Kurzformen.

Die Mithilfe an dieser wertvollen Ressource wird sich zweifellos lohnen!

Digital Humanities 2014 in Lausanne: neue Tools und Projekte

Ein Beitrag aus der Feder unseres Gastautors Tobias Hodel, Doktorand an der Universität Zürich (Lehrstuhl S. Teuscher). Tobias Hodel forscht zu Klöstern (Projekt „Königsfelden“), Schriftlichkeit, Administrationskultur, Habsburg sowie allem Digitalen, das ihm in die Hände fällt.

Der jährliche Großkongress Digital Humanities fand in der letzten Woche in Lausanne am Genfersee statt. Die Veranstaltung dient traditionellerweise auch als Leistungsshow von Projekten und Produkten, die das Leben des Wissenschaftlers erleichtern sollen. Ein kurzer Überblick über neue und nicht mehr ganz neue Tools, die von Interesse sein könnten.

Im vergangenen Sommer entstand im Rahmen eines „one week, one tool“-Hackathon der Serendip-o-matic. Ein Aggregator, welcher aus eingegebenen Textstücken (vermeintlich) passende Einträge aus der Europeana, der Digital Public Library of America und anderen freien Ressourcen zusammenstellt. Der Faktor Zufall soll dabei eine wichtige Rolle spielen, wie sich aus dem von serendipity abgeleiteten Namen erschliesst:

serendipomatic.org

Strukturierter und wissenschaftlich „abgesicherter” funktioniert das am IEG in Mainz entstehende EGO (Europäische Geschichte Online), welches ähnlich wie die docupedia für Zeitgeschichte ein kollaborativ erarbeitetes Portal ist. Im Fokus steht die europäische Geschichte der Frühneuzeit und Neuzeit (15.-21. Jahrhundert):

ieg-ego.eu

Die Seite überzeugt durch Verknüpfungen (etwa mit Personendaten), Querverweisen und eingebundenen Medien. Die Lizenzierung mit creative commons (CC-BY-NC-ND) zeugt vom umsichtigen Umgang mit den veröffentlichten Daten.

Personen und Urkunden stehen in den Datenbanken der POMS (People of Medieval Scotland und Paradox of Medieval Scotland) im Zentrum. Mittels Verknüpfung von Personen mit Vorgängen in Urkunden (Rechtsübertragung, Verbindung zu anderen Personen etc.) wird versucht der Staatswerdung Schottlands auf den Grund zu gehen.

poms.ac.uk

Interessant ist nicht zuletzt das Konzept hinter den aufbereiteten Daten. Im Gegensatz zu mark-up Auszeichnung wie in der klassischen und digitalen Edition angewandt, werden die Quellen relational ausgewertet. Sprich Wortlaut und Formular der Dokumente bleibt auf der Strecke, während genannte Personen und die Art ihrer Nennung verzeichnet werden.

Ein ganz ähnlicher Ansatz wird im Projekt ChartEx verfolgt. Anhand der automatisierten Auswertung von Dokumenten aus Cluny und britischen Quellenedition werden automatisiert Verknüpfungen zwischen Personen in Dokumenten, Rechten und Orten hergestellt. Recherchierende werden auf Personen hingewiesen mit ähnlichen Namen oder häufigem Auftauchen im Umfeld der Personene/Dokumente. Ziel des Tools ist es Anhaltspunkte zu geben und effizientere Forschung zu ermöglichen.

ChartEx: yorkhci.org/chartex/1.3/ (Beta-Version)

Nicht Personen sondern Orte stehen im Zentrum zweier Tools zur Erkundung der Antiken Welt. Das bereits etablierte Produkt Orbis aus Stanford errechnet Wegstrecken und Kosten zwischen einzelnen Orten im römischen Reich. Wie bei modernen Navigationssystemen wird zwischen kürzestem, schnellsten und billigstem Weg unterschieden.

orbis.stanford.edu

Pelagios – ein britisch-österreichisches Joint-Venture – ermöglicht Nutzenden selbst Verknüpfungen zwischen Antiken Texten und darin genannten Orten herzustellen. Mit der „bottom-less map“ (der unendlich tief annotierbaren Karte) als Ziel des Projekts.

    Zugang über Ortssuche: pelagios.dme.ait.ac.at/api Projekt-Blog: pelagios-project.blogspot.ch Pleiades (online Ortsverzeichnis für Orte der Antiken Welt): pleiades.stoa.org

    Von der Antike zum Mittelalter, wo es insbesondere in den sogenannten Hilfswissenschaften Neues zu entdecken gibt.
    Die Beschreibung von Handschriften zum Zweck der Unterscheidung von Schreibern gehört zu den Kernkompetenzen der Paläographie. Das Projekt digipal treibt dies auf die Spitze und hat ein Tool kreiert, mit welchem kleinste Unterschiede von Händen beschrieben und betrachtet werden können. Als nächste Schritte sind Ausbau um skandinavische und hebräische Handschriften geplant.

    www.digipal.eu

    Unter anderem mit digitaler Kodikologie beschäftigt sich das Schoenberg Institute for Manuscript Studies und präsentierte eine erste Version des Manuscript Collation Project, welches erlaubt Codex nach Lagen zu betrachten, etwa um spätere Um- und Fehlbindungen zu identifizieren und digital zu korrigieren, ohne dass die Stücke einem physikalischen Risiko ausgesetzt werden.

    dorpdev.library.upenn.edu/collation

    Der Beitrag wurde ursprünglich unter  http://ordensgeschichte.hypotheses.org/7637 veröffentlicht.

    Aktivdienst im doppelten Sinn: Wikipedia Edit-a-thon am Bundesarchiv

    Am 21. Juni 2014 wird am Schweizerischen Bundesarchiv ein Workshop durchgeführt, der Gelegenheit bietet, die Grundlagen des Artikelschreibens für die freie Online-Enzyklopädie Wikipedia zu erlernen und am Beispiel der Fotosammlung zum Ersten Weltkrieg direkt anzuwenden. Mitarbeitende des Bundesarchivs sowie der Nationalbibliothek führen in ihre Bestände ein und unterstützen die Teilnehmer gemeinsam mit Wikipedians beim Recherchieren und Schreiben.

    Thematisch befasst sich der Edit-a-thon mit dem Aktivdienst der Schweiz im Ersten Weltkrieg und die bereits auf Wikimedia Commons zugängliche Fotosammlung des Schweizerischen Bundesarchivs zum Aktivdienst der Schweiz im Ersten Weltkrieg dient als Grundlage zur Be- und Erarbeitung von Artikeln. Die Sammlung lässt sich nicht nur für Artikel rund um die militärische Schweiz im Ersten Weltkrieg nutzen, sondern kann auch Beiträge zu historischen Persönlichkeiten, alten Ortsbildern oder besonderen Bauten illustrieren. Auch bietet sie einen vielfältigen Einblick in den zivilen Alltag während der Kriegsjahre.

    CC-BY-SA 3.0/CH Swiss Federal Archives  http://commons.wikimedia.org/wiki/File:Büro_des_Quartiermeisters_des_Armeestabes_-_CH-BAR_-_3240343.tif
    CC-BY-SA 3.0/CH: Swiss Federal Archives
    Quelle: http://commons.wikimedia.org

    Der Edit-a-thon richtet sich an alle, die den Umgang mit der Online-Enzyklopädie erlernen möchten und sich für die Fotosammlung interessieren. Auch Übersetzungen bereits existierender Artikel sind ein wertvoller Beitrag zur Online-Enzyklopädie.

     

    Library Science Talks: Transforming 200 years of newspaper articles into an information system

    Prof. Frédéric Kaplan hält am 29. April 2014, 15.30 Uhr, im Rahmen der Library Science Talks an der Nationalbibliothek in Bern einen Vortrag zur Nutzung digitalisierter Zeitungsartikel als umfassende Informationsressource.

    Vortragssprache: englisch
    Adresse: Hallwylstrasse 15, 3003 Bern
    Informationen der Nationalbibliothek

    Am Vortag wird der gleiche Vortrag auch auf Französisch an der Bibliothèque de Genève gehalten.

    Abstract of the talk:

    „Le Temps“ newspaper is responsible for an archive of about 4 million articles covering a 200 year period. This archive is composed of the digitised version of the „Le Journal de Genève“, „La Gazette de Lausanne“ and „Nouveau Quotidien“. The archive is currently accessible through a website, searchable in full text but not yet semantically structured.
    Mr. Kaplan will present a project at the Digital Humanities Laboratory (DHLAB) of the EPFL which investigates identifying all the named entities in the archive, such as places, persons and objects and developing a framework for named-entity recognition and disambiguation based on Wikipedia and other sources.

     

    Bio of the speaker:

    Prof Frédéric Kaplan holds the Digital Humanities Chair at École Polytechnique Fédérale de Lausanne (EPFL) and directs the EPFL Digital Humanities Lab. He conducts research projects combining archive digitisation, information modelling and museographic design.

    infoclio.ch Tagung 2013: Geschichtswissenschaften und Verlage im digitalen Zeitalter

    TitelblattAm 15. November 2013 findet in Bern die infoclio.ch-Tagung zum Thema „Geschichtswissenschaften und Verlage im digitalen Zeitalter“ statt. Die Tagung ist die fünfte Veranstaltung der Reihe «Digitale Medien und Geschichtswissenschaften».

    Forschende, Verleger, Vertreterinnen wissenschaftlicher Institutionen und weitere Akteure, die am Prozess des wissenschaftlichen Publizierens beteiligt sind, referieren und diskutieren über die aktuellen Entwicklungen im geschichtswissenschaftlichen Verlagswesen und die Zukunft des digitalen Publizierens.

    Die Teilnahme ist kostenlos. Ab September 2013 kann man sich im internet anmelden.

    Programm:

    9h00-9h30: Empfang

    9h30-9h35: Begrüssung – Enrico Natale, Leiter, infoclio.ch

    9h35-11h30: Session 1: Das geschichtswissenschaftliche Publizieren in der Schweiz – Eine Bestandesaufnahme

    9h35-10h05: François Vallotton, Professeur d’histoire contemporaine, Université de Lausanne – L’édition numérique en Suisse. Un regard…

    10h05-10h35: Ingrid Kissling-Näf, Leiterin Abteilung 1, Schweizerischer Nationalfonds – Die Förderung der geisteswissenschaftlichen Publikationen. Bilanz und Perspektiven

    10h35-11h: Jean Richard, Directeur, Editions d’en bas – L’édition en histoire entre modèles traditionnels et nécessité de changement

    11h00-11h30: Kaffeepause

    11h30–12h45: Podium 1: Das geschichtswissenschaftliche Publizieren in der Schweiz – Eine Bestandesaufnahme

    – Moderation: Monika Dommann, Professorin für Zeitgeschichte, Universität Zürich
    – Marco Iorio, Chefredaktor, Historisches Lexikon der Schweiz
    – Ingrid Kissling-Näf, Leiterin Abteilung 1, Schweizerischer Nationalfonds
    – Claude Pahud, Directeur, Editions Antipodes
    – François Vallotton, Professeur d’histoire contemporaine, Université de Lausanne
    – Hans-Rudolf Wiedmer, Leiter, Chronos Verlag

    12h45-13h30 Mittagessen

    13h30-14h30: Session 2: Digitales Publizieren, Open Access und die Zukunft der geschichtswissenschaftlichen Publikation

    – Pierre Mounier, directeur adjoint d’OpenEdition – Edition numérique et débat sur l’Open Access en France

    – Gary Hall, Professor of Media and Cultural Studies, Conventry University – Open Access Advocacy and the future of scholarly publishing

    14h30-14.50 Pause

    14h50-16h30: Podium 2: Der digitale Wandel und das geschichtswissenschaftliche Publizieren in der Schweiz

    – Moderation: Stefan Nellen, Chef, Dienst Historische Analysen, Schweizerisches Bundesarchiv
    – Olivier Babel, Directeur, Presses Universitaires Romandes, Lausanne
    – Ruedi Bienz, Leiter und Inhaber, Schwabe Verlag
    – Alain Cortat, Directeur, Editions Alphil
    – Pierre Mounier, directeur adjoint d’OpenEdition
    – Bruno Meier, Leiter, Verlag Hier+Jetzt
    – Jean Richard, Directeur, Editions d’en bas

    NB: Die Anmeldung ist ab sofort möglich: Online-Anmeldung

    DH-Herbst: Veranstaltungshinweise

    Das DH-Atelier der Uni und EPFL Lausanne geht in die zweite Runde. Die frei zugänglichen Veranstaltungen befassen sich mit einer Reihe von Themen, die auch für Historiker interessant sind. Hervorheben möchten wir die Einführung in die Literaturverwaltungs- und Kollaborationssoftware Zotero, die durch G+I-Vereinsmitglied Nicolas Chachereau am 11. Oktober durchgeführt wird.
    Veranstaltungsort: EPFL Salle GCA 1416
    Zeit: jeweils freitags, 11 Uhr
    Weitere Informationen: http://dhlausanne.ch/2013/08/07/atelier-dh-pour-doctorants-unil-epfl-saison-2
    An der Kantons- und Universitätsbibliothek Lausanne findet am 26. September eine Informationsveranstaltung zur Digital Humanities-Forschung in der Schweiz und an der Universität Lausanne statt. Neben der eher sozialwissenschaftlich ausgerichteten Netzwerkanalyse und -visualisierung werden mit Projekten zu neutestamentlichen Manuskripten und Intellektuellen-Netzwerken der Zwischenkriegszeit auch zwei historisch interessante Projekte vorgestellt.
    Veranstaltungsort: BCU Lausanne, Dorigny-Unithèque, Salle de conférence 511
    Zeit: 12.30 bis 14 Uhr
    Weitere Informationen: http://www.infoclio.ch/fr/node/53379
    Den Digital Humanities, bzw. der Rolle, die audiovisuelle Dokumente darin spielen, ist auch das Memoriav-Kolloquium 2013 gewidmet, das am 25. und 26. Oktober 2013 in Neuenburg stattfindet.  Vorgestellt wird eine ganze Reihe von digitalen Forschungs- und Archivprojekten verschiedener Hochschulen und kultureller Institutionen. 
    Veranstaltungsort: Musée d’ethnographie Neuchâtel, rue St-Nicolas 4, 2000 Neuchâtel
    Weitere Informationen: http://de.memoriav.ch/eventdetails.aspx?id=4570622b-17a2-44c6-a66c-655b414c9e4f
    Die Platzzahl ist beschränkt; rechtzeitige Anmeldung empfohlen.
    Am Donnerstag, 28., und Freitag, 29. November 2013, führt die Schweizerische Akademie der Geistes- und Sozialwissenschaften die Tagung Digital Humanities: Neue Herausforderungen für den Forschungsplatz Schweiz durch. Auf dem Programm stehen vielfältige Beiträge von Referenten aus dem In- und Ausland, Kurzpräsentationen laufender DH-Projekte sowie zwei Podiumsdiskussionen zu den Reaktionen geisteswissenschaftlicher Disziplinen auf die Herausforderungen des digitalen Wandels in Forschung und Lehre und den Bedürfnissen der geisteswissenschaftliche Fachgemeinschaft der Schweiz.
    Veranstaltungsort: Kornhausforum, Bern
    Weitere Informationen: http://www.sagw.ch/sagw/veranstaltungen/sagw-agenda-2013/vst13-wiw/dh-tagung.html
    Zuletzt sei auf drei internationale Anlässe bzw. Termine verwiesen: 
    • Histoinformatics 2013
      Der erste Histoinformatics-Workshop (25.11.2013, Kyoto) will Historiker und Computer Scientists zusammenführen und Kollaborationen zwischen den beiden Forschungszweigen begünstigen. Papers können noch bis zum 6. Oktober eingereicht werden (http://www.dl.kuis.kyoto-u.ac.jp/histoinformatics2013/#submission).
      Weitere Informationen: http://www.histoinformatics.org/
    • Five solutions: digital sustainability for historians
      Eine weitere Veranstaltung für Historiker findet am 28. November 2013 am Institute of Historical Research der University of London statt. Im Rahmen eines Workshops werden praktikable Lösungen zur langfristigen Pflege von Forschungsdaten diskutiert. 
      Papers können noch bis zum 8. Oktober eingereicht werden.
      Weitere Informationen: http://events.history.ac.uk/event/show/11435
    • HASTAC Scholars
      Das HASTAC Scholars-Programm, das seit fünf Jahren mit grossem Erfolg läuft, nimmt jedes Jahr eine Anzahl neuer Mitglieder auf. Die gleichermassen vielfältige wie aktive Community ermöglicht den Austausch von Ideen und Wissen und erleichtert den Aufbau und die Pflege wertvoller Kontakte. Die Bewerbungsphase 2013 läuft noch bis zum 24. September.
      Weitere Informationen: http://www.hastac.org/scholars/apply

    Tagungsbericht zur ersten Digital Humanities Summer School Bern

    Die (Inter-)Disziplin der digitalen Geisteswissenschaften (Digital Humanities) konturiert sich auch in der Schweiz immer deutlicher. Nach einer Reihe regionaler und nationaler Fachtagungen, erster Berufungen an Universitäten und eines ersten THATCamps — einer relativ informellen und stark partizipaitven Unconference –, das auch in die Nachbarländer und teilweise darüber hinaus ausstrahlte, fand vor wenigen Tagen mit der ersten Digital Humanities Summer School an der Universität Bern ein weiterer bedeutender DH-Anlass statt. Wie das Lausanner THATCamp (2009) wurde die DH-Summer School durch ein bewährtes Konsortium aus Vertretern der Geschichtsplattformen infoclio.ch (als Hauptorganisator) und hist.net, des Vereins Geschichte und Informatik (also der Hausherren dieses Blogs), des DODIS-Editionsprojekts sowie von Forschenden der Universitäten Bern und Lausanne (LADHUL, DHLab) organisiert und durchgeführt. Dank eines attraktiven Programms mit Präsentatoren und Workshop-Leitern von internationalem Ruf waren die gut hundert Plätze im Frühjahr in kürzester Zeit an Teilnehmer aus zwanzig verschiedenen Ländern vergeben. 

    Die viertägige Summer School begann am Mittowch, 26. Juni, mit einem Eröffnungsvortrag durch Ray Siemens, Universität Victoria CA und ADHO-Direktor, der das Verhältnis der Digital Humanities zu den hergebrachten Disziplinen und dem Spannungsfeld zwischen ihnen auszuleuchten versuchte, wobei seine wichtigsten Referenzpunkte Cathy Davidsons Begriff ‚Digital Humanities 2.0‘ und Willard McCartys ‚Methodological Commons‘ (ibi p. 118-119) waren. Erscheinen die Digital Humanities von aussen betrachtet verhältnismässig positivistisch geprägt, eröffnen sich aus der Innenperspektive vielerlei kritische Aspekte und unscharfe Grenzziehungen. Siemens plädiert dafür, den definitorischen Problemen nicht auszuweichen, da diesbezüglich eine gewisse Standfestigkeit notwendig sei, um die disziplinäre und interdisziplinäre Forschung voranzubringen. 

    Susan Schreibman, Trinity College Dublin, lieferte im nächsten Vortrag historischen Kontext zur Genese der Digital Humanities und den wechselnden Selbstverständnissen der Akteure, wobei sich der Bogen von Roberto Busas Lochkarten-basierter Thomas von Aquin-Konkordanz bis hin zu virtuellen Welten spannte, welche die Beantwortung ganz konkreter Fragestellungen ermöglichen sollen, letzteres veranschaulicht durch das laufende Easter Rising-Projekt und dessen virtuelles Strassenpanorama, das, situative Begebenheiten und das Potential der verwendeten Waffen berücksichtigend, Aufschluss über mögliche Opferzahlen während des Dubliner Osteraufstandes von 1916 geben soll. Die Anekdote des zunächst irrtümlicherweise online frei zugänglich gemachten Bandes ‚Digital Humanities‘, welche den Verkauf des Werks erst recht angekurbelt hat, ermöglichte einen interessanten Bezug zu den im Wandel begriffenen Publikationsmodellen und den damit einhergehenden Fragen nach wissenschaftlicher Anerkennung und in der Verlängerung zur viel diskutierten Wertfrage des ‚building and making‘ im Gegensatz zu ‚reading and critique‘. Durch sich verschiebende Gewichte und den postulierten ‚object life cycle‘ bzw. genereller durch die Bestrebungen zur langfristigen Kuration von Forschungsdatenbeständen deutet sich nach Schreibman eine gewisse Konvergenz der bis anhin disparaten Arbeitsfelder von Forschern und Dokumentalisten (Bibliothekaren, Archivaren) an.

    Vermochten diese beiden einführenden Referate die Entwicklung und den gegenwärtigen Stand digitaler geisteswissenschaftlicher Forschung einigermassen abzustecken, blieb das inspirierende Moment vielleicht etwas hinter den Erwartungen zurück. Illustrieren lässt sich dies beispielsweise am (zu) verbreiteten Visualisierungstyp der Begriffswolke (word cloud, wordle; bisweilen auch als Vokuhilas des Internets bezeichnet), den Siemens wie Schreibman in ihren Präsentationen verwendeten, was aus dem Publikum prompt hinterfragt wurde und einer Diskussion über den Einsatz von Werkzeugen Weg bereitete, deren Mechanismen häufig nicht evident sind und die folglich Resultate verzerren können.

    Umstrittene Begriffswolken
    Claire Clivaz, Ray Siemens; Bild: Martin Grandjean

     

    Elena Pierazzo, Kings College London, verband in ihrem Vortrag kommunikations- und texttheoretische Aspekte konzise mit den vielfältigen praktischen Herausforderungen, die digitale Editionsprojekte mit sich bringen. Ausgehend von der grundlegenden Unterscheidung der linguitischen Konstruktion (Text) vom physischen Objekt (Dokument) erörterte sie das editorische Spektrum, das von einfachen, evident gegliederten, neoplatonischen Texten über Leseausgaben, kritische Editionen und diplomatische Editionen hin zu dokumentnahen Faksimile-Editionen reicht. Seit mehreren Jahrzehnten kommt dabei besonders der materiellen Dimension von Texten grössere Bedeutung (critique génétique, material/new philology) zu, was die — ohnehin komplexe und konventionalisierte — editorische Praxis weiter ausdifferenziert hat. Mit dem Transfer der zugehörigen Editionsformen in den digitalen Raum stellen sich viele Fragen, deren wichtigste Pierazzo schlaglichtartig tangierte und mit zugleich illustrativen und beeindruckenden Beispielen veranschaulichte. Ihr eigener vor dem Hintergrund der Arbeit der TEI Manuscripts SIG entstandener Proust-Prototyp lässt den Leser durch die sequentielle Anzeige von Textpassagen beispielsweise gleichsam dem Autor bei der Entstehung des Texts über die Schultern blicken. Zur Sprache kam mehrfach auch die Position des Editors, dessen Textverständnis im Encoding manifest wird und dessen Rolle und Autorität gerade auch bei Crowdsourcing-Editionsprojekten definiert werden sollte. Zum Themenkreis digitaler Editionsformen vgl. aktuell und ausführlich Sahle (2013) und dann vor allem auch Pierazzos neues Werk zu digital scholarly editions, das in absehbarer Zeit verfügbar sein wird.

    In seinem zweiten Vortrag, der sich mit der sozialen Wissenskonstruktion und -produktion (in den Literaturwissenschaften) befasste, äusserte Ray Siemens die These, dass grössere Datenmengen, beschleunigte Arbeitsweisen, unmittelbarere und dichtere Kommunikation sowie verstärkte Teilhabe des Publikums in der Datenerzeugung und im wissenschaftlichen Diskurs das Potential hätten, Forschungsfragen und Forschungsprozesse wesentlich zu beeinflussen. Anknüpfend an die Arbeit des Electronic Textual Cultures Lab (ETCL, U Victoria), und vor dem Hintergrund, dass Wissen in der Regel in chaotischen Strukturen und unter sehr unterschiedlichen Bedingungen entsteht, wobei gerade die informelle Forschungskommunikation bedeutsam ist, beschrieb Siemens eine Umdeutung der Rolle der Forschenden im digitalen Umfeld von didaktischen Autoritäten hin zu Wissensermöglichern (facilitators of knowledge). Kollaborative Werkzeuge, welche grundlegende Funktionen wie die Bereitstellung von Materialien, deren Annotation, Verzeichnung und Analyse ermöglichen — durch Siemens anhand einer Fülle von Beispielen dargelegt, etwa zur Honorierung freiwilliger Partizipation (Gamification), ergänzt durch eine hervorragende annotierte Bibliographie –, sind in diesem Kontext für die Wissensproduktion elementar. Wissen entsteht vor einem grösseren Publikum und durch mehr Akteure, seine Produktion verlagert sich im akademischen Kontext wie in anderen Bereichen (z.B. Journalismus) ausserhalb institutioneller Strukturen. Aus diesen Überlegungen leitet Siemens eine Reihe von Forderungen an zeitgenössische Forscher ab: Damit (Geistes-)Wissenschaftler die Entwicklung neuer Methodologien und Kommunikationsformen mitprägen können, müssen sie die Potenziale neuer Medien untersuchen, um sie bestmöglich zu verstehen, die Mechanismen kollaborativer Arbeitsinstrumente kennen, Grenzen ausloten, unterliegende Ideologien freilegen und einfache positivistische Ansätze in Frage stellen. Neben engagiertes Gestalten und Kreieren soll eine kritische Theorie treten, welche ethische und disziplinäre Standards ständig reflektiert.

    Viele der zuvor anklingenden Implikationen der Erweiterung geisteswissenschaftlicher Disziplinen um neue Ansätze und Methoden auf theoretische, moralische und gesellschaftliche Belange bündelte David Berry, Swansea University, in einem dicht befrachteten Vortrag zu DH und Kulturkritik bzw. den Critical Digital Humanities. Auch er setzt bei der Definition und Abgrenzung des Feldes an, dabei er Stephen Ramsays DH-Typisierung aufnehmend, die der vorab praktisch orientierten und relativ institutionalisierten Community wie sie sich in den frühen 1990er Jahren unter dem Schlagwort Computing in the Humanities formierte (DH-Typus I), eine neuere weniger klar umrissene Bewegung entgegenstellt, deren Interessen breit gefächert sind und die mit bisweilen revolutionärer Gesinnung eine eigentliche Erneuerung der Geisteswissenschaften anstrebt (DH-Typus II; Medientheoretiker, Kulturkritiker, Digitalkünstler). Der Frage, was sich in der Konfiguration der geisteswissenschaftlichen Forschung wirklich verändert, näherte sich Berry aus den Perspektiven der Quantifizier- und Kalkulierbarkeit, der Organisation und des Beschleunigungspotenzials. Mit der Überhandnahme eines metrischen Paradigmas, das Hermeneutik durch Mathematik ersetzt und die Formalisierung der Forschung befördert, verändert sich auch der organisatorische Rahmen: Forschung wird projektbezogen betrieben und Administratoren und Projektleiter machen Professoren das Terrain streitig. Zugleich beschleunigt sich die Forschungstätigkeit durch effiziente Analyseformen, hochgradig responsive Kommunikationsmittel und eine in manchen Fällen ausbeuterische Arbeitsteilung. Vorwürfe, die Digital Humanities seien zuvörderst eine opportunistische und marktanbiedernde Ausrichtung der Forschung nach Kosten-Nutzen-Forderungen lassen sich nach Berry nicht kategorisch von der Hand weisen, gibt es doch deutliche Parallelen zwischen DH-Diskursen und Managementfloskeln. Näher betrachtet handle es sich aber um genuin geisteswissenschaftliche Betätigung, die keineswegs bewährte Forschungsprinzipien leichtfertig gegen die gerade angesagtesten Technologien und Ansätze eintauscht. Dafür, dass „digital“ in der politischen Ökonomie der Universitäten längst ein Schlüsselwort im Erschliessen neuer Geldquellen ist, gibt es jedoch zahllose Belege. Berry fordert zurecht mehr Anerkennung für die bereits geleistete kritische Arbeit und mehr Unterstützung für ihren Ausbau. Der möglicherweise resultierende Verlangsamungseffekt könne durchaus produktiv sein, indem die Forschung durch verstärkte Reflexion profitiere, gerade auch jenseits der Projektebene in der längerfristigen Perspektive.

    Im Gegensatz zu Berrys übergreifendem Vortrag konzentrierte sich jener von Claire Lemercier, CNRS-Sciences Po, Paris, über Netzwerkanalyse auf eine spezifische Forschungsmethode, ohne es aber zu missen, Bezüge zu quantitativen Methodolgien zu schaffen. Im Vordergrund standen dabei nicht konkrete analytische Werkzeuge, sondern die formalen Möglichkeiten, Forschungsdaten einer Linse gleich aus verschiednen Winkeln und Distanzen zu untersuchen. Das Potential der Methode liege weniger in attraktiven Visualisierungen komplexer (und oftmals wenig aussagekräftiger) Netzwerke als in der Möglichkeit, vorhandene und fehlende Bezüge auf verschiedenen Ebenen zu betrachten und isolierte Effekte aufzuspüren. Der Forschungsprozess soll dabei von der Datensammlung in einem Archiv bis zur Publikation der Resultate von formalen Überlegungen begleitet werden, die es durch eine vorausschauende, der Dimensionalität bewusste Datensatzmodellierung erlauben, einengende Abhängigkeiten im weiteren Forschungsprozess zu vermeiden. Genaue Kenntnisse über den Aufbau eines Datensatzes und daraus abgeleitet mögliche interessante Fragestellungen beeinflussen die Auswahl des Analysewerkzeuges grundsätzlich. Der Netzwerkanalyse verwandte Methoden wie die geometrische Analyse, die multiple Korrespondenzanalyse, die Sequenzanalyse oder auch klassische deskriptive Statistik sind für manche Forschungszwecke besser geeignet als die soziale Netzwerkanalyse, die ihrerseits eigentlich eine Vielfalt von Spielarten umfasst. Die Netzwerk-Sichtweise kann in vielen Bereichen produktiv sein — als Netzwerke aufgefasst werden können Beziehungen unter und zwischen Personen und Organisationen aber auch historischen Ereignissen und Quellen oder linguistischen Einheiten –, um Korrelationen und Beziehungsmuster aufzudecken, sie sollte aber immer auch durch einen qualitativen Blickwinkel auf die Daten ergänzt werden.

    Im letzten Vortrag der Summer School präsentierte Frédéric Kaplan, EPFL Lausanne, das kürzlich angelaufene Venice Time Machine-Projekt von EPFL und Universität Ca’Foscari (Digital Humanities Venice) und mithin seine Vision, durch effiziente Digitalisierung und Datenextrapolation vergangene Zeiten virtuell zu erschliessen und durch die Erkenntnisse wesentlich zu einer temporalen Kartografierung von Städten, Ländern und Kontinenten beizutragen. Erste Voraussetzung für die Kreation einer solchen ‚Zeitmaschine‘ ist die Anhäufung zuverlässiger Daten über die Vergangenheit. Wir verfügen nämlich über eine enorme Datendichte in der Gegenwart, die aber bereits für die vorhergehende Dekaden und mehr noch für vergangene Jahrhunderte sehr viel bescheidener ist. Im Venedig-Projekt sollen zu diesem Zweck im Verlauf der nächsten zehn Jahre rund 80 Laufkilometer Archivalien mit über 100 Millionen Dokumenten, die aus einem Zeitraum von über 1000 Jahren stammen und in verschiedenen Sprachen und Dialekten verfasst wurden, digitalisiert und interoperabel aufbereitet werden, so dass dereinst geschätzte 10 Milliarden ‚Ereignisse‘ (Datenpunkte, factlets) abgefragt werden können. Kaplan und sein Team sehen einer Vielzahl von Stolpersteinen entgegen, denen sie mit innovativen Methoden begegnen wollen: optimierte Scan-Roboter (Vision einer Abtastung der Information in geschlossenen Büchern), verbesserte Texterkennung durch Kontextwissen (analog der Spracherkennung), Nutzung der frei erhältlichen Mithilfe tausender motivierter Studenten gegen Akkreditierung von Kursleistungen in massive open online courses (MOOCs), graphbasierte semantische Informationsmodellierung (RDF), Extrapolation und Simulation fehlender Informationen. Der geisteswissenschaftlichen Forschungsdaten eigenen Ungenauigkeit und Unsicherheit soll durch die Zuweisung ‚fiktiver Räume‘, die in Aggregation Wahrscheinlichkeitsaussagen zulassen, begegnet werden, so dass unter einer Vielzahl potentiell möglicher Vergangenheiten die plausibelsten eruiert werden können. Es handelt sich zweifellos um ein hochinteressantes Projekt mit viel Potential für verschiedene Bereiche. Ob die angestrebte effiziente semantische Erschliessung aber in den nächsten Jahren Realität wird und zufriedenstellende Resultate liefern kann, vermag aus heutiger Warte jedoch gewisse Zweifel zu wecken. 

    Die sieben vielseitigen und interessanten Vorträge wurden durch zwölf Workshops und sieben Unconference-Sessionen ergänzt, die erfreulicherweise oftmals mit einem direkten Bezug zu den Vortragsthemen angeboten wurden und theoretische (Critical Digital Humanities, Zugänglichkeit und Quellenkritik digitaler/digitalisierter Quellen), disziplinäre (DH und die akademische Lehre) und methodische Belange (Datenaufbereitung, Textanalyse, digitale Editionen von Text und Musik, Visualisierungsmethoden, individuelle und kollektive Arbeitspraktiken) sowie deren Überschneidung (semantisch modellierte Forschungsumgebungen) vertieften. Aufgrund der begrenzten verfügbaren Zeit blieb es in vielen Workshops bei der Demonstration und Diskussion, vereinzelt konnten die Teilnehmer aber erfreulicherweise auch durchaus selber aktiv werden, etwa in den Workshops zu TEI-Editionen (E. Pierazzo), Textanalyse (S. Schreibman), Literaturverwaltung (N. Chachereau) oder Gephi-Visualisierungen (M. Grandjean). Für künftige Veranstaltungen sind diese Tutorien-ähnlichen Blöcke sicher sehr wünschenswert, vielleicht auch in ausgedehnter Form über mehrere Zeiteinheiten hinweg oder als eigenständige Hands-on-Tagesveranstaltungen.

    Im Rahmen eines Project Slams stellten rund ein Drittel aller Teilnehmer in Kürzestpräsentationen ihre aktuelle Tätigkeit oder ihr hauptsächliches Forschungsinteresse vor, was eine grosse Bandbreite disziplinärer und thematischer Herkunft offenbarte, die sich zuvor schon in den Diskussionen angedeutet hatte. Mit einem ungezwungenen Diner, gemütlichen Abendstunden in der Bundesstadt, einem spontan organisierten Erfahrungs- und Hintergrundbericht von den Taksim Gezi-Park-Protesten in Istanbul durch zwei Teilnehmer und schliesslich einem Abschluss-Picknick, das aufgrund der Witterung leider nicht draussen durchgeführt werden konnte, bot die Summer School gute Gelegenheit, Kontakte zu knüpfen und Erfahrungen und Visionen zu teilen. Es bleibt zu hoffen, dass der ersten Digital Humanities Summer School in der Schweiz weitere folgen werden, woran dank der zunehmenden Verankerung der Digital Humanities auch hierzulande eigentlich kaum zu zweifeln ist. Mit der Ausrichtung der DH 2014 in Lausanne (6.-12. Juli) zeichnet sich für nächstes Jahr bereits ein hervorragender Anknüpfpunkt ab!

    Call for paper: Geschichte (auf)zeigen. Visualisierung von Daten zwischen Theorie und Praxis

    Die Visualisierung von Daten in den Geisteswissenschaften erlebt in den letzten Jahren eine Renaissance. Neben « klassischen » statistischen Darstellungen erfreuen sich zunehmend neue Visualisierungsformen grosser Beliebtheit, seien es Netzwerkvisualisierungen, Kartographie, Lexikometrie (z.B. Google Ngrams), oder multi-mediale Graphen, um nur einige zu nennen. Verschiedene Faktoren haben diese Entwicklungen beschleunigt. Durch allgemein bessere Rechnerleistung und immer einfacher zu bedienende Software haben heute fast alle Forschenden die Möglichkeit komplexe quantitative Methoden und Visualisierungstools einzusetzen. Darüber hinaus wächst die Zahl offen zugänglicher Daten und digitalisierter Materialien, die mit automatisierten Methoden abgefragt und bearbeitet werden können.

    Diese Entwicklungen wurden bisher nur wenig auf ihre Auswirkungen auf Theorien und Methoden der Geschichtswissenschaft hin untersucht. Forschende, die sich mit neuen Visualisierungsmöglichkeiten beschäftigen, stehen mehreren Problemfeldern gegenüber : Welche Daten können visualisiert werden ? Welche Vor- und Nachteile bieten unterschiedliche Datenformen und verbreitete Tools. Welche Quellen eignen sich für die Erhebung von Daten? Existieren Best-Practice Beispiele für die Erhebung, Aufarbeitung und Darstellung quantitativer Daten und daraus resultierender Visualisierungen ?

    Neben diesen wichtigen methodologischen Überlegungen, lässt sich die allgemeinere Frage nach der Bedeutung dieser Entwicklungen stellen. Entsprechen diese Illustrationen dem im Text Gesagten oder lässt sich in ihnen eine neue Form der Narration erkennen und nutzen ?In welcher Beziehung stehen Visualisierung und Text ? Was ist der wissenschaftliche Mehrwert von Visualisierungen ? Besitzen Visualisierungen Eigenschaften, die anderen wissenschaftlichen Darstellungsformen fehlen ? Welchen Einfluss hat das Comeback von Daten und Visualisierungen auf die Geschichtswissenschaft im Allgemeinen ?

    Nicht zuletzt sollte die historische Dimension von Visualisierungen nicht vergessen werden. Verschiedene Darstellungsformen, wie Karten oder Zeitleisten existieren seit langer Zeit und haben zahlreiche historische Wandlungen durchlaufen. Wann entwickelten sich graphische Darstellungen von Daten ? Wann und unter welchen Umständen wandelten sie sich ? Welche Rolle spielten sie für Wissen, Wissenschaft und Forschung ?

    Der nächste Band der Zeitschrift « Geschichte und Informatik » wird sich mit diesen Fragen beschäftigen. Die Herausgeber freuen sich über Proposal zu den folgenden Themen :

    Einsatz von Visualisierungstechniken in der Geschichtswissenschaft, z.B. :
    • Kartographie (z. B. GIS)
    • Netzwerkanalyse und – visualisierung
    • Text- und Sprachanalyse, Lexikometrie
    • Statistische Visualisierungen

    Methodische Fragen der Datenvisualisierung
    • Datenerhebung und –aufbereitung
    • Wahl der statistischen Methode (z.B. Algorithmen)
    • Bedeutung unterschiedliche Tools und damit verbundenen Visualisierungsmöglichkeiten
    • Allgemeine Darstellung von Daten

    Theoretische Aspekte
    • Vor- und Nachteile für die Geschichtswissenschaften
    • Einfluss auf Fragestellungen
    • Folgen für historische Narrative

    Geschichte der Datenvisualisierung
    • Entwicklung unterschiedlicher Darstellungsformen (Karte, Zeitstrahl, Netzwerke)
    • Geschichte digitaler Visualisierungen
    • Platz der Datenvisualisierung innerhalb der Wissenschaftsgeschichte

    Abstracts mit max. 400 Wörtern sowie einen kurzen CV können bis zum 30. Mai 2013 unter info@ahc-ch.ch eingereicht werden.

    Editoren:
    Nicolas Chachereau (UNIL), Enrico Natale (infoclio.ch), Christiane Sibille (dodis.ch), Patrick Kammerer (UZH), Manuel Hiestand (UZH).

    „Digital Humanities“ an den Geschichtstagen 2013 in Fribourg


    An den Schweizerischen Geschichtstagen  2013 vom 7.-9. Februar in Fribourg finden zwei Panels im Bereich „Digital Humanities“ statt, beide werden von Mitgliedern von G&I organisiert:

    Lokale Themen global diskutieren. Vom Wandel der historischen Fachkommunikation (Donnerstag, 7. Februar, 10:30 bis 13:00 Uhr, Raum 3113), mit Beiträgen von Wenke Bönisch, Frédéric Clavert , Peter Haber, Mills Kelly und Mareike  König.

    Visualisierung von Daten zwischen lokaler Forschung und globaler Vernetzung (Donnerstag, 7. Februar
    14:30 bis 17:00 Uhr, Raum Aud. C) Mit Beiträgen von Christophe Koller, Christof Meigen, Lukas Rosenthaler, Tobias Schweizer, Christiane Sibille, Ivan Subotic, Jens Weber, Andreas Wolter und Patrick Kammerer.