‘just a historian’

Mit freundlicher Genehmigung unseres Vereinsmitglieds Pascal Föhr geben wir hier seine Gedanken zur Sinnhaftigkeit der Bezeichnung des „digitalen Historikers“ wieder, wie er sie auf seinem OpenEdition-Blog ‚

Historical Source Criticism

‚ am 9. August 2013 veröffentlicht hat. Pascal Föhr promoviert an der Universität Basel zum Thema ‚Historische Quellenkritik im digitalen Zeitalter‘.

Wer sich mit digitalen Hilfsmitteln (elektronischen Eingabe- und Verarbeitungsmaschinen) sowie digitalen Objekten beschäftigt, wird im Englischen oft als ‘digital something’ bezeichnet. Im Falle eines Historikers als ‘digital historian’. Im Deutschen Sprachgebrauch wird manchmal ‘Digitaler Historiker’ verwendet – auch Digitale Archivare und Digitale Humanisten (digital humanists) sind bekannt. Wenn von digitalen Historikern (etc.) gesprochen wird, dann ist gemeint, dass sich diese Personen mit digitalen Objekten sowie Arbeitsmitteln und -methoden auskennen und damit arbeiten. ‘Echte’ Digitale Historiker würde ich wahrscheinlich (vorerst) nicht ernst nehmen. Somit stellt sich einerseits die Frage, wie solche Historiker bezeichnet werden sollten und ob es eine solche eigentlich benötigt. Digital historian or just a historian?

Wenn sich digital historians (die Englische Variante wird verwendet solange nicht geklärt ist, ob ein deutscher Begriff nötig ist) so selbstbewusst von den ‘anderen’ Historikern abheben (wollen), dann müssten signifikante Unterschiede zu den analog historians bestehen.

Analoge Geschichte
Eine Suche nach Analoger Geschichte oder analog history hat auf die Schnelle keine Resultate ergeben. Schämen sich analog historians als solche aufzutreten oder schlimmer für die digital historians: gibt es sie eigentlich gar nicht? Denn wenn es keine Analoge Geschichte oder analog historians gibt (es existiert aber eine Geschichte des Analogen), dann ist die Hervorhebung als digital historians müssig.

digital natives and digital immigrants
Eventuell hat es mit der Unterscheidung von ‘digital natives’ und ‘digital immigrants’ zu tun. Einem digital native würde es nicht in den Sinn kommen sich als digital zu bezeichnen, denn sein ganzes Leben hat er schon damit zu tun gehabt, eine Abgrenzung zu anderen seiner Altersgruppe ist nicht möglich. Für die immigrants hingegen ist eine Unterscheidung und die Betonung des ‘digital’ von grosser Wichtigkeit: es kann damit ausgesagt werden, dass man auf der Höhe der Zeit ist, moderne Methoden und Techniken anwendet und auch neue Forschungsfelder bearbeitet. Im Gegensatz zu Historikern die … ja nun was? Caesar untersuchen?

Hilfsmittel
Mittlerweile arbeiten auch die meisten Althistoriker mit Computern und anderen digitalen Hilfsmittel. 3D-Visualisierung von Funden und auch die computergenerierte Nachbildung von Anlagen (Häuser, Städte) sind ‘Altag’. Wenn alle Historiker mit digitalen Hilfsmitteln arbeiten, dann können wir getrost das ‘digital’ streichen und sind wieder ‘nur’ Historiker.

Analoge Datenbasis
An allen Veranstaltungen, an welchen ich teilgenommen habe, wurden Forschungsprojekte vorgestellt, deren Datenbasis analog war, aber daraus mit digitalen Hilfsmitteln neue Erkenntnisse gewonnen wurden. Die Projektmitarbeiter arbeiten alle mit Computern und nutzen komplexe Programme, die sie teils selber geschrieben haben. Diesen Damen und Herren möchte ich keinesfalls unterstellen, dass sie ‘nur analoge’ Historiker sind, weil analoge Daten die Forschungsgrundlage bilden. Digitale Daten fordern zwar einen anderen Zugang, als dies mit analogen Daten der Fall ist, und das Verständnis über die Eigenschaften von digitalen Objekten muss vorhanden sein, aber digitalisierte Daten unterscheiden sich in der Nachbearbeitung nicht von genuin digitalen.

Forschungsfelder
Betreiben digital historians nur Forschung über das Digitale und die anderen über das Analoge? Digital historians haben Kenntnisse über die Eigenschaften von digitalen Objekten und nutzen etwas andere Arbeitsmethoden (Quellenkritik des Digitalen). Sie sind also Spezialisten im Umgang mit digital vorliegenden Informationen, die sich signifkant von anderen, bisher bekannten Quellen unterscheiden. Hier scheint die Bezeichnung eines Digitalen Historikers gerechtfertigt zu sein.

Ausbildung
Der Umgang mit digitalen Datenbeständen wird an den meisten Ausbildungsstätten nicht gelehrt oder beginnt sich erst langsam zu etablieren. Seit dem ‘computational turn’ sind jedoch viele Quellen nur noch digital vorhanden und immer mehr digitale Datenbestände müssen erschlossen werden. Gleichzeitig müssen diese digitalen Objekte auf analoge Informationen bezogen werden können, eine hybride Ausbildung ist also nötig. Solange aber der Umgang mit digitalen Datenbeständen nicht zum Curriculum gehört, ist die Hervorhebung als digital historian durchaus berechtigt.

digital historian or just a historian?
Peter Haber hat vor etwa vier Jahren gesagt, dass in naher Zukunft das ‘Digital’ wegfallen wird, weil alle digital arbeiten. Dies scheint mir heute schon der Fall zu sein, zumindest in den technisierten Ländern. Wer sich jedoch mit Fragen über das Digitale, den ‘computational turn’, digitale Daten (big data) nutzt und damit umzugehen weiss, ist unter den Historikern ein Spezialist, der den Titel eines ‘digital historian’ m.E. führen darf.

Bezeichnung
Die Übersetzung ist, wie zu beginn des Artikels dargestellt, ist mit ‘Digitaler Historiker’ nicht korrekt und bedarf einer Präzisierung. Bisherige Bezeichnungen von historischen Spezialisten beziehen sich auf ein Objekt (Sphragistiker) oder eine Epoche (Mediävist). Eine Epochenbezeichnung ist nicht angebracht, weil der ‘computational turn’ zwar neue methodische Arbeitsweisen erfordert, aber trotzdem keine neue Epoche einläutete (zugegeben, darüber wird gestritten). Der Bezug auf das (digitale) Objekt wäre korrekter und würde den Spezialisten auch als solchen bezeichnen. ‘Digitalist’ sagt zu wenig über das historische Element aus, Historischer Digitalist ist zu umständlich. ‘Digitalhistoriker’ hingegen scheint der gesuchte Begriff zu sein: einerseits wird damit ausgedrückt, dass es sich um einen Historiker (oder eine Historikerin) handelt, andererseits auch, dass sich der Historiker mit den Eigenschaften digitaler Objekte auskennt, digitale oder digitalisierte Daten bearbeitet, digitale Hilfsmittel und entsprechende Arbeitsmethoden anwendet und dass das Digitale an sich zu seinen Interessen gehört.

Bin ich also ‘just a historian’? Nein. Ich bin Historiker! Spezialisiert auf Digitalgeschichte und der sich als Digitalhistoriker bezeichnen darf.

Crossposting von http://hsc.hypotheses.org/241

Veröffentlicht unter Digital Humanities, Inter-/Disziplinäres | Hinterlasse einen Kommentar

Tagungsbericht zur ersten Digital Humanities Summer School Bern

Die (Inter-)Disziplin der digitalen Geisteswissenschaften (Digital Humanities) konturiert sich auch in der Schweiz immer deutlicher. Nach einer Reihe regionaler und nationaler Fachtagungen, erster Berufungen an Universitäten und eines ersten THATCamps — einer relativ informellen und stark partizipaitven Unconference –, das auch in die Nachbarländer und teilweise darüber hinaus ausstrahlte, fand vor wenigen Tagen mit der ersten Digital Humanities Summer School an der Universität Bern ein weiterer bedeutender DH-Anlass statt. Wie das Lausanner THATCamp (2009) wurde die DH-Summer School durch ein bewährtes Konsortium aus Vertretern der Geschichtsplattformen infoclio.ch (als Hauptorganisator) und hist.net, des Vereins Geschichte und Informatik (also der Hausherren dieses Blogs), des DODIS-Editionsprojekts sowie von Forschenden der Universitäten Bern und Lausanne (LADHUL, DHLab) organisiert und durchgeführt. Dank eines attraktiven Programms mit Präsentatoren und Workshop-Leitern von internationalem Ruf waren die gut hundert Plätze im Frühjahr in kürzester Zeit an Teilnehmer aus zwanzig verschiedenen Ländern vergeben. 

Die viertägige Summer School begann am Mittowch, 26. Juni, mit einem Eröffnungsvortrag durch Ray Siemens, Universität Victoria CA und ADHO-Direktor, der das Verhältnis der Digital Humanities zu den hergebrachten Disziplinen und dem Spannungsfeld zwischen ihnen auszuleuchten versuchte, wobei seine wichtigsten Referenzpunkte Cathy Davidsons Begriff ‚Digital Humanities 2.0‘ und Willard McCartys ‚Methodological Commons‘ (ibi p. 118-119) waren. Erscheinen die Digital Humanities von aussen betrachtet verhältnismässig positivistisch geprägt, eröffnen sich aus der Innenperspektive vielerlei kritische Aspekte und unscharfe Grenzziehungen. Siemens plädiert dafür, den definitorischen Problemen nicht auszuweichen, da diesbezüglich eine gewisse Standfestigkeit notwendig sei, um die disziplinäre und interdisziplinäre Forschung voranzubringen. 

Susan Schreibman, Trinity College Dublin, lieferte im nächsten Vortrag historischen Kontext zur Genese der Digital Humanities und den wechselnden Selbstverständnissen der Akteure, wobei sich der Bogen von Roberto Busas Lochkarten-basierter Thomas von Aquin-Konkordanz bis hin zu virtuellen Welten spannte, welche die Beantwortung ganz konkreter Fragestellungen ermöglichen sollen, letzteres veranschaulicht durch das laufende Easter Rising-Projekt und dessen virtuelles Strassenpanorama, das, situative Begebenheiten und das Potential der verwendeten Waffen berücksichtigend, Aufschluss über mögliche Opferzahlen während des Dubliner Osteraufstandes von 1916 geben soll. Die Anekdote des zunächst irrtümlicherweise online frei zugänglich gemachten Bandes ‚Digital Humanities‘, welche den Verkauf des Werks erst recht angekurbelt hat, ermöglichte einen interessanten Bezug zu den im Wandel begriffenen Publikationsmodellen und den damit einhergehenden Fragen nach wissenschaftlicher Anerkennung und in der Verlängerung zur viel diskutierten Wertfrage des ‚building and making‘ im Gegensatz zu ‚reading and critique‘. Durch sich verschiebende Gewichte und den postulierten ‚object life cycle‘ bzw. genereller durch die Bestrebungen zur langfristigen Kuration von Forschungsdatenbeständen deutet sich nach Schreibman eine gewisse Konvergenz der bis anhin disparaten Arbeitsfelder von Forschern und Dokumentalisten (Bibliothekaren, Archivaren) an.

Vermochten diese beiden einführenden Referate die Entwicklung und den gegenwärtigen Stand digitaler geisteswissenschaftlicher Forschung einigermassen abzustecken, blieb das inspirierende Moment vielleicht etwas hinter den Erwartungen zurück. Illustrieren lässt sich dies beispielsweise am (zu) verbreiteten Visualisierungstyp der Begriffswolke (word cloud, wordle; bisweilen auch als Vokuhilas des Internets bezeichnet), den Siemens wie Schreibman in ihren Präsentationen verwendeten, was aus dem Publikum prompt hinterfragt wurde und einer Diskussion über den Einsatz von Werkzeugen Weg bereitete, deren Mechanismen häufig nicht evident sind und die folglich Resultate verzerren können.

Umstrittene Begriffswolken
Claire Clivaz, Ray Siemens; Bild: Martin Grandjean

 

Elena Pierazzo, Kings College London, verband in ihrem Vortrag kommunikations- und texttheoretische Aspekte konzise mit den vielfältigen praktischen Herausforderungen, die digitale Editionsprojekte mit sich bringen. Ausgehend von der grundlegenden Unterscheidung der linguitischen Konstruktion (Text) vom physischen Objekt (Dokument) erörterte sie das editorische Spektrum, das von einfachen, evident gegliederten, neoplatonischen Texten über Leseausgaben, kritische Editionen und diplomatische Editionen hin zu dokumentnahen Faksimile-Editionen reicht. Seit mehreren Jahrzehnten kommt dabei besonders der materiellen Dimension von Texten grössere Bedeutung (critique génétique, material/new philology) zu, was die — ohnehin komplexe und konventionalisierte — editorische Praxis weiter ausdifferenziert hat. Mit dem Transfer der zugehörigen Editionsformen in den digitalen Raum stellen sich viele Fragen, deren wichtigste Pierazzo schlaglichtartig tangierte und mit zugleich illustrativen und beeindruckenden Beispielen veranschaulichte. Ihr eigener vor dem Hintergrund der Arbeit der TEI Manuscripts SIG entstandener Proust-Prototyp lässt den Leser durch die sequentielle Anzeige von Textpassagen beispielsweise gleichsam dem Autor bei der Entstehung des Texts über die Schultern blicken. Zur Sprache kam mehrfach auch die Position des Editors, dessen Textverständnis im Encoding manifest wird und dessen Rolle und Autorität gerade auch bei Crowdsourcing-Editionsprojekten definiert werden sollte. Zum Themenkreis digitaler Editionsformen vgl. aktuell und ausführlich Sahle (2013) und dann vor allem auch Pierazzos neues Werk zu digital scholarly editions, das in absehbarer Zeit verfügbar sein wird.

In seinem zweiten Vortrag, der sich mit der sozialen Wissenskonstruktion und -produktion (in den Literaturwissenschaften) befasste, äusserte Ray Siemens die These, dass grössere Datenmengen, beschleunigte Arbeitsweisen, unmittelbarere und dichtere Kommunikation sowie verstärkte Teilhabe des Publikums in der Datenerzeugung und im wissenschaftlichen Diskurs das Potential hätten, Forschungsfragen und Forschungsprozesse wesentlich zu beeinflussen. Anknüpfend an die Arbeit des Electronic Textual Cultures Lab (ETCL, U Victoria), und vor dem Hintergrund, dass Wissen in der Regel in chaotischen Strukturen und unter sehr unterschiedlichen Bedingungen entsteht, wobei gerade die informelle Forschungskommunikation bedeutsam ist, beschrieb Siemens eine Umdeutung der Rolle der Forschenden im digitalen Umfeld von didaktischen Autoritäten hin zu Wissensermöglichern (facilitators of knowledge). Kollaborative Werkzeuge, welche grundlegende Funktionen wie die Bereitstellung von Materialien, deren Annotation, Verzeichnung und Analyse ermöglichen — durch Siemens anhand einer Fülle von Beispielen dargelegt, etwa zur Honorierung freiwilliger Partizipation (Gamification), ergänzt durch eine hervorragende annotierte Bibliographie –, sind in diesem Kontext für die Wissensproduktion elementar. Wissen entsteht vor einem grösseren Publikum und durch mehr Akteure, seine Produktion verlagert sich im akademischen Kontext wie in anderen Bereichen (z.B. Journalismus) ausserhalb institutioneller Strukturen. Aus diesen Überlegungen leitet Siemens eine Reihe von Forderungen an zeitgenössische Forscher ab: Damit (Geistes-)Wissenschaftler die Entwicklung neuer Methodologien und Kommunikationsformen mitprägen können, müssen sie die Potenziale neuer Medien untersuchen, um sie bestmöglich zu verstehen, die Mechanismen kollaborativer Arbeitsinstrumente kennen, Grenzen ausloten, unterliegende Ideologien freilegen und einfache positivistische Ansätze in Frage stellen. Neben engagiertes Gestalten und Kreieren soll eine kritische Theorie treten, welche ethische und disziplinäre Standards ständig reflektiert.

Viele der zuvor anklingenden Implikationen der Erweiterung geisteswissenschaftlicher Disziplinen um neue Ansätze und Methoden auf theoretische, moralische und gesellschaftliche Belange bündelte David Berry, Swansea University, in einem dicht befrachteten Vortrag zu DH und Kulturkritik bzw. den Critical Digital Humanities. Auch er setzt bei der Definition und Abgrenzung des Feldes an, dabei er Stephen Ramsays DH-Typisierung aufnehmend, die der vorab praktisch orientierten und relativ institutionalisierten Community wie sie sich in den frühen 1990er Jahren unter dem Schlagwort Computing in the Humanities formierte (DH-Typus I), eine neuere weniger klar umrissene Bewegung entgegenstellt, deren Interessen breit gefächert sind und die mit bisweilen revolutionärer Gesinnung eine eigentliche Erneuerung der Geisteswissenschaften anstrebt (DH-Typus II; Medientheoretiker, Kulturkritiker, Digitalkünstler). Der Frage, was sich in der Konfiguration der geisteswissenschaftlichen Forschung wirklich verändert, näherte sich Berry aus den Perspektiven der Quantifizier- und Kalkulierbarkeit, der Organisation und des Beschleunigungspotenzials. Mit der Überhandnahme eines metrischen Paradigmas, das Hermeneutik durch Mathematik ersetzt und die Formalisierung der Forschung befördert, verändert sich auch der organisatorische Rahmen: Forschung wird projektbezogen betrieben und Administratoren und Projektleiter machen Professoren das Terrain streitig. Zugleich beschleunigt sich die Forschungstätigkeit durch effiziente Analyseformen, hochgradig responsive Kommunikationsmittel und eine in manchen Fällen ausbeuterische Arbeitsteilung. Vorwürfe, die Digital Humanities seien zuvörderst eine opportunistische und marktanbiedernde Ausrichtung der Forschung nach Kosten-Nutzen-Forderungen lassen sich nach Berry nicht kategorisch von der Hand weisen, gibt es doch deutliche Parallelen zwischen DH-Diskursen und Managementfloskeln. Näher betrachtet handle es sich aber um genuin geisteswissenschaftliche Betätigung, die keineswegs bewährte Forschungsprinzipien leichtfertig gegen die gerade angesagtesten Technologien und Ansätze eintauscht. Dafür, dass „digital“ in der politischen Ökonomie der Universitäten längst ein Schlüsselwort im Erschliessen neuer Geldquellen ist, gibt es jedoch zahllose Belege. Berry fordert zurecht mehr Anerkennung für die bereits geleistete kritische Arbeit und mehr Unterstützung für ihren Ausbau. Der möglicherweise resultierende Verlangsamungseffekt könne durchaus produktiv sein, indem die Forschung durch verstärkte Reflexion profitiere, gerade auch jenseits der Projektebene in der längerfristigen Perspektive.

Im Gegensatz zu Berrys übergreifendem Vortrag konzentrierte sich jener von Claire Lemercier, CNRS-Sciences Po, Paris, über Netzwerkanalyse auf eine spezifische Forschungsmethode, ohne es aber zu missen, Bezüge zu quantitativen Methodolgien zu schaffen. Im Vordergrund standen dabei nicht konkrete analytische Werkzeuge, sondern die formalen Möglichkeiten, Forschungsdaten einer Linse gleich aus verschiednen Winkeln und Distanzen zu untersuchen. Das Potential der Methode liege weniger in attraktiven Visualisierungen komplexer (und oftmals wenig aussagekräftiger) Netzwerke als in der Möglichkeit, vorhandene und fehlende Bezüge auf verschiedenen Ebenen zu betrachten und isolierte Effekte aufzuspüren. Der Forschungsprozess soll dabei von der Datensammlung in einem Archiv bis zur Publikation der Resultate von formalen Überlegungen begleitet werden, die es durch eine vorausschauende, der Dimensionalität bewusste Datensatzmodellierung erlauben, einengende Abhängigkeiten im weiteren Forschungsprozess zu vermeiden. Genaue Kenntnisse über den Aufbau eines Datensatzes und daraus abgeleitet mögliche interessante Fragestellungen beeinflussen die Auswahl des Analysewerkzeuges grundsätzlich. Der Netzwerkanalyse verwandte Methoden wie die geometrische Analyse, die multiple Korrespondenzanalyse, die Sequenzanalyse oder auch klassische deskriptive Statistik sind für manche Forschungszwecke besser geeignet als die soziale Netzwerkanalyse, die ihrerseits eigentlich eine Vielfalt von Spielarten umfasst. Die Netzwerk-Sichtweise kann in vielen Bereichen produktiv sein — als Netzwerke aufgefasst werden können Beziehungen unter und zwischen Personen und Organisationen aber auch historischen Ereignissen und Quellen oder linguistischen Einheiten –, um Korrelationen und Beziehungsmuster aufzudecken, sie sollte aber immer auch durch einen qualitativen Blickwinkel auf die Daten ergänzt werden.

Im letzten Vortrag der Summer School präsentierte Frédéric Kaplan, EPFL Lausanne, das kürzlich angelaufene Venice Time Machine-Projekt von EPFL und Universität Ca’Foscari (Digital Humanities Venice) und mithin seine Vision, durch effiziente Digitalisierung und Datenextrapolation vergangene Zeiten virtuell zu erschliessen und durch die Erkenntnisse wesentlich zu einer temporalen Kartografierung von Städten, Ländern und Kontinenten beizutragen. Erste Voraussetzung für die Kreation einer solchen ‚Zeitmaschine‘ ist die Anhäufung zuverlässiger Daten über die Vergangenheit. Wir verfügen nämlich über eine enorme Datendichte in der Gegenwart, die aber bereits für die vorhergehende Dekaden und mehr noch für vergangene Jahrhunderte sehr viel bescheidener ist. Im Venedig-Projekt sollen zu diesem Zweck im Verlauf der nächsten zehn Jahre rund 80 Laufkilometer Archivalien mit über 100 Millionen Dokumenten, die aus einem Zeitraum von über 1000 Jahren stammen und in verschiedenen Sprachen und Dialekten verfasst wurden, digitalisiert und interoperabel aufbereitet werden, so dass dereinst geschätzte 10 Milliarden ‚Ereignisse‘ (Datenpunkte, factlets) abgefragt werden können. Kaplan und sein Team sehen einer Vielzahl von Stolpersteinen entgegen, denen sie mit innovativen Methoden begegnen wollen: optimierte Scan-Roboter (Vision einer Abtastung der Information in geschlossenen Büchern), verbesserte Texterkennung durch Kontextwissen (analog der Spracherkennung), Nutzung der frei erhältlichen Mithilfe tausender motivierter Studenten gegen Akkreditierung von Kursleistungen in massive open online courses (MOOCs), graphbasierte semantische Informationsmodellierung (RDF), Extrapolation und Simulation fehlender Informationen. Der geisteswissenschaftlichen Forschungsdaten eigenen Ungenauigkeit und Unsicherheit soll durch die Zuweisung ‚fiktiver Räume‘, die in Aggregation Wahrscheinlichkeitsaussagen zulassen, begegnet werden, so dass unter einer Vielzahl potentiell möglicher Vergangenheiten die plausibelsten eruiert werden können. Es handelt sich zweifellos um ein hochinteressantes Projekt mit viel Potential für verschiedene Bereiche. Ob die angestrebte effiziente semantische Erschliessung aber in den nächsten Jahren Realität wird und zufriedenstellende Resultate liefern kann, vermag aus heutiger Warte jedoch gewisse Zweifel zu wecken. 

Die sieben vielseitigen und interessanten Vorträge wurden durch zwölf Workshops und sieben Unconference-Sessionen ergänzt, die erfreulicherweise oftmals mit einem direkten Bezug zu den Vortragsthemen angeboten wurden und theoretische (Critical Digital Humanities, Zugänglichkeit und Quellenkritik digitaler/digitalisierter Quellen), disziplinäre (DH und die akademische Lehre) und methodische Belange (Datenaufbereitung, Textanalyse, digitale Editionen von Text und Musik, Visualisierungsmethoden, individuelle und kollektive Arbeitspraktiken) sowie deren Überschneidung (semantisch modellierte Forschungsumgebungen) vertieften. Aufgrund der begrenzten verfügbaren Zeit blieb es in vielen Workshops bei der Demonstration und Diskussion, vereinzelt konnten die Teilnehmer aber erfreulicherweise auch durchaus selber aktiv werden, etwa in den Workshops zu TEI-Editionen (E. Pierazzo), Textanalyse (S. Schreibman), Literaturverwaltung (N. Chachereau) oder Gephi-Visualisierungen (M. Grandjean). Für künftige Veranstaltungen sind diese Tutorien-ähnlichen Blöcke sicher sehr wünschenswert, vielleicht auch in ausgedehnter Form über mehrere Zeiteinheiten hinweg oder als eigenständige Hands-on-Tagesveranstaltungen.

Im Rahmen eines Project Slams stellten rund ein Drittel aller Teilnehmer in Kürzestpräsentationen ihre aktuelle Tätigkeit oder ihr hauptsächliches Forschungsinteresse vor, was eine grosse Bandbreite disziplinärer und thematischer Herkunft offenbarte, die sich zuvor schon in den Diskussionen angedeutet hatte. Mit einem ungezwungenen Diner, gemütlichen Abendstunden in der Bundesstadt, einem spontan organisierten Erfahrungs- und Hintergrundbericht von den Taksim Gezi-Park-Protesten in Istanbul durch zwei Teilnehmer und schliesslich einem Abschluss-Picknick, das aufgrund der Witterung leider nicht draussen durchgeführt werden konnte, bot die Summer School gute Gelegenheit, Kontakte zu knüpfen und Erfahrungen und Visionen zu teilen. Es bleibt zu hoffen, dass der ersten Digital Humanities Summer School in der Schweiz weitere folgen werden, woran dank der zunehmenden Verankerung der Digital Humanities auch hierzulande eigentlich kaum zu zweifeln ist. Mit der Ausrichtung der DH 2014 in Lausanne (6.-12. Juli) zeichnet sich für nächstes Jahr bereits ein hervorragender Anknüpfpunkt ab!

Veröffentlicht unter Digital Humanities, Inter-/Disziplinäres, Rezensionen / Tagungsberichte, Unconference, Veranstaltungen | 1 Kommentar

Zeitreisen mit „Digital Humanities“

Das Echo der Zeit wirft ein kurzes Schlaglicht auf die Digital Humanities in Form eines Interviews mit Prof. Frédéric Kaplan, EPFL Lausanne. Weiterführende Informationen zu den angesprochenen Projekten finden sich auf Kaplans Blog.

Als Pionier der schweizerischen digitalen Geisteswissenschaften wirkt F. Kaplan zur Zeit an der ersten Digital Humanities Summer School in Bern mit.

Aus Echo der Zeit vom 27.06.2013, 18:00 Uhr

Die Informationstechnologien dringen zunehmend in die Studierstuben der Geisteswissenschaften vor. «Digital Humanities» heisst diese neue Disziplin und Frédéric Kaplan ihr erster Professor in der Schweiz.

Interessant auch Kaplans Ausführungen gegenüber Couleur 3 vom 25. Juni 2013.

Veröffentlicht unter Digital Humanities | Hinterlasse einen Kommentar

In Memoriam Peter Haber (1964–2013)

haber_peter_2013

(Bildnachweis: Sternenjäger http://www.digitalbrainstorming.ch/weblog/2011/01/das_wikipediaprinzip_gespraech_1.html)

Der Verein „Geschichte und Informatik“ trauert um sein langjähriges Mitglied Peter Haber. Peter gehörte zu den Pionieren der Digital Humanities in der Schweiz. Er hat darüber hinaus über lange Jahre die Aktivitäten unsres Vereins geprägt, sei es als Vorstandsmitglied, als Autor und Herausgeber für „Geschichte und Informatik“ oder als Organisator und Referent an zahlreichen Tagungen. Peter war immer da, hatte immer ein offenes Ohr und regte zum Nach- und Weiterdenken an. Es fällt uns schwer, uns die digitale Geschichtswissenschaft ohne ihn vorzustellen und er wird uns fehlen.
Unser tiefes Mitgefühl gilt seiner Familie, der wir unser herzliches Beileid aussprechen.

Rahel Ackermann, Mario Aeby, Yves Bolognini, Nicolas Chachereau, Manuel Hiestand, Patrick Kammerer, Enrico Natale, Christiane Sibille

Veröffentlicht unter Digital Humanities, History of Computing, Uncategorized | 1 Kommentar

Call for paper: Geschichte (auf)zeigen. Visualisierung von Daten zwischen Theorie und Praxis

Die Visualisierung von Daten in den Geisteswissenschaften erlebt in den letzten Jahren eine Renaissance. Neben « klassischen » statistischen Darstellungen erfreuen sich zunehmend neue Visualisierungsformen grosser Beliebtheit, seien es Netzwerkvisualisierungen, Kartographie, Lexikometrie (z.B. Google Ngrams), oder multi-mediale Graphen, um nur einige zu nennen. Verschiedene Faktoren haben diese Entwicklungen beschleunigt. Durch allgemein bessere Rechnerleistung und immer einfacher zu bedienende Software haben heute fast alle Forschenden die Möglichkeit komplexe quantitative Methoden und Visualisierungstools einzusetzen. Darüber hinaus wächst die Zahl offen zugänglicher Daten und digitalisierter Materialien, die mit automatisierten Methoden abgefragt und bearbeitet werden können.

Diese Entwicklungen wurden bisher nur wenig auf ihre Auswirkungen auf Theorien und Methoden der Geschichtswissenschaft hin untersucht. Forschende, die sich mit neuen Visualisierungsmöglichkeiten beschäftigen, stehen mehreren Problemfeldern gegenüber : Welche Daten können visualisiert werden ? Welche Vor- und Nachteile bieten unterschiedliche Datenformen und verbreitete Tools. Welche Quellen eignen sich für die Erhebung von Daten? Existieren Best-Practice Beispiele für die Erhebung, Aufarbeitung und Darstellung quantitativer Daten und daraus resultierender Visualisierungen ?

Neben diesen wichtigen methodologischen Überlegungen, lässt sich die allgemeinere Frage nach der Bedeutung dieser Entwicklungen stellen. Entsprechen diese Illustrationen dem im Text Gesagten oder lässt sich in ihnen eine neue Form der Narration erkennen und nutzen ?In welcher Beziehung stehen Visualisierung und Text ? Was ist der wissenschaftliche Mehrwert von Visualisierungen ? Besitzen Visualisierungen Eigenschaften, die anderen wissenschaftlichen Darstellungsformen fehlen ? Welchen Einfluss hat das Comeback von Daten und Visualisierungen auf die Geschichtswissenschaft im Allgemeinen ?

Nicht zuletzt sollte die historische Dimension von Visualisierungen nicht vergessen werden. Verschiedene Darstellungsformen, wie Karten oder Zeitleisten existieren seit langer Zeit und haben zahlreiche historische Wandlungen durchlaufen. Wann entwickelten sich graphische Darstellungen von Daten ? Wann und unter welchen Umständen wandelten sie sich ? Welche Rolle spielten sie für Wissen, Wissenschaft und Forschung ?

Der nächste Band der Zeitschrift « Geschichte und Informatik » wird sich mit diesen Fragen beschäftigen. Die Herausgeber freuen sich über Proposal zu den folgenden Themen :

Einsatz von Visualisierungstechniken in der Geschichtswissenschaft, z.B. :
• Kartographie (z. B. GIS)
• Netzwerkanalyse und – visualisierung
• Text- und Sprachanalyse, Lexikometrie
• Statistische Visualisierungen

Methodische Fragen der Datenvisualisierung
• Datenerhebung und –aufbereitung
• Wahl der statistischen Methode (z.B. Algorithmen)
• Bedeutung unterschiedliche Tools und damit verbundenen Visualisierungsmöglichkeiten
• Allgemeine Darstellung von Daten

Theoretische Aspekte
• Vor- und Nachteile für die Geschichtswissenschaften
• Einfluss auf Fragestellungen
• Folgen für historische Narrative

Geschichte der Datenvisualisierung
• Entwicklung unterschiedlicher Darstellungsformen (Karte, Zeitstrahl, Netzwerke)
• Geschichte digitaler Visualisierungen
• Platz der Datenvisualisierung innerhalb der Wissenschaftsgeschichte

Abstracts mit max. 400 Wörtern sowie einen kurzen CV können bis zum 30. Mai 2013 unter info@ahc-ch.ch eingereicht werden.

Editoren:
Nicolas Chachereau (UNIL), Enrico Natale (infoclio.ch), Christiane Sibille (dodis.ch), Patrick Kammerer (UZH), Manuel Hiestand (UZH).

Veröffentlicht unter Call for Papers, Veranstaltungen | 1 Kommentar

„Digital Humanities“ an den Geschichtstagen 2013 in Fribourg


An den Schweizerischen Geschichtstagen  2013 vom 7.-9. Februar in Fribourg finden zwei Panels im Bereich „Digital Humanities“ statt, beide werden von Mitgliedern von G&I organisiert:

Lokale Themen global diskutieren. Vom Wandel der historischen Fachkommunikation (Donnerstag, 7. Februar, 10:30 bis 13:00 Uhr, Raum 3113), mit Beiträgen von Wenke Bönisch, Frédéric Clavert , Peter Haber, Mills Kelly und Mareike  König.

Visualisierung von Daten zwischen lokaler Forschung und globaler Vernetzung (Donnerstag, 7. Februar
14:30 bis 17:00 Uhr, Raum Aud. C) Mit Beiträgen von Christophe Koller, Christof Meigen, Lukas Rosenthaler, Tobias Schweizer, Christiane Sibille, Ivan Subotic, Jens Weber, Andreas Wolter und Patrick Kammerer.

Veröffentlicht unter Digital Humanities, Uncategorized, Veranstaltungen | Hinterlasse einen Kommentar

Generalversammlung G&I – Assemblée générale de H&I 2012

Einladung zur Generalversammlung G&I – Congrès annuel et assemblée générale de H&I 2012

Es freut uns sehr, Sie zu unserer Generalversammlung 2012 einzuladen. Die Generalversammlung findet am Freitag 2.11.2012 um ca. 17.30 Uhr im Anschluss an die infoclio.ch-Tagung 2012: «Zugangs- und Nutzungsrechte für historische Quellen im Web» im Kornhausforum (Kornhausplatz 18) in Bern statt.

Vereinsmitglieder und Interessierte sind herzlich eingeladen.

 

Veröffentlicht unter Uncategorized, Veranstaltungen | Hinterlasse einen Kommentar

Nouveaux styles de citation Zotero adaptés aux pratiques des universités suisses

Le logiciel de gestion bibliographique Open source Zotero sert à constituer, trier et organiser un répertoire bibliographique. Conçu par des historiens, il s’intègre facilement au navigateur internet Firefox et peut être téléchargé gratuitement. Les données bibliographiques peuvent ensuite être exportées lors de la rédaction d’un travail écrit, en créant automatiquement des notes de bas de page et/ou une bibliographie.

Il manquait jusqu’à présent un style de citation qui corresponde aux conventions des universités en Suisse. Nicolas Chachereau, membre du comité de l’association Histoire et informatique, a developpé pour le compte d‘infoclio.ch deux styles de citation bibliographiques pour Zotero qui sont dès à présent à disposition de toutes les personnes intéressées.

En raison des différentes conventions bibliographiques entre la Suisse allemande et la Suisse romande, deux styles distincts sont été développés. Les styles infoclio.ch peuvent être téléchargés gratuitement dans le « Zotero Style Repository ». Entrer «infoclio» dans le champ de recherche et passer la souris sur les titres pour voir le rendu de chaque style.

Instructions d’installation :

  1. Choisir le style «infoclio.ch francophone avec petites majuscules» ou «infoclio.ch francophone sans petites majuscules» ou «infoclio.ch Deutschschweiz» ou tous les trois !
  2. Au clic, une fenêtre apparaît, demandant si le style peut être installé. Confirmer en cliquant sur «Installer»
  3. Les styles infoclio se trouvent maintenant dans le « Gestionnaire de Styles » (Préférences Zotero -> Citer-> Styles) et peuvent être désormais utilisés.
Veröffentlicht unter Uncategorized | Hinterlasse einen Kommentar

Digital Humanities 2012 Hamburg – Some Thoughts on the Diversity of DH 2012

As an assistant at the Digital Humanities 2012 conference and at the same time being presumably one of the very first Swiss students obtaining a degree in Digital Humanities (at least under this denomination), I was pleased by Enrico Natale’s suggestion to share some of my experience here. After enjoying the engaging first THATcamp Switzerland that was held in Lausanne last November it seemed well worth to also attend an  international gathering in order to experience the field in its full width and to see and hear (and talk to) some of the people that had already gotten somewhat familiar from journal and mailing list contributions. The annual conference of the ADHO, the Digital Humanities, of course affords these opportunities very well and the time at DH 2012 indeed turned out to be very rewarding.

The following are three thoughts that evolve around the central notion of this year’s conference theme – (digital) diversity:

  1. Whereas the conference theme in many cases may inform the keynotes and some formal addresses, but other than that not noticeably resonates with the bulk of workshops or presentations, this was quite different for the DH 2012. Here, the conference theme ‚Digital Diversity – Cultures, languages and methods‘ had implications that went beyond the more formal occasions and promise to have a bearing for the future configuration of the field. The most notable development with regard to this is the foundation of the DHD, the regional charter of the ADHO that yet needs to precisely define its inclusiveness and final name (Enrico Natale already reported Swiss perspectives on the subject). As Paul Spence, chair of the International Program Committee and local organizer of DH 2010, notes „the DH community is clearly developing in new and exciting ways, and it is particularly exciting to see non-Anglophone groups develop a stronger presence on the international DH stage.“ Similar sentiments were echoed on Twitter during the conference and it is great to see this development honored by anglophone members of the DH community.
     
  2. The diversity of Digital Humanities also became manifest in my very direct environment during the week in Hamburg. The local organizing committee was joined by a handful of local students and three international students from Asia, South America, North America and Europe respectively. 1 This brought a notable diversity into the team that not only related to the geographical and cultural provenience, but also to different educational backgrounds and areas of interest ranging from buddhist informatics to urban acoustics or typography. Not everyone was equally immersed with the various theories, concepts and technological approaches that were debated during the week, but there were always common grounds of interest that allowed for interesting conversations. In this regard I was reminded of the THATcamp in Lausanne and it was a welcome change to the discussions with my classmates that – while not less interesting – are often based on the same or very similar literature and in comparison are much more homogeneous. I would encourage future organizers of the DH conference to explicitly invite international applications for student assistant bursaries and to perhaps follow the lead of DH 2012 and allow for a per continent quota in order to reflect the worldwide DH research community (provided there are enough eligible applications).
    It was nice to learn that some of my international colleagues also took the opportunity to attend other events preceding or subsequent to the DH conference such as the Digital.Humanities@Oxford Summer School or the European Summer School in Digital Humanities in Leipzig, which is certainly a great thing to do. With their emphasis on workshops and practical training these summer schools are indeed excellent complements to the DH conference.
     
  3. While the disciplinary and thematic diversity of the contributions was remarkable, language and literature related fields continue to represent the biggest share of the program. As a historian I tried to follow sessions and presentations that focussed on historical research questions and historical objects of research, but this was not always easy to reconcile with my schedule that usually involved a half-day of session coverage or presence at the reception desk. On thursday in particular, things got complicated for historians. Several sessions of interest to historians concurred and a number of them could be seen quietly packing their things and swiftly changing lecture halls between two presentations. Matters were somewhat different on Friday afternoon when Dino Buzzetti and Manfred Thaller addressed a large audience with an impressive dialogic presentation (see here, here, and here) that touched on more than a few fundamental aspects of markup theory, textuality, interpretation and semantic relations. I deem it very desirable that presentations and talks that highlight a specific research problem or showcase an ongoing project are complemented by this kind of encompassing and thought provoking discussions that have the potential to bring various disciplines of digital humanities forward.

Notes:

  1. On the student assistants‘ tasks and some technical issues:
    The tasks of the student assistants encompassed live coverage of the session via a shared twitter account, sharing reflections and anecdotes on the students’ blog as well as recording most of the presentations on video. Personally, I had the pleasure to record Marc Alexander, who was later proclaimed the winner of the 2012 Fortier Prize that is awarded to the ADHO Bursary winner whose conference submission is judged by the Bursary Award Panel to be the most outstanding. While perambulating the stage area during his stunning presentation, Marc gave me a hard time keeping the camera on him at a reasonable level of zoom. As this recording might figure among the ones that are watched most frequently I am glad that the recording of the slides went flawlessly.
    Recordings such as this one were generally made available as streams within short time after the sessions, which brought a lot of praise from the audience both present in Hamburg and from remote locations. Occasionally however the Lecture2Go system that was used to record the audio and video signals and the presentation slides using an Epiphan frame grabber (the Lecture2Go setup very much resembles the SWITCHcast system used by Swiss universities) proved to be too intricate resulting either in cropped slides or no usable output altogether. Both the responsible technicians and the recording students identified room for improvement with regard to the technical aspects of the session recording.
Veröffentlicht unter Digital Humanities, Inter-/Disziplinäres, Rezensionen / Tagungsberichte, Veranstaltungen | 1 Kommentar

Digital Humanities 2012 Hamburg – Poster session (18/07/12)

Pour se faire une idée de la diversité des projets représentés à la conférence Digital Humanities 2012, rien de tel qu’une plongée dans la Poster Session, où, pendant une heure et demie, une cinquantaine de projets étaient présentés par leurs équipes dans le hall de la faculté de Sciences Humaines de l’université de Hamburg.
Cette session était inclue en session plénière dans le programme, et la plupart des participants étaient présents, contribuant à l’animation du moment. Bravo aux organisateurs, qui ont trouvé la bonne formule pour une Poster Session réussie. Les projets sont présentés dans leur ordre de rencontre.

Sous le titre de „Digital Knowledge Store“ se cache la réponse de l‘Académie des sciences de Berlin-Brandebourg au problème central de toutes les institutions de recherche qui produisent des contenus numériques: Comment rendre visible, et donc utiles, ces informations ? Les universités ont depuis une dizaine d’année ouvert des serveurs institutionnels, sur lesquels l’information est stockée, mais ceux-ci restent trop isolés et peu conviviaux. La tentation serait bien sûr de regrouper tous les contenus d’une université sur un seul serveur, mais chaque équipe de recherche, chaque chercheur veut garder la main sur ses données. En France, une solution a été développée par un projet comme Isidore, un portail de recherche des sciences humaines et sociales, qui agrège les métadonnées de très nombreuses sources, tout en laissant les données là où elle sont. Principe identique avec le Knowledge Portal de l’EFPZ (qui est down au moment où j’écris, fait bien assez rare pour qu’on le signale), qui permet de faire une recherche fédérée dans plusieurs catalogues dans une interface conviviale. Mais attendez… Knowledge Portal … Digital Knowledge Store … est-ce que l’Académie de Berlin se serait inspirée de l’ETHZ ? Peu importe, car le projet berlinois veut aller plus loin que ses prédécesseurs, en proposant une interface de recherche sémantique capable de faire des recommandations intelligentes en fonction de l’historique de recherche.
Ce qui est intéressant dans ce type de projets, c’est la somme d’information et de métadonnées disparates qui doivent être harmonisées, retravaillées et catégorisées pour fournir un service de recherche efficace. Pas de la tarte…

Dans le même style de projet, mais en plus spécifique et en plus précis, il y a le travail de The European Library (TEL), qui agrège les notices bibliographiques des bibliothèques nationales européennes, et les reverse ensuite dans Europeana. Le travail de Nuno Freire consiste, en résumé, à garantir qu’il n’y ait pas de doublons parmi les noms d’auteurs des 75 millions de notices bibliographiques en une dizaine de langues que contient TEL. Ben voyons. Dans sa tâche il peut compter sur l’aide de VIAFF, un répertoire multi-lingue des noms de personnes, et sur les fichiers d’autorités qu’établissent les bibliothèques nationales.

M. Geoffrey Rockwell est une personnalité importante de la communauté des Digital Humanities. Il est notamment l’auteur des Voyant Tools, une série d’outils en ligne d’analyse et de visualisation de textes. Mais le projet qu’il présente ici est un autre, et concerne l’annotation des textes, plus précisément les langages de balisages, et plus précisément encore le langage XML, qui sert de base à la Text Encoding Initiative, très largement utilisée dans la communauté DH. L’outil présenté est un éditeur XML en ligne. Baliser un texte, c’est tout simplement annoter ses différents éléments au moyens de balises informatiques, pour permettre à la machine de les retrouver. Par exemple on annote avec une balise tous les chapitres d’un livre, et on pourra ensuite demander à l’ordinateur de nous sortir automatiquement la liste des chapitres. Évidemment les professionnels de la TEI, eux, annotent tout: noms de lieux, personnes, style, morphologie, syntaxe, structure du texte, mise en page, etc. Ils peuvent donc demander à leurs ordinateurs des choses plus compliquées, du genre „Quel sont les adjectifs les plus utilisés pour qualifier tel personnage ?“ ou „Combien de mots a-t-il en moyenne entre chaque adverbe de coordination ?“

Comme on sait, le Japon a perdu la deuxième guerre mondiale, assommé par deux bombes atomiques américaines. Mais la bombe H n’a pas été la seule arme de masse employée par les Américains contre les Japonais. Une campagne de propagande culturelle aurait aussi été mise en place aux USA pour stigmatiser l’ennemi japonais. C’est ce que voudrait prouver Yu Fujimoto de l’université de Doshisha en analysant le traitement du Japon dans la collection complète du National Geographic Magazine de 1888 à 2009. Au moyen de techniques de text mining et d’analyses de données, le projet Historical Events vs Information Content veut retracer le regard du magazine d’aventure grand public sur le Japon. N’ayant pas encore reçu l’autorisation d’étudier le contenus des articles, le projet se concentre pour le moment sur les images.

Les outils d’édition automatique de médias audiovisuels se développent rapidement. Malheureusement, le tant souhaité programme de transcription automatique d’enregistrements audio n’existe pas encore sous une forme satisfaisante. Cependant, de nombreux outils permettent de se faciliter la tâche, quand est venu le moment de traiter le matériel audiovisuel recueilli sur un terrain d’enquête. Le projet AV Processing in eHumanities du Max Plank Institut for Psycholinguistics sait faire deux choses: distinguer automatiquement les voix des différents intervenants sur un enregistrement audio, et reconnaître les mouvements de bras et de tête dans les images en mouvement.

Veröffentlicht unter Digital Humanities, Rezensionen / Tagungsberichte, Uncategorized, Veranstaltungen | 2 Kommentare