Tagungsbericht zur ersten Digital Humanities Summer School Bern

Die (Inter-)Disziplin der digitalen Geisteswissenschaften (Digital Humanities) konturiert sich auch in der Schweiz immer deutlicher. Nach einer Reihe regionaler und nationaler Fachtagungen, erster Berufungen an Universitäten und eines ersten THATCamps — einer relativ informellen und stark partizipaitven Unconference –, das auch in die Nachbarländer und teilweise darüber hinaus ausstrahlte, fand vor wenigen Tagen mit der ersten Digital Humanities Summer School an der Universität Bern ein weiterer bedeutender DH-Anlass statt. Wie das Lausanner THATCamp (2009) wurde die DH-Summer School durch ein bewährtes Konsortium aus Vertretern der Geschichtsplattformen infoclio.ch (als Hauptorganisator) und hist.net, des Vereins Geschichte und Informatik (also der Hausherren dieses Blogs), des DODIS-Editionsprojekts sowie von Forschenden der Universitäten Bern und Lausanne (LADHUL, DHLab) organisiert und durchgeführt. Dank eines attraktiven Programms mit Präsentatoren und Workshop-Leitern von internationalem Ruf waren die gut hundert Plätze im Frühjahr in kürzester Zeit an Teilnehmer aus zwanzig verschiedenen Ländern vergeben. 

Die viertägige Summer School begann am Mittowch, 26. Juni, mit einem Eröffnungsvortrag durch Ray Siemens, Universität Victoria CA und ADHO-Direktor, der das Verhältnis der Digital Humanities zu den hergebrachten Disziplinen und dem Spannungsfeld zwischen ihnen auszuleuchten versuchte, wobei seine wichtigsten Referenzpunkte Cathy Davidsons Begriff ‚Digital Humanities 2.0‘ und Willard McCartys ‚Methodological Commons‘ (ibi p. 118-119) waren. Erscheinen die Digital Humanities von aussen betrachtet verhältnismässig positivistisch geprägt, eröffnen sich aus der Innenperspektive vielerlei kritische Aspekte und unscharfe Grenzziehungen. Siemens plädiert dafür, den definitorischen Problemen nicht auszuweichen, da diesbezüglich eine gewisse Standfestigkeit notwendig sei, um die disziplinäre und interdisziplinäre Forschung voranzubringen. 

Susan Schreibman, Trinity College Dublin, lieferte im nächsten Vortrag historischen Kontext zur Genese der Digital Humanities und den wechselnden Selbstverständnissen der Akteure, wobei sich der Bogen von Roberto Busas Lochkarten-basierter Thomas von Aquin-Konkordanz bis hin zu virtuellen Welten spannte, welche die Beantwortung ganz konkreter Fragestellungen ermöglichen sollen, letzteres veranschaulicht durch das laufende Easter Rising-Projekt und dessen virtuelles Strassenpanorama, das, situative Begebenheiten und das Potential der verwendeten Waffen berücksichtigend, Aufschluss über mögliche Opferzahlen während des Dubliner Osteraufstandes von 1916 geben soll. Die Anekdote des zunächst irrtümlicherweise online frei zugänglich gemachten Bandes ‚Digital Humanities‘, welche den Verkauf des Werks erst recht angekurbelt hat, ermöglichte einen interessanten Bezug zu den im Wandel begriffenen Publikationsmodellen und den damit einhergehenden Fragen nach wissenschaftlicher Anerkennung und in der Verlängerung zur viel diskutierten Wertfrage des ‚building and making‘ im Gegensatz zu ‚reading and critique‘. Durch sich verschiebende Gewichte und den postulierten ‚object life cycle‘ bzw. genereller durch die Bestrebungen zur langfristigen Kuration von Forschungsdatenbeständen deutet sich nach Schreibman eine gewisse Konvergenz der bis anhin disparaten Arbeitsfelder von Forschern und Dokumentalisten (Bibliothekaren, Archivaren) an.

Vermochten diese beiden einführenden Referate die Entwicklung und den gegenwärtigen Stand digitaler geisteswissenschaftlicher Forschung einigermassen abzustecken, blieb das inspirierende Moment vielleicht etwas hinter den Erwartungen zurück. Illustrieren lässt sich dies beispielsweise am (zu) verbreiteten Visualisierungstyp der Begriffswolke (word cloud, wordle; bisweilen auch als Vokuhilas des Internets bezeichnet), den Siemens wie Schreibman in ihren Präsentationen verwendeten, was aus dem Publikum prompt hinterfragt wurde und einer Diskussion über den Einsatz von Werkzeugen Weg bereitete, deren Mechanismen häufig nicht evident sind und die folglich Resultate verzerren können.

Umstrittene Begriffswolken
Claire Clivaz, Ray Siemens; Bild: Martin Grandjean

 

Elena Pierazzo, Kings College London, verband in ihrem Vortrag kommunikations- und texttheoretische Aspekte konzise mit den vielfältigen praktischen Herausforderungen, die digitale Editionsprojekte mit sich bringen. Ausgehend von der grundlegenden Unterscheidung der linguitischen Konstruktion (Text) vom physischen Objekt (Dokument) erörterte sie das editorische Spektrum, das von einfachen, evident gegliederten, neoplatonischen Texten über Leseausgaben, kritische Editionen und diplomatische Editionen hin zu dokumentnahen Faksimile-Editionen reicht. Seit mehreren Jahrzehnten kommt dabei besonders der materiellen Dimension von Texten grössere Bedeutung (critique génétique, material/new philology) zu, was die — ohnehin komplexe und konventionalisierte — editorische Praxis weiter ausdifferenziert hat. Mit dem Transfer der zugehörigen Editionsformen in den digitalen Raum stellen sich viele Fragen, deren wichtigste Pierazzo schlaglichtartig tangierte und mit zugleich illustrativen und beeindruckenden Beispielen veranschaulichte. Ihr eigener vor dem Hintergrund der Arbeit der TEI Manuscripts SIG entstandener Proust-Prototyp lässt den Leser durch die sequentielle Anzeige von Textpassagen beispielsweise gleichsam dem Autor bei der Entstehung des Texts über die Schultern blicken. Zur Sprache kam mehrfach auch die Position des Editors, dessen Textverständnis im Encoding manifest wird und dessen Rolle und Autorität gerade auch bei Crowdsourcing-Editionsprojekten definiert werden sollte. Zum Themenkreis digitaler Editionsformen vgl. aktuell und ausführlich Sahle (2013) und dann vor allem auch Pierazzos neues Werk zu digital scholarly editions, das in absehbarer Zeit verfügbar sein wird.

In seinem zweiten Vortrag, der sich mit der sozialen Wissenskonstruktion und -produktion (in den Literaturwissenschaften) befasste, äusserte Ray Siemens die These, dass grössere Datenmengen, beschleunigte Arbeitsweisen, unmittelbarere und dichtere Kommunikation sowie verstärkte Teilhabe des Publikums in der Datenerzeugung und im wissenschaftlichen Diskurs das Potential hätten, Forschungsfragen und Forschungsprozesse wesentlich zu beeinflussen. Anknüpfend an die Arbeit des Electronic Textual Cultures Lab (ETCL, U Victoria), und vor dem Hintergrund, dass Wissen in der Regel in chaotischen Strukturen und unter sehr unterschiedlichen Bedingungen entsteht, wobei gerade die informelle Forschungskommunikation bedeutsam ist, beschrieb Siemens eine Umdeutung der Rolle der Forschenden im digitalen Umfeld von didaktischen Autoritäten hin zu Wissensermöglichern (facilitators of knowledge). Kollaborative Werkzeuge, welche grundlegende Funktionen wie die Bereitstellung von Materialien, deren Annotation, Verzeichnung und Analyse ermöglichen — durch Siemens anhand einer Fülle von Beispielen dargelegt, etwa zur Honorierung freiwilliger Partizipation (Gamification), ergänzt durch eine hervorragende annotierte Bibliographie –, sind in diesem Kontext für die Wissensproduktion elementar. Wissen entsteht vor einem grösseren Publikum und durch mehr Akteure, seine Produktion verlagert sich im akademischen Kontext wie in anderen Bereichen (z.B. Journalismus) ausserhalb institutioneller Strukturen. Aus diesen Überlegungen leitet Siemens eine Reihe von Forderungen an zeitgenössische Forscher ab: Damit (Geistes-)Wissenschaftler die Entwicklung neuer Methodologien und Kommunikationsformen mitprägen können, müssen sie die Potenziale neuer Medien untersuchen, um sie bestmöglich zu verstehen, die Mechanismen kollaborativer Arbeitsinstrumente kennen, Grenzen ausloten, unterliegende Ideologien freilegen und einfache positivistische Ansätze in Frage stellen. Neben engagiertes Gestalten und Kreieren soll eine kritische Theorie treten, welche ethische und disziplinäre Standards ständig reflektiert.

Viele der zuvor anklingenden Implikationen der Erweiterung geisteswissenschaftlicher Disziplinen um neue Ansätze und Methoden auf theoretische, moralische und gesellschaftliche Belange bündelte David Berry, Swansea University, in einem dicht befrachteten Vortrag zu DH und Kulturkritik bzw. den Critical Digital Humanities. Auch er setzt bei der Definition und Abgrenzung des Feldes an, dabei er Stephen Ramsays DH-Typisierung aufnehmend, die der vorab praktisch orientierten und relativ institutionalisierten Community wie sie sich in den frühen 1990er Jahren unter dem Schlagwort Computing in the Humanities formierte (DH-Typus I), eine neuere weniger klar umrissene Bewegung entgegenstellt, deren Interessen breit gefächert sind und die mit bisweilen revolutionärer Gesinnung eine eigentliche Erneuerung der Geisteswissenschaften anstrebt (DH-Typus II; Medientheoretiker, Kulturkritiker, Digitalkünstler). Der Frage, was sich in der Konfiguration der geisteswissenschaftlichen Forschung wirklich verändert, näherte sich Berry aus den Perspektiven der Quantifizier- und Kalkulierbarkeit, der Organisation und des Beschleunigungspotenzials. Mit der Überhandnahme eines metrischen Paradigmas, das Hermeneutik durch Mathematik ersetzt und die Formalisierung der Forschung befördert, verändert sich auch der organisatorische Rahmen: Forschung wird projektbezogen betrieben und Administratoren und Projektleiter machen Professoren das Terrain streitig. Zugleich beschleunigt sich die Forschungstätigkeit durch effiziente Analyseformen, hochgradig responsive Kommunikationsmittel und eine in manchen Fällen ausbeuterische Arbeitsteilung. Vorwürfe, die Digital Humanities seien zuvörderst eine opportunistische und marktanbiedernde Ausrichtung der Forschung nach Kosten-Nutzen-Forderungen lassen sich nach Berry nicht kategorisch von der Hand weisen, gibt es doch deutliche Parallelen zwischen DH-Diskursen und Managementfloskeln. Näher betrachtet handle es sich aber um genuin geisteswissenschaftliche Betätigung, die keineswegs bewährte Forschungsprinzipien leichtfertig gegen die gerade angesagtesten Technologien und Ansätze eintauscht. Dafür, dass „digital“ in der politischen Ökonomie der Universitäten längst ein Schlüsselwort im Erschliessen neuer Geldquellen ist, gibt es jedoch zahllose Belege. Berry fordert zurecht mehr Anerkennung für die bereits geleistete kritische Arbeit und mehr Unterstützung für ihren Ausbau. Der möglicherweise resultierende Verlangsamungseffekt könne durchaus produktiv sein, indem die Forschung durch verstärkte Reflexion profitiere, gerade auch jenseits der Projektebene in der längerfristigen Perspektive.

Im Gegensatz zu Berrys übergreifendem Vortrag konzentrierte sich jener von Claire Lemercier, CNRS-Sciences Po, Paris, über Netzwerkanalyse auf eine spezifische Forschungsmethode, ohne es aber zu missen, Bezüge zu quantitativen Methodolgien zu schaffen. Im Vordergrund standen dabei nicht konkrete analytische Werkzeuge, sondern die formalen Möglichkeiten, Forschungsdaten einer Linse gleich aus verschiednen Winkeln und Distanzen zu untersuchen. Das Potential der Methode liege weniger in attraktiven Visualisierungen komplexer (und oftmals wenig aussagekräftiger) Netzwerke als in der Möglichkeit, vorhandene und fehlende Bezüge auf verschiedenen Ebenen zu betrachten und isolierte Effekte aufzuspüren. Der Forschungsprozess soll dabei von der Datensammlung in einem Archiv bis zur Publikation der Resultate von formalen Überlegungen begleitet werden, die es durch eine vorausschauende, der Dimensionalität bewusste Datensatzmodellierung erlauben, einengende Abhängigkeiten im weiteren Forschungsprozess zu vermeiden. Genaue Kenntnisse über den Aufbau eines Datensatzes und daraus abgeleitet mögliche interessante Fragestellungen beeinflussen die Auswahl des Analysewerkzeuges grundsätzlich. Der Netzwerkanalyse verwandte Methoden wie die geometrische Analyse, die multiple Korrespondenzanalyse, die Sequenzanalyse oder auch klassische deskriptive Statistik sind für manche Forschungszwecke besser geeignet als die soziale Netzwerkanalyse, die ihrerseits eigentlich eine Vielfalt von Spielarten umfasst. Die Netzwerk-Sichtweise kann in vielen Bereichen produktiv sein — als Netzwerke aufgefasst werden können Beziehungen unter und zwischen Personen und Organisationen aber auch historischen Ereignissen und Quellen oder linguistischen Einheiten –, um Korrelationen und Beziehungsmuster aufzudecken, sie sollte aber immer auch durch einen qualitativen Blickwinkel auf die Daten ergänzt werden.

Im letzten Vortrag der Summer School präsentierte Frédéric Kaplan, EPFL Lausanne, das kürzlich angelaufene Venice Time Machine-Projekt von EPFL und Universität Ca’Foscari (Digital Humanities Venice) und mithin seine Vision, durch effiziente Digitalisierung und Datenextrapolation vergangene Zeiten virtuell zu erschliessen und durch die Erkenntnisse wesentlich zu einer temporalen Kartografierung von Städten, Ländern und Kontinenten beizutragen. Erste Voraussetzung für die Kreation einer solchen ‚Zeitmaschine‘ ist die Anhäufung zuverlässiger Daten über die Vergangenheit. Wir verfügen nämlich über eine enorme Datendichte in der Gegenwart, die aber bereits für die vorhergehende Dekaden und mehr noch für vergangene Jahrhunderte sehr viel bescheidener ist. Im Venedig-Projekt sollen zu diesem Zweck im Verlauf der nächsten zehn Jahre rund 80 Laufkilometer Archivalien mit über 100 Millionen Dokumenten, die aus einem Zeitraum von über 1000 Jahren stammen und in verschiedenen Sprachen und Dialekten verfasst wurden, digitalisiert und interoperabel aufbereitet werden, so dass dereinst geschätzte 10 Milliarden ‚Ereignisse‘ (Datenpunkte, factlets) abgefragt werden können. Kaplan und sein Team sehen einer Vielzahl von Stolpersteinen entgegen, denen sie mit innovativen Methoden begegnen wollen: optimierte Scan-Roboter (Vision einer Abtastung der Information in geschlossenen Büchern), verbesserte Texterkennung durch Kontextwissen (analog der Spracherkennung), Nutzung der frei erhältlichen Mithilfe tausender motivierter Studenten gegen Akkreditierung von Kursleistungen in massive open online courses (MOOCs), graphbasierte semantische Informationsmodellierung (RDF), Extrapolation und Simulation fehlender Informationen. Der geisteswissenschaftlichen Forschungsdaten eigenen Ungenauigkeit und Unsicherheit soll durch die Zuweisung ‚fiktiver Räume‘, die in Aggregation Wahrscheinlichkeitsaussagen zulassen, begegnet werden, so dass unter einer Vielzahl potentiell möglicher Vergangenheiten die plausibelsten eruiert werden können. Es handelt sich zweifellos um ein hochinteressantes Projekt mit viel Potential für verschiedene Bereiche. Ob die angestrebte effiziente semantische Erschliessung aber in den nächsten Jahren Realität wird und zufriedenstellende Resultate liefern kann, vermag aus heutiger Warte jedoch gewisse Zweifel zu wecken. 

Die sieben vielseitigen und interessanten Vorträge wurden durch zwölf Workshops und sieben Unconference-Sessionen ergänzt, die erfreulicherweise oftmals mit einem direkten Bezug zu den Vortragsthemen angeboten wurden und theoretische (Critical Digital Humanities, Zugänglichkeit und Quellenkritik digitaler/digitalisierter Quellen), disziplinäre (DH und die akademische Lehre) und methodische Belange (Datenaufbereitung, Textanalyse, digitale Editionen von Text und Musik, Visualisierungsmethoden, individuelle und kollektive Arbeitspraktiken) sowie deren Überschneidung (semantisch modellierte Forschungsumgebungen) vertieften. Aufgrund der begrenzten verfügbaren Zeit blieb es in vielen Workshops bei der Demonstration und Diskussion, vereinzelt konnten die Teilnehmer aber erfreulicherweise auch durchaus selber aktiv werden, etwa in den Workshops zu TEI-Editionen (E. Pierazzo), Textanalyse (S. Schreibman), Literaturverwaltung (N. Chachereau) oder Gephi-Visualisierungen (M. Grandjean). Für künftige Veranstaltungen sind diese Tutorien-ähnlichen Blöcke sicher sehr wünschenswert, vielleicht auch in ausgedehnter Form über mehrere Zeiteinheiten hinweg oder als eigenständige Hands-on-Tagesveranstaltungen.

Im Rahmen eines Project Slams stellten rund ein Drittel aller Teilnehmer in Kürzestpräsentationen ihre aktuelle Tätigkeit oder ihr hauptsächliches Forschungsinteresse vor, was eine grosse Bandbreite disziplinärer und thematischer Herkunft offenbarte, die sich zuvor schon in den Diskussionen angedeutet hatte. Mit einem ungezwungenen Diner, gemütlichen Abendstunden in der Bundesstadt, einem spontan organisierten Erfahrungs- und Hintergrundbericht von den Taksim Gezi-Park-Protesten in Istanbul durch zwei Teilnehmer und schliesslich einem Abschluss-Picknick, das aufgrund der Witterung leider nicht draussen durchgeführt werden konnte, bot die Summer School gute Gelegenheit, Kontakte zu knüpfen und Erfahrungen und Visionen zu teilen. Es bleibt zu hoffen, dass der ersten Digital Humanities Summer School in der Schweiz weitere folgen werden, woran dank der zunehmenden Verankerung der Digital Humanities auch hierzulande eigentlich kaum zu zweifeln ist. Mit der Ausrichtung der DH 2014 in Lausanne (6.-12. Juli) zeichnet sich für nächstes Jahr bereits ein hervorragender Anknüpfpunkt ab!

Digital Humanities 2012 Hamburg – Some Thoughts on the Diversity of DH 2012

As an assistant at the Digital Humanities 2012 conference and at the same time being presumably one of the very first Swiss students obtaining a degree in Digital Humanities (at least under this denomination), I was pleased by Enrico Natale’s suggestion to share some of my experience here. After enjoying the engaging first THATcamp Switzerland that was held in Lausanne last November it seemed well worth to also attend an  international gathering in order to experience the field in its full width and to see and hear (and talk to) some of the people that had already gotten somewhat familiar from journal and mailing list contributions. The annual conference of the ADHO, the Digital Humanities, of course affords these opportunities very well and the time at DH 2012 indeed turned out to be very rewarding.

The following are three thoughts that evolve around the central notion of this year’s conference theme – (digital) diversity:

  1. Whereas the conference theme in many cases may inform the keynotes and some formal addresses, but other than that not noticeably resonates with the bulk of workshops or presentations, this was quite different for the DH 2012. Here, the conference theme ‚Digital Diversity – Cultures, languages and methods‘ had implications that went beyond the more formal occasions and promise to have a bearing for the future configuration of the field. The most notable development with regard to this is the foundation of the DHD, the regional charter of the ADHO that yet needs to precisely define its inclusiveness and final name (Enrico Natale already reported Swiss perspectives on the subject). As Paul Spence, chair of the International Program Committee and local organizer of DH 2010, notes „the DH community is clearly developing in new and exciting ways, and it is particularly exciting to see non-Anglophone groups develop a stronger presence on the international DH stage.“ Similar sentiments were echoed on Twitter during the conference and it is great to see this development honored by anglophone members of the DH community.
     
  2. The diversity of Digital Humanities also became manifest in my very direct environment during the week in Hamburg. The local organizing committee was joined by a handful of local students and three international students from Asia, South America, North America and Europe respectively.[ref]On the student assistants‘ tasks and some technical issues:
    The tasks of the student assistants encompassed live coverage of the session via a shared twitter account, sharing reflections and anecdotes on the students’ blog as well as recording most of the presentations on video. Personally, I had the pleasure to record Marc Alexander, who was later proclaimed the winner of the 2012 Fortier Prize that is awarded to the ADHO Bursary winner whose conference submission is judged by the Bursary Award Panel to be the most outstanding. While perambulating the stage area during his stunning presentation, Marc gave me a hard time keeping the camera on him at a reasonable level of zoom. As this recording might figure among the ones that are watched most frequently I am glad that the recording of the slides went flawlessly.
    Recordings such as this one were generally made available as streams within short time after the sessions, which brought a lot of praise from the audience both present in Hamburg and from remote locations. Occasionally however the Lecture2Go system that was used to record the audio and video signals and the presentation slides using an Epiphan frame grabber (the Lecture2Go setup very much resembles the SWITCHcast system used by Swiss universities) proved to be too intricate resulting either in cropped slides or no usable output altogether. Both the responsible technicians and the recording students identified room for improvement with regard to the technical aspects of the session recording.[/ref] This brought a notable diversity into the team that not only related to the geographical and cultural provenience, but also to different educational backgrounds and areas of interest ranging from buddhist informatics to urban acoustics or typography. Not everyone was equally immersed with the various theories, concepts and technological approaches that were debated during the week, but there were always common grounds of interest that allowed for interesting conversations. In this regard I was reminded of the THATcamp in Lausanne and it was a welcome change to the discussions with my classmates that – while not less interesting – are often based on the same or very similar literature and in comparison are much more homogeneous. I would encourage future organizers of the DH conference to explicitly invite international applications for student assistant bursaries and to perhaps follow the lead of DH 2012 and allow for a per continent quota in order to reflect the worldwide DH research community (provided there are enough eligible applications).
    It was nice to learn that some of my international colleagues also took the opportunity to attend other events preceding or subsequent to the DH conference such as the Digital.Humanities@Oxford Summer School or the European Summer School in Digital Humanities in Leipzig, which is certainly a great thing to do. With their emphasis on workshops and practical training these summer schools are indeed excellent complements to the DH conference.
     
  3. While the disciplinary and thematic diversity of the contributions was remarkable, language and literature related fields continue to represent the biggest share of the program. As a historian I tried to follow sessions and presentations that focussed on historical research questions and historical objects of research, but this was not always easy to reconcile with my schedule that usually involved a half-day of session coverage or presence at the reception desk. On thursday in particular, things got complicated for historians. Several sessions of interest to historians concurred and a number of them could be seen quietly packing their things and swiftly changing lecture halls between two presentations. Matters were somewhat different on Friday afternoon when Dino Buzzetti and Manfred Thaller addressed a large audience with an impressive dialogic presentation (see here, here, and here) that touched on more than a few fundamental aspects of markup theory, textuality, interpretation and semantic relations. I deem it very desirable that presentations and talks that highlight a specific research problem or showcase an ongoing project are complemented by this kind of encompassing and thought provoking discussions that have the potential to bring various disciplines of digital humanities forward.

Digital Humanities 2012 Hamburg – Poster session (18/07/12)

Pour se faire une idée de la diversité des projets représentés à la conférence Digital Humanities 2012, rien de tel qu’une plongée dans la Poster Session, où, pendant une heure et demie, une cinquantaine de projets étaient présentés par leurs équipes dans le hall de la faculté de Sciences Humaines de l’université de Hamburg.
Cette session était inclue en session plénière dans le programme, et la plupart des participants étaient présents, contribuant à l’animation du moment. Bravo aux organisateurs, qui ont trouvé la bonne formule pour une Poster Session réussie. Les projets sont présentés dans leur ordre de rencontre.

Sous le titre de „Digital Knowledge Store“ se cache la réponse de l‘Académie des sciences de Berlin-Brandebourg au problème central de toutes les institutions de recherche qui produisent des contenus numériques: Comment rendre visible, et donc utiles, ces informations ? Les universités ont depuis une dizaine d’année ouvert des serveurs institutionnels, sur lesquels l’information est stockée, mais ceux-ci restent trop isolés et peu conviviaux. La tentation serait bien sûr de regrouper tous les contenus d’une université sur un seul serveur, mais chaque équipe de recherche, chaque chercheur veut garder la main sur ses données. En France, une solution a été développée par un projet comme Isidore, un portail de recherche des sciences humaines et sociales, qui agrège les métadonnées de très nombreuses sources, tout en laissant les données là où elle sont. Principe identique avec le Knowledge Portal de l’EFPZ (qui est down au moment où j’écris, fait bien assez rare pour qu’on le signale), qui permet de faire une recherche fédérée dans plusieurs catalogues dans une interface conviviale. Mais attendez… Knowledge Portal … Digital Knowledge Store … est-ce que l’Académie de Berlin se serait inspirée de l’ETHZ ? Peu importe, car le projet berlinois veut aller plus loin que ses prédécesseurs, en proposant une interface de recherche sémantique capable de faire des recommandations intelligentes en fonction de l’historique de recherche.
Ce qui est intéressant dans ce type de projets, c’est la somme d’information et de métadonnées disparates qui doivent être harmonisées, retravaillées et catégorisées pour fournir un service de recherche efficace. Pas de la tarte…

Dans le même style de projet, mais en plus spécifique et en plus précis, il y a le travail de The European Library (TEL), qui agrège les notices bibliographiques des bibliothèques nationales européennes, et les reverse ensuite dans Europeana. Le travail de Nuno Freire consiste, en résumé, à garantir qu’il n’y ait pas de doublons parmi les noms d’auteurs des 75 millions de notices bibliographiques en une dizaine de langues que contient TEL. Ben voyons. Dans sa tâche il peut compter sur l’aide de VIAFF, un répertoire multi-lingue des noms de personnes, et sur les fichiers d’autorités qu’établissent les bibliothèques nationales.

M. Geoffrey Rockwell est une personnalité importante de la communauté des Digital Humanities. Il est notamment l’auteur des Voyant Tools, une série d’outils en ligne d’analyse et de visualisation de textes. Mais le projet qu’il présente ici est un autre, et concerne l’annotation des textes, plus précisément les langages de balisages, et plus précisément encore le langage XML, qui sert de base à la Text Encoding Initiative, très largement utilisée dans la communauté DH. L’outil présenté est un éditeur XML en ligne. Baliser un texte, c’est tout simplement annoter ses différents éléments au moyens de balises informatiques, pour permettre à la machine de les retrouver. Par exemple on annote avec une balise tous les chapitres d’un livre, et on pourra ensuite demander à l’ordinateur de nous sortir automatiquement la liste des chapitres. Évidemment les professionnels de la TEI, eux, annotent tout: noms de lieux, personnes, style, morphologie, syntaxe, structure du texte, mise en page, etc. Ils peuvent donc demander à leurs ordinateurs des choses plus compliquées, du genre „Quel sont les adjectifs les plus utilisés pour qualifier tel personnage ?“ ou „Combien de mots a-t-il en moyenne entre chaque adverbe de coordination ?“

Comme on sait, le Japon a perdu la deuxième guerre mondiale, assommé par deux bombes atomiques américaines. Mais la bombe H n’a pas été la seule arme de masse employée par les Américains contre les Japonais. Une campagne de propagande culturelle aurait aussi été mise en place aux USA pour stigmatiser l’ennemi japonais. C’est ce que voudrait prouver Yu Fujimoto de l’université de Doshisha en analysant le traitement du Japon dans la collection complète du National Geographic Magazine de 1888 à 2009. Au moyen de techniques de text mining et d’analyses de données, le projet Historical Events vs Information Content veut retracer le regard du magazine d’aventure grand public sur le Japon. N’ayant pas encore reçu l’autorisation d’étudier le contenus des articles, le projet se concentre pour le moment sur les images.

Les outils d’édition automatique de médias audiovisuels se développent rapidement. Malheureusement, le tant souhaité programme de transcription automatique d’enregistrements audio n’existe pas encore sous une forme satisfaisante. Cependant, de nombreux outils permettent de se faciliter la tâche, quand est venu le moment de traiter le matériel audiovisuel recueilli sur un terrain d’enquête. Le projet AV Processing in eHumanities du Max Plank Institut for Psycholinguistics sait faire deux choses: distinguer automatiquement les voix des différents intervenants sur un enregistrement audio, et reconnaître les mouvements de bras et de tête dans les images en mouvement.

Digital Humanities 2012 Hamburg – Switzerland takes power (Do it like Mills Kelly / 2)

People will remember Switzerland during this Conference.
I am in this very moment in the founding session of the Association Digital Humanities Deutschland. The big auditorium of the main building of Hamburg university is filled with more than 200 participants. The discussion is focusing on the future name and affiliations of this association.

People are notably protesting against the affiliation with Oxford University Press, publisher of JLLC – Journal for Literary and Linguistic Computing. As you know, Oxford is NO Open Access Publisher, and they publish only in English. And this is when Prof. Stolz from the University of Bern stood up, followed by Prof. Haber from the University of Basel and Prof. Claudine Moulin from the Universities of Luxembourg and Trier, to declare that the Digital Humanities in Europe should be multi-lingual, and not adapt themselves to the total dominance of English language, and nor should they openly support a commercial publisher like Oxford University Press.

Prof. Stolz even said that the title Digital Humanities Deutschland is problematic, because it does not acknowledges the other German-speaking countries, and among them Switzerland. An alternative would be DHDR = Digital Humanities Deutschsprachiges Raum. Prof. Stolz is also a candidate to be member of the to-be-elected committee of the Association. We’ll see how it goes. Anyway, how comes that Switzerland has become so secure of its place in the DH community ?

 

The power action of Switzerland began on Sunday afternoon, when Prof. Clivaz and Prof. Kaplan from Uni. Lausanne presented the application of University of Lausanne to host the Digital Humanities Conference in 2014. With all due modesty, I think it was my initiative to suggest to the Lausanne DH team to invite the Conference in Lausanne in 2014. And we won. The steering committee was convinced by the proposal – including a boat tour on the lake, a visit in a chocolate fabric and of course a visit to the CERN, where the web was first invented in 1989 !

To make it even better, the same day came the piece of news that the Swiss Polytechnical School of Lausanne (EPFL) is opening a Digital Humanities Lab, headed by Frédéric Kaplan, an artificial intelligence engineer with strong interest in the humanities. This brand new DH Lab will have two PhDs students and a postdoctoral fellow, and will be affiliated to the College des Humanités de l’EPFL. And they are starting their activities already in the coming weeks. Newly nominated Prof. Kaplan is currently choosing the new hardware to equip his laboratory, hesitating between a fully-automated book-scanner or a 3d object modeler. As the EPFL is not exactly a poor institution – he will probably have both. Hopefully for once the humanities sector will benefit from the financial wealth of the Swiss Polytechnical School. The research program of the DH Lab is not fixed yet, but will definitely deal mainly with history !

Digital Humanities 2012 Hamburg – DH Curriculum (Do it like Mills Kelly / 1)


As you may know, one of the biggest conference worldwide dedicated to digital humanities is starting today in Hamburg. Digital Humanities 2012 is this year edition of the annual conference of the Alliance of Digital Humanities Organisations. With more than 600 participants and a 500 pages Conference abstracts volume, it is a rather impressive gathering.

Trying to give an account of similar ventures is always tricky. One can live-Tweet (I will to a certain extent), take notes (I am too) or write blog posts. During THATCamp Switzerland, we were astonished to see that Mills Kelly (CHMN) had this amazing skill to write blog posts during the sessions, with no delay, so that the post could be published by the end of the session. That’s what I’m trying to do here… The account is of course partial as it can be. For a more neutral report see the slides of Prof. Thaller at the end of this post.

The first workshop I attended this morning was entitled „Toward a Digital Humanities Curriculum“ and was hosted by Prof. Manfred Thaller, from Uni. Köln, which is a godfather-type figure in Digital Humanities in Germany. Prof. Thaller belongs to the first generation of digital humanities, as he himself stated,  telling us an anecdote about the year 1996, where DH – at that time the word was „humanities computing“ – were first acknowledged as specific research field.

I’m coming to the point. Back in 1996, according to prof. Thaller, there was a hype in US Colleges about teaching student how to use Text processor softwares as Microsoft Word and to build their own homepages. At the same time, some researchers were starting to run computational analysis in digital corpora, mainly textual. While the ones were learning to use new available technologies, the others were trying to design new computer-based research methods. Modeling is thus a central DH skill, i.e. represent a humanities problem in such a way that it becomes possible to build a technical solution.

According to Prof. Thaller – or at least according to what I understood from his presentation – that’s where he sets the border between  DH and „Library Studies“. Prof. Thaller somehow considers DH as a humanities discipline, where the humanities remain sovereign over the technology. The research questions, and the choice of what tool are to be developed, stays in the hand of the humanities scholar. Conversely, Library Science have a mission to teach how to use existing tools and empower student traditional research skills, but that’s not proper DH research.

This debate is crucial to a DH definition. Should DH be understood as augmentation of other curricula or rather as  a new professional curriculum ?

Everybody seems to consent here that DH is a specific discipline, that differs from other information sciences. The core topic discussed here today is what skills should be taught to DH Ba/MA students in university. You will find in the slides below an impressive list of Standards important to Digital Humanities (pp. 8-11).

I should add that in Germany today there are ca. 10 Undergraduate Programs and 12 Master programs in DH, plus several news chairs in DH being created these last years. We received also a leaflet called Digitale Gesiteswissenschaften, which is a summary of the state of the art of DH university programs in Germany.

Digital Scholarly Edition: Alfred Escher Correspondence [Review]

The past years have seen notable efforts to introduce the scholarly community and the wider public to the life and work of the highly influential 19th century Swiss politician and entrepreneur Alfred Escher (*1819, †1882; e .g. founder of the Nordostbahn Company (1852/53), Eidgenössisches Polytechnikum (1854/55, now ETH Zurich), Schweizerische Kreditanstalt (1856, now Credit Suisse), Schweizerische Lebensversicherungs- und Rentenanstalt (1857, now Swiss Life), and the leading figure behind the successful realisation of the Gotthard railway). The course of Escher’s career reflects the dynamic environment that existed during the founding years of the Swiss federal state and Escher managed to create effective synergies between politics, railways, finance and education that helped Switzerland onto an undreamt-of upward trajectory (cf. Escher Foundation: Biography).

While critically examining many of Escher’s achievements, historical research on the person of Escher has been quiet for a very long time during the 20th century and only in the late 1980s awoke interest in Escher as a historical personality. Most importantly, Joseph Jung published a four volume biography in 2006, followed by a number of subsequent publications on Escher and his daughter by the same author. In order to further promote critical historical research into Alfred Escher and subjects relating to him, the Alfred Escher Foundation was established in 2006.[ref]The foundation is financially supported by a great number of donors and institutions, many of which are based on Escher’s entrepreneurial work (cf. Escher Foundation: Donors). The tight interlinking with corporate enterprises — that is illustrated e. g. by the fact that Joseph Jung is employed by both academic and corporate institutions (‘Titularprofessor’ at the University of Fribourg, Chief Historian at Credit Suisse) and serves on the administrative board of corporate companies and foundations — is a particularity of the Escher Foundation’s research activities and should be kept in mind in the reception of published interpretational accounts (the edition of source materials seems not to be biased in any way).[/ref] Among the research activities of the foundation figure a documentation centre offering access to correspondences, speeches, articles and publications (located in Zurich and opened to the public since 7th March 2012) as well as a small number of ongoing dissertation projects on Escher related topics.

Besides the Escher biography, the publication of letters written by and to Alfred Escher stands out as the most important undertaking of the Escher foundation. This editorial project, running from 2008 until 2015, concentrates on ca. 4500 letters held by the documentation centre as a systematic and complete collection of copies supplied by several public and private archives and intends to publish the whole collection online (starting 2012). This digital edition is complemented by a corpus of selected and richly annotated letters in six printed volumes, three of which are published to date with the next volume forthcoming in summer 2012. Both editions are based on the same transcriptions carried out by the Escher foundation (in XML/TEI), from which any form of presentation can be generated (single-source principle). By 21st February 2012, 501 letters written between 1831 and 1848 were released online. The data set will gradually be increased over the next three years and extensions and optimisations to the presentations are to be expected. As of now, the digital edition of the letters offers a variety of search and filter options, extensive commentaries on the relevant people and events, as well as a comprehensive chronology of Alfred Escher’s life and work (cf. Escher Foundation: Digital Edition, Letters; Escher Correspondence: Course of project).

Assessing the Value of the Escher Correspondence Project as a Digital Scholarly Edition

A digital scholarly edition has the potential to be valuable for a bigger community, if three central claims are satisfied: the data made available must be relevant, accessible and useable. Important is furthermore a middle- and long-term strategy both in relation to funding and chosen technologies and standards. Taking these aspects into account, this review illustrates why the Escher Correspondence project is rightly regarded as a state of the art project (cf. e. g. Institut für Dokumentologie und Editorik 2012).

Relevance

As indicated already, the personage of Alfred Escher is of great importance for Swiss history of the 19th century. Amounting to 4500 letters from the correspondence with more than 500 contemporaries and covering topics as diverse as politics, economics, education, railways, banks and insurance, Escher’s correspondence is a momentous testimonial that may inform research in economic, politic and social history. While the print edition, although arranged chronologically, is based on a thematic selection (cf. Jung 2008, p. 14–16), the digital edition aims to publish the correspondence in its entireness and thus is able to illustrate aspects of Escher’s life and work that are not essentially covered by the print edition. After all, Escher was not only concerned with large scale projects and undertakings that mattered for the country as a whole, but also interested in more local development and debates. Similarly, many of his letters also shed light on Escher’s private life.

Accessibility and integration of the source material

Besides providing access to all Escher letters that are available to the Escher Foundation, the digital edition aims to include a wealth of additional information and commentaries, comprising the contents of the print volumes (commentaries, summaries, short biographies, maps, tables and listings). Unless this extensive stock of source material can be browsed intuitively and / or searched reliably and any evidence found can be referenced and reaccessed easily, it is not very useful as a resource for research.

The Escher letters can be accessed through five different types of navigation that are implemented as sub-sites and can be reached with a simple click from the initial view. These navigational approaches allow to list the letters in a) a serial manner (using faceted classification), b) according to the time of writing and c) based on people or d) places mentioned. There is also e) a search option with sophisticated functionalities. Subject related access is not provided as a first level entry point, but it is achievable through a keyword field in the serial list of letters or by using the search function. Just below the main navigation the user is shown his current position in a breadcrumb path. This feature is somewhat misleading in that it does not reflect lower level choices (e. g. the choice of an initial letter regarding a listing of person or place names) and invariably relegates to the ‘Alle Briefe’ view as soon as a letter is selected and displayed. Implemented in a more helpful manner, it might show something like ‘Home > Alle Orte > Aachen (D) > Briefansicht (AES B0161 | ZB FA Escher vom Glas)’ and allow the user to go back to the name listing after having selected one of the letters.[ref]Currently, the path shown is ‘Home > Alle Briefe > Briefansicht, irrespective of whether the letter is accessed through ‘Chronologie’, ‘Alle Briefe’, ‘Alle Personen’ or ‘Alle Orte’.[/ref]

The core source material of the project are (hand-written) letters. By way of transcription and encoding (in XML/TEI) they become available for display within the digital edition. Each letter can be viewed in three ways, as edited text, digital facsimile and as a diplomatic text with a magnified view of the corresponding line in the facsimile on cursor roll-over.

  • The display of the edited text of a letter reflects the transcription that is used for the print version (letters that are edited in the print version are labelled as such in the title area). It consists of a basic normed transcription of the letter, that allows for the display of relevant additional information such as explanations of abbreviations and names (words underlined in blue that are explained using a hovering effect on roll-over; so-called ‘Tooltips’) and comments appended as endnotes (linked to blue superscript numerals). The display of an edited letter is complemented with a contextual menu that highlights corresponding names, locations, etc. as well as indications to linked letters and contextual comments in the text on click in the menu. The listed items at the same time serve as links to the denoted entities (cf. Escher Correspondence: Functions and Setup).
  • The facsimile view of a letter contains page by page displays of the digitised original sources, the first page often being supplemented with measurement indications and reference colours. For better readability, the digital representations of the letters can be increased and optionally be displayed in full window view.[ref]The implementation of this feature relies on the Deep Zoom viewing Ajax library ‘Seadragon’.[/ref] The scans provided are of high quality and suitable for close-up study of the text, but the platform does not allow for exporting the facsimiles e. g. as a PDF file.
  • Contrary to the edited text, the diplomatic text avoids editorial intervention where possible, but instead concentrates on peculiarities related to the graphical layout and the handwriting of the original source (line lengths and breaks, alignment of single words and paragraphs, insertions and deletions). A notable feature of the diplomatic text is the synoptical display of the original source on cursor roll-over.[ref]This effect might rely on automatic segmentation of lines and auto-generation of mapping tables using Perl and the ImageMagick suite, cf. the explanatory screen shots available at http://www.i-d-e.de/wordpress/wp-content/ uploads/2011/11/Skript-zur-Zeilensegmentierung-von-handschriflichen-Dokumenten_19.11.2011.pdf.[/ref] The corresponding line of the original text is displayed as a ‘tooltip’ that can be locked to a position or moved and rotated freely (cf. Escher Correspondence: Functions and Setup).

Three properties or features are shared by all three display modes. First, the metadata pertaining to the source of the letter, its publication (where applicable), title and the assigned keywords are listed above the display of the letter. Second, preceding and subsequent letters, both in relation to the whole collection and the exchange of letters in question, are always accessible within one or two clicks. Third, the footer of the page always holds a suggestion how the particular letter (commentary, etc.) is best quoted. These quotations contain the unique identification number of the current document, thus allowing stable references on the level of a letter. A more granular citation seems not warranted by design, yet it is of course possible to refer to line numbers of the synoptical view / diplomatic text (that should not normally be subject to change).

Usability

The Escher Correspondence project is predictably above all of interest for historical research, a discipline that builds on the selection and critical interpretation of valuable sources. Given the relevance of Escher’s personage and correspondence as well as the multi faceted accessibility of the digital edition, this resource certainly has the potential to contribute to the work on many specific historical research questions. While the full text search option provides an important entry point to exploration of Escher’s letter, the keyword and metadata based search and browsing options allow for more structured retrieval of material.

A very nice feature in relation to date related access strategies is the chronology that is accessed via the main navigation. Instead of a mere listing of dates with associated letters, the digital edition employs a two level time bar display. The initial view shows a part of the time span between 1819 and 1882 (Escher’s years of birth and death) with the possibility to navigate to earlier (left) and later (right) years. A letter symbol indicates the rough number of letters and makes a general pattern in correspondence activity obvious. For each year, the number of letters is also indicated. Very useful is the temporal indication of political, economical and other functions held by Escher (e. g. member of committees and councils, chair of organisations, etc.), since it presents valuable context information at a glance. The second, more detailed view is accessed by selecting one of the years. The time bar now covers 40 days and the letters are displayed on the day of their origin. This view is supplemented with important events of Escher’s life and, as in the previous view, Escher’s functions. Both letters and events reveal basic information on mouse action and letters are linked to the threepart detail view described above (cf. figure 1 and Escher Correspondence: Chronology).

Escher Correspondence – Chronological view (day view)
Escher Correspondence – Chronological view (day view)

A special feature comparable to the time bar display is the map view that is accessed over the location option (‘Alle Orte’). Using cartographical material and representing all locations mentioned in the correspondence (with the respective importance / number off occurrences), this feature illustrates the considerable geographic range as well as the main areas covered by and involved in the exchange of letters (cf. figure 2 and Escher Correspondence: Locations). While it does not matter for the spatial accuracy and is a minor detail, it would be nice if the cartographic material would reflect the infrastructural networks of the mid to late 19th century, but this is certainly nothing to demand of the project discussed here and would rather be the subject of a digital history resource project on its own.

Escher Correspondence – Map view
Escher Correspondence – Map view

The digital edition also provides the user with a possibility for personalisation. After registering with the service, any user has the possibility to save searches and collate selected letters to personal folders that can be shared with colleagues or published. This functionality, called ‘Mein Escher’, marks a step towards a virtual research environment, but the usefulness of this function is currently fairly limited. Some suggestions to improve the functionality of the personalisation might encompass a simple notepad to save personal notes or, desirably, a more capable function to annotate letters directly, possibly by selecting spans of text or circling sections of a letter. The possibility to append personal labels to letters would be similarly interesting. If such annotations could then be exported in a convenient way, the resource could become a very powerful research tool.[ref]While all contents of the digital edition are encoded in XML (based on the TEI guidelines) and this data is held in the native XML database eXist, the user data of the personalised functionalities is stored in a relational (MySQL) database (cf. Escher Correspondence: Functions and Setup). This framework should allow for much more sophisticated personalisation, although the seamless integration of complex queries may pose some difficulties.[/ref]

Further power of currently existing features might be leveraged, if the time bar and the map view could be used in connection with personal folders or based on keyword searches. This would for instance enable a user to display all correspondence related to the ‘Gotthard’ project in a chronological succession, perhaps in order to compare its intensity to another keyword.

It is in any case not unlikely that such functionalities and similar optimisations already figure on the roadmap of the edition project and it will not only be interesting to await forthcoming publications of the correspondence, but also to follow the further development of the resource.

Sustainability

While the digital edition of the Escher Correspondence is planned to be finished in 2015, this date will not mark the definite ending of the project. First of all, the online resource will require some ongoing maintenance. It is also conceivable, that the project will be extended at a later point in time, be it for the inclusion of newly discovered Escher letters, for an extension of the scope (e. g. by integrating correspondence of family members, other documents in relation to Escher) or for the interrelation with a similar resource. The design of the digital edition seems to allow for such undertakings.

Concerns related to long-term sustainability encompass the need for future funding, proper documentation of the project and the choice of suitable technology. In the case of the Escher Correspondence project, all three concerns appear sufficiently covered. The Escher Foundation is carried and supported by a number of established institutions and a severe shortage of funding seems highly unlikely. As concerns planning and documentation, the project appears to be on equally stable grounds (as far as this can be estimated by an outsider). Finally, the technical implementation of the project is based on technologies and standards that are considered to be future-proof and do not inhibit future amelioration, extension or migration. Most centrally, the project separates content from presentation and thus by design avoids many of the possible intricacies related to progressing technology. The project’s content — unquestionably its main asset — is in its entirety encoded in XML. Given its plain text basis and relative human readability, XML is the standard of choice for the majority of comparable projects. Relying on the guidelines of the Text Encoding Initiative as a principal encoding approach is certainly a good choice for a digital edition that comprises a diplomatic transcription. Adhering to this widespread standard might facilitate later conversions of the source files and of (parts of) the related queries and transformations (if the need should arise). The web technologies employed by the project, although extremely widely in use, might be the weakest link from a long-term perspective. Possible successor technologies will however certainly provide comparable functionalities and will be equally qualified to host the digital edition of the Escher Correspondence.

Applying a general perspective on digital critical editions

After addressing these rather specific questions of relevance, accessibility and integration of the source material, usability and sustainability, it is perhaps worth to briefly ponder the question in what ways the digital edition excels the print edition. A notable contribution to the underlying question is an essay proposed ten years ago by Peter Robinson, for his part editor of the Canterbury Tales Project (cf. http://www.canterburytalesproject.org; ca. 1989–2006), that pioneered new methods for transcription, collation, analysis and publication. In ‘What is a Critical Digital Edition?’ (2002) Robinson suggested six achievements digital editions should attain.

Following Robinson (2002, p. 51–59), a critical digital edition…

– is anchored in a historical analysis of the materials.
– presents hypotheses about creation and change.
– supplies a record and classification of difference over time, in many dimensions and in appropriate detail.
– may present an edited text, among all the texts it offers.
– allows space and tools for readers to develop their own hypotheses and ways of reading.
– must offer all this in a manner which enriches reading.

Robinson developed these statements against the background of the edition of a medieval text. Such editions generally involve the elaboration and presentation of an edited text that is based on a number of extant witnesses. The preconditions of a 19th century edition such as the Escher Correspondence considerably differs from this model, yet Robinson’s demands seem to be sufficiently fulfilled by the edition in question.

In the Escher corpus, most letters are available as single objects and they thereby represent the only instantiation of a text. The need for a historical assessment related to the material witness, based e. g. on stemmatic analysis, becomes thus relatively obsolete, as do hypotheses about creation and change (there is not much room for speculation). The diplomatic transcript is aware of changes that occurred to a letter after the initial writing, although most of these changes seem to have happened instantly in the process of writing the letter (extensions, deletions). This transcript covers a good level of detail, especially since it is supplied with facsimile views of the text and in doing so emphasises the physical reality of the actual letter. Complementary to the diplomatic transcript, the letters are presented as edited texts, perfectly in line with Robinson’s fourth demand. The appearance of these edited texts is normed and any text contains a number of links that build up to a dense, cross-referenced network.

Robinson’s perspective embraces the idea that editors, being perhaps more acquainted with the base text than its own author, should not deliver arbitrariness, but they must also beware of applying too strict guidance. While the digital edition of the Escher Correspondence project does not lead the user through a central argumentation or suggest a principal way how to approach the extensive stock of source materials, it seems not at risk of arbitrariness. The reader is first of all directed to the sources, but the structuring principles of the digital edition as described in this review and the transparent use of keywords and links as well as the currently present (and hopefully further developed) tools allow the user to “develop their own hypotheses and ways of reading” as claimed by Robinson (2002, p. 56–57). Without any doubt, the clear, yet not simplified, presentation of Escher’s correspondence that is embodied by the digital edition warrants an enriched reading and researching experience.

Literature

Escher Correspondence (2006–2012). http://www.briefedition.alfred-escher.ch [accessed on 6th March 2012].

Escher Foundation (2006–2012). http://www.alfred-escher.ch/en/ [accessed on 6th March 2012].

Institut für Dokumentologie und Editorik (2012). State of the art: Digitale Briefedition Alfred Escher [online, published on 23rd February 2012, accessed on 6th March 2012]. — http://www.i-d-e.de/briefedition-alfred-escher

Jung, J. (2008). Alfred Eschers grösstes und letztes Werk. In Jung, J., Fischer, B., Fries, M. and Kraus, S. (eds.) (2008). Alfred Escher zwischen Lukmanier und Gotthard. Briefe zur schweizerischen Alpenbahnfrage 1850–1882. Zurich: NZZ Libro. Alfred-Escher-Briefedition 1: 9–16.

Robinson, P. (2002). What is an Electronic Critical Edition? In Variants: The Journal of the European Society for Textual Scholarship 1: 43–61.

Compte rendu: Richard M. Stallman – „Pour une société numérique libre et durable“

Voici un compte rendu de la conférence de Richard M. Sallman „Pour une société numérique libre et durable“, accompagné de deux extraits enregistrés. Merci à l’auteur de ce compte rendu, Medhi Fertani, étudiant en informatique à l’EPFL.

C’est avec beaucoup de chance que nous avons reçu en Suisse Richard Matthew Stallman, pionnier du logiciel libre et programmeur à l’origine du système GNU (distribué avec Linux). Cette personnalité importante de l’informatique libre nous décrit dans ses conférences un paysage des plus sombres pour ces prochaines années. Après un rappel en quatre points de ce qu’est un logiciel libre, Stallman passe à l’attaque. En effet, selon lui, la privatisation des nombreux formats couramment utilisés nuisent à la liberté. Dès lors, tout le monde y prend pour son grade et à la hauteur de sa réputation ; de Microsoft à Apple, en passant par le format mp3, et même certains pays européens accusés de censure, tous ces organismes propriétaires nous font perdre le contrôle de notre ordinateur. D’ailleurs, Stallman lui-même annonce ne pas posséder de téléphone portable. Il ajoute un point d’honneur sur la défense du partage de fichiers, car selon lui, ce ne sont pas les utilisateurs qui violent les droits d’auteur, mais bien les entreprises de production des artistes qui, gardant presque toutes les recettes des disques pour eux, les volent délibérément.

Mais Richard Stallman reste constructif en proposant aussi des solutions à ces problèmes, ce qui en fait une conférence aussi intéressante qu’enrichissante. Voici deux extraits de l’exposé de Richard Matthew Stallman « Une société numérique libre et durable », à l’hepia HES-SO, à Genève, le 4 novembre 2010.

Richard M. Stallman – „Les entreprises font la guerre contre le partage“ by infoclio.ch

Richard M. Stallman – „Windows et Apple intègrent des logiciels malveillants“ by infoclio.ch