Call for papers: Computer Networks Histories: Local, National and Transnational Perspectives

International Conference – Computer Networks Histories: Local, National and Transnational Perspectives 14-15 December 2017 Lugano, Switzerland

Organizers
Association Histoire & Informatique Suisse – Bern
IMeG Institute of Media and Journalism, Università della Svizzera italiana – Lugano

Aims and scope
Recently several works in the fields of Internet Studies, Science and Technology Studies, and Media Studies have stressed the importance of early local, national and transnational computer networks histories for a deeper understanding of technological and social change in contemporary societies.

This two-day conference has a triple aim.
First, gathering scholars and researchers from a variety of disciplines working on theoretical and empirical analysis of computer network histories.
Second, providing a wide perspective on these histories, including case studies from Asia, Africa, Latin America, and Oceania as well as international organizations dealing with the control and management of networks: this interdisciplinary and international debate could be useful to compare worldwide experiences and to provide new frames on this topic.
Third, the conference aims to develop new frameworks and a space of discussion on the historical role of computer networks, representing the starting point of an international community of scholars.

Potential topics may include, but are in no way limited to, the following:

  • The origins and development of computer networks under a local, national, international, or transnational perspective;
  • Political, economic, and cultural representations of computer networks in Western and Eastern cultures;
  • Comparative analysis of early and late networks;
  • Physical infrastructures and materiality of computer networks;
  • The political economy of national digital infrastructures;
  • Histories of the digitalization of analogic networks;
  • The history of failed and forgotten computer networks projects;
    The influence of early computer networks on the development of the Internet and of the World Wide Web;
  • The cultural and social history of computer networks communities (e.g. communitarian networks, academic networks, professional networks, civic networks).

All the authors are invited to send an abstract of a max 500 words and a short bio by February 28, 2017 to nethistories@gmail.com. All invited speakers interested in publish their papers in the journal revue Histoire et Informatique will be asked to send a paper of max 5000 words by October 31, 2017.

Conference venue
The two-day conference will take place in Lugano, Switzerland, hosted by the Faculty of Communication Sciences of USI – Università della Svizzera italiana. The organizing committee comes from a collaboration between the Institute of Media and Journalism (IMeG) of USI and the Association Histoire & Informatique Suisse of Bern.

Travel grants
A limited number of travel grants may be available for participants without access to other financial resources. To request travel funding, please add to your proposal the motivation of your request and an estimate of the needed budget.

Deadlines

  • 28 February 2017 Deadline for abstract submission
  • 31 March 2017 Notification of acceptance
  • 31 October 2017 Short papers (max 5000 words) to be delivered
  • 14-15 December 2017 2-days conference

 

Keynote speakers
Hu Yong
is a professor at Peking University’s School of Journalism and Communication, and a well-known new media critic and Chinese Internet pioneer.

Hu Yong is a founding director for Communication Association of China (CAC) and China New Media Communication Association (CNMCA). His publications include Internet: The King Who Rules, the first book introducing the Internet to Chinese readers, and The Rising Cacophony: Personal Expression and Public Discussion in the Internet Age, documenting major transformations in the Chinese cyberspace.
http://sjc.pku.edu.cn/English.aspx
Tweet @huyong

Benjamin Peters is Associate Professor in the Department of Communication at the University of Tulsa and affiliated fellow at the Information Society Project at Yale Law School. His research focuses on the cultural history and social theory of digital media, with emphases on the former Soviet Union and the West.

Professor Peters has recently published two books: Digital  Keywords: A Vocabulary of Information Society & Culture (Princeton University Press) and How Not to Network a Nation: The Uneasy History of the Soviet Internet (MIT Press) in which he offers an account of the Soviet Union’s failed attempts to construct their own national computer networks for civilians during the height of the Cold War tech race.
https://petersbenjamin.wordpress.com/
Tweet @bjpeters

Panel „Le pouvoir des algorithmes“ – Lausanne, 9 juin 2016

Dans le cadre des 4e Journées suisses d’histoire, l’association Histoire et Informatique organise un panel sur le thème „Le pouvoir des algorithmes. Technologies numériques et rapports de force aux XXe-XXIe siècles.“

Le panel aura lieu le jeudi 9 juin 2016 à 9h15, à l’université de Lausanne (Bâtiment Anthropole, salle 3077).

Le panel comprend les interventions suivantes:

Ces interventions feront l’objet d’une publication dans le prochain volume (Vol. 20, 2017) de la revue Histoire et Informatique.

Assemblée générale 2016

L’association Histoire et Informatique tiendra son assemblée généale 2016 le samedi 11 juin 2016 à 12h30 à l’université de Lausanne (Bâtiment Anthropole, salle 2013).

L’ordre du jour est le suivant:
1. Begrüssung / Bienvenue
2. Wahl der Stimmenzähler/-innen / Election des scrutateurs/ scrutatrices
3. Abnahme des Protokolls der Generalversammlung vom 20.11.2015 des Vereins Geschichte & Informatik in Bern / Acceptation du procès-verbal de la dernière AG de Berne du 20.11.2015
4. Jahresbericht 2016 / Rapport d’activité 2016
a. Panel Journées suisses d’histoire
b. Revue Histoire et Informatique volume 20
5. Jahresrechnungen 2015 / Comptes 2015
6. Berichte des Revisors (Marco Jorio) / Rapports du vérificateur des comptes (Marco Jorio)
7. Statutenrevision / Révision des statuts
8. Austritte, Wahlen / Démissions, Elections
a. Rücktritte / Démissions
b. Neue Beisitzer / Nouveaux membres
c. Wahl des Vorstandes / Election du comité
9. Diverses / Divers

Call for paper: Scholarship in Software, Software as Scholarship: From Genesis to Peer Review

29–30 January 2015, Universität Bern
Organized by Digital Humanities@University of Bern & infoclio.ch
Deadline for Abstracts: 11 October 2014

‘Expressions’, 29 January 2015: Workshop on Software-based Scholarship

Computation and software analysis have entered nearly every imaginable field of scholarship in the last decades, in a variety of forms from digital publication of results to computational modelling embedded in experimental work. In each of these digital outputs – be it an interactive publication with mapping of relevant geo-referenced data, or perhaps a statistical program for the categorization of millions of books according to their literary genre – there is some manifestation directly in the computer code of the scholarly thought that underlies the project, of the intellectual argument around which the outcome is based.

The fact that scholarly software includes scholarly content is reasonably well-accepted. What remains controversial is the attempt at identification, in any particular instance, of what scholarly contribution has been made by a piece of software. Its makers tend to express the scholarship in writing separate from the software itself, if they even make explicit at all the scholarly reasoning that went into the code; its reviewers and users tend either to treat the software as a ‘black box’, opaque to informed scrutiny and therefore to be looked on with grave suspicion, or to deny that this particular software has any scholarship inherent to the source code. Given that our mechanisms for identifying and evaluating the scholarship within computer code are nearly nonexistent, we must ask: how do intellectual arguments — how does scholarship — come to be expressed in the software of digital humanities? How does this scholarship, so evident in theory but so elusive in practice, fit into the scientific process of advancement of knowledge?

These questions and related ones will be considered during a day-long workshop, to take place on 29 January 2015 in Bern. The topic has a wide range of approaches, and we therefore hope to receive contributions from many different perspectives. Some examples of specific questions to be addressed could include:
• What are the mechanisms by which scholarly models are expressed in computer code? How does the explicit expression in an unambiguous syntax affect the nature of what we are trying to express? What happens when our ‘arguments’ become manipulable and dynamic?
• Is a software program or library necessarily a ‚black box‘, in the sense of Latour? To what extent may we rely on these ‚black boxes‘, and do we have precedent in the pre-computational age for doing so?
• If scholarly software can be considered as a dynamic and manipulable, if explicit and syntactic, form of expression, how does it change the scientific and/or hermeneutic process in the different fields of scholarship?
• All scholarly software needs a vast amount of supporting code – programs and libraries necessary for the software to run, but working at a greater or lesser remove from the direct scholarly argument – in order to run. Who provides this support, what recognition is granted to them within the academic ecosystem, and how do we as a community sustain their work and their careers?

‘Evaluation’, 30 January 2015: Round table on Peer Review for Digital Scholarly Work

Related to the question of the expression of scholarship in software, and in other forms of digital publication as well, is the question of how to evaluate it. This topic will be the focus of a half-day roundtable, Peer Review for Digital Scholarly Work, to be held on 30 January 2015. Digital scholarly works such as Digital Editions, Digital Libraries, Digital Exhibitions, Data Visualization, Geographical Information Systems and the like are increasingly frequent in the Humanities, as main or secondary output of research projects; the question of how best to evaluate them takes on ever greater importance. At the moment, researchers doing digital scholarly work are usually unable to obtain academic credit for their work—in order to obtain scholarly recognition, they must additionally publish a “normal” article in a print-based journal about their digital work.

As universities and national research funding agencies across the world move toward encouraging more digital scholarship in the humanities, there is an urgent need to discuss the criteria and benchmarks that should be in place for evaluating digital scholarly work. We welcome contributions about existing initiatives in this domain as well as more theoretical contributions that treat the topic of peer review of digital scholarly work.

Practical information

We now invite participants for each of the workshop and the round table.

• For the WORKSHOP, please submit a 500-word abstract of the work you will present.
• For the ROUND TABLE, please submit a 200-word “position paper” indicating your intended contribution to the discussion.

Submissions from early-career researchers and “alt-ac” practitioners within the digital humanities are particularly welcome. There are a number of travel bursaries available for speakers; if you would like to be considered for a bursary, please inform us when you submit your abstract.

Abstracts should be submitted to thomas.leibundgut@kps.unibe.ch by 11 October 2014; we will notify contributors of decisions by 23 October. Selected papers arising from the event will appear in an issue of Interdisciplinary Science Reviews, to appear in early 2016.

infoclio.ch Tagung 2013: Geschichtswissenschaften und Verlage im digitalen Zeitalter

TitelblattAm 15. November 2013 findet in Bern die infoclio.ch-Tagung zum Thema „Geschichtswissenschaften und Verlage im digitalen Zeitalter“ statt. Die Tagung ist die fünfte Veranstaltung der Reihe «Digitale Medien und Geschichtswissenschaften».

Forschende, Verleger, Vertreterinnen wissenschaftlicher Institutionen und weitere Akteure, die am Prozess des wissenschaftlichen Publizierens beteiligt sind, referieren und diskutieren über die aktuellen Entwicklungen im geschichtswissenschaftlichen Verlagswesen und die Zukunft des digitalen Publizierens.

Die Teilnahme ist kostenlos. Ab September 2013 kann man sich im internet anmelden.

Programm:

9h00-9h30: Empfang

9h30-9h35: Begrüssung – Enrico Natale, Leiter, infoclio.ch

9h35-11h30: Session 1: Das geschichtswissenschaftliche Publizieren in der Schweiz – Eine Bestandesaufnahme

9h35-10h05: François Vallotton, Professeur d’histoire contemporaine, Université de Lausanne – L’édition numérique en Suisse. Un regard…

10h05-10h35: Ingrid Kissling-Näf, Leiterin Abteilung 1, Schweizerischer Nationalfonds – Die Förderung der geisteswissenschaftlichen Publikationen. Bilanz und Perspektiven

10h35-11h: Jean Richard, Directeur, Editions d’en bas – L’édition en histoire entre modèles traditionnels et nécessité de changement

11h00-11h30: Kaffeepause

11h30–12h45: Podium 1: Das geschichtswissenschaftliche Publizieren in der Schweiz – Eine Bestandesaufnahme

– Moderation: Monika Dommann, Professorin für Zeitgeschichte, Universität Zürich
– Marco Iorio, Chefredaktor, Historisches Lexikon der Schweiz
– Ingrid Kissling-Näf, Leiterin Abteilung 1, Schweizerischer Nationalfonds
– Claude Pahud, Directeur, Editions Antipodes
– François Vallotton, Professeur d’histoire contemporaine, Université de Lausanne
– Hans-Rudolf Wiedmer, Leiter, Chronos Verlag

12h45-13h30 Mittagessen

13h30-14h30: Session 2: Digitales Publizieren, Open Access und die Zukunft der geschichtswissenschaftlichen Publikation

– Pierre Mounier, directeur adjoint d’OpenEdition – Edition numérique et débat sur l’Open Access en France

– Gary Hall, Professor of Media and Cultural Studies, Conventry University – Open Access Advocacy and the future of scholarly publishing

14h30-14.50 Pause

14h50-16h30: Podium 2: Der digitale Wandel und das geschichtswissenschaftliche Publizieren in der Schweiz

– Moderation: Stefan Nellen, Chef, Dienst Historische Analysen, Schweizerisches Bundesarchiv
– Olivier Babel, Directeur, Presses Universitaires Romandes, Lausanne
– Ruedi Bienz, Leiter und Inhaber, Schwabe Verlag
– Alain Cortat, Directeur, Editions Alphil
– Pierre Mounier, directeur adjoint d’OpenEdition
– Bruno Meier, Leiter, Verlag Hier+Jetzt
– Jean Richard, Directeur, Editions d’en bas

NB: Die Anmeldung ist ab sofort möglich: Online-Anmeldung

Call for paper: Geschichte (auf)zeigen. Visualisierung von Daten zwischen Theorie und Praxis

Die Visualisierung von Daten in den Geisteswissenschaften erlebt in den letzten Jahren eine Renaissance. Neben « klassischen » statistischen Darstellungen erfreuen sich zunehmend neue Visualisierungsformen grosser Beliebtheit, seien es Netzwerkvisualisierungen, Kartographie, Lexikometrie (z.B. Google Ngrams), oder multi-mediale Graphen, um nur einige zu nennen. Verschiedene Faktoren haben diese Entwicklungen beschleunigt. Durch allgemein bessere Rechnerleistung und immer einfacher zu bedienende Software haben heute fast alle Forschenden die Möglichkeit komplexe quantitative Methoden und Visualisierungstools einzusetzen. Darüber hinaus wächst die Zahl offen zugänglicher Daten und digitalisierter Materialien, die mit automatisierten Methoden abgefragt und bearbeitet werden können.

Diese Entwicklungen wurden bisher nur wenig auf ihre Auswirkungen auf Theorien und Methoden der Geschichtswissenschaft hin untersucht. Forschende, die sich mit neuen Visualisierungsmöglichkeiten beschäftigen, stehen mehreren Problemfeldern gegenüber : Welche Daten können visualisiert werden ? Welche Vor- und Nachteile bieten unterschiedliche Datenformen und verbreitete Tools. Welche Quellen eignen sich für die Erhebung von Daten? Existieren Best-Practice Beispiele für die Erhebung, Aufarbeitung und Darstellung quantitativer Daten und daraus resultierender Visualisierungen ?

Neben diesen wichtigen methodologischen Überlegungen, lässt sich die allgemeinere Frage nach der Bedeutung dieser Entwicklungen stellen. Entsprechen diese Illustrationen dem im Text Gesagten oder lässt sich in ihnen eine neue Form der Narration erkennen und nutzen ?In welcher Beziehung stehen Visualisierung und Text ? Was ist der wissenschaftliche Mehrwert von Visualisierungen ? Besitzen Visualisierungen Eigenschaften, die anderen wissenschaftlichen Darstellungsformen fehlen ? Welchen Einfluss hat das Comeback von Daten und Visualisierungen auf die Geschichtswissenschaft im Allgemeinen ?

Nicht zuletzt sollte die historische Dimension von Visualisierungen nicht vergessen werden. Verschiedene Darstellungsformen, wie Karten oder Zeitleisten existieren seit langer Zeit und haben zahlreiche historische Wandlungen durchlaufen. Wann entwickelten sich graphische Darstellungen von Daten ? Wann und unter welchen Umständen wandelten sie sich ? Welche Rolle spielten sie für Wissen, Wissenschaft und Forschung ?

Der nächste Band der Zeitschrift « Geschichte und Informatik » wird sich mit diesen Fragen beschäftigen. Die Herausgeber freuen sich über Proposal zu den folgenden Themen :

Einsatz von Visualisierungstechniken in der Geschichtswissenschaft, z.B. :
• Kartographie (z. B. GIS)
• Netzwerkanalyse und – visualisierung
• Text- und Sprachanalyse, Lexikometrie
• Statistische Visualisierungen

Methodische Fragen der Datenvisualisierung
• Datenerhebung und –aufbereitung
• Wahl der statistischen Methode (z.B. Algorithmen)
• Bedeutung unterschiedliche Tools und damit verbundenen Visualisierungsmöglichkeiten
• Allgemeine Darstellung von Daten

Theoretische Aspekte
• Vor- und Nachteile für die Geschichtswissenschaften
• Einfluss auf Fragestellungen
• Folgen für historische Narrative

Geschichte der Datenvisualisierung
• Entwicklung unterschiedlicher Darstellungsformen (Karte, Zeitstrahl, Netzwerke)
• Geschichte digitaler Visualisierungen
• Platz der Datenvisualisierung innerhalb der Wissenschaftsgeschichte

Abstracts mit max. 400 Wörtern sowie einen kurzen CV können bis zum 30. Mai 2013 unter info@ahc-ch.ch eingereicht werden.

Editoren:
Nicolas Chachereau (UNIL), Enrico Natale (infoclio.ch), Christiane Sibille (dodis.ch), Patrick Kammerer (UZH), Manuel Hiestand (UZH).

Nouveaux styles de citation Zotero adaptés aux pratiques des universités suisses

Le logiciel de gestion bibliographique Open source Zotero sert à constituer, trier et organiser un répertoire bibliographique. Conçu par des historiens, il s’intègre facilement au navigateur internet Firefox et peut être téléchargé gratuitement. Les données bibliographiques peuvent ensuite être exportées lors de la rédaction d’un travail écrit, en créant automatiquement des notes de bas de page et/ou une bibliographie.

Il manquait jusqu’à présent un style de citation qui corresponde aux conventions des universités en Suisse. Nicolas Chachereau, membre du comité de l’association Histoire et informatique, a developpé pour le compte d‘infoclio.ch deux styles de citation bibliographiques pour Zotero qui sont dès à présent à disposition de toutes les personnes intéressées.

En raison des différentes conventions bibliographiques entre la Suisse allemande et la Suisse romande, deux styles distincts sont été développés. Les styles infoclio.ch peuvent être téléchargés gratuitement dans le « Zotero Style Repository ». Entrer «infoclio» dans le champ de recherche et passer la souris sur les titres pour voir le rendu de chaque style.

Instructions d’installation :

  1. Choisir le style «infoclio.ch francophone avec petites majuscules» ou «infoclio.ch francophone sans petites majuscules» ou «infoclio.ch Deutschschweiz» ou tous les trois !
  2. Au clic, une fenêtre apparaît, demandant si le style peut être installé. Confirmer en cliquant sur «Installer»
  3. Les styles infoclio se trouvent maintenant dans le « Gestionnaire de Styles » (Préférences Zotero -> Citer-> Styles) et peuvent être désormais utilisés.

Digital Humanities 2012 Hamburg – Poster session (18/07/12)

Pour se faire une idée de la diversité des projets représentés à la conférence Digital Humanities 2012, rien de tel qu’une plongée dans la Poster Session, où, pendant une heure et demie, une cinquantaine de projets étaient présentés par leurs équipes dans le hall de la faculté de Sciences Humaines de l’université de Hamburg.
Cette session était inclue en session plénière dans le programme, et la plupart des participants étaient présents, contribuant à l’animation du moment. Bravo aux organisateurs, qui ont trouvé la bonne formule pour une Poster Session réussie. Les projets sont présentés dans leur ordre de rencontre.

Sous le titre de „Digital Knowledge Store“ se cache la réponse de l‘Académie des sciences de Berlin-Brandebourg au problème central de toutes les institutions de recherche qui produisent des contenus numériques: Comment rendre visible, et donc utiles, ces informations ? Les universités ont depuis une dizaine d’année ouvert des serveurs institutionnels, sur lesquels l’information est stockée, mais ceux-ci restent trop isolés et peu conviviaux. La tentation serait bien sûr de regrouper tous les contenus d’une université sur un seul serveur, mais chaque équipe de recherche, chaque chercheur veut garder la main sur ses données. En France, une solution a été développée par un projet comme Isidore, un portail de recherche des sciences humaines et sociales, qui agrège les métadonnées de très nombreuses sources, tout en laissant les données là où elle sont. Principe identique avec le Knowledge Portal de l’EFPZ (qui est down au moment où j’écris, fait bien assez rare pour qu’on le signale), qui permet de faire une recherche fédérée dans plusieurs catalogues dans une interface conviviale. Mais attendez… Knowledge Portal … Digital Knowledge Store … est-ce que l’Académie de Berlin se serait inspirée de l’ETHZ ? Peu importe, car le projet berlinois veut aller plus loin que ses prédécesseurs, en proposant une interface de recherche sémantique capable de faire des recommandations intelligentes en fonction de l’historique de recherche.
Ce qui est intéressant dans ce type de projets, c’est la somme d’information et de métadonnées disparates qui doivent être harmonisées, retravaillées et catégorisées pour fournir un service de recherche efficace. Pas de la tarte…

Dans le même style de projet, mais en plus spécifique et en plus précis, il y a le travail de The European Library (TEL), qui agrège les notices bibliographiques des bibliothèques nationales européennes, et les reverse ensuite dans Europeana. Le travail de Nuno Freire consiste, en résumé, à garantir qu’il n’y ait pas de doublons parmi les noms d’auteurs des 75 millions de notices bibliographiques en une dizaine de langues que contient TEL. Ben voyons. Dans sa tâche il peut compter sur l’aide de VIAFF, un répertoire multi-lingue des noms de personnes, et sur les fichiers d’autorités qu’établissent les bibliothèques nationales.

M. Geoffrey Rockwell est une personnalité importante de la communauté des Digital Humanities. Il est notamment l’auteur des Voyant Tools, une série d’outils en ligne d’analyse et de visualisation de textes. Mais le projet qu’il présente ici est un autre, et concerne l’annotation des textes, plus précisément les langages de balisages, et plus précisément encore le langage XML, qui sert de base à la Text Encoding Initiative, très largement utilisée dans la communauté DH. L’outil présenté est un éditeur XML en ligne. Baliser un texte, c’est tout simplement annoter ses différents éléments au moyens de balises informatiques, pour permettre à la machine de les retrouver. Par exemple on annote avec une balise tous les chapitres d’un livre, et on pourra ensuite demander à l’ordinateur de nous sortir automatiquement la liste des chapitres. Évidemment les professionnels de la TEI, eux, annotent tout: noms de lieux, personnes, style, morphologie, syntaxe, structure du texte, mise en page, etc. Ils peuvent donc demander à leurs ordinateurs des choses plus compliquées, du genre „Quel sont les adjectifs les plus utilisés pour qualifier tel personnage ?“ ou „Combien de mots a-t-il en moyenne entre chaque adverbe de coordination ?“

Comme on sait, le Japon a perdu la deuxième guerre mondiale, assommé par deux bombes atomiques américaines. Mais la bombe H n’a pas été la seule arme de masse employée par les Américains contre les Japonais. Une campagne de propagande culturelle aurait aussi été mise en place aux USA pour stigmatiser l’ennemi japonais. C’est ce que voudrait prouver Yu Fujimoto de l’université de Doshisha en analysant le traitement du Japon dans la collection complète du National Geographic Magazine de 1888 à 2009. Au moyen de techniques de text mining et d’analyses de données, le projet Historical Events vs Information Content veut retracer le regard du magazine d’aventure grand public sur le Japon. N’ayant pas encore reçu l’autorisation d’étudier le contenus des articles, le projet se concentre pour le moment sur les images.

Les outils d’édition automatique de médias audiovisuels se développent rapidement. Malheureusement, le tant souhaité programme de transcription automatique d’enregistrements audio n’existe pas encore sous une forme satisfaisante. Cependant, de nombreux outils permettent de se faciliter la tâche, quand est venu le moment de traiter le matériel audiovisuel recueilli sur un terrain d’enquête. Le projet AV Processing in eHumanities du Max Plank Institut for Psycholinguistics sait faire deux choses: distinguer automatiquement les voix des différents intervenants sur un enregistrement audio, et reconnaître les mouvements de bras et de tête dans les images en mouvement.

Digital Humanities 2012 Hamburg – Switzerland takes power (Do it like Mills Kelly / 2)

People will remember Switzerland during this Conference.
I am in this very moment in the founding session of the Association Digital Humanities Deutschland. The big auditorium of the main building of Hamburg university is filled with more than 200 participants. The discussion is focusing on the future name and affiliations of this association.

People are notably protesting against the affiliation with Oxford University Press, publisher of JLLC – Journal for Literary and Linguistic Computing. As you know, Oxford is NO Open Access Publisher, and they publish only in English. And this is when Prof. Stolz from the University of Bern stood up, followed by Prof. Haber from the University of Basel and Prof. Claudine Moulin from the Universities of Luxembourg and Trier, to declare that the Digital Humanities in Europe should be multi-lingual, and not adapt themselves to the total dominance of English language, and nor should they openly support a commercial publisher like Oxford University Press.

Prof. Stolz even said that the title Digital Humanities Deutschland is problematic, because it does not acknowledges the other German-speaking countries, and among them Switzerland. An alternative would be DHDR = Digital Humanities Deutschsprachiges Raum. Prof. Stolz is also a candidate to be member of the to-be-elected committee of the Association. We’ll see how it goes. Anyway, how comes that Switzerland has become so secure of its place in the DH community ?

 

The power action of Switzerland began on Sunday afternoon, when Prof. Clivaz and Prof. Kaplan from Uni. Lausanne presented the application of University of Lausanne to host the Digital Humanities Conference in 2014. With all due modesty, I think it was my initiative to suggest to the Lausanne DH team to invite the Conference in Lausanne in 2014. And we won. The steering committee was convinced by the proposal – including a boat tour on the lake, a visit in a chocolate fabric and of course a visit to the CERN, where the web was first invented in 1989 !

To make it even better, the same day came the piece of news that the Swiss Polytechnical School of Lausanne (EPFL) is opening a Digital Humanities Lab, headed by Frédéric Kaplan, an artificial intelligence engineer with strong interest in the humanities. This brand new DH Lab will have two PhDs students and a postdoctoral fellow, and will be affiliated to the College des Humanités de l’EPFL. And they are starting their activities already in the coming weeks. Newly nominated Prof. Kaplan is currently choosing the new hardware to equip his laboratory, hesitating between a fully-automated book-scanner or a 3d object modeler. As the EPFL is not exactly a poor institution – he will probably have both. Hopefully for once the humanities sector will benefit from the financial wealth of the Swiss Polytechnical School. The research program of the DH Lab is not fixed yet, but will definitely deal mainly with history !

Digital Humanities 2012 Hamburg – DH Curriculum (Do it like Mills Kelly / 1)


As you may know, one of the biggest conference worldwide dedicated to digital humanities is starting today in Hamburg. Digital Humanities 2012 is this year edition of the annual conference of the Alliance of Digital Humanities Organisations. With more than 600 participants and a 500 pages Conference abstracts volume, it is a rather impressive gathering.

Trying to give an account of similar ventures is always tricky. One can live-Tweet (I will to a certain extent), take notes (I am too) or write blog posts. During THATCamp Switzerland, we were astonished to see that Mills Kelly (CHMN) had this amazing skill to write blog posts during the sessions, with no delay, so that the post could be published by the end of the session. That’s what I’m trying to do here… The account is of course partial as it can be. For a more neutral report see the slides of Prof. Thaller at the end of this post.

The first workshop I attended this morning was entitled „Toward a Digital Humanities Curriculum“ and was hosted by Prof. Manfred Thaller, from Uni. Köln, which is a godfather-type figure in Digital Humanities in Germany. Prof. Thaller belongs to the first generation of digital humanities, as he himself stated,  telling us an anecdote about the year 1996, where DH – at that time the word was „humanities computing“ – were first acknowledged as specific research field.

I’m coming to the point. Back in 1996, according to prof. Thaller, there was a hype in US Colleges about teaching student how to use Text processor softwares as Microsoft Word and to build their own homepages. At the same time, some researchers were starting to run computational analysis in digital corpora, mainly textual. While the ones were learning to use new available technologies, the others were trying to design new computer-based research methods. Modeling is thus a central DH skill, i.e. represent a humanities problem in such a way that it becomes possible to build a technical solution.

According to Prof. Thaller – or at least according to what I understood from his presentation – that’s where he sets the border between  DH and „Library Studies“. Prof. Thaller somehow considers DH as a humanities discipline, where the humanities remain sovereign over the technology. The research questions, and the choice of what tool are to be developed, stays in the hand of the humanities scholar. Conversely, Library Science have a mission to teach how to use existing tools and empower student traditional research skills, but that’s not proper DH research.

This debate is crucial to a DH definition. Should DH be understood as augmentation of other curricula or rather as  a new professional curriculum ?

Everybody seems to consent here that DH is a specific discipline, that differs from other information sciences. The core topic discussed here today is what skills should be taught to DH Ba/MA students in university. You will find in the slides below an impressive list of Standards important to Digital Humanities (pp. 8-11).

I should add that in Germany today there are ca. 10 Undergraduate Programs and 12 Master programs in DH, plus several news chairs in DH being created these last years. We received also a leaflet called Digitale Gesiteswissenschaften, which is a summary of the state of the art of DH university programs in Germany.