DH@LLM: Grands modèles de langage et humanités numériques
Colloque organisé par Glenn Roe (Sorbonne-Université), Alexandre Gefen (CNRS-Sorbonne Nouvelle), Ayla Rigouts Terryn (Université de Montréal) et Michael Sinatra (Université de Montréal), en partenariat avec l'Institut d'études avancées de Paris (IEA de Paris).
Événement co-organisé par l’IEA de Paris, dans le cadre du projet
PostGenAI@Paris coordonné par Sorbonne Université, en partenariat avec la Bibliothèque nationale de France (BnF) et Sciences Po Paris.
Evénement en présentiel uniquement, ouvert au public sur inscription.
Inscription : contactez Floriane Chiffoleau (floriane.chiffoleau@hotmail.fr) et Mikhail Biriuchinskii (m.biriuchinskii@gmail.com).
Conférences en français et anglais.
Présentation
Les grands modèles de langage, qu’il s’agisse des modèles grands public fortement alignés comme ChatGPT ou de modèles accessibles en Open Source, ont montré en quelques années leurs immenses capacités à traduire, analyser, récrire et synthétiser des documents ou encore produire du code informatique. Ils se sont imposés comme des outils d’augmentation linguistique et cognitive révolutionnaire. Si les Humanités Numériques ont très tôt utilisé des outils à base d’apprentissage machine (clustering des textes, topic modeling, embeddings et analyses vectorielles, etc.), quels peuvent être les usages des LLM ? Quelles tâches anciennes peuvent-ils accomplir, quels types d’analyses nouvelles peuvent-ils permettre ? Par-delà leur utilité par exemple pour l’identification des entités nommées, ou le sentiment analysis, tout laisse à penser qu’ils peuvent permettre des analyses textuelles inédites ou fortement accélérées. Plus loin, on peut imaginer que ces outils peuvent augurer d’une manière de faire parler directement les textes sous la modalité de questions/réponses, ouvrant tout un champ d’analyse novateurs. Mais quels sont aussi les biais de telles pratiques, si l’on pense aux problèmes d’explicabilité et de falsifiabilité posés par les LLM, prompte à produire des hallucinations. Ce sont ces horizons que ce colloque veut ouvrir, en accueillant à la fois des réflexions générales et des expériences novatrices.
Prorgramme
9h30-9h45 : Mots de bienvenue des organisateurs
9h45-10h45 : Care and Repair for Responsibility Practices in Artificial Intelligence
Conférence plénière de Geoffrey Rockwell
10h45-11h45 : Session 1 présidée par Alexandre Gefen
- Autopsie de l’auteur par l’IA générative : introspection, perpétuation de la persona auctoriale et nouvelles modalités créatives par le journal littéraire, la correspondance et les enregistrements numériques
Par Jim Gabaret
- Les êtres humains peuvent-ils penser ?
Par Marcello Vitali-Rosati
11h45-12h15 : Pause
12h15-13h15 : Session 2 présidée par Ayla Rigouts Terryn
- Comparaison de méthodologies d’apprentissage pour différents modèles de langue : implémenter la logique du verlan dans une machine
Par Emile Provendier
- L’IA générative et la plateforme LaCAS pour la recherche en études aréales : apports et défis
Par Liliane Hodieb, Bastien Sepulveda et Peter Stockinger
13h15-14h15 : Pause
14h15-15h15 : Session 3 présidée par Michael Sinatra
- Comprendre sans trahir : quelles garanties pour les historiens face aux grands modèles de langue ?
Par Marie Puren et Aurélien Pellet
- La fin de l’historien-programmeur ?
Par Frédéric Clavert
15h15-15h45 : Pause
15h45-16h45 : Session 4 présidée par Glenn Roe
- Explorer l’émergence de la science économique dans l’Encyclopédie grâce aux LLM : retours d’expérience sur l’Encycloscope 2.0
Par Morgan Blangeois, Naïs Sabatier et Aurelia Vasile
- Du prompting au fine-tuning. Réflexions sur l’usage des LLM pour une édition numérique de la Bibliographie de la France (XIXe siècle)
Par Elisa Courant et Jordi Brahamcha-Marin
Partenaires
- Observatoire des textes, des idées et des corpus (ObTIC)
- Centre de recherche interuniversitaire sur les humanités numériques (CRIHN)
- Huma-Num
|
|
|