A Cross-Case Analysis of the Representation of Victims-Protagonists in Truth Commission Narratives Using LLMs with Human-in-the-Loop Evaluation
Conférence en ligne de Tine Destrooper (Université de Gand, Belgique) et de Jef de Slegte (Vrije Universiteit Brussel, Belgique) chercheurs en résidence de deux mois à l'IEA de Paris pour le programme PostGenAI@Paris.
La série de conférences en ligne « Paris IAS Ideas » propose des présentations courtes et stimulantes de chercheurs de l'Institut d'études avancées de Paris, marquant le début de leur résidence d'écriture d'un mois.
Le programme PostGenAI@Paris est coordonné par Sorbonne Université. L'IEA de Paris accueille des chercheurs internationaux afin de les accompagner dans leurs recherches sur l’intelligence artificielle, ses conséquences sur nos sociétés et les perspectives qu’elle offre pour le futur.
Séance exclusivement en ligne et en anglais.
Gratuit sur inscription.
Inscription obligatoire via le formulaire en bas de page pour recevoir le lien de connexion.
Présentation
Tine Destrooper étudie la puissance de l'IA dans les critiques sur la justice transitionnelle. Le projet s'appuie sur des études critiques concernant la justice transitionnelle et examine les conditions à remplir pour intégrer les méthodes d'apprentissage automatique dans les recherches empiriques sur la justice transitionnelle, notamment afin d'utiliser ces méthodes d'une manière qui corresponde aux orientations normatives de la justice transitionnelle en faveur de sociétés plus justes et plus inclusives. Sur la base d'un cas test utilisant des bases de données existantes, le projet explore les défis et les opportunités au sein et au-delà de la recherche sur la justice transitionnelle et les droits humains.
Jef de Slegte étudie comment quantifier les disparités intersectionnelles à l'aide de l'apprentissage automatique causal. e projet explore comment l'intégration de telles stratégies peut être améliorée afin d'accroître la pertinence des méthodes d'apprentissage automatique en sciences politiques, en particulier dans le domaine de l'IA fiable. Les méthodes d'apprentissage automatique causal de pointe sont évaluées dans le but de détecter et de quantifier les résultats injustes, notamment ceux influencés par un attribut protégé (par exemple, la race, le sexe, l'âge, etc.), présents dans les données d'observation où des disparités dans les résultats sont constatées ou dans les données qui incluent des décisions d'une institution ou d'un système automatisé jugées injustes. L'accent est mis sur la transposition de l'intersectionnalité à ces méthodes et sur l'examen de l'impact de multiples attributs protégés sur les disparités dans les résultats, ce qui est crucial du point de vue de l'équité et de l'inclusivité dans l'IA. Enfin, le projet envisage de développer une approche permettant de réaliser des prédictions équitables, ce qui implique d'explorer des moyens de recalibrer les résultats injustes sur la base des données disponibles, afin d'obtenir des résultats équitables, c'est-à-dire comme si une prise de décision équitable était en place au sein de l'institution ou du système automatisé.
|
Exploiter la puissance de l'IA dans les études critiques sur la justice transitionnelle 01 septembre 2025 - 31 octobre 2025 Quantifier les disparités intersectionnelles à l'aide de l'apprentissage automatique causal 01 septembre 2025 - 31 octobre 2025 |
|