Jef De Slegte

Vrije Universiteit Brussel, Belgique (programme PostGenAI@Paris)
Quantifier les disparités intersectionnelles à l'aide de l'apprentissage automatique causal
01 septembre 2025 - 31 octobre 2025
FacebookTwitter

Jef de Slegte est actuellement data scientist et chercheur au Laboratoire d'analyse des données de la Vrije Universiteit Brussel. Avant de se lancer dans une carrière universitaire, il a travaillé pendant 10 ans dans le secteur privé en tant qu'expert en télécommunications et en haute technologie. Ses travaux universitaires interdisciplinaires se situent à la croisée de l'apprentissage automatique et des sciences politiques. Sur le plan méthodologique, il étudie comment l'inférence causale peut être intégrée à l'apprentissage automatique afin de créer des modèles fiables dans le but d'ajouter une couche d'explicabilité et d'équité et de les appliquer à la recherche empirique en sciences politiques. Il examine comment l'apprentissage automatique causal peut être utilisé pour dégager et quantifier les effets causaux dans les études électorales.

Jef de Slegte rejoint l'IEA de Paris en septembre-octobre 2025 dans le cadre du programme créé en collaboration avec le cluster PostGenAI@Paris porté par Sorbonne Université. L'IEA de Paris accueille des chercheurs internationaux afin de les accompagner dans leurs recherches sur l'intelligence artificielle, ses conséquences sur nos sociétés et les perspectives qu'elle offre pour le futur.

Sujets de recherche 

Intelligence articifielle ; apprentissage automatique ; sciences politiques.

Quantifier les disparités intersectionnelles à l'aide de l'apprentissage automatique causal

Au cours de la dernière décennie, les politologues ont de plus en plus adopté les méthodes d'apprentissage automatique. Dans un contexte où les sources de données se multiplient, telles que les transcriptions de débats, les réseaux sociaux, les sondages, les données géospatiales et les enregistrements d'événements, les méthodes d'apprentissage automatique sont attrayantes car elles augmentent le volume d'informations analysables. Cependant, leur logique algorithmique, bien qu'elle permette de nouvelles formes d'inférence sous-utilisées, est fondée sur des relations associatives plutôt que sur un raisonnement causal en soi, ce qui peut nuire à leur pertinence pour les sciences sociales et politiques, où le raisonnement causal est un élément essentiel de la théorisation. Les algorithmes peuvent toutefois être complétés par des stratégies supplémentaires permettant l'inférence causale, notamment en rendant les interactions complexes moins opaques et donc plus informatives sur le plan théorique pour les sciences sociales.

Le projet explore comment l'intégration de telles stratégies peut être améliorée afin d'accroître la pertinence des méthodes d'apprentissage automatique en sciences politiques, en particulier dans le domaine de l'IA fiable. Les méthodes d'apprentissage automatique causal de pointe sont évaluées dans le but de détecter et de quantifier les résultats injustes, notamment ceux influencés par un attribut protégé (par exemple, la race, le sexe, l'âge, etc.), présents dans les données d'observation où des disparités dans les résultats sont constatées ou dans les données qui incluent des décisions d'une institution ou d'un système automatisé jugées injustes. L'accent est mis sur la transposition de l'intersectionnalité à ces méthodes et sur l'examen de l'impact de multiples attributs protégés sur les disparités dans les résultats, ce qui est crucial du point de vue de l'équité et de l'inclusivité dans l'IA. Enfin, le projet envisage de développer une approche permettant de réaliser des prédictions équitables, ce qui implique d'explorer des moyens de recalibrer les résultats injustes sur la base des données disponibles, afin d'obtenir des résultats équitables, c'est-à-dire comme si une prise de décision équitable était en place au sein de l'institution ou du système automatisé.

Publications clés

Jef de Slegte, Filip Van Droogenbroeck, Bram Spruyt, Andres Algaba. Quantifying Voter Turnout Disparities using a Novel Causal Machine Learning Framework, 2025.

Jef de Slegte, Filip Van Droogenbroeck, Bram Spruyt, Sam Verboven, Vincent Ginis. "The Use of Machine Learning Methods in Political Science: An In-Depth Literature Review", Political Studies Review, 2024
DOI : https://doi.org/10.1177/14789299241265084

Jef de Slegte, Jacqueline Höllig, Aniek F. Markus, Prachi Bagave  "Evaluating Counterfactual Approaches for Real-World Plausibility and Feasibility", Explainable Artificial Intelligence, 2023.

35354
2025-2026