Visitez notre page

 

 

 

 

 

 


Profile, Biais et Equité dans les systèmes personnalisés en e-education

Séminaire
Nom intervenant
Melina Verger
Résumé
Mélina Verger est docteure en informatique de Sorbonne Université depuis fin 2024. De formation ingénieure, elle s’oriente en 2021 dans la recherche en IA en poursuivant un Master 2 (parcours international) de l’Université Paris-Saclay. Ses travaux de thèse, à la fois théoriques et expérimentaux, concernent l'équité algorithmique des modèles d'IA utilisés pour des applications éducatives. Elle souhaite continuer à developper de nouvelles méthodes d'IA (ou d'autres domaines) autour d'enjeux sociétaux. Site web : https://melinaverger.github.io/

Résumé :
Ma thèse a consisté à quantifier, qualifier et réduire l'iniquité algorithmique issue des modèles d’apprentissage automatique. En éducation, de tels modèles sont utilisés dans le but d'améliorer l’expérience d’apprentissage humain (e.g., prédire le décrochage scolaire, personnaliser les contenus pédagogiques). Or, ces modèles fondés sur les données présentent des biais, souvent en défaveur de groupes historiquement défavorisés.
Ainsi, j'ai conçu une mesure interprétable, MADD, pour approfondir l'évaluation de ces iniquités. De plus, j'ai développé une méthode de réduction de l’iniquité utilisant la MADD, ainsi que de nouvelles méthodes d’évaluation pour prendre en compte ce qu'on appelle les "discriminations intersectionnelles".
Des expériences menées dans divers contextes éducatifs et démographiques (Afrique, Philippines, Haïti, Royaume-Uni, France) ont permis de révéler des iniquités algorithmiques non détectées par les méthodes existantes. Enfin, j'ai créé une librairie Python, maddlib, pour utiliser toutes ces méthodes facilement.
 



 

Lieu
Amphi C2
Date du jour
Date de fin du Workshop