Form cover
Page 1 sur 2

Décoder et déconstruire les biais dans l’IA : Pour une IA équitable et responsable

Un atelier interactif d’intelligence collective, adapté de la Fresque du sexisme, pour explorer et déconstruire les biais algorithmiques qui peuvent perpétuer les inégalités.
Cet atelier s’adresse à tous les publics (novices et expert·es) et adopte une pédagogie participative et inclusive. Il a été présenté aux Assises du Genre et du numérique à Lausanne.
Lors de l'atelier les participant·es : - découvriront la mécanique d’exclusion et la manière dont l’IA peut refléter ou amplifier des discriminations systémiques (genre, origine, classe sociale, handicap, orientation sexuelle…), - prendront conscience de leurs impacts à travers des données chiffrées et l’analyse de cas pratiques, - identifieront collectivement des leviers d’action pour promouvoir une IA plus responsable et inclusive. Cet atelier a été co-conçu par Roxane de Pelet, Anabelle Pasillas et Gabriela Del Barco-Renard, avec la contribution de Louise Aupetit et Steven Vethman, dans le cadre du projet Erasmus+ DIVERSIFAIR, financé par l’Union européenne. Les points de vue et avis exprimés n’engagent toutefois que leur(s) auteur(s) et ne reflètent pas nécessairement ceux de l’Union européenne ou de l’Agence exécutive européenne pour l’éducation et la culture (EACEA). Ni l’Union européenne ni l’EACEA ne sauraient en être tenues pour responsables. Contacts organisateurs :
Gabriela Del Barco - Renard 📧 [email protected] 📞 07 81 45 05 73

Informations pratiques

📆 Date : Vendredi 10 octobre 2025
Heure : 10h - 12h
📍Lieu : Café Studio, 4 Rue de Sambre-et-Meuse, Paris 10ème

Vos informations

Des besoins spécifiques à nous communiquer pour que votre expérience se passe au mieux ?