Dates : 14-15 novembre 2024
Lieu : Salle 614B, Bâtiment Maurice Allais
Comité d’organisation : Béatrice Bellini, Patrice Bertail, Anne Sophie Choné-Grimaldi, François Delbot, Eric Darmon, Eric Langlais, Bernard Quinio, Jean-François Pradat-Peyre, Mélanie Zetlaoui.
La question de l’acceptabilité du progrès technologique se pose en des termes radicalement nouveaux avec l’IA: la machine atteint un stade de maturité permettant d’envisager qu’elle supplante l’humain dans la prise de décision, et non plus simplement qu’elle remplace l’humain dans la réalisation/simple exécution de certaines activités/tâches. En l’occurrence, les algorithmes les plus avancés ont la capacité d’apprendre de leurs décisions et expériences antérieures, en collectant et analysant une grande masse de données et d’information bien au-delà des capacités cognitives du cerveau humain, afin d’adapter leurs décisions/comportements sans aucune intervention humaine. Cependant, ainsi que le montrent les investigations menées à la suite du crash de deux Boeing 377 MAX (Oct 2018, Mars 2019), ou après les multiples cas d’accident mortel consécutifs à une collision entre un piéton et un véhicule autonome depuis mars 2018 (premier cas aux USA), la complexité des algorithmes embarqués peut rendre leur mode opératoire difficile à comprendre et impossible à anticiper par les humains (des boites noires aux yeux des utilisateurs humains), ce qui impacte la sécurité des humains. En Europe comme aux Etats-Unis, des réflexions sont actuellement développées autour des questions de partage des rôles et de partage des responsabilités entre l’utilisateur humain du robot, le concepteur du robot, le régulateur public, et le robot lui-même. Dans cette perspective, la reconnaissance/création d’une personnalité morale pour les robots pourrait avoir des multiples conséquences dans certaines applications de l’IA, parfois très radicales à l’image ce que laisse anticiper le cas « DABUS ».
Nous organisons deux journées d’études permettant à chaque discipline de comprendre les enjeux que l’IA soulève pour les autres disciplines. Les thématiques générales qui seront soumises à la réflexion de chacun des intervenants (du point de vue de sa discipline) sont de trois ordres ; 1) Qu’est-ce que l’IA ? (Différentes conceptions/typologies peuvent être présentées ; comment/pourquoi chacun dans ses travaux en est venu à s’intéresser à l’IA etc). 2) Travailler avec, et contrôler l’IA (exemples des recherches en cours, exemples d’applications de l’IA et les enjeux scientifiques/sociétaux associés etc ; enjeux de concurrence et régulation par le droit etc). 3) L’acceptabilité de l’IA (sociale, organisationnelle etc ; équité, implications environnementales etc ; critères d’acceptabilité etc).
Programme des deux journées
Cinq centres de recherches implantés sur le campus de UPN sont associés à ces deux journées : CEDCACE (EA UPN, droit privé), CEROS (EA UPN, gestion), CRDP (EA UPN, droit public), EconomiX (CNRS et UPN, économie), LiP6 (CNRS et Sorbonne Université, informatique), Modal’X (CNRS et UPN, mathématiques).
8:30 : Accueil des participants
8:50 Mots introductifs
9:00-11:05 : Atelier 1 – Qu’est-ce que l’IA ?
9:00-9:25 – François Delbot (LiP6) : Cartographie des différentes méthodes (algorithmes exacts, approchés, heuristiques, apprentissage automatique (supervisé ou non), apprentissage par renforcement, LLM etc.
9:25-9:50 – El Medhi Issouani (MODAL'X): Chat-GPT et les principes de l'apprentissage statistique pour le traitement automatique des langues.
9:50-10:15 – Anne Sophie Choné-Grimaldi (CEDCACE) : Règlement européen IA Act : les outils autorisés / les outils interdits.
10:15 – 10:45 : Pause-café – salle 614A
10:45-11:10 – Antoine Harfouche (CEROS) : Le design d'un système d'IA : quelles approches, quels résultats dans différents domaines ?
11:10-11:35 –
Andreea Cosnita : IA, concurrence et marché.
Messaoud Zouikri (EconomiX) : L’IA et l'utilisation du texte comme donnée en économie.
11:35 – 12:30 : Discussion collective
12:30 – 14:00 : Déjeuner à l’espace VIP-CROUS
14:00 – 16:00 : Atelier 2 – Travailler avec, et contrôler l’IA.
14:00-14:25 – Bernard Quinio avec Hounayda Bakhos (CEROS) : Les modes de collaborations entre IA et humain et une application en finance.
14:25-14:50 –
Katrin Deckert (CEDCACE) : L’IA et les services financiers.
Sylvain Jobert (CEDCACE) : Le développement d’outils d’intelligence artificielle appliquée aux décisions de justice, à la suite de l’open data des décisions de justice.
14:50-15:15 –
Alessandro Melcarne (EconomiX) : Va-t-on vers un juge-robot, ou un robot-assistant du juge ?
Eric Langlais (EconomiX) : Droit, risques de l’IA, et concurrence.
15:15 – 15:45 : Pause-café – salle de convivialité 6ème étage
15:45-16:10 – Thibault Anani (LiP6) : La sélection de variables et des données dans le domaine médical.
16:10-16:35 – Patrice Bertail (Modal’X) : Les biais en apprentissage statistique.
16:35 – 17:30 : Discussion collective
9:00-11:05 : Atelier 3 – L’Acceptabilité de l’IA.
9:00-9:25 –
Sophie Sontag (CEDCACE) : L’IA au sein de la matière pénale.
Lauren Leblond (CEDCACE) : L'IA et la protection des données personnelles.
9:25-9:50 –
Zied Mani (CEROS) : L'acceptabilité de l'IA dans le monde médical.
Béatrice Bellini (CEROS) : L'acceptabilité de l’IA dans le marketing.
9:50-10:15 –
Marc Baudry (EconomiX) et Béatrice Dumont (Collège d’Europe) : L'IA remet-elle en cause la propriété intellectuelle comme instrument de politique d'innovation ?
Eric Darmon (EconomiX) : Processus d'automatisation des processus de marché et IA.
10:15 – 10:45 : Pause-café – salle 614A
10:45-11:10 – Jean-François Pradat-Peyre (LiP6) : Méthodes formelles et vérification de programmes : intérêt et acceptabilité
11:10-11:35 – Matthieu Cornec (Modal’X) : Les systèmes de recommandation utilisés en pratique.
11:35 – 12:30 : Discussion collective
12:30 – 14:00 : Déjeuner à l’espace Tex-Mex-CROUS
14:00-17:00 – Synthèse et perspectives de recherches futures
Si vous souhaitez participer à ces journées, merci d’adresser un mail à : eric.langlais@parisnanterre.fr.
L’organisation de ces deux journées est possible grâce à l’appui des laboratoires partenaires, et a reçu le soutien de :