Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Le collectif Confiance.ai sélectionne quatre lauréats suite à son appel à manifestations d’intérêt (AMI) SHS

juillet 2022 par Marc Jacob

Au mois d’avril 2022, le programme Confiance.ai lançait un AMI à destination de la communauté de recherche en Sciences Humaines et Sociales qui travaille notamment sur l’intelligence artificielle de confiance. Onze propositions ont été étudiées pour finalement retenir quatre lauréats.

Retour sur l’AMI SHS

L’objectif de cet AMI était d’informer et de compléter les développements technologiques du programme Confiance.ai par des travaux, intégralement financés par le programme, sur l’appropriation de l’IA de confiance par celles et ceux qui en seront concepteurs, utilisateurs et clients.

L’AMI a reçu onze propositions qui ont été évaluées par un comité de sélection composé de représentants du programme et de deux personnalités externes. Le comité a procédé ensuite à sept auditions pour finalement recommander quatre propositions au comité de pilotage de Confiance.ai, qui a suivi ces recommandations.

Les lauréats seront principalement mobilisés sur des cas d’usages apportés par les partenaires industriels du programme Confiance.ai. Dans la plupart des cas, les travaux débuteront à la rentrée 2022 pour apporter des recommandations et des éléments complémentaires au programme début 2023. Certaines donneront ensuite lieu, selon les besoins identifiés, à des travaux de recherche sous forme de thèses ou de séjours postdoctoraux.

L’évènement de lancement officiel des travaux devrait se tenir courant septembre 2022.

Les quatre propositions lauréates sont les suivantes.

Benoit Leblanc (ENSC) & coll. avec l’ONERA et l’Institut Cognition : Expérimentation de la confiance d’un utilisateur de système d’IA

La proposition va dans le sens de l’exploration des réactions des individus face à des systèmes utilisant de l’IA ; la confiance étant un pilier de ces réactions. L’étude de ces réactions amène des éléments scientifiques d’intérêt à la fois pour l’industrialisation de systèmes anthropotechniques comme le sont les dispositifs de transport, mais aussi pour le déploiement de ces systèmes dans des domaines d’application.

Enrico Panaï (EM Lyon) & Laurence Devillers (LISN-CNRS) : Cartographie de la situation morale : Analyses de cas d’usage

Pour construire la confiance, les auteurs proposent de délimiter l‘espace d’action et d’identifier ses éléments constitutifs. L’une des méthodes les plus intéressantes consiste à cartographier l’espace dans lequel l’action est menée. Ce processus permet de positionner les situations morales à un niveau de granularité approprié afin de reconnaître des ensembles d’actions aux niveaux individuel, social, organisationnel ou des interfaces homme-machine.

Marion Ho-Dac (CDEP, Univ. Artois) et coll., avec l’institut AITI : Le respect des valeurs de l’Union européenne by design par les systèmes d’IA

Le CDEP apporte une expertise spécialement tirée des sciences juridiques, axée sur le respect du cadre juridique de l’UE compris largement, incluant en particulier les valeurs de l’Union (au sens de l’article 2 du traité sur l’UE), la Charte des droits fondamentaux de l’UE et le cadre juridique de l’espace judiciaire européen.

Arnaud Latil et coll. (SCAI) :Les interfaces des systèmes algorithmiques : quelles informations communiquer pour générer la confiance ?

Les auteurs proposent de porter leur analyse sur les interfaces des systèmes algorithmiques. Il s’agit d’étudier les effets sur la confiance des messages légaux communiqués par les producteurs de systèmes d’IA.​

A noter qu’une proposition à fort contenu en sciences humaines et sociales avait déjà été retenue l’an dernier par Confiance.ai dans le cadre d’un Appel à Manifestation d’Intérêt général pour les laboratoires académiques. L’équipe, composée de Christine Balagué (LITEM) et Dominique Cardon (Sciences Po), travaille sur l’autopsie d’applications IA qui ont échoué.


Voir les articles précédents

    

Voir les articles suivants