Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

CIGREF : Vers l’intelligence artificielle collective

septembre 2016 par Marc Jacob

"Gouvernance de l’intelligence Artificielle dans les grandes entreprises, enjeux managériaux, juridiques et éthiques" tel est le titre de la conférence organisée par le CIGREF suite à la sortie de son nouveau livre blanc sur ce sujet réalisé par Konstantinos Voyiatzis, DSI d’Edenred et administrateur du CIGREF et Alain Bensoussan, avocat du cabinet éponyme. Pour cet événement, le CIGREF a réuni un panel d’experts : Laurence Devillers, CERNA,Professeur à l’Université Paris-Sorbonne, Françoise Mercadal-Delasalles, Société Générale, administrateur du CIGREF, Membre du Conseil National du Numérique, Tony Pinville, CEO d’Heuritech, Cécile Wendling, Responsable de la prospective pour le Groupe AXA et Bernard Stiegler, Philosophe, docteur de l’Ecole des Hautes Études en Sciences Sociales, auteur de " dans la disruption : Comment ne pas devenir fou. ?" et " la société automatique : l’avenir du travail". Les experts réunis se sont posés la question de l’impact de l’IA sur l’emploi…

Bernard Duverneuil, Vice-Président du CIGREF a ouvert cette conférence en rappelant que l’objectif de l’association est d’accompagner les entreprises dans le virage numérique. Pour le CIGEF cette nouvelle ère a débuté avec le livre blanc sur Horizon 2020. A la suite de cette première publication, un second cette fois sur l’intelligence Artificielle a été édité à l’initiative d’Alain Bensoussan et Konstantinos Voyiatzis. Dans ce livre blanc, trois axes apparaissent l’importance de la recherche, l’innovation et l’éthique. Il a rappelé que ces axes se concrétisent par les travaux effectués entre autre avec des chercheurs et la délégation du CIGREF chaque année lors du CEIS. L’objectif de ce colloque est de faire un panorama de l’utilisation de l’IA dans les grandes entreprises, mais aussi de leur impact sur le travail des collaborateurs.

Alain Bensoussan a rappelé qu’il y a 39 ans lorsqu’il a débuté dans le droit et l’informatique, on se demandait pourquoi il fallait encadrer cette science qu’était l’infomatique. Aujourd’hui on parle de cohabitation entre les robots et les êtres humains. Selon lui, entre 2016 et 2020 une nouvelle phase va se construire puis à partir de 2020 et 2025, le monde entrera dans une ère dominée par les algorithmes. Déjà aujourd’hui, nous sommes pilotés par les GPS et tout sorte d’objets communiquants.... On se trouve dans une ère de plus en plus envahi par les robots avec la télésurveillance, la télémédecine,...voir les téléavocats... Mais selon lui, pour ces derniers on n’y arrivera pas ! Les robots logiciels vont migrer en masse dans des coques physiques. Nous allons voir apparaître des robots humanoïdes qui vont décider pour nous d’un certain nombre d’actions, il est donc nécessaire d’organiser l’IA pour conjuguer au temps présent l’IA de manière humaine.

Konstantinos Voyiatzis a exposé les grandes lignes du livre blanc. L’IA fait beaucoup parler d’elle depuis ces dernières années. Elle intègre de plus en plus de services. Les premiers investisseurs dans ce domaine sont les purs players de l’Internet en particulier avec le Big Data, l’analyse prédictive, la biométrie... L’objectif de ce livre blanc est de faire un état des technologies mais aussi de se préparer aux enjeux managériaux, juridiques et éthiques. Pour réaliser ce livre blanc des DSI, des chercheurs, des startup ont été réunis. L’IA ne va pas tout bouleverser dans les entreprises mais améliorer la productivité. Elle permet de mieux répondre aux exigences du Big. Data, d’améliorer la connaissance clients, mais aussi au niveau de la sécurité informatique de renforcer la détection de la fraude. Bien-sûr des questions juridiques et éthiques sont incontournables. Ainsi, une éthique by. Design devra être envisagée pour répondre aux besoins de vie privée, de confidentialité... Il faut envisager de dédier des budgets spécifiques, refondre les infrastructures IT pour qu’elles puissent travailler en parallèle. Il sera important de développer le travail prospectif pour prévoir les modifications liées à l’introduction de l’IA. Cette intelligence va toutefois dépendre de la compréhension des managers et de leur intégration des enjeux liés à l’IA.

Puis,Frédéric Simotel de BFM Business a animé le débat entre Laurence Devillers, CERNA, Professeur à l’Université Paris-Sorbonne, Françoise Mercadal-Delasalles, Société Générale, administrateur du CIGREF, Membre du Conseil National du Numérique, Tony Pinville, CEO d’Heuritech, Cecile Wendling, Responsable de la prospective pour le Groupe AXA.

Laurence Devillers a expliqué que le terme de l’IA est de plus en plus galvaudé. Pour elle, on crée des esclaves pour mieux servir les hommes et pas l’inverse. Françoise Mercadal-Delasalles rappelle que nous sommes dans l’IA depuis bien longtemps en particulier dans le scoring, le trading... Pour l’instant, l’IA a de plus en plus de neurones mais pour le moment moins que celui des êtres humains. Toutefois, l’IA permet d’automatiser de plus en plus la relation client, d’automatiser l’expérience des clients afin qu’ils puissent faire des actes (achat, vente…) à n’importe quel moment... l’IA est devenu une aide au pilotage qui génère moins d’erreur que les actions humaines.

Pour Tony Pinville, l’IA s’est démocratisée en particulier grâce à Google. L’IA permet d’aller plus loin dans l’analyse des données textuelles, vocales.... On peut aussi effectivement optimiser la relation client afin de mieux cibler ces besoins. Cécile Wendling rebondi. Elle a piloté une prospective sur le sujet de l’IA à l’horizon 2030. Cette étude montre trois scénarios. Le premier suggère une adoption limite liée au peur : problème accident, perte d’emploi... Ainsi l’usage de l’IA se limitera à l’analyse d’image, le secteur de La Défense et de grandes entreprises. Le deuxième scénario montre que les grands groupes revendraient les résultats de leur recherche pour des applications spécifiques. Le troisième scénario penche pour une acceptation plus large avec une prééminence des pays asiatiques. Pour que l’IA se développe il faudra une couverture juridique pour prévenir les accidents.

Faut-il ou non brider l’IA ?

Laurence Devillers travaille actuellement sur les robots sociaux. Aujourd’hui, une différence importante apparaît entre l’apprentissage de la machine et celle de l’homme. Il va falloir éduquer sur l’éthique, l’anonymisation des données... De ce fait, il faut que la communauté scientifique : informaticiens, philosophes, avocats, entrepreneurs... se mettent au travail sur ce sujet. En fait, aujourd’hui, les hommes prêtent des intentions aux machines, qu’elles n’ont pas. Une des pistes de réflexion est de savoir s’il faut brider ou non les machines. Il ne faut pas oublier que les machines fonctionnent sans conscience, ni émotion. Bientôt des robots emphatiques qui simuleront des émotions vont apparaitre, mais il ne faudra pas oublier qu’elles ne resteront que des machines.

Françoise Mercadal-Delasalles estime pour qu’il ne faut pas commencer à brider l’IA mais la mettre à disposition des hommes pour regarder comment il s’approprie ces outils. Il ne faut pas en avoir peur. Ainsi, des outils numériques sont mis à disposition des collaborateurs dans son entreprise. Les collaborateurs bénéficient de connexion à internet illimités, d’outils de mobilité... Elle estime qu’il faut collaborer avec les GAFA mieux les connaître mais aussi renforcer le contact avec les startups. Il est selon elle important de maintenir les intellectuels dans les entreprises qui leur permet de réfléchir et prendre du recul.

Tony Pinville explique qu’il y a un travail important à effectuer sur les données car sans elles, il ne peut pas y avoir de machine learning. Les secteurs les plus matures en ce domaine si le ecommerce et tous ceux qui tournent autour du digital. Dans le domaine bancaire, il y encore des problèmes pour utiliser ces technologies du fait des problèmes pour obtenir des données, mais aussi de la lenteur des cycles de décision. La différence entre l’IA et le deep learning est simple, ce dernier permet de mieux exploiter les données en utilisant les mécanismes cognitifs. Le deep learning permet en fait de traiter beaucoup plus d’informations par l’amélioration des capacités de calcul. Laurence Devillers insiste sur le fait que le raisonnement de la machine est plus simpliste que celui de l’être humain. Pour elle le problème est le contrôle de l’auto apprentissage de ces machines.

Cécile Wendling explique que les enjeux autour de l’assurance sont importants. En effet, il faudra se poser la question de la responsabilité lors d’une accident de voitures, ou encore dans le cas de cyberattaques généralisées qu’impliqueraient des accidents de masse. Comment, l’homme pourra avoir confiance en un « robot Advise » par exemple pour effectuer des placements ? Peut-on en cas d’accident accepter que son appel soit traité par un robot ? Au niveau européen, des réflexions sur ces sujets ont lieu actuellement, elle déplore qu’il n’y ait beaucoup de français.

L’éthique doit passer avant la régulation

Laurence Devillers explique que l’éthique doit venir avant la régulation. Par exemple pour une voiture connectée, l’éthique c’est le code de la route. Autre cas, on doit apprendre au robot à ne pas divulguer les données, à oublier des informations confiées... Elle note des différences culturelles. Au Japon par exemple, les robots sont considérés de façon amicale comme des aides. Par contre, les usages sont diffrents. En Europe, ils sont vus comme des aides aux personnes âgées, au Japon plutôt comme des gadgets. Si les robots ont encore du chemin pour égale l’intelligence de l’être humain, ils ont parfois des performances plus élevées que celles de l’homme comme par exemple des interventions sur des sites à risques...

Les robots supprimeront des emplois

Françoise Mercadal-Delasalles estime que ces machines sont liées à la gouvernance, au partage et la protection/privacy de la donnée. Les sondages montrent que les individus ont des réserves sur l’utilisation de leurs données. Par contre, lorsqu’on leur propose des services rendus qui utilisent leurs données l’adoption est massive ! Ces machines vont sans doute à termes supprimer des emplois. Il va falloir aussi former les salariés à ces technologies pour qu’ils s’approprient ces nouveaux outils.

Cécile Wendling, explique que dans son entreprisses, il a été décidé d’être très attentifs sur l’utilisation des données. Axa s’est ainsi engagé à ne pas vendre les données personnelles de ses clients. Un travail est aussi effectué sur l’utilisation éthique des algorithmes pour éviter la discrimination implicite suite à l’analyse des surfs des clients sur les sites web de son entreprise. En effet, ces interprétations peuvent rendre opaque les tarifications ce qui pose à terme des problèmes de confiance. Il va donc falloir réguler ces usages.

Laurence Devillers estime qu’il faudra étudier dans les écoles les algorithmes de programmation des robots afin d’habituer les jeunes à l’utilisation des robots dans le quotidien.

Tony Pinville conseille aux entreprises de bien connaître les données, de déterminer des métriques, ne pas hésiter à se servir de ces technologie sans avoir peur de se tromper. Pour Laurence Devillers, il faut utiliser le machine learning ou le deep learning avec des systèmes connus afin de faire des benchmarks et mieux comprendre leur fonctionnement. Cécile Wendling conclu sur le fait qu’il faut réfléchir à l’Open Data et à l’Open code. En effet, si on ne partage pas les données, on ne pourra pas résoudre les problèmes liés au changement climatique, à la santé et aux attaques cyber. Françoise Mercadal Delasalles estime qu’il y a des enjeux de recrutement de data scientistes, en parallèle il va falloir aussi s’occuper des plus anciennes générations pour les initier à ces technologies.

L’IA conduit à une nouvelle révolution industreille

Bernard Stiegler a conclu cette conférence en expliquant que l’on se trouve face à une nouvelle révolution industrielle. Il ne faut pas que cette complexité effraie. Pour lui, il faut réorienter l’industrie et le savoir car les avoir s’est fait avec des machines. Il va falloir apprendre à travailler avec ces machines. Il a rappelé qu’Adam Smith avait expliqué que l’industrie allait rendre bête les hommes, pour Marx on allait vers la prolétarisation de la société. Aujourd’hui, on se dirige vers une intelligence collective. Il a souligné que le deep learning et l’intelligence humaine sont totalement différents, elles doivent s’articuler et travailler ensemble. Il va falloir produire de la donnée par l’intelligence collective. Puis, il a dressé un rapide historique de l’IA, en partant des premiers ordinateurs et des différents travaux sur les sciences cognitives. Des systèmes d’experts on est passé aux réseaux de neurones qui sont aujourd’hui réactivées par le deep learning. Aujourd’hui, les OiT commencent à entrer dans le quotidien de la société. Ces nouveaux systèmes ouvrent des perspectives pour des entreprises planétaires et non plus des multinationales. Selon, lui les robots commencent à remplacer les ouvriers. En Chine, dans la dernière planification des investissements colossaux dans les robots sont prévus. Il ya deux ans « Le Soir », le quotidien de Bruxelles, a fait paraitre les résultats d’une étude qui montraient que 50% des emplois seront détruits dans les prochaines années. Ainsi, il est nécessaire de s’inquiéter de cette robotisation destructrice d’emplois qui va réduire de fait la croissance économique par des pertes de revenus.

Si dans le passé, la capitale des Etats-Unis était Hollywood, aujourd’hui c’est la Silicon Valley. Les Data vont se produire partout en particulier via les Smartcities. Pour étayer son propos, il cite un article de Chris Anderson de 2008 qui expliquait que l’avènement des data scientistes pourraient supprimer la théorisation. Cependant, 5 ans après cet article, Frédéric Kaplan explique que tout cela ne marche. En effet, le travail est fait sur les moyenne avec le Big Data mais supprime les exceptions qui sont les générateurs de croissance. Il faut donc faire attention aux limites de l’IA. En effet, les systèmes de Big Data sont auto-référentiels et donc fermés. De ce fait, ils sont à termes voués à l’échec. D’ailleurs, dans l’affaire Madoff, Alan Greenspan avait expliqué qu’il s’était uniquement fié aux machines qui sont par essence limitées. Alan Greenspan parle même de "bêtise artificielle ". Il y a aujourd’hui des questions à se poser. On se trouve dans « l’antropocene » qui est une massive entrée de l’entropie sur la terre. L’avenir de la planète viendra de l’entrée de « la mésentropie ». Amartya Sen a montré dans un rapport sur la théorie de la capabilité que les gens au Bangladesh vivent plus longtemps et plus heureux que ceux de Harlem, bien qu’ils soient dénués de tout. En fait, ce phénomène est dû au fait qu’ils ont maintenu leurs savoirs. Il faut donc que l’IA permette de retrouver voir d’augmenter notre savoir. Le Web est la véritable source de la révolution numérique. Il faut rappeler que web à été conçu en Europe. Il faut que l’on se le réapproprie. Il est nécessaire d’encoder les Data pour les rendre incalculables et donc non comparables. Car pour lui calculer s’est enfermé le système et est donc voué à l’échec. Il faut donc produire de l’intelligence artificielle collective.

Au final, les robots conduiront-ils à des réductions massives d’emploi ? à une nouvelle manière de travailler ? Y-aura-t-il comme à chaque évolution des laissés pour comptes ? Sans doute un peu de tout cela... dans tous les cas il ne faudra pas que le syndrome Azimov n’entrave le progrès...

Télécharger ce livre blanc :


Voir les articles précédents

    

Voir les articles suivants