Back to
Point de vue
Publié le
Mercredi 15 Novembre 2017 -
Mis à jour le
20 Novembre 2017
L’intelligence artificielle (IA) est le dernier concept numérique à la mode : pas un jour sans que le sujet ne se trouve au-devant de l’actualité, que ce soit par une nouvelle victoire de la machine sur l’homme (au jeu de Go, avec la victoire en mai dernier du logiciel AlphaGo sur la champion du monde Ke Jie), par une nouvelle application annoncée de façon spectaculaire – mais à la portée parfois douteuse (des intelligences artificielles ont communiqué dans un langage qu’elles ont élaboré elles-mêmes) ou par une annonce d’investissement colossal (rachat de MobileEye, spécialiste des capteurs et logiciels pour véhicule autonome, pour 15 milliards de dollars par Intel en mars 2017).
Webconférence intelligence artificielle

Une révolution industrielle ?

Il faut pourtant raison garder. En premier lieu, il convient de mettre de côté les fantasmes associés à l’intelligence artificielle, qui proviennent pour une large part du terme lui-même. L’intelligence artificielle renvoie à la machine prenant la place de l’homme et se nourrit de la science-fiction (Hal dans 2001, l’Odyssée de l’espace, Terminator ou plus récemment la série Black Mirror – chacun puisera dans ses souvenirs). Les développements récents relèvent de l’apprentissage statistique, un terme moins sexy mais plus précis que celui d’intelligence artificielle.

De quoi s’agit-il ? Des données (des images, des textes…) sont utilisées pour alimenter un réseau de neurones informatiques, qui s’allument ou s’éteignent en fonction des signaux qu’ils reçoivent en entrée et alimentent à leur tour d’autres neurones, selon une architecture inspirée du cerveau. Un tel dispositif peut être entraîné à reproduire une classification, sur la base d’un grand nombre d’exemples (parfois plusieurs millions) servant à l’entraînement du dispositif.

Alors que les taux de réussite de la reconnaissance automatique restaient bloqués à un niveau trop bas pour permettre toute application industrielle, ils ont connu un saut quantitatif il y a 4 ou 5 ans qui permet désormais le déploiement industriel de la technologie. Mieux, grâce aux retours des utilisateurs sur les erreurs résiduelles, les logiciels continuent de s’améliorer rapidement.

Ce saut récent provient du triple progrès dans le volume de données disponibles pour entraîner les algorithmes (notamment grâce aux réseaux sociaux), la programmation des algorithmes (le deep learning ou apprentissage profond, traduisant l’existence de multiples couches de neurones) et la puissance de calcul disponible grâce aux cartes graphiques (GPU), qui se sont révélées particulièrement efficaces pour le type de calculs nécessaires.

Tout n’est cependant pas automatique. Pour chaque nouvel usage, le réseau de neurones doit souvent être ajusté à la main. En revanche, une fois une solution satisfaisante obtenue, le code source est largement partagé, par exemple sur GitHub. Cette mise à disposition des outils en open source, donc gratuitement, explique en partie le succès de l’IA.

Les progrès sont considérables et désormais bien répertoriés : reconnaissance d’un visage sur une photo, tag automatique d’une vidéo, reconnaissance de la parole, optimisation de la consommation d’énergie d’un dispositif industriel. Google a ainsi annoncé avoir diminué la consommation d’énergie de ses data center de 15 % à 40 %.

Dans le grand mouvement visant à simplifier les usages, l’IA offre un nouvel outil, dont les effets seront peut-être supérieurs à ceux des interfaces tactiles et des progrès du design qui ont permis le développement spectaculaire du smartphone.

Les bots, ces dispositifs informatiques capables d’interagir en langage naturel (répondre à une question posée en français), constituent l’une des déclinaisons de l’IA. Ils s’intègrent rapidement dans les services clients et dans les maisons, notamment aux États-Unis où les assistants de maison intelligents ont séduit des millions de foyers. C’est le lieu d’une violente bataille entre Amazon Echo, principal fournisseur, Google Home et d’autres encore.

Pour spectaculaires qu’ils soient, ces progrès restent très loin de l’intelligence artificielle générale, celle qui est capable de reproduire les capacités du cerveau humain. Dès lors, pourquoi faut-il se préoccuper sérieusement de l’intelligence artificielle ? Une fois écarté le fantasme, il convient de bien prendre la mesure des transformations spectaculaires en cours.

Une bataille industrielle

En premier lieu, il s’agit d’une nouvelle étape de la transition numérique à l’œuvre, à la suite de l’Internet, des réseaux sociaux, du smartphone, qui a équipé tout un chacun des outils permettant la collecte et la remontée de l’information en temps réel : la position, l’image, le son, le texte et les interactions sociales.

Sur ces technologies, l’Europe est clairement en retard par rapport aux États-Unis ou à la Chine. En particulier, elle ne dispose pas de grandes plateformes numériques structurantes (GAFA, BATX, Samsung, etc.), capables de collecter les flux de données qui nourriront demain l’IA. Ces plateformes gèrent des serveurs, une puissance de calcul, une connectivité, des données, des utilisateurs qui constituent le nerf du développement numérique. Bien sûr, il est possible de développer des services numériques sur la base de ces plateformes mais ils risquent de rester largement dépendants des grandes plateformes. Booking.com doit ainsi acheter à Google pour plus d’un milliard de dollars d’espace publicitaire. L’intelligence artificielle offre une occasion de rebattre (partiellement) les cartes ou plutôt de dessiner de nouveaux territoires de conquête, comme la maison.

La deuxième bataille est celle des applications. En tant que technologie générique, l’IA a le potentiel de s’insérer dans tous les secteurs. Tous les acteurs l’ont bien compris, en particulier le capital-risque et les start-ups : 1 500 startups représentant un investissement cumulé de l’ordre de 13 milliards de dollars entre 2012 et 2017 ont été référencées dans le monde. Avec 270 startups et des levées de fonds de l’ordre de 278 millions d’euros en 2016, la France se place au second rang européen, derrière le Royaume-Uni [1].

billet-janin-15-11-2017-graphique-1.jpg
Type d'image: 
Libre

Source : Conclusion du groupe de travail sur la cartographie de FranceIA, 2017

Pour se développer, ces technologies vont requérir d’immenses volumes de données d’apprentissage. Ces données existent dans certains cas : il va falloir les libérer. Dans d’autres cas, un formidable effort de numérisation est à faire. Attention cependant à ne pas brader les données. Dès lors que les logiciels sont largement disponibles en open source, ce sont les données qui jouent un rôle central dans la création de services.

L’IA constitue bien un saut considérable, qui nous emmènera par exemple jusqu’au véhicule capable d’appréhender suffisamment son environnement pour que nous lui déléguions la conduite. Sans cette brique, la voiture sans chauffeur serait restée un fantasme.

Les défis

L’intelligence artificielle soulève dans le même temps d’immenses défis.

L’IA est encore un objet de recherche car nombre de problèmes ne sont pas résolus, au premier rang desquels les raisons profondes de l’efficacité fascinante de ces technologies. On a coutume de dire : « ça marche mais personne ne sait pourquoi ». Et l’IA peut se tromper : il suffit parfois de changer quelques pixels, invisibles à l’œil humain, pour qu’un logiciel entraîné prenne un bus scolaire pour une autruche[2]. Des travaux sont en cours pour rendre les dispositifs d’apprentissage plus robustes et pour réduire le volume nécessaire à l’apprentissage : après tout, un enfant n’a besoin de voir que quelques chats pour savoir les reconnaître, alors qu’il faut encore montrer des centaines de milliers de photographies à un logiciel pour qu’il y arrive.

billet-janin-15-11-2017-evolvingai.jpg
Type d'image: 
Libre

Source : http://www.evolvingai.org/files/70_images_entry_v2_web.jpg

billet-janin-15-11-2017-figure5.jpg
Type d'image: 
Libre

L’image de gauche est correctement identifiée, alors que l’image de droite est classifiée comme une autruche.

Source : https://arxiv.org/abs/1312.6199

La quête de l’explicabilité des décisions prises par un logiciel d’IA est essentielle pour que la délégation des décisions s’étende à des sujets sensibles. Les conséquences ne sont pas les mêmes quand un algorithme d’IA se trompe dans le choix d’une publicité ou la classification de photographies de vacances (usages principaux actuels), par rapport à des décisions en médecine, pour un véhicule autonome ou un recrutement. Quels éléments ont été pris en compte et pourquoi ? On peut connaître le code, les millions de poids accordés aux différents neurones, mais cette information ne permet pas de détecter les éventuels biais ou erreurs qui seraient encodés dans l’algorithme. En contrepartie, un des intérêts des dispositifs d’IA est la possibilité de faire des tests. Alphago a joué de nombreuses parties contre lui-même pour s’améliorer. Les logiciels de conduite automatique pourront être confrontés (virtuellement) aux pires situations dans des environnements de test pour vérifier leur réaction.

Concepteur de l’algorithme, fournisseur des données d’entraînement, de l’exécution du logiciel… Qui est responsable en cas d’accident ? Les industriels poussent pour un statut d’assistant, d’aide au diagnostic, qui laisse le pouvoir de décision à l’homme. C’est notamment la position avancée par IBM pour promouvoir les usages médicaux de son assistant Watson. Cette position ne sera pas tenable très longtemps : dès lors qu’un dispositif d’assistance est utilisé de façon systématique, comment ne pas considérer que c’est lui qui est responsable de la décision prise ? Volvo, quand il proposera le mode automatique sur ses véhicules, entend assumer la responsabilité en cas d’accident. Il s’agit sans doute d’une étape nécessaire pour inspirer confiance dans le dispositif.

De quoi dépend la confiance ? Il ne faut pas sous-estimer l’effectivité : si un dispositif fonctionne, les gens vont l’utiliser. On peut ainsi faire le parallèle avec l’utilisation de la biométrie pour l’authentification, qui soulève des oppositions dans son principe mais est finalement largement utilisée quand elle est simple et pratique, par exemple pour activer un smartphone.

La confiance se construit aussi sur l’éthique. Quelles sont les données utilisées ? À quoi servent-elles ? En assurance, on peut imaginer utiliser des données de comportement pour ajuster les primes. Aujourd’hui, un tel contrôle est interdit pour l’assurance maladie obligatoire mais il existe pour l’assurance automobile, sous la forme d’un bonus-malus, ou quand on sollicite un prêt. Les objets connectés permettent d’ores et déjà de multiplier les contrôles.

Les assureurs peuvent avoir plusieurs réponses face à ce défi. L’une consiste à recueillir le maximum de données et à faire une segmentation de plus en plus fine. Un tel mouvement a sans doute du sens dans le domaine automobile où les individus sont responsables de leur comportement mais il risque, dans d’autres cas, de générer de la discrimination vis-à-vis de variables sur lesquelles l’individu n’a pas (ou peu) de prise : ce qu’il est, comme son génome ou sa localisation. Une telle évolution pourrait conduire à une société plus fragmentée et à une défiance vis-à-vis de l’assureur.

Une autre solution possible consiste à mettre l’accent sur la prévention. Dans ce cas, l’assureur utilise les données recueillies pour aider son client à améliorer son comportement indépendamment de la prime. L’assureur en santé Alan [3] par exemple s’inscrit dans cette logique. Un tel mouvement a l’intérêt de maximiser les incitations des clients à transmettre des informations, ce qui est l’un des ressorts de l’économie numérique.

Quelles sont les données utilisées pour l’apprentissage ? Les algorithmes sont idiots : ils ne font que reproduire le comportement qui leur a été donné en entrée. Si les données d’apprentissage comportent des biais (racistes, sexistes…), les algorithmes les reproduiront, comme l’a montré l’exemple du chatbot Tay de Microsoft, qui a appris les propos racistes auxquels il a été exposé sur Twitter. La capacité à mener des audits sur les données d’apprentissage sera donc critique pour certaines applications sensibles, comme dans la gestion des ressources humaines.

Le chemin de transition

Quel peut être le chemin de transition ? Dans certains champs non critiques, la machine fait mieux et pour moins cher que l’homme. Elle sera utilisée. Dès lors que la machine « lira » mieux un scanner qu’un spécialiste pour détecter la présence d’un cancer, la transition se fera et le médecin verra son rôle évoluer vers celui d’interprète des données et de décideur des actions à partir du diagnostic. L’enjeu est de mener les expérimentations pour développer les outils et tester leur apport. Il y a urgence : les concitoyens ne pardonneraient pas qu’on n’emploie pas des techniques disponibles pour sauver des vies.

Dans certains champs critiques, l’IA ne sera pas utilisée tant qu’elle ne montrera pas un risque d’accident nettement plus faible que les comportements actuels. C’est ce qui devrait se passer pour le véhicule automatique. Il ne roulera sur les routes que s’il est significativement plus sûr que le véhicule actuel.

À terme, le métier de chauffeur aura disparu. Cette transition est considérable – les conducteurs de véhicule représentent aujourd’hui près de 800 000 emplois en France – mais cette transformation s’accompagnera de la création de nouveaux métiers (pilotage de flottes, contrôle, nouvelles fonctions de vérification) et s’étend sur un horizon long. En outre, elle donnera un nouvel accès à la mobilité à des personnes, ce qui aura un effet positif sur l’activité et, partant, sur l’emploi. Francis Kramarz, économiste du travail, identifie ainsi les coûts de la mobilité, en particulier le permis de conduire, comme un des freins significatifs sur le marché du travail. Les effets bénéfiques sur l’emploi d’une mobilité accrue ne seront pas dans le secteur directement impacté des transports mais plutôt dans les secteurs utilisateurs de la mobilité.

La principale difficulté est celle de la gestion des transformations. La nouveauté avec l’IA est qu’elle va étendre un processus de transformation bien connue de l’industrie, avec la robotisation, à de nombreux secteurs des services. Comme l’ont souligné de nombreux travaux, la robotisation n’est pas nécessairement l’ennemi de l’emploi et le fait qu’un emploi soit automatisable ne veut pas forcément dire qu’il sera automatisé[4]. Dans tous les cas, des tâches vont disparaître mais des emplois resteront pour des fonctions d’agrégation et de pilotage des tâches.

billet-janin-15-11-2017-graphique-2.jpg
Type d'image: 
Libre

L’enjeu est le pilotage de la transformation par les acteurs. Les personnels doivent être formés à l’utilisation efficace des nouveaux outils fournis par l’intelligence artificielle. Les tâches élémentaires automatisées peuvent conduire à des réorganisations du travail qui doivent être anticipées et accompagnées. La disparition progressive des tâches répétitives libère du temps, qui peut être utilisé pour améliorer le traitement des cas complexes, où l’intelligence humaine reste incontournable.

L’IA permettra des gains de productivité, dès lors qu’elle sera intégrée. Le BIM (modélisation informatique de la construction ou building information modeling) permet par exemple d’optimiser l’architecture et la maintenance des bâtiments. L’intervention d’un technicien dans un bâtiment pourra être enrichie grâce à l’IA, à la réalité virtuelle et à la réalité augmentée (par exemple avec des lunettes, qui permettront de guider les gestes à accomplir lors d’une opération sur du matériel que le technicien ne connaît pas).

Enfin, d’un point de vue économique, les gains de productivité observés à l’échelle d’une entreprise ne se traduiront par une richesse accrue à l’échelle nationale que si les tâches transformées permettent à ceux qui les exécutaient de se porter vers des tâches à plus forte valeur ajoutée, que les emplois détruits s’accompagnent de la reconversion des personnes vers de nouveaux emplois. Si ce n’est pas le cas, si l’effort de formation consenti n’est pas à la hauteur, que ce soit pour les compétences techniques nécessaires au développement de l’IA (des chercheurs), des personnes capables d’assurer le déploiement de l’IA, des personnes capables d’utiliser les nouveaux outils pour se détacher des tâches obsolètes (recopier un dossier écrit à la main ou traiter un dossier standard) et se porter vers les nouvelles tâches essentielles (accomplir des gestes techniques compliqués, éventuellement avec l’assistance l’IA, faire preuve d’empathie, prendre des décisions complexes avec l’aide des dispositifs d’IA), alors la révolution de l’IA ne sera pas un progrès social.


Cet article reprend des éléments issus du rapport Anticiper les impacts économiques et sociaux de l’intelligence artificielle, copiloté par France Stratégie et le Conseil national du numérique, mars 2017.


[4] Nicolas Le Ru, L'effet de l'automatisation sur l'emploi : ce qu'on sait et ce qu'on ignore, Note d’analyse, France Stratégie, juillet 2016.

Auteurs

lionel-janin.jpg
Type d'image: 
Libre
Lionel
Janin
Développement durable et numérique
Tous nos travaux sur  :