L’intelligence artificielle est-elle une réponse à des problématiques sociétales, environnementales et humaines ou représente-t-elle une menace pour l’humanité et le libre-arbitre des personnes ? Quels sont les atouts de la France et quelles sont les stratégies envisagées dans ce domaine ?
L’intelligence artificielle (IA) vise à comprendre comment fonctionne la cognition humaine et à la reproduire. Elle désigne des technologies qui reposent sur l’utilisation d’algorithmes. Ces technologies qui ont des déclinaisons multiples se caractérisent souvent par leur capacité prédictive. Il s’agit de doter les machines d’une intelligence et d’une autonomie propres.
L’IA existe dans des secteurs comme la production industrielle, la médecine, les transports ou la sécurité. Les technologies sollicitées font appel à l’informatique, l’électronique, les mathématiques, les neurosciences et les sciences cognitives.
Le déploiement de l’IA poursuit différents objets comme l’amélioration des conditions de vie des populations, la personnalisation de la prise en charge médicale, la stimulation de l’innovation et de la productivité, l’adaptation aux changements climatiques… Outre les impacts sur la vie quotidienne, ces technologies peuvent aller jusqu’à modifier les frontières entre l’homme et la machine.
Publiés en 2017, le rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (“Pour une intelligence artificielle maîtrisée, utile et démystifiée”) et le rapport “Stratégie France I.A.(nouvelle fenêtre) dressent le constat de l’émergence d’une économie globalisée dominée par des “plateformes”. Cette “plateformisation” de l’économie représente un enjeu de compétitivité internationale, où l’accès aux données devient un avantage comparatif. Pour la première fois depuis la Révolution industrielle, la France et l’Europe ne sont pas à l’origine de cette révolution technologique. Les États-Unis avec les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et la Chine sont désormais en situation de duopole au niveau mondial.
De grandes sommes sont injectées dans la recherche et le développement des technologies d’IA par les acteurs étatiques. En Europe, les investissements atteignent en 2016 près de 3,2 milliards d’euros contre 12,1 milliards d’euros en Amérique du Nord et 6,5 milliards d’euros en Asie.
L’étude réalisée par la Direction générale des entreprises (DGE), le Commissariat général à l’égalité des territoires (CGET) et TECH’IN France recommande de “favoriser l’expérimentation de ces technologies sur le territoire”. L’objectif est de faire de la France un acteur majeur de l’IA. Pour initier le mouvement, le Gouvernement français a par exemple lancé une expérimentation de l’IA dans l’administration(nouvelle fenêtre).
L’Observatoire des acteurs de l’IA du ministère en charge de la recherche recense 542 structures françaises incluant équipes de recherches et entreprises(nouvelle fenêtre). Dans son rapport de mars 2017, l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) souligne la place occupée par de nombreux organismes publics intervenant dans la recherche en intelligence artificielle. Au premier chef figurent l’Institut national de recherche en informatique et en automatique (Inria), le CNRS, le CEA, et différentes universités et grandes écoles dont les travaux ont une visibilité internationale. Toutefois, l’OPECST note que la reconnaissance internationale de la recherche française s’accompagne d’une importante diaspora de chercheurs français en IA.
Une forte concurrence s’exerce dans le domaine de l’IA. L’Union européenne (UE) affiche son ambition dans le livre blanc consacré à l’IA de “devenir un acteur mondial de premier plan en matière d’innovation dans l’économie fondée sur les données et ses applications”.
Le développement des utilisations technologiques de l’IA concerne principalement des stratégies de collecte d’informations et de données. La Commission européenne souhaite saisir l’opportunité de prendre “la nouvelle vague des données” dans les années à venir. L’objectif est de faire émerger des espaces de données des différents secteurs et d’alimenter les systèmes d’IA.
Le rapport Villani affirme que le développement de l’IA passe par une politique de la donnée, qui dans le cas de la France doit être engagée par l’État.
L’IA se construit à partir d’algorithmes qui reposent sur des formules mathématiques et exploitent des données. Les algorithmes posent quatre types de questions :
Par exemple, toutes les applications domestiques ou médicales contiennent des risques en matière de respect de la vie privée et des données personnelles. Comment s’assurer que des données de santé ne seront pas vendues à une compagnie privée ou à un futur employeur ? Comment conjuguer cette collecte massive de données de santé et le respect du “droit à l’oubli” ? Bref, comment s’assurer qu’intelligence artificielle et robotique riment avec traitement des données éthique ?
Pour répondre à ces questions, la Commission nationale de l’informatique et des libertés (CNIL) formule six recommandations opérationnelles à destination des pouvoirs publics et de la société civile (nouvelle fenêtre) :
L’OCDE formule également des principes pour encadrer l’IA(nouvelle fenêtre). Pour le volet éthique, les pays adhérents s’engagent à respecter “l’État de droit, les droits de l’homme et les valeurs démocratiques tout au long du cycle de vie des systèmes d’IA”.
En outre, l’automatisation est susceptible de détruire plus d’emplois qu’elle n’en crée. Elle risque aussi de créer un marché du travail à deux vitesses : une minorité d’emplois très qualifiés pour une élite surdiplômée et une majorité de travailleurs précaires dont les compétences ne rapporteront pas assez pour vivre. Il est également à craindre un niveau de chômage élevé, créé par la substitution des logiciels aux emplois les moins qualifiés. Cette vision n’est cependant pas partagée par tous, le rapport sur l’IA et le futur du travail (nouvelle fenêtre) voit dans l’intelligence une potentielle source de prospérité.
Toutes les applications domestiques ou médicales contiennent des risques en matière de respect de la vie privée et des données personnelles. Comment s’assurer que des données ne seront pas vendues à une compagnie privée ?
Au-delà des “lois d’Asimov”, qui énoncent des principes éthiques généraux pour le fonctionnement des robots, la régulation des systèmes d’intelligence artificielle supervisés ou renforcés, suscite une réflexion sur l’élaboration d’un droit de la robotique.
Les trois lois d’Asimov
Première loi. Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé.
Deuxième loi. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi.
Troisième loi. Un robot doit protéger sa propre existence aussi longtemps qu’une protection n’est pas en contradiction avec la première et/ou la deuxième loi.
L’OPECST poursuit sa réflexion sur les contours d’un droit de la robotique. Ce droit doit notamment porter sur la protection des données personnelles et de la vie privée, la propriété intellectuelle, les régimes de responsabilité envisagés ou envisageables, la définition d’un droit applicable selon le type d’agents autonomes (robots industriels, robots de service, voitures autonomes…).
Les enjeux juridiques de l’essor de l’IA sont centrés autour de la protection des droits de l’homme, de l’État de droit et de la démocratie. À l’échelle internationale, aucune réglementation n’existe pour le moment. Toutefois, les membres du Partenariat mondial pour l’intelligence artificielle se sont engagés en faveur du développement responsable de l’IA(nouvelle fenêtre).