L’intelligence artificielle (IA) est « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence »1. Elle correspond donc à un ensemble de concepts et de technologies plus qu’à une discipline autonome constituée2. D’autres, remarquant la définition peu précise de l’IA, notamment la CNIL, introduisent ce sujet comme « le grand mythe de notre temps »3.
Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique (partie des mathématiques et de la philosophie) et à l’informatique. Elle recherche des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l’homme dans certaines mises en œuvre de ses fonctions cognitives4.
Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s’exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques. La réalité semble encore tenir l’intelligence artificielle loin des performances du vivant ; ainsi, l’IA reste encore bien inférieure au chat dans toutes ses aptitudes naturelles5.
Définition
Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour Artificial Intelligence). Il est défini par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». On y trouve donc le côté « artificiel » atteint par l’usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence » associé à son but d’imiter le comportement. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d’autres capteurs, dans la commande d’un robot dans un milieu inconnu ou hostile.
Même si elles respectent globalement la définition de Minsky, il existe un certain nombre de définitions différentes de l’IA qui varient sur deux points fondamentaux7 :
- les définitions qui lient l’IA à un aspect humain de l’intelligence, et celles qui la lient à un modèle idéal d’intelligence, non forcément humaine, nommée rationalité ;
- les définitions qui insistent sur le fait que l’IA a pour but d’avoir toutes les apparences de l’intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du système d’IA doit ressembler également à celui de l’être humain et être au moins aussi rationnel.
Historiquement, l’idée d’intelligence artificielle semble émerger dans les années 1950 quand Alan Turing se demande si une machine peut « penser ». Dans un article « Computing Machinery and Intelligence » (Mind, octobre 1950)8 Turing explore ce problème et propose une expérience (maintenant dite test de Turing) visant à trouver à partir de quand une machine deviendrait « consciente ». Il développe ensuite cette idée dans plusieurs forums, dans la conférence « L’intelligence de la machine, une idée hérétique »9, dans la conférence qu’il donne à la BBC 3e programme le 15 mai 1951 « Les calculateurs numériques peuvent-ils penser ? »10 ou la discussion avec M.H.A. Newman, Sir Geoffrey Jefferson et R.B. Braithwaite les 14 et 23 janvier 1952 sur le thème « Les ordinateurs peuvent-ils penser ? »11.
Une autre origine probable est la publication, en 1949, par Warren Weaver d’un mémorandum sur la traduction automatique des langues12 qui suggère qu’une machine puisse faire une tâche qui relève typiquement de l’intelligence humaine.
Le développement des technologies informatiques (puissance de calcul) aboutit ensuite à plusieurs avancées :
- dans les années 1980, l’apprentissage automatique (« Machine Learning ») se développe. L’ordinateur commence à déduire des « règles à suivre » rien qu’en analysant des données ;
- parallèlement, des algorithmes « apprenants » sont créés qui préfigurent les futurs réseaux de neurones, l’apprentissage par renforcement, les machines à vecteurs de support, etc.). Ceci permet par exemple en mai 1997 à l’ordinateur Deep Blue de battre Garry Kasparov au jeu d’échecs ;
- l’intelligence artificielle devient un domaine de recherche international, marquée par une conférence au Dartmouth College à l’été 195613 à laquelle assistaient ceux qui vont marquer la discipline ;
- depuis les années 1980, la recherche se fait principalement aux États-Unis, notamment à l’université Stanford sous l’impulsion de John McCarthy, au MIT sous celle de Marvin Minsky, à l’université Carnegie-Mellon sous celle de Allen Newell et Herbert Simon et à l’université d’Édimbourg sous celle de Donald Michie, en Europe et en Chine. En France, l’un des pionniers est Jacques Pitrat ;
- dans les années 2000, le Web 2.0, le big data et de nouvelles puissances et infrastructures de calcul, permettent à certains ordinateurs d’explorer des masses de données sans précédent ; c’est l’apprentissage profond (« deep learning »).
Les bornes de ce domaine varient, ainsi optimiser un itinéraire était considéré comme un problème d’intelligence artificielle dans les années 1950, et n’est plus considéré aujourd’hui que comme un simple problème d’algorithme14.
Vers 2015, le secteur de l’intelligence artificielle cherche à relever trois défis : la perception de l’environnement, la compréhension d’une situation et la prise de décision par une IA15. Produire et organiser des données massives et de qualité, c’est-à-dire corrélées, complètes, qualifiées (sourcées, datées, géoréférencées…), historisées est un autre enjeu. Et la capacité déductive et de généralisation pertinente d’un ordinateur, à partir de peu de données ou d’un faible nombre d’évènements, est un autre objectif, plus lointain15.
Entre 2010 et 2017, les investissements auraient été décuplés, dépassant de 5 milliards d’euros en 201716.
