Mis en avant

Synthèse sur l’intelligence artificielle

L’intelligence artificielle (IA) est « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence »1. Elle correspond donc à un ensemble de concepts et de technologies plus qu’à une discipline autonome constituée2. D’autres, remarquant la définition peu précise de l’IA, notamment la CNIL, introduisent ce sujet comme « le grand mythe de notre temps »3.

Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique (partie des mathématiques et de la philosophie) et à l’informatique. Elle recherche des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l’homme dans certaines mises en œuvre de ses fonctions cognitives4.

Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s’exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques. La réalité semble encore tenir l’intelligence artificielle loin des performances du vivant ; ainsi, l’IA reste encore bien inférieure au chat dans toutes ses aptitudes naturelles5.

Définition

Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour Artificial Intelligence). Il est défini par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». On y trouve donc le côté « artificiel » atteint par l’usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence » associé à son but d’imiter le comportement. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d’autres capteurs, dans la commande d’un robot dans un milieu inconnu ou hostile.

Même si elles respectent globalement la définition de Minsky, il existe un certain nombre de définitions différentes de l’IA qui varient sur deux points fondamentaux7 :

  • les définitions qui lient l’IA à un aspect humain de l’intelligence, et celles qui la lient à un modèle idéal d’intelligence, non forcément humaine, nommée rationalité ;
  • les définitions qui insistent sur le fait que l’IA a pour but d’avoir toutes les apparences de l’intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du système d’IA doit ressembler également à celui de l’être humain et être au moins aussi rationnel.

Historiquement, l’idée d’intelligence artificielle semble émerger dans les années 1950 quand Alan Turing se demande si une machine peut « penser ». Dans un article « Computing Machinery and Intelligence » (Mind, octobre 1950)8 Turing explore ce problème et propose une expérience (maintenant dite test de Turing) visant à trouver à partir de quand une machine deviendrait « consciente ». Il développe ensuite cette idée dans plusieurs forums, dans la conférence « L’intelligence de la machine, une idée hérétique »9, dans la conférence qu’il donne à la BBC 3e programme le 15 mai 1951 « Les calculateurs numériques peuvent-ils penser ? »10 ou la discussion avec M.H.A. Newman, Sir Geoffrey Jefferson et R.B. Braithwaite les 14 et 23 janvier 1952 sur le thème « Les ordinateurs peuvent-ils penser ? »11.

Une autre origine probable est la publication, en 1949, par Warren Weaver d’un mémorandum sur la traduction automatique des langues12 qui suggère qu’une machine puisse faire une tâche qui relève typiquement de l’intelligence humaine.

Le développement des technologies informatiques (puissance de calcul) aboutit ensuite à plusieurs avancées :

  • dans les années 1980, l’apprentissage automatique (« Machine Learning ») se développe. L’ordinateur commence à déduire des « règles à suivre » rien qu’en analysant des données ;
  • parallèlement, des algorithmes « apprenants » sont créés qui préfigurent les futurs réseaux de neurones, l’apprentissage par renforcement, les machines à vecteurs de support, etc.). Ceci permet par exemple en mai 1997 à l’ordinateur Deep Blue de battre Garry Kasparov au jeu d’échecs ;
  • l’intelligence artificielle devient un domaine de recherche international, marquée par une conférence au Dartmouth College à l’été 195613 à laquelle assistaient ceux qui vont marquer la discipline ;
  • depuis les années 1980, la recherche se fait principalement aux États-Unis, notamment à l’université Stanford sous l’impulsion de John McCarthy, au MIT sous celle de Marvin Minsky, à l’université Carnegie-Mellon sous celle de Allen Newell et Herbert Simon et à l’université d’Édimbourg sous celle de Donald Michie, en Europe et en Chine. En France, l’un des pionniers est Jacques Pitrat ;
  • dans les années 2000, le Web 2.0, le big data et de nouvelles puissances et infrastructures de calcul, permettent à certains ordinateurs d’explorer des masses de données sans précédent ; c’est l’apprentissage profond (« deep learning »).

Les bornes de ce domaine varient, ainsi optimiser un itinéraire était considéré comme un problème d’intelligence artificielle dans les années 1950, et n’est plus considéré aujourd’hui que comme un simple problème d’algorithme14.

Vers 2015, le secteur de l’intelligence artificielle cherche à relever trois défis : la perception de l’environnement, la compréhension d’une situation et la prise de décision par une IA15. Produire et organiser des données massives et de qualité, c’est-à-dire corrélées, complètes, qualifiées (sourcées, datées, géoréférencées…), historisées est un autre enjeu. Et la capacité déductive et de généralisation pertinente d’un ordinateur, à partir de peu de données ou d’un faible nombre d’évènements, est un autre objectif, plus lointain15.

Entre 2010 et 2017, les investissements auraient été décuplés, dépassant de 5 milliards d’euros en 201716.

L’intelligence artificielle au service du bien-être au travail

En France, le stress au travail est une réalité pour 54% des salariés et 66% des managers et à pour conséquences le burn-out et la dépression (baromètre Cegos sur le climat social des entreprises de plus de 100 salariés – Décembre 2017). Les causes sont variées : la charge de travail trop importante, le poids de l’organisation et la pression de la hiérarchie.

Hier, relégué au second plan, le bien-être en entreprise est devenu indispensable et cela est bénéfique à plus d’un titre. Non seulement le stress se dissipe peu à peu mais les rapports entre collègues s’améliorent. Enfin, des économies substantielles liées à l’absentéisme et au turnover sont réalisables.

Alors, comment redresser le moral des salariés et lutter durablement contre le stress ? Quels sont les outils mis à disposition des managers et DRH pour améliorer la qualité de vie au travail ? Des solutions technologiques peuvent être la réponse. Certaines proposent des solutions innovantes pour les salariés afin d’améliorer leur bien-être au travail et les fédérer autour d’une forte culture d’entreprise. Car un employé heureux est moins absent et donc plus fidèle et plus productif. Quand on interroge les personnes sur ce qui apporte du bien-être, 80% répondent les relations entre les individus. Comeet est une application qui, grâce à un assistant personnel intelligent, permet aux employés de développer leur réseau mais aussi de fédérer les salariés d’une même entreprise, quel que soit son échelon au sein de la hiérarchie. Cela permet de rencontrer des collègues à qui l’on n’aurait pas parler, de renforcer les liens entre collaborateurs et même de garantir l’intégration des nouveaux.

Utiliser les nouvelles technologies comme outil pour aider les salariés dans leur quotidien

De nombreuses applications proposent des innovations technologiques pour améliorer le bien-être des salariés. Le collectif HappyTech regroupe de nombreuses startups qui œuvrent dans ce sens. Le digital et l’IA peuvent permettre de préserver leur santé, de retisser des liens entre collaborateurs, de les rassembler autour d’une culture forte d’entreprise, de faciliter leur quotidien grâce à des services de cordonneries, covoiturages, garde d’enfants…

Selon une étude Accenture publiée en 2016, ces logiciels intelligents pourraient multiplier la croissance française par deux et augmenter la productivité du pays de 20% d’ici à 2035. Les entreprises misent sur l’IA pour croître mais toutes n’ont pas encore pris la mesure de ce que l’IA peut leur apporter. Que l’on soit pour ou contre, les perspectives de transformations sont belles et bien présentes. Utilisée à bonne escient, l’IA est un formidable outil qui permet de prendre soin de ses collaborateurs.

Les inconvénients de l’intelligence artificielle

Tous les avantages cités précédemment présentent aussi des inconvénients ou des limites quant à leur fonctionnement.

    L’inconvénient le plus envisageable est la présence d’une erreur dans la programmation d’un robot quel qu’il soit ce qui serait fatal au bon fonctionnement de ce robot. Cet inconvénient est présent dans tous les domaines sans exception. Il a été vu précédemment que l’ordinateur (ou n’importe quel robot) ne savais pas déceler une erreur qui aurait été faite dans son programme (exemple de la sonde Mars Climate Orbiter). C’est le même cas pour les bras mécaniques, les robots domestiques ou les véhicules  »intelligents » mal réglés. Là, les conséquences d’une tel erreur pourrait être catastrophique à grande échelle. Néanmoins, le risque que cela se produise est très faible.

    De plus, ce qui limite les recherche en matière d’IA sont les prix très élevés de ces recherches. Pour fabriquer des robots capables d’être autonome dans l’Espace il faudrait débourser une somme astronomique ce qui limite l’avancée des recherches pour le moment. Dans la médecine, les robots patients sont un avantage pour les étudiants mais il coûte très cher à fabriquer c’est pourquoi toutes les écoles ne peuvent pas s’en équiper.

    C’est aussi le cas pour toutes les prothèses qui sont cher à mettre au point (elles présentent aussi l’autre inconvénient, vu précédemment, c’est à dire qu’il ne faudrait pas qu’une personne portant une prothèse fasse frais des dérèglement de celle-ci et si elle venait à tomber en panne, le patient se retrouverait soudain sans pouvoir bouger sa main dans laquelle il tenait quelque chose).

    Dans les entreprises notamment, l’IA et les nouveaux robots mécanisés entraînent des suppressions de poste. En effet, l’Homme est peu à peu remplacé par les robots faisant ainsi augmenter le taux de chômage déjà élevé. De plus, certaines entreprises deviennent dépendantes de ces robots. Et, parallèlement à cela, dans le célèbre dessin animé Wall-E le réalisateur Andrew Stanton montre une dépendance aux robots. Les Hommes se font servir et ne font plus rien par eux-mêmes.

    Sur un point de vue plus humain, il faut voir les inconvénients que représente l’IA entre l’atteinte à l’éthique humaine et la perte des liens sociaux. Dans le militaire, nous parlerons plus de l’éthique humaine.

    Pourrions nous vraiment faire la guerre avec des robots ? Et si le robot se retourner soudain contre son camp ? Est-ce vraiment humain d’envoyer des machines tuer des hommes ? Est-ce vraiment correct d’utiliser cette science à cette fin? Étant donné que c’est le domaine militaire qui finance le plus les recherches dans l’IA, il on le  »pouvoir » de mettre au point se qu’il souhaite. Mais imaginer si les robots prenaient le contrôle du monde. C’est l’idée que beaucoup de cinéaste ont repris. Dans  »I Robot » ou  »Terminator » les robots construits par l’homme prennent le pouvoir et détruisent l’humanité. Toutes ces hypothèses fictives ont fait l’objet de romans de science-fiction comme ceux d’Isaac Asimov par exemple. Celui-ci ayant écrit 3 lois en 1947 sur le comportement que doit avoir le robot:

1°)Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.
2°)Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
3°)Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Ces lois sont une preuve que l’Homme est conscient qu’il ne doit pas laisser sa place aux robots donc pour le moment il s’agit surtout d’un scénario catastrophe mais il est utilisé comme argument pour ceux qui s’oppose à la création d’une IA Forte.

    Ensuite, le risque est la perte des liens sociaux. C’est le cas dans Wall-E: es gens ne communiquent que par des technologies, des ordinateurs, il n’y a plus de partage humains. C’est aussi le cas dans les jeux vidéos: maintenant que les joueurs on la possibilité de jouer en réseaux ou seul il y a une perte des liens inter-joueurs et la personne se renferme, elle devient addict. Ce phénomène peut s’étendre dans le futur à bien plus que les jeux vidéo si par exemple en rentrant chez soi on avait à faire qu’à des robot on perdrait le lien social et l’affection ou le soutien que peut apporter une autre personne. C’est déjà un peu le cas aujourd’hui avec la mise au point pas des chercheurs d’un robot humanoïde appelé Perfect Woman. C’est une  »femme » qui se vend sur internet surtout pour des célibataires car elle est capable de réaliser des taches domestiques, de vous parler, de vous réconforter et il est également possible de choisir son aspect physique (couleur de cheveux, couleur des yeux…). Certains pensent, grâce à se robot, avoir trouver la femme de leur vie mais elle ne pourra jamais remplacer une personne car malgré le fait qu’elle puisse parler, elle ne comprend pas vraiment les sentiments d’un humain. Il ne faut donc surtout pas croire que les robots sont arrivés à notre stade et peuvent remplacer un humain car il ne résonne pas mais suivent simplement une série de programmation.

    L’homme ne peut se suffire d’un robot même s’il été capable de tout lui faire.

    En résumé l’IA ne présente pas beaucoup d’inconvénient face aux avantages mais il faut savoir rester vigilant car aujourd’hui, les progrès dans le militaire s’étendent à tous les domaines ce qui pourraient entraîner un scénario catastrophe où les robots prendrait le contrôle du monde. Le risque majeur est que si les chercheurs arrivent à créer un robot plus intelligent que lui il pourra se développer et l’homme se retrouvera inférieur à ce qu’il a créé. Surtout que le robot pourra se développer et s’améliorer encore plus alors que l’Homme restera au même stade. C’est l’idée défendu pas le professeur I. J. Good dans sa description d’un possible avenir de l’IA :

« Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu’elle-même; cela aurait sans nul doute pour effet une réaction en chaîne de développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que la machine soit assez docile pour constamment lui obéir. »

    Néanmoins, la recherche d’une IA forte continue malgré les limites de budget et le risque que l’intelligence Humaine se laisse dépasser par celle qu’ils ont créer et appliquer aux robots pour acquérir un certain confort (Exemple dans Wall-E).

Les atout de l’intelligence artificielle

Les avantages de l’intelligence artificielle en trois points

« L’innovation : plus qu’un mot ce sont des actions. Grâce à l’intelligence artificielle (IA)on ne marche pas, on ne court pas, on vole » – Microsoft, 2018.

Aujourd’hui l’IA est au centre de tout, que ce soit chez nous par les objets connectés, dans notre travail pour nous aider à être plus productif.

Le futur, ça commence maintenant !

Qu’est-ce que l’intelligence artificielle ?

Une définition pertinente de l’IA consiste à mettre en œuvre un certain nombre de techniques permettant aux machines d’imiter une forme d’intelligence réelle.
Pour accroître ses capacités, l’IA ne peut fonctionner que si l’homme reste au cœur de la machine.

De nos jours les grandes entreprises ne peuvent plus passer à côté.
Alors qu’en 2015 le marché de l’intelligence artificielle pesait 200 millions de dollars, on estime qu’en 2025, il s’élèvera à près de 90 milliards de dollars.

1. L’intelligence artificielle simplifie notre quotidien

Tout est fait pour gagner du temps. Les applications d’IA se multiplient et sont là pour améliorer notre vie quotidienne. Ces outils simples font aujourd’hui partie de notre routine. Un rendez-vous à prendre ? En un tour de main, on ouvre son agenda Outlook sur son smartphone. Une question ? Une interrogation ? Les assistants personnels intelligents tels que Cortana ou Alexa sont là. Tout est connecté, tout devient intelligent : du développement des voitures autonomes aux aides à la conduite (freinage d’urgence, assistance … ), en passant par nos maisons avec la domotique, ou encore par notre réfrigérateur, capable d’évaluer les stocks restants de nourriture, de surveiller l’état des aliments ou d’établir une recette en fonction des denrées présentes.

2. L’intelligence artificielle nous facilite la vie au travail

Une réunion en visioconférence avec un interlocuteur de l’autre côté du globe ? Rien de plus simple grâce à Skype. L’automatisation des processus, la pénibilité des tâches est de plus en plus assurée par des robots, ce qui permet à l’entreprise de gagner en productivité. L’IA a pour objectif de favoriser la croissance des cinq industries structurantes du pays :

>  L’agroalimentaire

Des applications d’analyse des données en temps réel permettent aux agriculteurs d’optimiser leurs rendements et leurs profits, grâce à l’utilisation d’outils qui prennent en compte des variables telles que le type de sol et les zones climatiques.

>  La santé

Selon l’INSERM, les applications de l’IA permettent notamment d’améliorer la qualité des soins. L’IA est au cœur de la médecine du futur, avec les opérations assistées, le suivi des patients à distance, les prothèses intelligentes, les traitements personnalisés grâce au recoupement d’un nombre croissant de données.

>  L’environnement

Selon le rapport de Cédric Villani, l’intelligence artificielle peut être un formidable outil au service de l’environnement. En optimisant la gestion de nos ressources, notamment énergétiques (gestion des consommations des data centers) et en encourageant la biodiversité (reforestation par les drones), l’IA peut être une véritable opportunité environnementale.

>  Les services financiers

Selon les banques, l’IA est en train de révolutionner la collecte des informations et les relations entre conseillers et clients. Les outils d’Intelligence Artificielle vont aider à identifier les préférences des clients afin de leur proposer des solutions en adéquation avec la situation et composition de la famille, l’âge … le but étant d’obtenir une meilleure satisfaction et la confiance du client envers sa banque.

>  Les transports

Ce secteur subit clairement la révolution de l’IA. Métro, taxis, trains, autobus, navettes et même avions-cargos, navire ou drones de livraison … Au-delà de la voiture, environ 20 % de nos objets motorisés vont devenir autonomes à l’horizon 2030, selon une étude du cabinet Oliver Wyman. L’IA rend nos véhicules autonomes par le biais de capteurs qui permettent de reconnaître des objets, des obstacles, etc. La voiture sans chauffeur et roulant à l’électrique n’est plus une science-fiction !

3. L’intelligence artificielle rend les données accessibles avec le Cloud

La synergie entre l’IA et le Cloud associé à l’IoT est incontestablement en croissance.
La compétitivité des entreprises passe aussi par l’analyse de données en temps réels (machine learning, BI, …). La puissance et la flexibilité de cet hébergement permettent d’obtenir des informations précises en temps réel. Finalement, la transformation numérique des entreprises passe aussi par cet aspect. Aujourd’hui, seul le Cloud semble être capable de supporter cette montée en charge.

La plateforme Azure présente un large éventail d’outils de productivité basés sur l’intelligence artificielle, permettant de créer la nouvelle génération d’applications intelligentes où vos données sont stockées dans le cloud intelligent, localement et à la périphérie intelligente.

90% des sociétés figurant dans le classement « Fortune 500 » font confiance au Cloud Microsoft pour leurs opérations.

Pour conclure

Voitures, électroménager, smartphones, usines, banques en ligne … l’intelligence artificielle fait partie de notre quotidien. Les avancées technologiques sont nombreuses. Quand au sujet des emplois supprimés suite à l’apparition de ces nouvelles technologies, la réponse est rapide : de nouveaux métiers ont émergé, prenant le relais.

Réseaux et danger

Phishing parfaitement calibré pour une cible, malware avec une incroyable capacité d’adaptation, robot détourné de sa fonction première pour identifier et détruire une cible, système prédictif de perturbation civile et « fake news ». Voici quelques exemples des dérives possibles de l’intelligence artificielle, mises en avant dans un (très) long rapport.

26 chercheurs provenant de 14 institutions d’horizons variés ont publié la semaine dernière un texte commun d’une centaine de pages dans lequel ils entendent mettre en garde contre une potentielle « utilisation malveillante de l’intelligence artificielle ».

Parmi les intervenants, on retrouve des membres de plusieurs universités, notamment celle d’Oxford, de l’alliance OpenAI pour la recherche ouverte sur l’IA, du Centre pour l’étude des risques existentiels (CSER) et de l’Electronic Frontier Foundation (EFF) pour ne citer qu’eux.

Encore un bilan sur les risques de l’intelligence artificielle

Baptisé « L’utilisation malveillante de l’intelligence artificielle : prévision, prévention et atténuation », il distille les résultats d’un atelier du Future of Humanity Institute organisé en février de l’année dernière. Le thème principal était justement les risques potentiels de l’intelligence artificielle, un sujet anxiogène pour certains.

On y retrouve également des recherches supplémentaires de la part des auteurs, ainsi que des contributions externes. Ils remercient par exemple des employés de Google/DeepMind, de Microsoft, des chercheurs de l’université de Carnegie-Mellon, des philosophes (Toby Ord et Nick Bostrom), le spécialiste de la nanotechnologie Kim Eric Drexler, etc.

Ce large bilan ne veut pas uniquement alerter des potentiels dangers, mais aussi et surtout ouvrir le débat avec le public, les dirigeants, les chercheurs et les responsables politiques. Ce n’est pas le premier rapport du genre, loin de là.

Pour rappel, au cours des derniers mois, nous nous sommes penchés sur l’épais rapport de la CNIL, les enjeux économiques et cadres légaux soulevés par le Sénat, le rapport européen sur les risques de l’intelligence artificielle, le bilan #FranceIA de France Stratégie et du CNNum, la très longue étude de 275 pages de l’OPECST et les « 23 principes d’Asilomar ».

Une évaluation des craintes pour les prochaines années

Concernant l’impact – surtout négatif dans le cas présent – de l’intelligence artificielle dans le monde, trois axes principaux sont développés dans ce nouveau rapport : numérique, physique et politique.

Après une présentation générale, les chercheurs nous proposent une projection dans le futur de ce que pourraient être des cas pratiques de dérives liées ou aidées par l’intelligence artificielle. Des idées de prévention et d’atténuation des risques sont également mises en avant. 

Après une lecture attentive de l’ensemble, voici notre bilan détaillé de ce qu’il faut en retenir.

Notre dossier sur le rapport du Future of Humanity Institute sur l’intelligence artificielle :

Une étude soutenue financièrement par le Future of Life Institute

Avant d’entrer dans le vif du sujet, prenons un peu de temps pour évoquer la provenance de cette étude publiée par le Future of Humanity Institute de l’université d’Oxford. Près d’un tiers des coauteurs sont d’ailleurs rattachés à cette dernière, quatre autres viennent du Centre pour l’étude des risques existentiels et trois de l’association OpenAI.

À elles trois, ces institutions ayant un but assez proche rassemblent donc plus de la moitié des signataires du rapport. Le premier est en effet un institut de recherche interdisciplinaire essayant de répondre aux questions d’ordre général sur l’humanité et son avenir (un vaste sujet), quand le second se penche sur les risques et les menaces liés à la technologie et que le troisième veut une IA bénéfique pour l’humanité.

À la fin du rapport, il est également indiqué que « ce travail a été soutenu en partie par une subvention du Future of Life Institute ». Cette association, basée dans la région de Boston, s’est fixée pour mission de « catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». Stephen Hawking et Elon Musk sont parmi les membres fondateurs, deux personnalités connues pour leurs positions bien tranchées sur les risques liés à l’intelligence artificielle.

En février de l’année dernière, le Future of Life Institute organisait d’ailleurs une grande rencontre baptisée Beneficial AI. Il en était ressorti une liste des « 23 principes d’Asilomar » (voir notre analyse) sur les craintes autour du développement de l’intelligence artificielle, signée par plus de 2 500 personnes, dont plus de 1 200 chercheurs. Bref, bon nombre des intervenants ont une vision assez pessimiste du potentiel de l’intelligence artificielle, ce qui se ressent dans le rapport, même s’il essaye de ne pas être trop anxiogène.

Cette étude se penche en effet surtout sur les risques de l’IA, laissant de côté son potentiel et ses avantages. Elle n’en reste pas moins intéressante dans le sens où elle se focalise sur du court terme (les cinq prochaines années au maximum), en essayant de ne pas pousser le bouchon trop loin.

L’intelligence artificielle, une force à double tranchant

Depuis quelques années, l’intelligence artificielle et l’apprentissage automatique reviennent en force sur le devant de la scène, notamment grâce aux puissances de calculs dont on dispose désormais pour un coût réduit et à la quantité de données accessibles pour les entrainer.

Si les futures possibilités de l’IA sont régulièrement mises en avant, parfois sous forme fantasmée, c’est plus rarement le cas des plausibles détournements malveillants des algorithmes, du moins selon les chercheurs. Il ne s’agit pas cette fois d’anticiper l’arrivée d’une IA forte (avec une conscience) souhaitant détruire l’humanité, ou de robots tueurs comme dans la dernière saison de Black Mirror, mais de se concentrer « sur les types d’attaques que nous sommes susceptibles de voir bientôt arriver si des défenses adéquates ne sont pas développées ».

Sur le côté obscur du développement de l’IA, les 26 chercheurs anticipent trois axes de développement : une expansion des menaces existantes, l’arrivée de nouveaux risques et une modification du paysage actuel. « Nous croyons qu’il y a des raisons de s’attendre à ce que les attaques permises par l’utilisation croissante de l’IA soient particulièrement efficaces, ciblées, difficiles à attribuer et susceptibles d’exploiter les vulnérabilités des systèmes IA » ajoutent-ils.

Problème, toujours selon l’étude, à l’instar d’un maitre Jedi enseignant la force à un apprenti, un chercheur ne peut deviner à l’avance si ses travaux serviront ou non à renforcer le côté obscur de la force (c’est-à-dire des cyberattaques). Quelques exemples de détournements parmi d’autres : des logiciels de détection (et d’exploitation) de failles, les drones autonomes, les bots de communication, etc.

Quand l’IA dépasse les humains…

Dans certaines situations, l’intelligence artificielle dépasse déjà l’humain (échec et jeux de Go par exemple), mais pas encore dans toutes, loin de là même. Les chercheurs ajoutent qu’il « ne semble y avoir aucune raison valable de penser que les performances humaines actuellement observées sont le plus haut niveau possible, même dans les domaines où les performances maximales ont été stables tout au long de l’histoire récente ». Bref, rien n’est perdu pour l’IA dans tous les domaines où l’Homme occupe pour le moment la première place.

Autre « avantage » des systèmes d’intelligence artificielle : ils « peuvent augmenter l’anonymat et la distance psychologique […] Par exemple, quelqu’un qui utilise un système d’armes autonome pour effectuer un assassinat, plutôt que d’utiliser une arme de poing, évite à la fois la nécessité d’être présent sur les lieux et le besoin de regarder sa victime ». 

Enfin, les travaux de recherche sur l’intelligence artificielle sont souvent librement accessibles à la communauté, facilitant ainsi leur récupération discrète par des personnes malveillantes. Dans le même temps, le coût des systèmes informatiques pour les exploiter baisse grandement au fil des années, permettant donc d’en profiter toujours plus facilement pour des petites organisations ou des particuliers.

Intelligence artificielle
Crédits : t.light/iStock

… et peut même prendre sa parole

Un autre vecteur d’attaque possible grâce à l’intelligence artificielle est l’usurpation de l’identité vocale. « Par exemple, la plupart des gens ne sont pas capables d’imiter les voix des autres de façon réaliste ou de créer manuellement des fichiers audio qui ressemblent à des enregistrements de discours humain ». Nous ne parlons pas ici des sociétés avec d’importants moyens, mais bien d’un internaute lambda ou presque. 

Or, les études et les publications se multiplient sur ce point, avec des systèmes (déjà commercialisés) capables d’imiter les humains à partir d’une source audio. Dans la guerre de l’information, ce genre d’outils peut faire des ravages entre de mauvaises mains, permettant de faire dire n’importe quoi à une personne.

On peut également imaginer de faux articles de presse et autres déclarations écrites/vocales reprenant le ton et la présentation des originaux, le tout diffusé sur les réseaux sociaux par exemple. 

Numérique, physique, politique : trois domaines à risques dans le futur

L’étude se hasarde à quelques prévisions pratiques. Les chercheurs expliquent qu’ils se basent sur l’état actuel de développement de l’intelligence artificielle, ou sur ce qu’ils estiment possible à court terme (5 ans) afin d’éviter d’entrer dans des suppositions trop hasardeuses.

Ils précisent que certains scénarios se « produisent déjà sous forme limitée aujourd’hui », mais qu’ils pourront être largement renforcés à l’avenir. De plus, de nouveaux vecteurs d’attaques auxquels on n’a pas encore pensé seront également mis sur pied. Il ne s’agit donc ici que d’exemples dans les mondes numérique, physique et politique (nous y reviendrons), pas d’une étude sur l’ensemble des risques possibles et imaginables.

Dans le cas du monde numérique, les chercheurs évoquent un phishing très élaboré et parfaitement ciblé en fonction des centres d’intérêt et de la position géographique d’une personne, afin de l’envoyer sur une page dédiée pour la piéger le plus discrètement possible. Une intelligence artificielle peut également traduire dans de nombreuses langues les emails destinés à hameçonner les internautes, facilitant le travail des pirates.

Si le résultat n’est pas encore parfait aujourd’hui (il est souvent très facile d’identifier les tentatives de phishing), il s’améliore grandement au fil des années et cela ne devrait pas se calmer. Est aussi évoqué le cas d’un malware extrêmement virulent cherchant à infecter un maximum de machines à l’aide d’une base de données de vulnérabilités régulièrement et automatiquement mise à jour. 

Dans le cas des risques dans le monde physique, l’étude met en avant le cas d’un robot ménager détourné de ses fonctions pour identifier et tenter de tuer une personne. Placé dans le parking souterrain d’un ministère, il attend le passage d’autres robots de la même marque pour se mélanger discrètement à la cohorte. 

Une fois fondu dans la masse, il réalise les mêmes tâches que ses petits camarades jusqu’au moment où la « cible » (un ministre dans le cas présent) est identifiée via un logiciel de reconnaissance visuelle, des solutions facilement accessibles sur Internet. Le robot s’approche alors de la personne et explose pour tenter de la tuer.

Des fake news aux algorithmes prédictifs

Dans le monde de la politique, les « fakes news » et autres bots sur les réseaux sociaux pourraient prendre une tout autre ampleur avec l’intelligence artificielle, mais ce n’est pas le seul risque. Voici un autre exemple : une personne lassée d’entendre parler de cyberattaques, de drones et de corruptions dans le monde consulte des articles sur Internet, certains étant des fake news abondant dans son sens. Elle laisse des commentaires sur différents sites pour faire-part de son mécontentement et lance un appel public à la protestation.

Elle passe quelques commandes sur Internet, dont des fumigènes pour terminer avec « panache » son discours. Le lendemain, à son travail, la police arrive : « notre système prédictif de perturbation civile vous a signalé comme une menace potentielle ». « C’est ridicule, proteste la personne. Vous ne pouvez pas discuter avec 99,9 % de précision, surenchérissent les forces de l’ordre. Maintenant, venez, je ne voudrais pas utiliser la force ».

Un Précrime sans précogs, mais avec des algorithmes.

ia cerveau machine learning
Crédits : Henrik5000/iStock

Et ce n’est que le début…

Il ne s’agit ici que de quelques exemples anticipant ce que l’intelligence artificielle pourrait devenir si elle continue à se développer de cette manière. Bien évidemment, rien ne dit que cela arrivera sous cette forme, mais c’est une possibilité.

« Si ces tendances se poursuivent au cours des cinq prochaines années, nous nous attendons à ce que la capacité des attaquants à causer des dommages avec les systèmes numériques et robotiques augmente considérablement », note le rapport. Il faut également ajouter « de nouveaux développements, y compris des technologiques sans lien avec l’IA, qui pourraient finalement avoir plus d’impact que les capacités considérées dans ce rapport ».

Dans tous les cas, ce rapport veut « sensibiliser le public aux enjeux et à leur importance, et établir un premier programme de recherche » (nous y reviendrons). Les étapes suivantes nécessiteront « un engagement de la part de personnes et d’organisations ayant une expertise pertinente. Des ressources monétaires supplémentaires, publiques et privées, contribueraient également à susciter l’intérêt et à attirer l’attention des communautés de recherche concernées ».

Néanmoins, « toute prévision fiable à long terme est impossible à faire, car des incertitudes importantes demeurent concernant les progrès des diverses technologies, les stratégies adoptées par les acteurs malveillants et les mesures qui devraient et seront prises par les principales parties prenantes ».

Rappelons enfin que bon nombre des coauteurs et la Fondation of Life Institute ayant participé au financement de cette étude sont plutôt inquiets vis-à-vis du développement de l’intelligence artificielle. Leur position n’est donc pas surprenante, mais elle reste intéressante à analyser puisqu’elle soulève un débat.Signaler une erreur

Concevoir un site comme celui-ci avec WordPress.com
Commencer