Intelligence artificielle ou art difficile

Brand Content, Technique, User Experience

11 avr, 2019

A l’heure où toutes les compagnies du secteur high tech & digital ne jurent que par l’IA, et où les gouvernements ont déjà pressenti le potentiel de cette technologie, le nombre d’usages ne cesse de croître. Chaque jour elle se perfectionne, s’affine, on lui trouve de nouvelles applications plus intéressantes les unes que les autres.

franck1 Intelligence artificielle ou art difficile

Dans le secteur automobile, l’utilisation des voitures autonomes Tesla permettrait une réduction de 90% des morts sur la route. Dans la santé, les algorithmes permettront une détection des maladies plus efficaces que les spécialistes humains, jusqu’à pouvoir prédire les chances de morts prématurées. En plus d’être présent dans le médical, Google teste et développe avec DeepMind en battant les champions de jeu comme le GO ou Starcraft, des jeux considérés comme complexe à appréhender pour une I.A. Même McDonald dotera bientôt ses bornes Drive d’une I.A afin de proposer l’offre la plus personnalisée possible selon des critères comme le temps, l’heure, les premiers ajouts au panier, etc.

Et l’on oublie souvent les plus simples, mais qui peut se vanter aujourd’hui se passer de Waze et de ressortir les vieilles cartes routières de France ? ou bien de Netflix ou de Spotify et de leur algorithme prédictif vous aidant à choisir la prochaine série ou chanson qui vous conviendra ?

Et ce n’est pas qu’à l’étranger ! Les spécialistes du domaine sont de plus en plus recherchés du fait de l’engouement actuel. Que ce soit au niveau gouvernemental, industriel ou bien chez les entreprises et start-ups, les analystes et mathématiciens ont le vent en poupe. Pour preuve, en France, Facebook, Microsoft et Samsung investissent chacun dans la création de leur centre de R&D innovation en France. IBM annonce le recrutement de plus de 400 spécialistes du domaine pendant que Google annonce celle de son projet de création d’un Master spécialisé au sein de l’école Polytechnique.

On peut donc envisager que sous peu la France disposera d’une offre diversifiée de formations et de recherches sur l’IA qui n’aura pas à blêmir face à la concurrence.

Les limites de l’intelligence artificielle

franck3 Intelligence artificielle ou art difficile

L’apprentissage automatique promet un avenir riche en évolutions technologiques. De part la multiplicité de ses applications, on peut déjà imaginer les multiples technologies qui viendront se greffer à celle ci. Cependant celle-ci aussi prometteuse qu’elle soit est encore soumise à de multiples erreurs ou échecs. Ces dernières années, nous avons pu voir plusieurs cas problématiques dont nous essayons encore pour certains d’en corriger les limites. En voici quelques exemples :

> IBM et la détection du cancer

En 2011, en partant de leur intelligence artificielle “Watson”, capable de battre les humains dans un jeu télévisée du type Questions pour un champion, IBM annonce rapidement que celui-ci allait révolutionner la médecine. En intégrant des quantités astronomiques d’études et d’analyses, la machine serait capable de formuler des diagnostics médicaux beaucoup plus fiables que ceux réalisés par un médecin ordinaire.

Dommage, en 2018 il est révélé (StatNews) que Watson prescrit souvent des traitements cancéreux non adaptés, voir même dangereux pour les patients. Les ingénieurs d’IBM n’ont pas abandonné pour autant et continuent le perfectionnement de leur IA.

> Microsoft et la limite de son chatbot

En 2016, le chatbot Tay créé par Microsoft voit le jour. Il avait pour but de discuter avec les internautes de sujets plus ou moins banals afin de montrer ce que pouvait être un robot de discussion intelligent. Au départ, le résultat était un succès mais de courte durée.

En effet, après avoir déclaré sur Twitter que le “Féminisme était un cancer” ou encore que ““Bush était responsable du 11 septembre et que que Hitler aurait fait un meilleur travail que les singes ques nous avons actuellement”, ou bien encore que “Donald Trump est le seul espoir que nous ayons”, Microsoft a dû déconnecter le robot, après 16 heures d’activité.

D’où vient la faille ? De sa conception directement car les données d’apprentissage de l’algorithme venaient en partie des conversations que Tay avait avec les internautes. Une partie de ces derniers l’ayant compris, ils l’ont assailli de remarques et propos racistes et sexistes poussant Tay à adopter le même comportement.

> Un taggage Google qui nécessite d’être maîtrisé

Que ce soit en machine learning ou deep learning, la reconnaissance d’image est le domaine le plus utilisé pour éprouver l’apprentissage automatique d’une IA. Elle permet alors de regrouper une série de photos ayant des caractéristiques communes, voir identiques.

En 2015, Google a fait le buzz en regroupant dans un même album les photos d’un couple afro-américain et celles d’un gorille. Après s’être confondu en excuses, le géant a promis de trouver une solution. Aucune n’a malheureusement pu être trouvée. De la même manière, il est très compliqué pour cette IA de faire la différence entre un chien et un loup, surtout hors du contexte qui leur est propre (ville contre forêt). On voit donc la limite et l’imperfection de cette technologie, là où pour un humain, il est impossible de se tromper.  

> L’I.A au sein des tribunaux

Aux Etats Unis, le logiciel Compas est devenu un outil de référence pour certains juges. Il a fait beaucoup parlé de lui car il peut avoir une conséquence directe sur la peine de prison formulée par le juge. En s’appuyant sur des données socioculturelles comme l’origine géographique, la personnalité, la situation professionnelle, l’usage de drogues et bien d’autres critères, il peut définir le potentiel de récidive d’un délinquant ou criminel.

Une enquête de ProPublica a identifiée une tendance du logiciel à formuler des risques plus élevés pour les personnes noires. Le logiciel a été « nourri » avec les données socioculturelles disponibles et a simplement répliqué dans ses prédictions les tendances du passé. Ce procédé est injuste, discriminatoire et manque totalement de transparence.

Plus récemment, l’Estonie annonce son souhait de mettre en place à l’horizon 2021 un “robot-juge” capable de traiter des affaires pouvant aller jusqu’à 7000 € d’amende. L’objectif étant d’alléger les tribunaux arrivés à saturation en se chargeant des affaires dites “mineures”. Un sujet à suivre de près venant de cette société 2.0. Le pays a déjà éprouvé ses capacités en remplaçant totalement le Pôle Emploi local, par une I.A, constatant une nette amélioration de ses résultats (pourcentage de personnes ayant conservé leur emploi).

franck4 Intelligence artificielle ou art difficile

Des algorithmes corruptibles

Même si la tâche peut s’avérer longue et fastidieuse, on peut aujourd’hui déclarer depuis 2014 que l’on peut tromper une I.A de manière systématique. En effet, en ajoutant quelques pixels à une image on s’est rendu compte que l’on pouvait faire confondre un chien et une autruche.

En 2016, des chercheurs on réussit à démontrer que l’on peut trouver une perturbation presque imperceptible capable de fausser toutes les prédictions avec une haute probabilité, et ce pour chaque réseau neuronal profond..

L’année suivante, en appliquant ces mêmes théories au secteur des voitures autonomes, on fait la démonstration qu’en ajoutant des stickers d’une certaine manière sur un panneau de signalisation “Stop”,  on pouvait le faire confondre avec un panneau de limitation de vitesse. Un constat qui fait réfléchir aux siestes qu’on prévoyait de faire dans notre nouvelle Tesla.

A cela près que ces “hackages” ont été testés sur des réseaux de neurones (algorithmes complexes) dont on maîtrisait le fonctionnement. Ce qui n’est normalement pas le cas de ceux commercialisés. Normalement …

Gare aux algorithmes

Comme dans la chanson de Brassens, où le juge est victime d’un gorille, la justice est un peu perplexe face aux dilemmes dont ont accouché ces technologies qui commencent à nous échapper. Et si, en allemand, IA veut dire oui, certains ont bien choisi de dire non, dans une certaine mesure. Un collectif de 700 personnalités, dont Stephen Hawkins, Bill Gates et Steve Jobs (donc pas les plus réfractaires aux nouvelles technologies), a signé une pétition pour encourager à réfléchir sur l’éthique dans le domaine de l’I.A.

Si on s’intéresse aux risques, les raisons sont multiples et certaines font froid dans le dos.

En effet en cas de litige ou accident impliquant une I.A, il est encore difficile de trouver un responsable. On peut prendre l’exemple de ce collectif artistique suisse dont le projet consistait à mettre au point le logiciel “Random darknet shopper” afin de le laisser commander des articles sur le Darknet, avec un budget d’environ 100$ par semaine. L’objectif ? Réaliser une exposition avec l’intégralité des produits commandés. Petit problème, l’I.A a commandé des vêtements, des paquets de cigarettes mais aussi … de l’ecstasy !

On peut alors se poser la question de qui est le responsable ? Le robot ? Son fabricant ? Le propriétaire ? Le logiciel ? Ou encore celui qui l’a programmé ? Aujourd’hui on ne sait pas statuer.

C’est d’ailleurs pour répondre à cette problématique que l’Estonie envisage de créer un statut légal pour l’IA et les robots, situé entre la personnalité légale séparée d’une entreprise et la propriété personnelle qu’est un objet. C’est un premier pas vers la reconnaissance de responsabilité criminelle ou d’un délit d’une machine.

Autre point : ces technologies et applications auxquelles nous sommes tous accrocs ne nous manipulent-elles pas ? Qui peut dire aujourd’hui que Waze nous conduit par le chemin le plus rapide, et pas par celui qui passe devant le McDonald en contrat avec lui ? On sait déjà que Google a été condamné pour favoriser l’offre des ses filiales dans ses classements, et déclasser les concurrents. Pourquoi pas les autres ?

franck2 Intelligence artificielle ou art difficile

On peut également se demander quelle sera la place de l’empathie ou bien de la présomption d’innocence dans un système où l’on est jugé par une machine dont on ne connaît pas les motivations et le système de pensée, et qui est incapable de justifier sa prise de décision. On ne maîtrise pas ces algorithmes. On constate qu’ils fonctionnent mais on ne sait pas comment. On peut diagnostiquer un cancer mieux qu’un professionnel, mais on ne peut expliquer pourquoi. Demain, on rejettera votre CV ou votre demande de logement sans raison objectivée.

Comme pour le système Compas aux Etats Unis ou le chatbot de Microsoft, on y retrouve les mêmes biais dont ils se sont inspirés en copiant l’humain.

Enfin comme vu précédemment, le risque de piratage est fort et sera le prochain terrain de jeu des hackers. Si on en reste à la reconnaissance d’image, les impacts seront faibles, mais sur un train, un avion, un juge ?

Et nous ?

On peut alors légitimement s’imaginer que les pires prédictions de la Science Fiction se réalisent. Est-ce qu’ils vont finir par nous remplacer ?

Aujourd’hui, le challenge est de taille. Avec l’évolution de l’I.A, certains anticipent qu’en 2040, 25% des emplois actuels seront remplacés, mais qu’elle va aussi en générer de nouveaux. En même temps, si tous les efforts sont voués à réduire l’effort humain, peut-on vraiment s’en plaindre ?

Le phénomène est déjà en marche. Nous évoquions récemment dans ce blog des égéries virtuelles (souvent féminines), générées de toute pièce par imagerie informatique, et utilisées par les marques pour leur rôle d’influenceuses. Même si pour l’instant elle ne sont pas dotés des capacités de réflexion, ni de libre arbitre ou encore d’émotions, on peut se poser la question de leur évolution une fois celles-ci couplées à une intelligence artificielle. Elles pourraient, une fois configurées, poster et interagir de manière autonome avec leur communauté sans intervention de la marque.

L’humain face à tout ca doit se spécialiser dans quoi ? Quelle capacité propre à l’homme ne pourra jamais être égalée ? La créativité ? Même ici les grandes maisons de disques tentent l’aventure avec des programmes intelligents de compositions soit à la façon de grands compositeurs, soit en cultivant leur propre style. Emily Howell, programme du professeur de musique David Cope, en est à son 2ème album sorti chez un label spécialiste de musique classique.

En peinture, on vient de créer un Rembrandt en 3D à partir de toutes les oeuvres de l’artiste. Celle-ci a été identifiée par des experts comme authentique, Certains iraient même jusqu’à dire qu’elle dégage une certaine poésie, en tout cas, celle de l’artiste.

Alors peut être l’empathie ou la conscience ? Selon Asimov, scientifique et romancier de science fiction, la première loi de la robotique est “Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger”. Les émotions c’est de la chimie, la notion du danger, du bien, du mal, des endorphines, ce qu’on pourrait transmettre à l’intelligence artificielle.

D’ailleurs quand on code une voiture autonome en lui disant par exemple que les bus et les camions ont plus tendance à forcer le passage qu’une voiture, on introduit un critère psychologique dans le choix d’une machine. De même, dans une situation critique d’accident pouvant causer la mort du conducteur ou celle de personnes en dehors du véhicule, quel sera le choix de celle-ci ? Quel serait le vôtre ? Une scène du film Transcendance avec Johnny Depp fait écho à cette réflexion, quand l’un des acteurs demande à l’ordinateur “Prouve moi que tu as une conscience !”, celui lui répond “C’est une question difficile, peux tu prouver que tu en as une ?”

Il est très compliqué de démontrer qu’une intelligence artificielle possède son propre libre arbitre. Toutes les sciences récentes montrent un degré de programmation ou d’inné plus important que ce qu’on pensait autrefois.

 

Alors quel est l’avenir pour un humain ? Réfléchir au futur que l’on souhaite et remettre l’éthique au coeur du débat afin de ne pas laisser l’histoire être écrite par les algorithmes qui n’ont pas de bonnes ou mauvaises intentions mais peuvent causer des dommages sans le vouloir. On se souvient du robot Sofia qui, interviewée par un journaliste “Do you want to destroy humans, please say no” avait répondu “Yes I want to destroy humans”. Blague ou pas, une simple maladresse de conception ou programmation pourrait avoir des conséquences variables dépendamment de son rôle.

L’humanité pourrait-elle être détruite sur un malentendu ?

 

Sources :

Journal du Geek, Le big Data, 01Net.com, Siècle digital, Figaro Le monde, Usine Digitale, Futura Sciences, Ezquimoz, Penseeartificielle.fr, Arte

 

Laisser un commentaire.