Intelligence artificielle : entre réalité et fiction

Article écrit par (23 articles)
Modifié le
11 231 lectures

Grâce au machine learning, robots et ordinateurs intelligents seront bientôt plus productifs que l'homme. Selon certains, nous n'aurons bientôt plus qu'à passer nos journées à la plage ; pour d'autres, au contraire, il faut craindre le pire et nous mettre à l'abri.

Comment contrôler l'Intelligence Artificielle (IA) et d'ailleurs, faudra-t-il vraiment en passer par là ? Pour le savoir, il convient d'examiner à quel stade de développement en est véritablement cette technologie. Et à y regarder de plus près, l'Intelligence Artificielle n'est pas aussi intelligente qu'il n'y parait, du moins, pas encore. Mieux vaut prendre du recul avant d'aborder ses perspectives prometteuses.

La course contre la montre entre les géants Google et IBM

On ne compte plus les articles rapportant les investissements massifs réalisés par les géants des technologies dans la robotique. L'intelligence artificielle est déjà utilisée pour prévoir la météo ou pour effectuer des tâches répétitives, comme par exemple dans les services client ou au sein des exploitations agricoles.

Google et IBM se livrent une bataille sans merci dans les domaines de la R&D et du marketing. Big Blue a notamment décidé d'investir une grande part de son budget dans Watson, sa plate-forme d'Intelligence Artificielle. L'année dernière déjà, l'entreprise annonçait avoir réussi à imiter les processus neuronaux à l'aide d'ordinateurs, prouvant ainsi que les ordinateurs seront bientôt capables de reproduire nos fonctions cérébrales. Ils pourraient même s'avérer plus performants que l'homme dans ce domaine, qui sait ?

Toujours en 2016, DeepMind, la plate-forme d'Intelligence Artificielle de Google, a décroché le titre de championne du monde de jeu de Go, considéré comme l'un des plus difficiles au monde.

Un autre fait marquant et méconnu du grand public concerne l'outil de traduction automatique Google Traduction. Il a de lui-même entièrement généré son propre langage artificiel, dans le seul but de pouvoir traiter un volume massif de requêtes. Personne n'a programmé cela ; c'est l'outil qui en a eu l'initiative.

L'Intelligence Artificielle, moins intelligente qu'il n'y parait

Bien que l'IA soit très pratique et habilement conçue, il suffit d'observer comment des robots ont joué au football entre eux lors de la RoboCup 2015 pour s'apercevoir de ses limites.

Même la victoire de Google DeepMind sur l'humain lors du jeu de Go doit être remise en perspective. Dans ce cas particulier, ce sont des calculs de probabilité dans un environnement contrôlé qui ont permis au robot de prendre le dessus. Interagir dans un environnement imprévisible et prendre en compte une multitude de réactions inattendues n'aurait sans doute pas abouti au même résultat.

Ce qui nous rend humains et intelligents ne se résume heureusement pas à des probabilités et des compétences analytiques. Lorsqu'il est immergé dans un environnement non maîtrisé, où se produisent des événements imprévus, l'être humain s'avère capable d'improviser en s'appuyant sur son expérience. Essayez d'en faire autant avec un ordinateur !

Une autre différence importante est que, contrairement aux êtres humains, l'Intelligence Artificielle, n'est pas encore réellement capable d'apprendre une notion en tant que telle. Ce que les ordinateurs savent faire, c'est distinguer des tendances à partir de très gros volumes de données et d'en tirer des conclusions.

 

Un cap majeur reste à franchir

Le principal obstacle au développement d'ordinateurs véritablement intelligents se définit par ce qu'on appelle en anglais le « corner case ». La société KUKA, fabricant allemand de robots industriels, a mis en évidence ce phénomène en faisant jouer l'un de ses robots au ping-pong contre le champion Timo Boll. Le robot commence par remporter la partie jusqu'à ce que Timo Boll découvre une faille dans le système et l'exploite pour gagner le match.

Dans le cas d'une partie de ping-pong ou de prévisions météorologiques, ces failles sont identifiées et assumées car elles ne portent pas à conséquence. On part en effet du principe que, si un ordinateur est fiable à 80 % du temps, c'est satisfaisant pour l'usage qu'on en fait. En revanche, il en va tout autrement si l'objectif est de piloter un véhicule, car même faible, la marge d'erreur peut alors mettre en jeu des vies humaines. Dans une vidéo récente, un véhicule Tesla anticipe un accident sur l'autoroute. C'est très intelligent, mais tant qu'un taux potentiel d'erreur subsiste, et qu'on reste sur des probabilités, il est préférable de laisser aux humains la responsabilité de conduire les voitures.

Pour être meilleur en conduite que les humains, le logiciel d'un véhicule autonome doit être en mesure d'appréhender son environnement dans le détail. Comme par exemple, faire la différence entre un journal qui s'envole sur la voie publique et un piéton qui traverse subitement la route.

Selon Hod Lipson, professeur d'ingénierie à l'Université Columbia de New York, l'Intelligence Artificielle ne saurait tarder à y parvenir. Certes, les fameux « corner cases » disparaissent peu à peu et ce, grâce aux énormes volumes de données disponibles dans le monde entier qui alimentent le machine learning. Cependant, lors d'une course de véhicules autonomes, l'un d'eux a facilement esquivé un chien, alors qu'un second n'a pu éviter l'accident. Il reste encore du chemin à parcourir pour que ce mode de transport soit tout à fait fiable.

Là où les robots dépassent déjà l'homme

L'Intelligence Artificielle se révèle certes plutôt intelligente mais dans un environnement contrôlé, et ses compétences dépendent encore beaucoup de probabilités. L'enjeu est bien différent entre jouer une partie d'échecs ou conduire une voiture alors que des enfants traversent la route. Comment rendre les ordinateurs suffisamment intelligents pour qu'ils puissent anticiper, improviser et prendre des décisions fiables ? Si les développeurs ont déjà clairement identifié les failles persistantes, il y a fort à parier que l'Intelligence Artificielle s'améliore très rapidement.

Un coup d'oeil au Challenge ImageNet (ILSVRC, ImageNet Large Scale Visual Recognition Challenge), qui récompense le meilleur algorithme de reconnaissance d'image à grande échelle. Cela permet d'illustrer le changement qui s'opère déjà. En 2016, ce concours international a vu la marge d'erreur humaine de 5,1 %, qui était l'objectif à atteindre pour les participants, améliorée pour la première fois par des ordinateurs. Autrement dit, en utilisant un algorithme similaire, la marge d'erreur d'un véhicule autonome sera plus faible que celle d'un véhicule conduit par un être humain.

En résumé, nous devons nuancer nos propos sur l'Intelligence Artificielle. Elle n'est pas aussi avancée que certains experts le suggèrent. Car, s'il est fort probable qu'un cap historique est en passe d'être franchi, il ne s'agit pas de créer de fausses attentes et donc de fortes déceptions, tant auprès du grand public que pour les entreprises. Ces déceptions risquent en effet de déboucher sur davantage d'interrogations et d'inquiétudes, pour des applications qui pourtant pourraient apporter de réels progrès et rendre de vrais services aux humains.

Laure Boutron
Directrice Marketing, Exact France