Comprendre les limites de l’intelligence artificielle (Deep Learning)

L’intelligence artificielle a atteint un haut niveau médiatique. Nous pouvons lire dans la presse que les entreprises ont remplacé les travailleurs par Watson de IBM et que les algorithmes battent les médecins dans leurs diagnostic. Chaque jour de nouvelles start-up sur l’IA sont créées tous les jours, prétendant résoudre tous vos problèmes personnels et de business.

Les objets ordinaires comme des frigos et des routeurs Wi-Fi s’annoncent soudainement « powered by AI ». Des bureaux intelligents qui se souviennent de votre taille et se lève à votre hauteur, peuvent aussi commander votre déjeuner.

Tout ce brouhaha est crée par des journalistes qui ne prennent pas le temps de discuter avec des ingénieurs ou des Digital Evangelist afin de s’assurer quelles entreprises utilisent vraiment de l’Intelligence Artificielle. Tant de fausses idées sont véhiculées.

Lors de conversations passionnantes, je me retrouve à expliquer ce qui est possible et la limite actuelle de ce qui ne l’est pas (encore) pour l’Intelligence Artificielle.

L’intelligence artificielle est plus une prouesse qu’une promesse

Pour être claire d’entrée de jeu, les réseaux de neurones ont été crée dans les années 60. C’est donc une technologie vieille de plus de 50 ans ! Le Deep Learning est issu des réseaux de neurones artificiels. En effet je l’explique dans cet article. Les exploits ne sont visibles que depuis quelques années car nous avons aujourd’hui deux choses essentielles : les data et la puissance de calcul pour les traiter.

En effet, les résultats sont indéniablement impressionnants. Les ordinateurs peuvent désormais reconnaître des objets dans les images et la vidéo et retranscrire au texte la parole mieux que les humains. Ainsi, Google a remplacé l’architecture de Google Translate par des réseaux de neurones, et maintenant la traduction automatique est aussi proche de la performance humaine.

L’apprentissage profond a aussi des problèmes profonds

Aujourd’hui, le problème le plus important pour l’intelligence artificielle est l’abstraction et le raisonnement. En effet, les algorithmes de perception et de Reinforcement Learning nécessite une quantité monstrueuse de données. Dès lors, ces algorithmes ont pour limite de ne pas planifier leur action et ne font qu’une simple reconnaissance de modèle.

En revanche, les humains apprennent avec très peu d’exemples, nous pouvons faire de la planification à très long terme, et nous sommes capables de former des modèles abstraits d’une situation et manipuler ces modèles pour atteindre une généralisation extrême.

Pour simplifier : lorsqu’un enfant commence à parler, on lui dit « voiture » on pointe du doigt (connaissance du modèle), l’enfant répète « voiture », le parent lui répond « oui ! » (acquisition du modèle).

Maintenant une voiture peut être dangereuse, surtout lorsque nous traversons une route. L’enfant comprend « toutes les voitures sont dangereuses en roulant » (processus de généralisation). Lorsque l’enfant imagine traverser la route, il sait qu’il devra faire attention (processus de planification).

Comment ce cas est traité par le Deep Learning et le Reinforcement Learning ?

Nous avons vu comment fonctionne l’esprit humain. Pour un réseau de neurone c’est tout autre. Reprenons le même cas que représente le danger d’une voiture.

Deep Learning

Pour l’apprentissage supervisé, vous aurez besoin d’énormes ensembles de données de situations différentes. D’une part, il faudra reconnaître une voiture dans n’importe quel angle, luminosité, vitesses différentes. Et pour chaque cas des actions à prendre clairement identifiées. Comme « en arrêt » ou « en mouvement ». Car le danger n’est évidemment pas le même que la voiture soit à l’arrêt ou en mouvement !

Ensuite, vous aurez besoin de former un réseau de neurones pour apprendre la correspondance entre la situation et l’action appropriée.

Reinforcement Learning

Pour l’apprentissage par renforcement, vous donnez à l’algorithme un but et vous le laisser déterminer indépendamment les actions idéales à prendre. Comme nous l’avions vu dans mon billet sur le Reinforcement Learning, l’ordinateur apprend en faisant des erreurs. Il va donc « mourir » des milliers de fois avant d’apprendre à éviter les voitures dans différentes situations. Et entre nous, nous n’avons qu’une vie et heureusement que notre cerveau n’agit pas de cette manière !

En effet, nous avons cette formidable capacité de « raisonnement », celui qui nous permet d’imaginer. C’est-à-dire de créer une réalité « imaginaire » et voir le pire comme, se faire écraser par une voiture.

“You cannot achieve general intelligence simply by scaling up today’s deep learning techniques,” warns Chollet*.

« Vous ne pouvez pas obtenir des renseignements généraux simplement en multipliant les techniques d’apprentissage en profondeur d’aujourd’hui « , prévient M. Chollet

*François Chollet, est un ingénieur en IA chez Google. Aussi créateur de la bibliothèque de Deep Learning Keras.

Une limite, limite beaucoup l’apprentissage

Alors que les réseaux de neurones obtiennent des résultats statistiquement impressionnants à travers des échantillons de grande taille. Ils sont « individuellement peu fiables » et souvent font des erreurs que les humains ne feraient jamais, comme classer une brosse à dents comme une batte de base-ball.

intelligence-artificielle-faux-brosse-à-dent-batte-baseball
brosse-à-dent-batte-baseball

La limite que l’ensemble des données soit erronée a joué des tours à Microsoft et Twitter. J’avais écris un article sur Siècle Digital sur ce sujet.

Peut-on surmonter la limite du Deep Learning ?

Je t’invite à lire la suite sur mon LinkedIn.

Partage ton amour pour cet article
Optimized with PageSpeed Ninja