Marketing & Intelligence Artificielle

Comprendre les limites de l’apprentissage en profondeur (Deep Learning)

Est-il possible de tromper une IA ?

L’intelligence artificielle a atteint un haut niveau médiatique. Nous pouvons lire dans la presse que les entreprises ont remplacé les travailleurs par Watson de IBM et que les algorithmes battent les médecins dans leurs diagnostic. Chaque jour de nouvelles start-up sur l’IA sont créées tous les jours, prétendant résoudre tous vos problèmes personnels et d’affaires.

Les objets ordinaires comme des frigos et des routeurs Wi-Fi s’annoncent soudainement « powered by AI ». Des bureaux intelligents qui se souviennent de vos paramètres de hauteur, peuvent aussi commander votre déjeuner.

Tout ce brouhaha est crée par des journalistes qui ne prennent pas le temps de discuter avec des ingénieurs ou des Digital Evangelist afin de s’assurer quelles entreprises utilisent vraiment de l’Intelligence Artificielle. Tant de fausses idées sont véhiculées. Lors de conversations passionnantes, je me retrouve à expliquer ce qui est possible et la limite actuelle de ce qui ne l’est pas (encore) pour l’Intelligence Artificielle.

Le Deep Learning est plus une prouesse qu’une promesse

Pour être claire d’entrée de jeu, les réseaux de neurones ont été crée dans les années 60. C’est donc une technologie vieille de plus de 50 ans ! Le Deep Learning est issu des réseaux de neurones artificiels. Les exploits ne sont visibles que depuis quelques années car nous avons aujourd’hui deux choses essentielles : les data et la puissance de calcul pour les traiter.

Les résultats sont indéniablement impressionnants. Les ordinateurs peuvent désormais reconnaître des objets dans les images et la vidéo et retranscrire au texte la parole mieux que les humains. Google a remplacé l’architecture de Google Translate par des réseaux de neurones, et maintenant la traduction automatique est aussi proche de la performance humaine.

L’apprentissage profond a aussi des problèmes profonds

Le problème le plus important aujourd’hui pour l’IA est l’abstraction et le raisonnement. Les algorithmes de perception et de Reinforcement Learning nécessite une quantité monstrueuse de données. Ces algorithmes ont pour limite de ne pas planifier leur action et ne font qu’une simple reconnaissance de modèle.

En revanche, les humains apprennent avec très peu d’exemples, peuvent faire de la planification à très long terme, et sont capables de former des modèles abstraits d’une situation et [manipulation] de ces modèles pour atteindre une généralisation extrême.

Pour simplifier : lorsqu’un enfant commence à parler, on lui dit “voiture” on pointe du doigt (connaissance du modèle), l’enfant répète “voiture”, le parent lui répond “oui !” (acquisition du modèle). Maintenant une voiture peut être dangereuse, surtout lorsque nous traversons une route. L’enfant comprend “toutes les voitures sont dangereuses en roulant” (processus de généralisation). Lorsque l’enfant imagine traverser la route, il sait qu’il devra faire attention (processus de planification).

Comment ce cas est traité par le DP et le RL

Tout cela, était pour l’apprentissage humain. Pour un réseau de neurone c’est tout autre. Reprenons le même cas que représente le danger d’une voiture.

Pour l’apprentissage supervisé, vous aurez besoin d’énormes ensembles de données de situations différentes. D’une part il faudra reconnaitre une voiture dans n’importe quel angle, luminosité, vitesse différents. Et pour chaque cas des actions à prendre clairement identifiées. Comme « en arrêt » ou « en mouvement ». Ensuite, vous aurez besoin de former un réseau de neurones pour apprendre la correspondance entre la situation et l’action appropriée.

Pour l’apprentissage par renforcement, vous donnez à l’algorithme un but et le laisser déterminer indépendamment les actions idéales à prendre. Comme nous l’avions vu dans mon billet sur le Reinforcement Learning, l’ordinateur apprend en faisant des erreurs. Il va donc “mourir” des milliers de fois avant d’apprendre à éviter les voitures dans différentes situations. Et entre nous, nous n’avons qu’une vie et heureusement que notre cerveau n’agit pas de cette manière !

En effet, nous avons cette formidable capacité de “raisonnement”, celui qui nous permet d’imaginer. C’est-à-dire de créer une réalité “imaginaire” et voir le pire comme se faire écraser par une voiture.

“You cannot achieve general intelligence simply by scaling up today’s deep learning techniques,” warns Chollet*.

“Vous ne pouvez pas obtenir des renseignements généraux simplement en multipliant les techniques d’apprentissage en profondeur d’aujourd’hui “, prévient M. Chollet

*François Chollet, est un ingénieur en IA chez Google. Aussi créateur de la bibliothèque de Deep Learning Keras.

Une limite, limite beaucoup l’apprentissage

Alors que les réseaux de neurones obtiennent des résultats statistiquement impressionnants à travers des échantillons de grande taille. Ils sont « individuellement peu fiables » et souvent font des erreurs que les humains ne feraient jamais, comme classer une brosse à dents comme une batte de base-ball.

brosse-à-dent-batte-baseball
brosse-à-dent-batte-baseball

La limite que l’ensemble des données soit erronée a joué des tours à Microsoft et Twitter. J’avais écris un article sur Siècle Digital sur ce sujet.

Peut-on surmonter la limite du Deep Learning ?

Je t’invite à lire la suite sur mon LinkedIn.