La recherche en IA a commencé dans les années 1950. Après de faux espoirs répétés, l’IA est aujourd’hui à son point d’inflexion. L’efficacité de l’IA a été transformé ces dernières années en raison du développement de nouveaux algorithmes. Il a fallut rassembler un certains nombres d’ingrédient pour que l’IA soit efficace. En effet, nous profitons d’une plus grande disponibilité des données afin de la « nourrir » (big data). Couplé d’un meilleur matériel pour la créer et les services basés sur le cloud pour catalyser leur adoption par les développeurs. Voyons ensemble ces cinq points :
1. Algorithmes améliorés
Le Deep Learning n’est pas nouveau. Spécifiquement, le premier réseau multi-couche neuronal efficace a été publié en 1965. L’évolution des algorithmes en Deep Learning ont transformé tous les résultats au cours de la dernière décennie !
Notre capacité à reconnaître des objets dans les images a été transformé (figure 9). Via le développement des réseaux de neurones convolutifs – convolutional neural networks (CNN). Un design inspiré par le cortex visuel des animaux. En effet, chaque couche dans le réseau neuronal agit comme un filtre pour la présence d’un motif spécifique. En 2015, le système de vision par ordinateur basé sur le CNN, Microsoft a identifié des objets dans des images plus efficacement (95,1% précision) que les humains (94,9% de précision). «À notre connaissance, » ils ont écrit, «notre résultat est le premier à dépasser les performances au niveau humain. » Applications plus larges des CNNs comprennent la reconnaissance vidéo et de la parole.
Les progrès dans la parole et la reconnaissance d’écriture, quant à lui, s’améliore rapidement (Figure 10) après la création de réseaux de neurones récurrents – recurrent neural networks (RNN). Les RNNs ont des liens de rétroaction qui permettent aux données de circuler dans une boucle. A la différence des réseaux neuronaux classiques qui « avalent les informations » seulement. Un nouveau type puissant de RNN est la «longue mémoire à court terme» (modèle LSTM).
C’est pourquoi, avec des connexions et des cellules de mémoire supplémentaires, les RNNs « se souviennent » des données. Celles qu’ils ont vu des milliers d’étapes auparavant et vont les utiliser pour informer leurs interprétations de ce qui suit. En somme, précieux pour la reconnaissance vocale où l’interprétation du mot suivant sera informé par les mots qui l’ont précédé. Depuis 2012, Google a utilisé les modèles LSTMs pour alimenter le système de reconnaissance vocale dans Android. En novembre 2016, les ingénieurs de Microsoft ont indiqué que leur système avait atteint un taux d’erreur de parole de 5,9%. Un chiffre à peu près égal à celui des capacités humaines pour la première fois dans l’histoire.
2. Matériel spécialisé
Les GPUs sont des circuits électroniques spécialisés qui réduisent le temps requis pour former les réseaux de neurones utilisés pour le Deep Learning.
Les GPU modernes ont été développés à l’origine à la fin des années 1990 pour accélérer les jeux 3D et des applications de création 3D. En effet, faire un zoom dans un logiciel 3D utilise un processus mathématique appelé « calcul matriciel répété ». Les microprocesseurs avec des architectures en série, ce sont les processeurs qui alimentent les ordinateurs d’aujourd’hui. Ils sont peu adaptés à la tâche. C’est pourquoi, les GPU ont été développé avec des architectures massivement parallèles (la Nvidia M40 a 3072 cœurs) pour effectuer efficacement des calculs matriciels .
Une formation d’un réseau neuronal fait usage intensif des calculs matriciels. Par conséquent, les GPUs qui sont utiles pour les jeux 3D. Ces GPUs se retrouvent très bien adaptés pour accélérer le Deep Learning. Néanmoins leur effet a été considérable; un GPU simple peut offrir un gain de temps cinq fois plus rapide pour l’entraînement d’un réseau de neurones. Tandis que les gains de dix fois ou beaucoup plus sont possibles sur des problèmes plus importants ! Lorsqu’il est combiné avec des kits de développement en DL, les améliorations de la vitesse d’entrainement peuvent être encore plus grande (Figure 11).
3. De nombreuses données
Tout d’abord, les réseaux de neurones utilisés pour le Deep Learning nécessitent généralement de grands ensembles de données. De quelques milliers d’exemples à plusieurs millions. Heureusement, la création de données et la disponibilité a augmenté de façon exponentielle. Aujourd’hui, alors que nous entrons dans la «troisième vague» des données, l’humanité produit 2,2 exaoctets (2300 millions de gigaoctets) de données chaque jour ; 90% de toutes les données du monde a été créé au cours des 24 derniers mois.
D’une part, la «première vague» de la création de données, qui a commencé dans les années 1980. Les ordinateurs de bureau connectés à Internet ont généré des documents et de données transactionnelles. D’autre part, une «deuxième vague» des données a suivi. En effet, l’explosion des médias non structurées (e-mails, photos, musique et vidéos), des données Web et méta-données résultant des smartphones. Aujourd’hui, nous entrons dans le «troisième vague» des données. Dans laquel des capteurs de machines déployés dans l’industrie et dans la maison créent un suivi supplémentaires et des travaux analytiques.
Dernièrement, nous, l’espèce humaine, nous avons transféré 100 Go de données par jour en 1992, d’ici 2020, nous transférerons 61 000 Go (ou 61 To) par seconde de data (Figure 12).
Au-delà de l’augmentation de la disponibilité des données générales, les ressources de données spécialisées ont catalysé des progrès dans le DL. Par exemple, le site ImageNet est une base de données librement disponible de plus de 10 millions d’images renseignées à la main. Sa présence a soutenu le développement rapide de la classification d’objet par les algorithmes en Deep Learning.
4. Les services Cloud
L’utilisation des ML par les développeurs est catalysée par la fourniture d’une machine dont l’infrastructure est dans le cloud.
Google, Amazon, Microsoft et IBM offrent tous une infrastructure basée sur le cloud. Pour conséquence de réduire le coût et la difficulté de développer les capacités des ML.
En outre, ils offrent une gamme en plein essor des services de Machine Learning en Cloud (de reconnaissance d’image à la traduction de la langue) que les développeurs peuvent utiliser directement dans leurs propres applications. Google Machine Learning propose des services faciles d’accès pour :
- vision (identification des objets, la détection du contenu explicite, la détection de visage à l’analyse des sentiments);
- la parole (reconnaissance de la parole et lecture des textes);
- analyse de texte (reconnaissance de l’entité, l’analyse des sentiments, la détection de la langue et de la traduction); et
- la recherche d’emploi (définition des compétences et correspondance à l’ancienneté).
Microsoft Cognitive Services comprend plus de 21 services dans les domaines de la vision, de la parole, la langue, la connaissance et la recherche.
5. Les intérêts et l’esprit d’entreprise
Effectivement, de la part du public l’intérêt pour l’IA a augmenté six fois au cours des cinq dernières années. Nous notons une encore plus grande augmentation du nombre de placements dans des sociétés IA par les sociétés d’investissement (Figure 14). En effet, nous sommes entrés dans un cercle vertueux. Dans lequel les progrès dans le Deep Learning est d’attirer l’investissement, l’entrepreneuriat et la sensibilisation. Ce dernier, à son tour, catalysent de nouveaux progrès (figure 13).
Que se passe-t-il ensuite ?
Enfin, les avantages de la ML et du DL seront nombreux et importants. Beaucoup seront visibles, des véhicules autonomes à de nouvelles méthodes d’interaction homme-machine. Beaucoup seront moins apparentes, mais permettront de créer des processus efficaces aux services des consommateurs.
C’est ainsi pour tout changement de paradigme, parfois des attentes gonflés dépassera le potentiel à court terme. Nous nous attendons à une période de désillusion au sujet de l’IA à un moment donné. Véritablement, elle sera suivie par une reconnaissance plus longue et durable de sa valeur. Ainsi, comme la ML est utilisée pour améliorer et réinventer les systèmes existants.
Cet article fait suite également à « Nous sommes en train de vivre une quatrième révolution industrielle«