Étiquette : deep learning

L'avènement de la conscience artificielle n'est pas liée de la singularité

L'avènement de la conscience artificielle n'est pas liée de la singularité

Pour fabriquer une IA consciente il faut trois éléments. Une machine qui réagit à son environnement, comme une lampe à détection de mouvement. Ensuite qu'elle soit capable de prendre des décisions - quand tu fais une recherche sur Google, l'IA prend la décision de te présenter ces résultats. Et enfin qu'elle soit capable de se voir elle-même en train d'agir et se poser des questions sur ses agissements. Ce sont des aspects bien commun de nos jours et contrairement à ce que l’on pourrait croire, il est plutôt facile d’en créer une. Mais alors, pourquoi nous n’en voyons pas ? Je vais te l’expliquer mais avant tout il faut faire un tour dans l’inconscient des humains.

La théorie de l’esprit

Pour comprendre la conscience humaine, il faut plonger profondément dans l'étude de la théorie de l'esprit.
La théorie de l'esprit est la tentative par un cerveau de déterminer le contenu d'un autre cerveau. Par exemple, Amandine se demande ce que pense Bruno du monde dans lequel nous vivons tous. Amandine crée des théories sur l'état actuel de l'esprit de Bruno.

Elle fait cela pour deviner ce que Bruno pourrait faire ensuite. Il est vrai d’un côté, aucun pouvoir ne pourrait être plus grand pour un animal social comme nous, les humains, d’anticiper le comportement des autres. Pendant des milliers et des milliers d'années, nous avons vécu à proximité des uns des autres. À mesure que nos comportements et nos pensées devenaient de plus en plus complexes, il devenait crucial pour chaque membre de la tribu d'avoir une idée de ce que pensaient les autres membres et des actions qu'ils pourraient accomplir. La théorie de l'esprit, c’est de l'espionnage intellectuel ! Et nous sommes plutôt doués, mais avec des limites critiques que nous aborderons plus tard.

Notre cerveau est comme un ordinateur ?

Dès lors qu’un système s’auto-observe et essai de faire de prédiction sur ce qu’il voit (de manière la plus approximative possible) est tout à fait envisageable. Alors pourquoi nous ne le faisons pas ?
On aime penser que notre cerveau est comme un ordinateur. Avec une RAM (mémoire court terme), un disque dur (mémoire long terme), un système de refroidissement et alimentation (vaisseaux sanguins) etc. Mais c’est très loin d’être le cas. Un ordinateur est construit avec toutes les pièces de son époque. Le cerveau pas du tout, certaine zone du cerveau sont beaucoup plus vieille que d’autre. De plus, la mémoire n’est pas unifiée dans une seule partie.

D’autre part, notre cerveau bouge, change, adapte les aires (cela se nomme la plasticité cérébrale). Notre cerveau ressemble plus à une ville comme Rome, toute sinueuse, où l’ancien se mélange avec le moderne. D’ailleurs toutes les zones ne communiquent pas ensemble. Un exemple frappant, si tu as eu le mal de mer. Une partie du cerveau comprend qu’il y a une différence entre les informations de l’oreille interne et de ce que tu voies. Le cerveau se met en alerte “empoisonnement tout le monde sort d’ici”, et tu vomis tout ce qui est possible pour éliminer le poison. Sauf que consciemment, tu sais que tu n'as pas ingurgité de poison…

Un humain n’est pas une machine ?

Nous venons de voir que les humains ont des comportements différents avec des similitudes. D’une part, les humains se regroupent par similitude car l’union fait la force. Dans la nature, vivre en communauté est plus facile que vivre seul. D’ailleurs le test de Ash prouve que nous préférons nous conformer au groupe; même si le groupe à faux, plutôt que d’être seul contre le groupe. Et puis nous avons des comportements constamment contradictoire ! Pourquoi voulons-nous nous habiller et aller danser ? Parce que c'est drôle ! Et nos amis seront là ! Pourquoi voulons-nous continuer à manger quand nous sommes repus ? Parce que c'est délicieux ! Et nous avons fait mille pas supplémentaires aujourd'hui !
Ces questions sur nos propres comportements n’en finissent jamais. Et les réponses sont presque toujours fausses.

L’égo fait la conscience de soi

Nos suppositions sur les motivations des autres sont beaucoup plus précises que les suppositions que nous faisons sur les nôtres. Ce champ de force est notre ego, et il nous donne une opinion exagérée de nous-mêmes. En effet, nous nous accordons un esprit plus élevé pour nos actions et une illusion de dangerosité lorsqu'un autre est meilleur que nous (ensuite vient la fascination et l'envie de s'améliorer). C'est d'ici que vient ce biais "les machines voudront nous tuer".

Les explications incorrectes que nous présentons sur nos propres comportements visent à nous protéger. Elles sont souvent follement créatives, ou mêmes absurdes. Les réponses comme «amusant» et «délicieux» sont des réponses qui font référence à un module de bonheur, sans aucune curiosité quant aux avantages sous-jacents de ce mécanisme de récompense.

La vérité est que nous continuons à manger quand nous sommes repus parce que nous avons évolué dans un monde de pénurie calorique. Nous dansons pour attirer les copains et les copines à faire des copies de nous-mêmes (se reproduire). Parce que les modules de reproduction ont guidé ce comportement et nous sommes la descendance de ces premiers modules (c’est donc une affaire qui marche).

Alors cette machine existe-elle vraiment ?

Avec tous aspects précédents, si nous devions faire une analogie la plus précise d’une machine existante, alors je dirais : la voiture autonome connectée.

En effet, les voitures autonomes ont la capacité de voir et d’entendre pour se mouvoir sans heurter les obstacles. Elles ont donc une perception de leur environnement. Les voitures Tesla éduquent les  conducteurs pour l’utilisation de l’autopilot. La voiture conduit toute seule pendant un certain nombre de mètres et elle indique qu’il faut remettre les mains sur le volant. Plus le conducteur est réactif, plus la distance de conduite autonome sera longue. Il existe bel et bien une sorte de langage entre la machine et l’humain. Elles ont donc une perception langagière comportementaliste.

En voiture Simone

Maintenant, la conscience des autres. Si toutes les voitures étaient connectées, alors elles pourraient également communiquer entres-elles. Cette Nissan bleue va à l'épicerie parce qu'elle a faim. Et cette camionnette rouge va dans une station d'essence parce qu'elle a besoin de carburant. Cette voiture est en état d'ébriété. Celui-là ne peut pas très bien voir à cause de son phare cassé.

La bibliothèque de perceptions commence simplement avec les concepts du premier ordre, mais se transforme ensuite en idées de deuxième et troisième ordre. Est-ce que cette Ford jaune voit la Citroën grise venir vers elle ? Il s’est légèrement décalé, alors oui, c'est le cas. Est-ce que cette camionnette pense que la berline conduit trop agressivement ? Elle laisse plus de distance que les autres voitures, alors oui.
Notre machine va inventer des histoires sur ce qu'elle fait. Elle essaiera de relier ces histoires aux autres et ce sera souvent faux.

Est-ce vraiment souhaitable ? Nous avons créé des robots et des machines dans l’unique but qu’ils soient experts. Qu’ils traitent les informations sans erreur et de manière standardisée. C’est bien le paradoxe, nous fonctionnons totalement à l’opposé !

Rendre humain la machine, le piège anthropomorphique

Ce qui a vraiment fait apparaître Watson comme humain, c'est quand il a fait des gaffes. Comme une réponse finale de Jeopardy dans la catégorie "American Cities" où Watson a répondu une ville canadienne.
Il vaut la peine de noter ici que les robots nous semblent plus humains quand ils échouent.

Notre égo nous fait rire et nous fait peur

Il faut avouer que nous avons un certain plaisir quand nous regardons les vidéos des robots de Boston Dynamics. Notamment quand le robot soulève la boite et le gars tape sur la boite avec son bâton pour la faire tomber. Et maintenant quand nous voyons ce même robot faire un salto arrière (donc meilleur que nous) on se dit qu'il va nous écrabouiller... encore l'égo qui parle (relis le paragraphe, ci-dessus, de l'égo fait la conscience de soi) !

Les constructeurs automobiles sont en train de construire des véhicules qui ne seront jamais conscients. C'est parce qu'ils sont trop biens construits ! Notre projet consiste à rendre une machine ignorante de ses motivations tout en fournissant un dialogue de ces motivations. Une meilleure idée serait de construire une machine qui sait ce que font les autres voitures. Pas de devinettes.

Le savoir est la nouvelle richesse

Cela signifie accès au GPS, aux messages du smartphone, aux e-mails de l'ordinateur personnel. Mais aussi l'accès à tous les autres véhicules et toutes les données des capteurs de la ville. La Nissan dit à la Ford qu'elle va au centre commercial. Chaque voiture sait ce que chaque voiture fait. Il n'y a pas de collision.

Sur l'autoroute, des voitures aux destinations similaires se regroupent, des pare-chocs magnétiques se relient, en file indienne et réduisant de moitié l'utilisation énergétique collective de chaque voiture. Les machines fonctionnent de concert. Elles affichent tous les traits de l'omnipotence véhiculaire. Elles savent tout ce qu'elles ont besoin de savoir, et avec de nouvelles données, elles changent d'avis instantanément. Pas de parti pris. D'ailleurs, si une entreprise dit pouvoir guérir n'importe quelle maladie dans l'unique condition de te pister, même biologiquement, serais-tu prêt à l'accepter ?

L'IA sera au service de l'Homme

L’avenir le plus probable selon moi, c'est l'expansion et l'amélioration de nos propres algorithmes. Nous avons une longue histoire sur la condition humaine et de l’Homme contre l’Homme. Malgré ce que les nouvelles locales essaient de te vendre, le monde devient plus sûr tous les jours pour la grande majorité de l'humanité. Où l'éthique s'améliore. Nos sphères d'empathie sont en expansion. Sans besoin de créer une conscience artificielle.

La singularité

Pour conclure, selon moi nous vivons déjà la singularité. La machine est déjà plus performante que l'Homme dans bien des tâches. Les IA leur manque le "sens commun", c'est-à-dire la capacité à trouver une solution dans n'importe quelle situation. L'Homme a la prodigieuse capacité d'apprendre dans de nouvelle situation. Je ne sais pas faire un mur avec des briques et du ciment pourtant sur le fait accompli, j'essaierais, je vais surement me tromper et être très lent mais je suis "capable" de le faire. Est-ce grâce à ma conscience ? Pourtant je ne suis pas conscient de tout ce que je sais !

Enfin, une conscience a déjà été simulée, je te conseille de lire les recherches du professeur Alain Cardon sur la conception d'une conscience artificielle. N'en démords pas moins qu'il a détruit ses travaux dans l'attente d'un comité d'éthique mondial sur les réglementations et les usages de l'IA.

Nous pouvons également considérer notre propre cerveau comme une machine. Il est impossible de prouver le contraire. Exemple : comme un ordinateur dont on ne voit pas la masse de calcul à chaque instant, notre programme nous empêcherai de voir comment notre cerveau fonctionne !

 

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Un grand défi en neuroscience est de comprendre comment le cerveau encode l'information. Les réseaux de neurones se révèlent être des crackers de code géniaux.

Notre cerveau code ses informations

Chaque fois que vous déplacez votre main ou votre doigt ou votre globe oculaire, le cerveau envoie un signal aux muscles pertinents contenant l'information qui rend ce mouvement possible. Cette information est encodée d'une manière spéciale qui permet la transmission par les neurones et ensuite d'être appliquée correctement par les muscles concernés.
Exactement, comment ce code fonctionne ? C'est un mystère. Depuis longtemps, les neuroscientifiques sont en mesure d'enregistrer ces signaux lorsqu'ils traversent les neurones. Mais les comprendre est beaucoup plus difficile. Il existe différents algorithmes qui peuvent décoder certains de ces signaux, mais leurs performances sont inégales.

Une technique permet de lire le code du cerveau

Aujourd'hui, Joshua Glaser à Northwestern University à Chicago et quelques copains disent qu'ils ont développé une telle technique en utilisant la nouvelle technologie du ML (Machine Learning). Ils disent que leur décodeur dépasse considérablement les approches existantes. En effet, il est tellement efficace que l'équipe affirme qu'elle devrait devenir la méthode standard pour analyser les signaux neuronaux à l'avenir.

Partons dans le cerveau

L'information se déplace le long des fibres nerveuses sous la forme de pointes de tension (électrique). Les neuroscientifiques pensent que le schéma des pointes code les données sur les stimuli externes, tels que le toucher, la vue et le son. De même, le cerveau encode l'information sur les mouvements musculaires d'une manière similaire.

Comprendre ce code est un objectif important. Il permet aux neuroscientifiques de mieux comprendre l'information qui est envoyée et traitée par le cerveau. Il aide également à expliquer comment le cerveau contrôle les muscles.

Les neuroscientifiques aimeraient avoir de meilleures interfaces cerveau-machine. Les buts sont multiples (contrôler les fauteuils roulants, les prothèses et les jeux vidéo). «Le décodage est un outil essentiel pour comprendre comment les signaux neuronaux se rapportent au monde extérieur», disent Glaser et Co.

La méthode utilise le ML avec peu de données

Leur méthode est simple. Les neuroscientifiques ont formé des singes macaques. En effet, l'exercice est de déplacer un curseur vers une cible sur un écran. Pour cela les macaques utilisent une sorte de souris d'ordinateur. Dans chaque test, le curseur et la cible apparaissent sur un écran à des endroits aléatoires. Alors le singe doit déplacer le curseur horizontalement et verticalement pour atteindre le but.

Après avoir formé les animaux, Glaser et Co ont enregistré l'activité de dizaines de neurones dans les parties de leur cerveau qui contrôlent le mouvement : le cortex moteur primaire, le cortex prémoteur dorsal et le cortex somatosensoriel primaire. Les enregistrements ont duré environ 20 minutes.

Le travail d'un algorithme de décodage consiste à déterminer la distance horizontale et verticale que le singe déplace le curseur dans chaque test, en utilisant uniquement les données neuronales. Les algorithmes conventionnels fonctionnent en utilisant une technique statistique connue sous le nom de régression linéaire. Cela implique d'estimer une courbe qui correspond aux données, puis de réduire l'erreur qui lui est associée. Il est largement utilisé dans le décodage neuronal dans des techniques telles que les filtres de Kalman et les cascades de Wiener.

Plusieurs techniques mises à contribution

Les neuroscientifiques ont comparé ces techniques à une variété d'approches d'apprentissage mécanique basées sur des réseaux de neurones. Il s'agissait d'un réseau de mémoire à long terme, d'un réseau neuronal récurrent et d'un réseau de neurones feedforward. Tout cela provient des ensembles de données annotés, et plus l'ensemble de données est grand, plus ils apprennent.

Les résultats sont convaincants. Glaser et Co disent que les techniques de ML ont considérablement surpassé les analyses conventionnelles. "Par exemple, pour l'ensemble des trois domaines du cerveau, un décodeur du réseau de mémoire à long terme a expliqué plus de 40% de la variance inexpliquée d'un filtre Wiener", disent-ils.

"Ces résultats suggèrent que les techniques modernes de ML devraient devenir la méthodologie standard pour le décodage neuronal".

À certains égards, il n'est pas surprenant que les techniques de ML soient bien meilleures. Les réseaux de neurones ont été à l'origine inspirés par l'architecture du cerveau. C'est pourquoi, le fait qu'ils peuvent mieux modeler leur fonctionnement est attendu.

Des résultats qui doivent être re-analysés

L'inconvénient des réseaux de neurones est qu'ils ont généralement besoin de grandes quantités de données d'entraînement. Mais les neuroscientifiques ont délibérément réduit la quantité de données. Ainsi, ils ont constaté que les réseaux neuronaux étaient encore supérieurs aux techniques classiques.

C'est probablement parce que l'équipe a utilisé des réseaux plus petits. "Nos réseaux ont de l'ordre de 100 000 paramètres. Alors que les réseaux communs pour la classification des images peuvent avoir sur l'ordre de 100 millions de paramètres", disent-ils.

Le travail ouvre la voie à d'autres pour s'appuyer sur cette analyse. Glaser et Co ont mis leur code à la disposition de la communauté afin que les ensembles de données neurales existants puissent être réanalysés de la même manière.

La machine est créée sur la base d'un réseau humain

Il y a beaucoup à faire. Peut-être la tâche la plus importante sera de trouver un moyen de procéder au décodage neuronal en temps réel. Tous les travaux de Glaser et Co ont été effectués hors ligne après l'enregistrement des enregistrements. Mais il serait évidemment utile de pouvoir apprendre à la volée et de prévoir le mouvement tel qu'il se produit.

C'est une approche puissante qui a un potentiel important. Ce serait une surprise si la même chose n'était pas le cas du décodage neuronal.

Source

Pourquoi l'IA arrive à son âge d'or aujourd'hui?

Pourquoi l'IA arrive à son âge d'or aujourd'hui?

La recherche en IA a commencé dans les années 1950. Après de faux espoirs répétés, l'IA est aujourd'hui à son point d'inflexion. L'efficacité de l'IA a été transformé ces dernières années en raison du développement de nouveaux algorithmes. Il a fallut rassembler un certains nombres d'ingrédient pour que l'IA soit efficace. En effet, nous profitons d'une plus grande disponibilité des données afin de la "nourrir" (big data). Couplé d'un meilleur matériel pour la créer et les services basés sur le cloud pour catalyser leur adoption par les développeurs. Voyons ensemble ces cinq points :

1. Algorithmes améliorés

Le Deep Learning n'est pas nouveau. Spécifiquement, le premier réseau multi-couche neuronal efficace a été publié en 1965. L’évolution des algorithmes en Deep Learning ont transformé tous les résultats au cours de la dernière décennie !
Notre capacité à reconnaître des objets dans les images a été transformé (figure 9). Via le développement des réseaux de neurones convolutifs - convolutional neural networks (CNN). Un design inspiré par le cortex visuel des animaux. En effet, chaque couche dans le réseau neuronal agit comme un filtre pour la présence d'un motif spécifique. En 2015, le système de vision par ordinateur basé sur le CNN, Microsoft a identifié des objets dans des images plus efficacement (95,1% précision) que les humains (94,9% de précision). «À notre connaissance," ils ont écrit, «notre résultat est le premier à dépasser les performances au niveau humain." Applications plus larges des CNNs comprennent la reconnaissance vidéo et de la parole.

reconnaissance IA du langage humain
Les progrès dans la parole et la reconnaissance d'écriture, quant à lui, s'améliore rapidement (Figure 10) après la création de réseaux de neurones récurrents - recurrent neural networks (RNN). Les RNNs ont des liens de rétroaction qui permettent aux données de circuler dans une boucle. A la différence des réseaux neuronaux classiques qui "avalent les informations" seulement. Un nouveau type puissant de RNN est la «longue mémoire à court terme» (modèle LSTM).

C'est pourquoi, avec des connexions et des cellules de mémoire supplémentaires, les RNNs "se souviennent" des données. Celles qu'ils ont vu des milliers d'étapes auparavant et vont les utiliser pour informer leurs interprétations de ce qui suit. En somme, précieux pour la reconnaissance vocale où l'interprétation du mot suivant sera informé par les mots qui l'ont précédé. Depuis 2012, Google a utilisé les modèles LSTMs pour alimenter le système de reconnaissance vocale dans Android. En novembre 2016, les ingénieurs de Microsoft ont indiqué que leur système avait atteint un taux d'erreur de parole de 5,9%. Un chiffre à peu près égal à celui des capacités humaines pour la première fois dans l'histoire.
Niveau langage humain par IA atteint des records

2. Matériel spécialisé

Les GPUs sont des circuits électroniques spécialisés qui réduisent le temps requis pour former les réseaux de neurones utilisés pour le Deep Learning.
Les GPU modernes ont été développés à l'origine à la fin des années 1990 pour accélérer les jeux 3D et des applications de création 3D. En effet, faire un zoom dans un logiciel 3D utilise un processus mathématique appelé "calcul matriciel répété". Les microprocesseurs avec des architectures en série, ce sont les processeurs qui alimentent les ordinateurs d'aujourd'hui. Ils sont peu adaptés à la tâche. C'est pourquoi, les GPU ont été développé avec des architectures massivement parallèles (la Nvidia M40 a 3072 cœurs) pour effectuer efficacement des calculs matriciels .

Une formation d'un réseau neuronal fait usage intensif des calculs matriciels. Par conséquent, les GPUs qui sont utiles pour les jeux 3D. Ces GPUs se retrouvent très bien adaptés pour accélérer le Deep Learning. Néanmoins leur effet a été considérable; un GPU simple peut offrir un gain de temps cinq fois plus rapide pour l'entraînement d'un réseau de neurones. Tandis que les gains de dix fois ou beaucoup plus sont possibles sur des problèmes plus importants ! Lorsqu'il est combiné avec des kits de développement en DL, les améliorations de la vitesse d'entrainement peuvent être encore plus grande (Figure 11).GPU augmente par 60 la vitesse IA

3. De nombreuses données

Tout d'abord, les réseaux de neurones utilisés pour le Deep Learning nécessitent généralement de grands ensembles de données. De quelques milliers d'exemples à plusieurs millions. Heureusement, la création de données et la disponibilité a augmenté de façon exponentielle. Aujourd'hui, alors que nous entrons dans la «troisième vague» des données, l'humanité produit 2,2 exaoctets (2300 millions de gigaoctets) de données chaque jour ; 90% de toutes les données du monde a été créé au cours des 24 derniers mois.

D'une part, la «première vague» de la création de données, qui a commencé dans les années 1980. Les ordinateurs de bureau connectés à Internet ont généré des documents et de données transactionnelles. D'autre part, une «deuxième vague» des données a suivi. En effet, l'explosion des médias non structurées (e-mails, photos, musique et vidéos), des données Web et méta-données résultant des smartphones. Aujourd'hui, nous entrons dans le «troisième vague» des données. Dans laquel des capteurs de machines déployés dans l'industrie et dans la maison créent un suivi supplémentaires et des travaux analytiques.

Dernièrement, nous, l'espèce humaine, nous avons transféré 100 Go de données par jour en 1992, d'ici 2020, nous transférerons 61 000 Go (ou 61 To) par seconde de data (Figure 12).Le trafic internet augmente logarithmement

Au-delà de l'augmentation de la disponibilité des données générales, les ressources de données spécialisées ont catalysé des progrès dans le DL. Par exemple, le site ImageNet est une base de données librement disponible de plus de 10 millions d'images renseignées à la main. Sa présence a soutenu le développement rapide de la classification d'objet par les algorithmes en Deep Learning.

4. Les services Cloud

L'utilisation des ML par les développeurs est catalysée par la fourniture d'une machine dont l'infrastructure est dans le cloud.

Google, Amazon, Microsoft et IBM offrent tous une infrastructure basée sur le cloud. Pour conséquence de réduire le coût et la difficulté de développer les capacités des ML.

En outre, ils offrent une gamme en plein essor des services de Machine Learning en Cloud (de reconnaissance d'image à la traduction de la langue) que les développeurs peuvent utiliser directement dans leurs propres applications. Google Machine Learning propose des services faciles d'accès pour :

  • vision (identification des objets, la détection du contenu explicite, la détection de visage à l'analyse des sentiments);
  • la parole (reconnaissance de la parole et lecture des textes);
  • analyse de texte (reconnaissance de l'entité, l'analyse des sentiments, la détection de la langue et de la traduction); et
  • la recherche d'emploi (définition des compétences et correspondance à l'ancienneté).

Microsoft Cognitive Services comprend plus de 21 services dans les domaines de la vision, de la parole, la langue, la connaissance et la recherche.

5. Les intérêts et l'esprit d'entreprise

Effectivement, de la part du public l'intérêt pour l'IA a augmenté six fois au cours des cinq dernières années. Nous notons une encore plus grande augmentation du nombre de placements dans des sociétés IA par les sociétés d'investissement (Figure 14). En effet, nous sommes entrés dans un cercle vertueux. Dans lequel les progrès dans le Deep Learning est d'attirer l'investissement, l'entrepreneuriat et la sensibilisation. Ce dernier, à son tour, catalysent de nouveaux progrès (figure 13).Intérêt 6 fois plus important pour l'IAInvestissement 7 fois plus élevé IA

Que se passe-t-il ensuite ?

Enfin, les avantages de la ML et du DL seront nombreux et importants. Beaucoup seront visibles, des véhicules autonomes à de nouvelles méthodes d'interaction homme-machine. Beaucoup seront moins apparentes, mais permettront de créer des processus efficaces aux services des consommateurs.
C'est ainsi pour tout changement de paradigme, parfois des attentes gonflés dépassera le potentiel à court terme. Nous nous attendons à une période de désillusion au sujet de l'IA à un moment donné. Véritablement, elle sera suivie par une reconnaissance plus longue et durable de sa valeur. Ainsi, comme la ML est utilisée pour améliorer et réinventer les systèmes existants.

Cet article fait suite également à "Nous sommes en train de vivre une quatrième révolution industrielle"

Comprendre les limites de l’apprentissage en profondeur (Deep Learning)

Comprendre les limites de l’apprentissage en profondeur (Deep Learning)

L'intelligence artificielle a atteint un haut niveau médiatique. Nous pouvons lire dans la presse que les entreprises ont remplacé les travailleurs par Watson de IBM et que les algorithmes battent les médecins dans leurs diagnostic. Chaque jour de nouvelles start-up sur l'IA sont créées tous les jours, prétendant résoudre tous vos problèmes personnels et d'affaires.

Les objets ordinaires comme des frigos et des routeurs Wi-Fi s'annoncent soudainement « powered by AI ». Des bureaux intelligents qui se souviennent de vos paramètres de hauteur, peuvent aussi commander votre déjeuner.

Tout ce brouhaha est crée par des journalistes qui ne prennent pas le temps de discuter avec des ingénieurs ou des Digital Evangelist afin de s'assurer quelles entreprises utilisent vraiment de l'Intelligence Artificielle. Tant de fausses idées sont véhiculées. Lors de conversations passionnantes, je me retrouve à expliquer ce qui est possible et la limite actuelle de ce qui ne l'est pas (encore) pour l'Intelligence Artificielle.

Le Deep Learning est plus une prouesse qu'une promesse

Pour être claire d'entrée de jeu, les réseaux de neurones ont été crée dans les années 60. C'est donc une technologie vieille de plus de 50 ans ! Le Deep Learning est issu des réseaux de neurones artificiels. Les exploits ne sont visibles que depuis quelques années car nous avons aujourd'hui deux choses essentielles : les data et la puissance de calcul pour les traiter.

Les résultats sont indéniablement impressionnants. Les ordinateurs peuvent désormais reconnaître des objets dans les images et la vidéo et retranscrire au texte la parole mieux que les humains. Google a remplacé l'architecture de Google Translate par des réseaux de neurones, et maintenant la traduction automatique est aussi proche de la performance humaine.

L'apprentissage profond a aussi des problèmes profonds

Le problème le plus important aujourd'hui pour l'IA est l'abstraction et le raisonnement. Les algorithmes de perception et de Reinforcement Learning nécessite une quantité monstrueuse de données. Ces algorithmes ont pour limite de ne pas planifier leur action et ne font qu'une simple reconnaissance de modèle.

En revanche, les humains apprennent avec très peu d'exemples, peuvent faire de la planification à très long terme, et sont capables de former des modèles abstraits d'une situation et [manipulation] de ces modèles pour atteindre une généralisation extrême.

Pour simplifier : lorsqu'un enfant commence à parler, on lui dit "voiture" on pointe du doigt (connaissance du modèle), l'enfant répète "voiture", le parent lui répond "oui !" (acquisition du modèle). Maintenant une voiture peut être dangereuse, surtout lorsque nous traversons une route. L'enfant comprend "toutes les voitures sont dangereuses en roulant" (processus de généralisation). Lorsque l'enfant imagine traverser la route, il sait qu'il devra faire attention (processus de planification).

Comment ce cas est traité par le DP et le RL

Tout cela, était pour l'apprentissage humain. Pour un réseau de neurone c'est tout autre. Reprenons le même cas que représente le danger d'une voiture.

Pour l'apprentissage supervisé, vous aurez besoin d'énormes ensembles de données de situations différentes. D'une part il faudra reconnaitre une voiture dans n'importe quel angle, luminosité, vitesse différents. Et pour chaque cas des actions à prendre clairement identifiées. Comme « en arrêt » ou « en mouvement ». Ensuite, vous aurez besoin de former un réseau de neurones pour apprendre la correspondance entre la situation et l'action appropriée.

Pour l'apprentissage par renforcement, vous donnez à l'algorithme un but et le laisser déterminer indépendamment les actions idéales à prendre. Comme nous l'avions vu dans mon billet sur le Reinforcement Learning, l'ordinateur apprend en faisant des erreurs. Il va donc "mourir" des milliers de fois avant d'apprendre à éviter les voitures dans différentes situations. Et entre nous, nous n'avons qu'une vie et heureusement que notre cerveau n'agit pas de cette manière !

En effet, nous avons cette formidable capacité de "raisonnement", celui qui nous permet d'imaginer. C'est-à-dire de créer une réalité "imaginaire" et voir le pire comme se faire écraser par une voiture.

“You cannot achieve general intelligence simply by scaling up today’s deep learning techniques,” warns Chollet*.

"Vous ne pouvez pas obtenir des renseignements généraux simplement en multipliant les techniques d'apprentissage en profondeur d'aujourd'hui ", prévient M. Chollet

*François Chollet, est un ingénieur en IA chez Google. Aussi créateur de la bibliothèque de Deep Learning Keras.

Une limite, limite beaucoup l'apprentissage

Alors que les réseaux de neurones obtiennent des résultats statistiquement impressionnants à travers des échantillons de grande taille. Ils sont « individuellement peu fiables » et souvent font des erreurs que les humains ne feraient jamais, comme classer une brosse à dents comme une batte de base-ball.

brosse-à-dent-batte-baseball
brosse-à-dent-batte-baseball

La limite que l'ensemble des données soit erronée a joué des tours à Microsoft et Twitter. J'avais écris un article sur Siècle Digital sur ce sujet.

Peut-on surmonter la limite du Deep Learning ?

Je t'invite à lire la suite sur mon LinkedIn.

Futur du Deep Learning ? Le Reinforcement Learning !

Futur du Deep Learning ? Le Reinforcement Learning !

Le sujet est complexe, si tu veux du pragmatique, je te conseille de lire le dernier paragraphe. Bonne lecture 🙂

Le cerveau humain vs Reinforcement Learning

Les humains sont excellents dans la résolution d'une grande variété de problèmes, en plus leur cerveau consomme peu d'énergie. L'objectif chez DeepMind est de créer des agents artificiels qui peuvent atteindre un niveau de performance similaire.

Comme un être humain, leurs agents apprennent eux-mêmes pour parvenir à des stratégies efficaces qui mènent aux plus grandes récompenses à long terme. Ce paradigme de l'apprentissage par essais et d'erreurs, est connu comme l'apprentissage par renforcement (Reinforcement Learning).

En outre, comme un être humain, ces agents construisent et apprennent de leurs connaissances directement à partir de matières brutes. Telles que la vision et sans fonctionnalités d'ingénierie codée préalablement à la main ou du domaine heuristique. Cet objectif est atteint par l'apprentissage en profondeur (Deep Learning j'en parle ici) des réseaux de neurones.

Au DeepMind, ils ont mis au point la combinaison de ces approches - le deep reinforcement learning (DRL) - pour créer les premiers agents artificiels à atteindre une performance de niveau humain dans de nombreux domaines jugés difficiles.

L'IA doit faire des erreurs pour apprendre

Les agents doivent continuellement faire des jugements de valeur de manière à sélectionner les bonnes actions des plus mauvaises. Cette connaissance est représentée par un Q-réseau qui estime la récompense totale qu'un agent peut espérer recevoir après avoir pris une action particulière.

Il y a deux ans, ils ont crée avec succès l'algorithme sur l'apprentissage par renforcement profond (Deep Reinforcement Learning). L'idée principale était d'utiliser des réseaux de neurones profonds pour représenter le Q-réseau, et de former ce Q-réseau pour prédire la récompense totale. Les précédentes tentatives pour combiner RL avec les réseaux neuronaux ont largement échoué en raison de l'apprentissage instable.

Pour répondre à ces instabilités, les Q-réseaux profonds (DQN) stocke toutes les expériences de l'agent. Puis au hasard, il pioche des échantillons et rejoue ses expériences pour fournir des données de formation diverses et décorrélés. Ils ont appliqué le DQN dans l'apprentissage des jeux sur la console Atari 2600.

A chaque pas, l'agent observe les pixels bruts sur l'écran, un signal de récompense correspondant au score de jeu, et sélectionne une direction du joystick. Dans l'article de Nature, ils ont formé des agents DQN différents pour 50 jeux différents Atari, sans aucune connaissance préalable des règles du jeu.

Comparison of the DQN agent with the best reinforcement learning methods in the literature. Comparaison of the DQN agent with the best reinforcement learning methods in the literature.

Étonnamment, DQN atteint des performances de niveau humain dans près de la moitié des 50 matchs auxquels il a été appliqué; bien au-delà de toute méthode précédente. Le code source DQN et émulateur Atari 2600 sont librement accessibles à tous ceux qui souhaitent expérimenter eux-mêmes.

Toujours plus performant

Ils ont par la suite amélioré l'algorithme DQN à bien des égards ; stabiliser davantage les apprentissage dynamique ; hiérarchiser les  expériences relus ; normalisation, agrégation et remise à l' échelle des sorties. La combinaison de plusieurs de ces améliorations conduit à une progression de 300% du score moyen pour les jeux Atari; des performances de niveau humain ont été réalisé dans presque tous les jeux Atari.

Les ingénieurs peuvent même former un réseau neuronal unique pour en apprendre davantage sur plusieurs jeux Atari. Deep Mind a également construit un système en open source, connu sous le nom Gorila, qui utilise la plate-forme Google Cloud pour accélérer le temps de formation ; ce système a été appliqué dans la recommandation dans les systèmes de Google.

Le Reinforcement Learning asynchrone

Cependant, Q-réseaux profonds ne sont qu'un moyen de résoudre le problème de RL profonde. Ils ont récemment introduit une méthode encore plus pratique et efficace basée sur un RL asynchrone. Cette approche exploite les capacités de multit-reading de CPU standard.

L'idée est d'exécuter de nombreux exemples à leur agent en parallèle, mais en utilisant un modèle partagé. Cela fournit une alternative viable à l'expérience de rediffusion.

Leur algorithme acteur-critique asynchrone, A3C , combine un DQN avec un réseau pour la sélection des actions. Il obtient des résultats state-of-the-art, en utilisant une fraction du temps de formation des DQN et une fraction de la consommation des ressources de Gorila.

En construisant de nouvelles approches de la motivation intrinsèque et la planification dans le temps abstrait , ils ont également obtenu des résultats exceptionnels dans les jeux les plus notoirement sur les jeux difficiles Atari, tels que la vengeance de Montezuma.

Asynchronous RL effectue également bien dans ces domaines et, lorsqu'il est complété par une stratégie de contrôle hiérarchique, peut résoudre des problèmes difficiles sans aucune connaissance préalable.

Alors que les jeux Atari démontrent un large degré de diversité, ils sont limités à la 2D. Google a récemment introduit Labyrinth : une navigation 3D plus difficile avec des environnements de résolution d'énigmes. Encore une fois, l'agent observe des entrées à base de pixels dans son champ de vision, et doit comprendre la carte pour découvrir et exploiter des récompenses.

Étonnamment, l'algorithme de A3C réalise des performances au niveau humain, sur de nombreuses tâches de labyrinthe. Une autre approche basée sur la mémoire épisodique a également fait ses preuves. Labyrinth sera également publié en open source dans les prochains mois.

Des applications de tous les jours ?

Ils ont également développé un certain nombre de méthodes de RL profond pour les problèmes de contrôle en continu telles que la manipulation robotique et la locomotion (automobile). Leur algorithme Deterministic Policy Gradient Algorithmss (DPG) fournit un analogue aux DQN. Et surtout chez Google et Facebook, le RL es utilisé pour créer des nouvelles IA !

Concrètement, une voiture autonome apprend à conduire sans que nous l'avons programmé pour cela. Le réseau de neurone créer alors des "expériences" qu'il conserve et transmet aux autres voitures. Ainsi chaque voiture dans le monde possède les mêmes expériences simultanément. D'ailleurs Intel a fait conduire ses voitures autonomes sur le jeu GTA V.

Le jeu de Go est le plus difficile des jeux classiques. Malgré des décennies d'efforts, les méthodes antérieures avaient seulement atteint des performances de niveau amateur. Deep Mind a développé un algorithme de RL profond qui apprend à la fois un réseau de valeur (qui prédit le gagnant) et un réseau de politique (qui sélectionne les actions) à travers des jeux. AlphaGo, programme ses réseaux neuronaux profonds avec une recherche "state-of-the-art".

Finalement en Octobre 2015, AlphaGo est devenu le premier programme à vaincre un joueur humain professionnel . En Mars 2016, AlphaGo défait Lee Sedol (le joueur le plus fort de la dernière décennie avec 18 titres mondiaux) par 4 jeux à 1, dans un match qui a été regardé par environ 200 millions de téléspectateurs.

Par ailleurs, ils ont également développé un jeu theorique par approches RL profonde , aboutissant à un joueur super-humain de poker en heads-up au No Limit Texas Hold'em.

De Atari à Labyrinthe, de l'automobile par la manipulation au poker et même le jeu de Go, les agents d'apprentissage de renforcement profond ont démontré des progrès remarquables sur une grande variété de tâches difficiles. Leur objectif est de continuer à améliorer les capacités de ces agents, et de les utiliser pour avoir un impact positif sur la société, dans des applications importantes telles que les soins et la santé.

Comment fonctionne le Deep Learning ?

Comment fonctionne le Deep Learning ?

Avant de lire cet article je te conseille de lire la première partie ici

Comment fonctionne le Deep Learning ?

Compte tenu de son importance, il est utile de comprendre les bases de fonctionnement du Deep Learning (DL). Le DL consiste à utiliser un «réseau neuronal artificiel » - une collection de «neurones» (calculatrices logicielles) reliés entre eux.

Tout d'abord, un neurone artificiel comporte une ou plusieurs entrées. Il effectue un calcul mathématique et le délivre, on appelle cela : une sortie. La sortie dépendra à la fois du « poids » de chaque entrée et de la configuration de la «fonction d'entrée-sortie» dans le neurone (Figure 5, ci - dessous). Nous représentons un neurone par une bulle grise avec la lettre "f". La fonction d'entrée-sortie peut varier. Donc un neurone peut être :

  • une unité linéaire, la sortie est proportionnelle à l'entrée pondérée totale;
  • une unité de seuil, la sortie est fixée à l'un des deux niveaux, si la puissance totale est supérieure à une valeur déterminée; ou
  • une unité sigmoïde, la sortie varie de façon continue, mais pas de façon linéaire comme les changements d'entrée.

Un réseau de neurones est crée lorsqu'ils sont connectés les uns aux autres; la sortie d'un neurone devient une entrée pour un autre (figure 6).


Pour comprendre, les réseaux de neurones sont organisés en plusieurs couches de neurones (d'où le terme d'apprentissage «profond»). La «couche d'entrée» reçoit des informations du réseau et traitera - par exemple, une série d'images. La «couche de sortie» fournit les résultats. Entre les couches d'entrée et de sortie sont des «couches cachées» où la plupart des activités se produisent.

En règle générale, les sorties de chaque neurone à un niveau plus bas du réseau de neurones sert comme l'une des entrées pour chacun des neurones de la couche suivante (figure 7).

Prenons l'exemple d'un algorithme de reconnaissance d'image. Le but est de reconnaître des visages humains en images. Lorsque les données sont introduites dans le réseau de neurones, les premières couches identifient les modèles de contraste local. C'est-à-dire les caractéristiques «bas niveau» tels que les bords.

Comme l'image traverse le réseau, progressivement les caractéristiques «de niveau supérieur» sont extraites - des bords à nez, de nez aux visages (figure 8).

Ainsi, lors de sa couche de sortie, en fonction de sa formation le réseau neuronal fournira une probabilité que l'image est du type spécifié (tasse : 97%; tasse à café 88%; drink 54%). On peut le voir sur le screenshot que j'ai pris avec mon mobile (clique sur l'image tu verras et regarde en bas).

deep learning_screenshot

Apprentissage du deep learning

En règle générale, les réseaux de neurones sont formés en les exposant à un grand nombre d'exemples. Les erreurs sont détectées et les poids des connexions entre les neurones sont accordés en temps réel par l'algorithme dans le but d'améliorer les résultats. En effet, le processus d'optimisation est largement répété, après quoi le système est déployé et les images non étiquetées sont évaluées.

Pour comprendre, les schémas précédents représentent un réseau neuronal simple mais leur structure peut varier et la plupart sont beaucoup plus complexes. En fait, les variations incluent les connexions entre les neurones sur la même couche; nombres différents de neurones par couche; et la connexion du neurone émet dans les niveaux précédents du réseau (réseaux neuronaux 'récursives').

Dès lors, la conception et l'amélioration d'un réseau de neurones nécessite beaucoup d'habileté. Ainsi, les étapes comprennent la structuration du réseau pour une application particulière. Aussi, ils fournissent un ensemble d'entrainement adéquate avec des données. Enfin, le réseau de neurone ajuste la structure du réseau en fonction des progrès, et en combinant des approches multiples.

Pourquoi est-IA importante ?

Premièrement, l'IA est importante car elle aborde des problèmes profondément difficiles. Toutefois les solutions à ces problèmes peut être appliquées à des secteurs importants pour le bien-être humain. Tels que la santé, l'éducation, le commerce, le transport, les services publics et le divertissement. Depuis les années 1950, la recherche en IA a mis l'accent sur cinq domaines de recherche :

  1. Raisonnement : la capacité de résoudre les problèmes par déduction logique
  2. Connaissance : la capacité de représenter la connaissance du monde (la compréhension qu'il y a certaines entités, des événements et des situations dans le monde; ces éléments ont des propriétés, et ces éléments peuvent être classés.)
  3. Planification : la capacité à définir et à atteindre l'objectif (il y a un état spécifique à venir du monde qui est souhaitable, et des séquences d'actions peut être entreprises)
  4. Communication : la capacité de comprendre le langage écrit et parlé.
  5. Perception : la capacité de déduire des choses sur le monde à partir d'images visuelles, sons et autres entrées sensorielles.

Elle est précieuse, car dans de nombreux contextes, les progrès en question offrent des capacités révolutionnaires, plutôt que de l'évolution.
Dans les prochaines années, les capacités des Machines Learning (ML) seront utilisées dans presque tous les secteurs dans une grande variété de processus. Considérant une fonction unique d'entreprise par exemple, les ressources humaines. Cela illustre la gamme de procédés pour lesquels la ML sera appliquée :

  • le recrutement peut être amélioré avec un ciblage amélioré, correspondance intelligente de l'emploi et de l'évaluation partiellement automatisé;
  • la gestion de la main-d'œuvre peut être améliorée par une planification prédictive des besoins en personnel et les absences probables;
  • l'apprentissage de la main-d'œuvre peut être plus efficace que le contenu mieux adapté à l'employé est recommandé; et
  • le taux de désabonnement des employés peut être réduit en prévoyant que les employés de valeur peuvent être à risque de quitter.

La machine et deep learning deviendront normalisés

Au fil du temps , nous attendons l'adoption de la ML à devenir normalisée. La ML deviendra une partie de boîte à outils standard de développeur, améliorant d'abord les processus existants, puis de les réinventer.

Les conséquences de second ordre de la Machine Learning dépassera son impact immédiat. Le Deep Learning a amélioré la vision par ordinateur, par exemple, au point que les véhicules autonomes (voitures et camions) sont viables. Mais quel sera leur impact ? Aujourd'hui, 90% des personnes et 80% du fret sont transportés par la route au Royaume-Uni. Si on prend uniquement le domaine des véhicules autonomes voici l'impact (chiffres du Royaume-Uni) :

  • la sécurité (90% des accidents sont causés par l'inattention du conducteur)
  • l'emploi (2,2 millions de britanniques travaillent dans le secteur du transport et de la logistique, recevant environ 57 milliards de livres sterling en salaires annuels)
  • assurance (une chute de 63% des primes d'assurance automobile au fil du temps)
  • l'économie du secteur (les consommateurs sont susceptibles d'utiliser des services de transport à la demande à la place de la propriété de la voiture);
  • le débit des véhicules; aménagement urbain; réglementation et plus.

Article suivant : Pourquoi l'IA arrive à son âge d'or
Source

Révolution technologique en 2020

Révolution technologique en 2020

En 2020 il y aura une révolution technologique, j'en parle depuis l'ouverture du blog ça ne fait pas de doute. Mais qu'elle sera la technologie en question, serait-ce l'Intelligence Artificielle* ou un procédé ? J'ai ma petite idée.

Il y a quelques jours, j'ai co-animé une conférence sur "Internet" à des seniors. J'ai apporté mon aide pour répondre à certaines questions. Ils m'ont asséné de questions et j'en retiendrai une, venant d'une dame de 74 ans "si je comprends bien, on demande tout à Google, mais peut-on tout lui demander ?".

Au delà de cette question à demi philosophique, il est vrai, dans les années 2000 la règle d'or était d'avoir un pseudo, ne jamais communiquer sa vraie adresse ou tout autre information personnelle. Maintenant nous affichons notre vie de chaque instant sans transparence. Cette question reflète une inquiétude, celle de l'intégrité personnelle ; pouvons-nous tout demander à Google même des choses inavouables ?

L'intelligence artificielle is everywhere

En effet, Internet nous aide quotidiennement. Chacune de nos demandes nous les soumettons à Google. Nous le faisons de manière instinctive. Google enregistre tout ce que nous faisons. Pourquoi lorsque je cherche une image d'un oiseau bleu il me sort des oiseaux bleus ? Parce que son algorithme repère ce que nous mettons en légende et compare le nombre de clique sur l'image. Plus il y a de clique sur une image par rapport à telle recherche, plus l'algorithme pense que le résultat est pertinent. Je n'entrerai pas dans les détails pour le référencement des sites Internet qui est beaucoup plus technique. Tout comme Facebook est capable de détecter et reconnaître des personnes (même de dos!), ou un visage pixélisé ! Ces algorithmes apprennent chaque jour grâce à nos propres informations.

Aujourd'hui il a été possible à un ordinateur de dessiner par lui-même un chat (sans programmation). En lui donnant des images de chat, l'ordinateur est capable d'en comprendre la composition, une tête, des moustaches, une queue...

Jusqu'à aujourd'hui les algorithmes étaient programmés. Maintenant les algorithmes sont auto-apprenants. Le deep learning, permet aux ordinateurs d'apprendre par eux-mêmes. Et ces ordinateurs fonctionnent de mieux en mieux car nous sommes de plus en plus à les faire travailler. Pour reprendre l'exemple des images, les caméras sont capables de voir nos micro-expressions, colère, joie, mais aussi permettront-ils de détecter les menteurs ?

La médecine réussira à guérir toutes les maladies ?

Marc Zukerberg a dit l'année dernière "d'ici 15 ans nous serons capable de supprimer toutes les maladies sur Terre".

Et maintenant est-ce que les ordinateurs sont plus efficaces que l'homme ? Notamment en imagerie médicale, l'analyse des mammographie par l'Intelligence Artificielle révèlent quatre fois plus de cas dépistés que par des médecins.

En faisant lire 20 millions d'articles en médecine à Watson (IA de IBM) en 2 semaines il découvre 6 molécules liées au cancer et réussi à diagnostiquer un cancer très rare chez une femme au Japon alors que les médecins piétinaient.

Les avocats, banquiers, directeur de communication dans une agence de communication, l'intelligence artificielle est partout est son potentiel est supérieure à celle de l'homme.

L'intelligence artificielle est présente dans les voitures, mais également dans les avions de chasse. Souvent lorsque je parle des voitures autonomes, on comprend un ordinateur avec un programme conçu par un humain qui piloterait la voiture. Mais en fait la voiture apprend par elle-même ! En fonction de ses expériences elles gèrent et contrôlent de mieux en mieux la voiture en fonction des nouvelles situations. Ainsi ce n'est pas UNE voiture avec ses multiples expériences qui fait la valeur de l'intelligence, c'est les multiples expériences par des millions de voitures le tout centralisé qui créer un énorme réseau d'expériences et donc d'intelligence. Si toutes les voitures sont connectées, ce qu'une voiture apprend à Lille, elle transférera son savoir immédiatement à une voiture située à Tokyo.

Une seule interface, la disparition des interfaces

Comme nous demandons tout à Google et qu'il retient ce que nous lui demandons, pourrait-il devenir un jour notre assistant ? Un assistant personnel qui sera la seule interface. Aujourd'hui nous devons lancer une application en fonction du service que nous voulons.

Je veux consulter mes comptes je lance mon application de la banque. Je veux connaitre les prix d'un billet d'avion je vais ouvrir EasyJet ou Air France etc. Et si à l'avenir nous avions uniquement une interface, il suffirait d'ouvrir cette interface et de faire notre demande. De plus en plus de bots (robots gérés par intelligence artificielle) sont capables de comprendre le langage parlé/écris et même de créer des conversations. C'est l'étape supérieure de Siri, Cortana ou Google Now. Comme cet assistant centralisera toutes nos données, il pourra même anticiper nos demandes.

Une interface avec toutes nos données au même endroit

Si une telle interface existe alors,

Les intelligences artificielles sont capables de lire nos émotions, ils peuvent parler et écrire sans que nous pouvons en faire la distinction avec un humain. Pourrait-il devenir mon meilleur ami, capable de me comprendre, de savoir qui je suis et connaître mes attentes ? Ou pourrait-il être moi, dématérialisé ?

Dans ce cas il pourrait réserver une soirée avec Paul mon meilleur ami, l’assistant regardera nos agendas respectifs, réservera le resto en commandant les plats que nous préférerons et paiera sans que nous nous en occupions. Peut être même un jour il nous dira d'aller à l’hôpital. En effet, si nous donnons nos données médicales il pourra savoir que nous sommes malades sans même que nous nous en rendions compte.

La fin des ressources humaines ?

Sa capacité à détecter mon humeur, l’intelligence artificielle saura que mon métier ne me correspond plus et peut être pourrait-elle envoyer mon CV dans des entreprises ? "Tu n'es pas heureux dans ton travail alors il est tant que tu prennes un autre virage dans ta vie professionnelle" dira mon assistant. Et elle me mettra un rendez-vous dans mon agenda car elle aura envoyé mon CV à plusieurs assistants d'entreprises. Mon CV sera lu par l'assistant d'une entreprise et mon profil correspondrait à ce qu'il recherche et voilà un "match".

Fin des sites de rencontres ?

J'utilise le terme "match" comme sur Tinder. Cet assistant pourrait aussi nous proposer des rencontres. En lisant notre carnet d'adresse ou des gens que nous avons croisés. Il saura pour nous qui est la personne qu'il nous faut.

La fin du marketing ?

Le marketing a pour première mission d'influencer les masses pour qu'elles achètent les produits et services de l’entreprise. Mais si nous avons tous un assistant, alors ça sera notre assistant qui sera en contact avec l'entreprise et non nous directement. Comme vu plus haut, l'entreprise aura son propre assistant. Il existe déjà un robot au conseil d'administration d'une entreprise depuis 2014 ! Alors l'idée folle que je propose ici n'est pas si tordue après tout.

Du coup, si on fait un pas de recul, le rôle des entreprises sera totalement différent de celui d'aujourd'hui. Les entreprises devront être totalement ouvertes et honnêtes car chaque critère sera important et ne sera pas oublié par notre assistant. Par exemple, Bertrand veut travailler dans une entreprise "green" (zéro papier, trie les déchets, limite la consommation d'énergie etc.) son assistant regardera uniquement les entreprises dont les valeurs sont green. Si l'entreprise a menti, on peut comprendre que le salarié peut se retourner contre l'entreprise sous forme de notation et de commentaire. L'application Glassdoor le permet déjà aujourd'hui.

Nouveau paradigme

C'est indéniable, le monde digital apportera l'affranchissement du travail. Nous pourrons faire ce que nous voulons, déployer notre créativité, j'en parle dans cet article. Le revenu de base sera très certainement mis en place.

Il y aura également l'avènement des ordinateurs quantiques. Les plus optimistes disent qu'ils seront sur le marché professionnel pour 2019. Pour avoir un ordre d'idée, un ordinateur quantique aura une capacité de calcul entre 1 à 10 millions de fois plus puissants que nos supers calculateurs actuels. L'actuel est capable de faire 93 millions de milliards de calcul par seconde.

Je songe de plus en plus à ces familles "digitale nomade" qui font l'école pour leur enfant, qui voyagent où ils veulent quand ils veulent. La communication et la technologie tend à supprimer les frontières pour un ouvert plus ouvert.

En prenant conscience de ce changement de paradigme il est nécessaire de faire attention à qui nous voterons. Je croise les doigts pour les Américains dont les résultats arriveront demain (8 novembre). Et aussi en France, les présidentielles seront en mai 2017, et le chef de l'Etat jouera un rôle des plus important du XXIème siècle.

Pour approfondir le sujet en une infographie.

*intelligence artificielle : dans mon article j'ai alterné le il/elle car j'aurai préféré le neutre.