Étiquette : IA

Apprendre ! Les talents du cerveau, le défi des machines

Apprendre ! Les talents du cerveau, le défi des machines

Un ouvrage parfait pour parler des qualités du cerveau "biologique" et des lacunes des cerveaux "en silicium".  L'auteur nous emmène dans les dernières recherches en neurosciences et des résultats étonnant de l'IA. D'ailleurs, l'auteur ne se cache pas pour nous expliquer et démontrer en quoi notre cerveau est bien plus puissant que les plus performantes IA. Quoiqu'il en soit, les IA ne sont pas vraiment intelligentes car même si elles ont des capacités supérieure à nous, elles n'ont pas de réflexion aussi pousser qu'un enfant de 2 ans.

Nous apprenons que le cerveau dès la naissance n'est pas une structure totalement innée car la plasticité rentre en ligne de compte. Toutefois il est composé de parties très spécialisées, fruit de million d'années d'évolution. Des aires, visuelles, auditives, cortex et autres ont des fonctions précises et se mettent en marche dès les premiers instants de vie. D'ailleurs la production synaptique va se développer à un rythme effrayant. Au point où le cerveau va, durant plusieurs années, supprimer les synapses en trop (élagage synaptique). Mais d'où vient la curiosité ? Qu'est-ce qu'une bonne pédagogie ? L'auteur va essayer de nous apporter des éléments de réponses, alors c'est parti ! 

Des progrès fulgurants dans ces secteurs

Mais les progrès sont fulgurants et les deux domaines sont complémentaires et transverses. D'où vient la curiosité ? Un test sur des robots chien d'un double algorithme permet d'affiner la définition (p259).

robot chien enfant curieux

Après une revue rapide de l'intelligence artificielle et des différentes intelligences comme le l'apprentissage supervisé ou non supervisé. L'auteur nous parle également de l'apprentissage en bootstrapping. C'est-à-dire qu'au début l'effort est minime mais on augmente la difficulté. L'IA joue contre elle-même en utilisant cette méthode. Elle va s'améliorer des deux côtés et ainsi le niveau augmente très rapidement. 

Encore mieux le "adversarial learning" consiste à entraîner deux IA spécialistes dans chacun un domaine. L'une dans la détection de faux dans tableaux de Van Gogh tandis que l'autre dans la création de faux tableaux du même artiste. Le but de l'une est de devenir une star des tableaux et l'autre est de tromper l'IA jumelle en lui faisant croire à un vrai Van Gogh.

Notre cerveau dans toute sa supériorité 

La force du cerveau face à l'IA

Venant maintenant à notre cerveau. Tout d'abord, nous n'avons pas un apprentissage précis et unique mais plusieurs. L'apprentissage du concret/abstrait, social, par essai etc. 

La perception permet d’appréhender et d’interpréter notre environnement à travers nos sens. D'ailleurs, c'était l'argument numéro un prôné par Maria Montessori : le développement des sens et le développement intellectuel sont intimement liés. De plus, le sens stéréognostique est la capacité de trouver la forme en question par le toucher. Ainsi, notre cerveau est bien capable, à partir du concret, de faire une représentation précise mentalement (abstrait). Surtout, magique, il est capable de faire l'inverse. Nous pouvons partir d'une pensée, imaginé quelque chose, qui n'existe pas encore, et de le créer. Le processus de créativité n'est pas encore totalement identifié, mais il s'avère que la systémacité entre jeu. 

La systémacité, cette capacité de généraliser à partir d'une règle symbolique plutôt qu'une ressemblance partielle échappe encore au modèle actuel. L'apprentissage que l'on nomme profond (deep learning), ne possède pas encore de profondeur de compréhension.  

Pour résumer, nous comprenons tout sans apprendre, alors que les meilleures IA fonctionnent à l'inverse. Effectivement, elles apprennent sans aucune compréhension. Ces capacités que nous venons de voir est le fruit de million d'années d'évolution. Nous faisons, agissons et ensuite nous nous questionnons. 

Prenons un exemple anthropologique, un Homme primitif voit un arbre rempli de fruits, il s'approche mais voit à 50 mètres de lui, un tigre. Il n'a que quelques instants pour agir. Il garde son calme marche à pas feutrés et monte dans l'arbre. D'ici il observe le tigre partir dans la direction opposée.

De cette expérience, il a "bien" agi car il a survécu. Le rôle du rêve est précisément de revoir la scène plusieurs fois de manière déstructurée. Voilà l'extrême utilité du rêve, celui de consolider le savoir et de revoir les différentes possibilité et ainsi comprendre la meilleure option. Nous reviendrons en détail à la fin du billet sur les notions de consolidation .  

La vitesse d'apprentissage

A la lecture du livre, j'ai appris que la production synaptique n'est pas identique dans toutes les zones du cerveau. En effet, la vitesse de traitement de l'information n'est pas identique partout et prenait plus ou moins de temps à se développer. Nous avons vu que le cerveau est déjà précâblé lorsque nous naissons et certaines zones sont favorisées très rapidement par rapport à d'autres. 

Le cortex visuel atteint son pic synaptique vers l'âge de 2 ans alors que la zone de l'audition va continuer de se développer pendant 2 ans supplémentaires. Enfin, le cortex préfrontal obtiendra son pic synaptique vers l'âge de 10 ans. La myélinasation des gaines synaptiques prendra environ le même temps en fonction des aires. Cette étape permet de faire circuler l'information plus rapidement. Concrêtement quelle différence ? Un enfant de deux ans met 4 fois moins de temps pour reconnaître un visage qu'un bébé de quelques jours. 

myelinisation

Les 4 piliers de l'apprentissage

  1. L'attention qui amplifie l'information sur laquelle nous nous concentrons
  2. L'engagement actif, un algorithme qu'on appelle également "curiosité", et qui invite notre cerveau à évaluer sans relâche de nouvelles hypothèses
  3. Le retour sur erreur, qui compare nos prédictions avec la réalité et corrige nos modèles du monde
  4. La consolidation, qui automatise et fluidifie ce que nous avons appris notamment durant le sommeil

L'attention joue un rôle fondamental dans l'apprentissage. Michael Posner distingue 3 grands systèmes attentionnels (p213) :

  1. L'alerte, qui indique quand il faut faire attention et adapte le niveau de vigilance
  2. L'orientation de l'attention, qui signale à quoi il faut faire attention et amplifie tout objet d'intérêt
  3. Le contrôle exécutif qui décide comment traiter l'information : il choisit la chaîne de traitements appropriée à une tâche donnée et en contrôle l'exécution

J'ai l'impression d'avoir décortiqué ce qu'il se passe quand je joue à la console !

D'ailleurs l'auteur en parle 3 pages plus tard, son laboratoire travaille sur l'attention des jeunes par l'usage des jeux vidéos. Et comme il le dit si bien

Les jeux vidéos ont ce pouvoir immersif qui existe également quand on se plonge dans un livre, un film, ou une pièce de théâtre qui nous font perdre tout repère temporel.

Stanislas Dehaene

L'apprentissage le plus efficace, l'apprentissage social

Aucune autre espèce animale ne sait enseigner comme nous le faisons. La raison en est simple : nous sommes les seuls à posséder une "théorie" de l'esprit. J'en ai parlé dans cet article et ici. En d'autres termes, nous avons la capacité de deviner ce que pensent les autres. Donc de faire attention à leur attention, d'imaginer leurs pensées, y compris de ce que pensent les autres pensent, et ainsi de suite, dans une boucle infinie.

Dans l'espèce humaine, l'apprentissage est social ! Il dépend fortement de l'attention et de la compréhension des intentions des autres. Même un bébé de 19 mois comprend que, si on le regarde dans les yeux , c'est qu'on cherche à lui transmettre une information importante. Il apprend alors plus efficacement et parvient à généraliser avec d'autre personne, alors qu'il n'y parvient pas si on ne l'a pas regardé.

L'auteur nous explique également qu'un enfant qui écoute une personne parler dans une autre langue dans un haut parleur n'a pas d'impact sur l'apprentissage d'une deuxième langue. Car le haut parleur est dénué d'intention.

En effet, un professeur est obligé de savoir ce que l'élève ne sait pas pour changer les mots de son explication, adapter sa pédagogie à chaque instant. Ce qui nous amène aux différentes pédagogies qui prônent toutes leur avantage par rapport au modèle public.  

Doit-on laisser l'enfant découvrir par lui-même ?

Selon l'auteur, toutes les études convergent vers un consensus dans lequel, l'enfant a besoin d'être guidé pour apprendre. Toutes les pédagogies dites "de découvertes" auxquelles, les enfants sont "livrés à eux-mêmes" dans le but de les laisser découvrir selon leur envie et finissent par s'auto-éduquer sont fausses.

Ils apprennent mais pas efficacement ni profondément. Par exemple, il peu probable qu'un enfant puisse apprendre à lire tout seul en regardant les lettres de l'alphabet (c'est déjà arrivé certes, mais ce sont des exceptions qui confirment la règle).

Le prof, doit être présent pour continuer à attiser la curiosité et guider afin d'augmenter la difficulté en fonction de l'apprentissage de l'enfant. C'est ainsi, qu'un enfant pourra développer des connaissances plus poussées sans pression ni crainte. La curiosité est une source de plaisir innée.

En effet, la curiosité est liée au rire qui permet de comprendre où nous avons eu faux. Le rire est souvent signe qu'une théorie que nous avions imaginé se retrouve erronée. Par exemple un enfant voit une balle tomber et rebondir à un certain niveau. Nous changeons de balle et cette fois-ci la balle s'écrase et ne rebondie pas. L'enfant va rire, car il avait fait la théorie qu'une balle lâchée à telle hauteur allait rebondir systématiquement à cette hauteur (généralisation). La dernière balle a donné un résultat "contre intuitif", le rire est déclenché car maintenant l'enfant veut comprendre pourquoi il y a une différence. Se retour sur erreur lui donne envie (l'engagement actif) de savoir car son attention est précise, et comprendre permet de consolider son apprentissage. Nous retrouvons bien les 4 piliers de l'apprentissage.

Engagement, plaisir, autonomie, avec une pédagogie explicite appuyée sur un matériel stimulant : c'est la recette gagnante dont l'efficacité est démontrée.

Une autre idée reçue venant de Rousseau, selon laquelle, l'éducation doit créer la curiosité. Mais selon l'auteur s'est faux, la curiosité est un moteur innée qui est dans notre ADN, qui est la base du fonctionnement de notre cerveau (comme l'impossibilité de faire 2 choses en même temps). En effet, poser un bébé assis au milieu de la pièce avec un certain nombre de jouet devant lui, il va partir à l'exploration. Nous n'attendons jamais, de façon passive, que les informations nous parviennent, nous avons naturellement la passion de connaître.

D'où vient la curiosité ?

Une idée intéressante, la naissance de la curiosité serait née avec l'évolution de l'Homme. Dans un monde incertain, il est utile de savoir ce qu'il se passe dans un périmètre proche de notre "maison". La curiosité est une force qui nous incite à explorer (page 253). Cela rassemble, le besoin de trouver un partenaire, des zones de nourriture abondante, de connaitre où se situe les animaux dangereux. Bref tu l'as compris, l'Homme a besoin de connaitre des informations et les transmets.

curiosité

Dans le cerveau il se passe la même chose, nous recevons des shoot de dopamine lorsque nous apprenons des choses, c'est un cercle vertueux qui nous incite toujours a être curieux.

Ecole assassin de la curiosité

interdit de se tromper école créer la peur

J'ai écrit plusieurs billets sur ce que je pense que  l'école (partie 1 et 2 et ici). Voici les 3 hypothèses que Stanislas Dehaene met en avant : 

  1. 1) Le manque de stimulation appropriée au niveau de l'enfant. L'enfant en avance s'ennui, l'enfant en retard s'ennuie. Il faut donner le gout d'apprendre en lui proposant des stimulations adaptées à ses capacités.
  2. La punition de la curiosité. Le fameux "tu te tais et tu écoutes". Le cours magistral permet de tuer dans l'œuf la curiosité. L'information vient du professeur et je n'ai pas besoin de réfléchir car il sait tout mieux que moi.
  3. La transmission sociale de la connaissance. C'est indirectement lié avec l'hypothèse numéro 2. Le meilleur apprentissage c'est être actif, alors qu'écouter passivement un professeur ne permet pas un engagement actif.

Pour conclure, la bonne démarche pour apprendre est d'une part de trouver un juste milieu en proposant une pédagogie structurée qui encourage la créativité de l'enfant (imagination, réflexion intérieur, discussion) avant de donner les réponses aux exercices. D'autre part, il est aussi utile de valoriser sa curiosité et ses résultats et lui dire également que l'enseignant ne sait pas tout.

Car la métacognition rentre en jeu dans l'apprentissage, le jugement interne et savoir ce qu'on ne sait pas est tout aussi utile et nécessaire dans l'apprentissage. Voici un condensé de pourquoi j'ai appris plusieurs "métier" si rapidement, car je suis porté par la curiosité, mon moteur dans toutes les tâches que j'entreprends ! 

Dataïsme

Dataïsme

Suite à la lecture de Homo Deus, je vais reprendre certaines idées et les développer sous un angle personnel.

Il est vrai aujourd’hui nous avons un certain nombre d’applications sur notre smartphone qui nous permettent de suivre notre alimentation, le nombre de pas, la qualité de notre sommeil et tout un tas d'autres choses. Toutes ces données, dont leur traitement est minimes aujourd’hui, pourraient se développer et permettront de mieux appréhender nos comportements et également les maladies.

Tout d’abord, il est nécessaire de constater que nous sortons d’un monde de masse pour un monde individuel. Nous allons voir les impacts futurs surtout dans le monde de la santé d’un tel changement de paradigme.

Définition du datïsme

Pour reprendre le dataïsme, Yuval Harari en fait la définition, la métaphore suivante :

Les individus sont des puces, au même titre que les puces qui composent un ordinateur.

Yuval Harari - Homo Deus

Pour que le dataïsme se développe à l’échelle sociétale, il faut réunir un certain nombre de conditions :

  1. Accroître le nombre de personne potentiellement "connectable" (plus de monde donc plus de puissance de calcul)
  2. Différents processeurs (moyens d'être connectés) afin d'augmenter le dynamisme et créer des idées nouvelles
  3. Accroître le nombre de connexion entre les processeurs
  4. Les données doivent se déplacer librement
matrix world-dataisme
matrix world-dataisme

Monde centré sur la data

Nous sommes passés d’un monde :

  • Théocentrique : Dieu centre du l'univers
  • Homocentrique : l'humanisme, l’Homme construit tout autour de lui
  • Datacentrique : c'est la data qui contrôle l'univers

La seule manière de se connaitre c'est grâce aux data par exemple en séquençant son ADN. La multiplication des IoT, notamment ceux qui sondent notre biologie à chaque instant sont de fabuleux générateurs de data. N'oublions pas que la data est le pétrole brut du XXIe siècle.

petri adn numbers

La connaissance de soi passe par les chiffres

Avec les IoT et l'IA, les algorithmes savent mieux que nous, de ce que nous devons faire. Baseline study de Google, utilise Google Fit pour comprendre qu'elle est la meilleure façon de garder une bonne santé.

La combinaison gagnante est la multiplication des IoT qui permettent la création de data et l'IA, dont les algorithmes s'améliorent de jour en jour.

Le coût de la technologie diminue mais les plus riches ont toujours deux longueurs d'avance. L'ère de la masse est révolue. Il fallait beaucoup de soldats donc une bonne santé pour tous. Mais si une poignée d'Homme permet de créer beaucoup de valeur alors pourquoi maintenir un système de santé de masse ?

La fin des masses bienvenue aux classes d'élites

Si je suis en bonne santé, je peux utiliser la médecine pour devenir davantage meilleur, alors que les pauvres iront à l’hôpital pour régler leurs problèmes de santé. C'est en tout cas ce que dénonce certains scientifiques et d'autres adeptes du biohacking. Comme Serge Faguet qui a dépensé 200 000 dollars pour biohacker son corps (et son esprit). Entre nous, cher lecteur, il a écrit son récit dans les moindres détails ici.  

serge faguet improve

Peu importe le sens pourvu que j'ai le pouvoir

Être dans le flux de donnée signifie refuser son intimité, sa vie privée. Si une voiture autonome vient me chercher quand je sors de chez moi et me récupère quand je sors du boulot, la voiture doit connaître mes intentions et mes actions à chaque instant.

jaguar-voiture-yeux

Cela surprend toujours mon auditorat, mais Google fait déjà la différence d'intention dans une recherche. Notamment le moteur de recherche fait la différence entre l'intention d'acheter et l'intention de s'informer.  C'est un tout autre sujet dont j'en ferai un billet.

On peut reprendre les phrases : "peu importe le sens pourvu que j'ai le pouvoir" et "les gens seront dans le flux d'information
(cf. Homo Deus). A elles deux, forment un nouveau paradigme entraînant un changement colossal de notre société.

Peu importe que la machine sache tout de moi, pourvu que j'ai accès à un nombre de service premium à un coût réduit. Multiplié par le nombre de personnes qui fournissent les informations, cela donne un argument de poids pour supprimer les voitures qui polluent trop (écologie), éradiquer toute maladie (santé), diminuer la criminalité (sécurité), augmenter les ventes (commercial) etc. En bref toute la famille politique pourra se satisfaire de cette vision. D'ailleurs est-ce que la Chine en est déjà là ?

Le droit du tous connecté.es

J'image un jour (peut être), un hôpital type « Google » puisse exister. Sa promesse est simple, cet hôpital te permettra d’être en bonne santé et pour longtemps voire même de dépasser la moyenne de l’espérance de vie actuelle de ton pays.

google medical center

Son fonctionnement passera par un abonnement de moins de 100 dollars par mois (comme une assurance et mutuelle complémentaire incluse) et ainsi avoir accès à des examens et traitement de santé totalement pris en charge (évidemment toutes les maladies diagnostiquées seront totalement prises en charge sans sur coût).

Au-delà de la cotisation, il sera obligatoire pour ces membres de faire des check-up régulièrement dans les hôpitaux Google. En cas de manquement, un bannissement aux prestations serait ordonné. D’autre part, je suppose qu’il faille porter un bracelet qui compte les pas, prendre en photo ce que l’on mange, faire des prélèvements de ces excréments et adapter son régime et son mode de vie en fonction des résultats du mois précédent. Tout manquement sera sanctionné par un bannissement aux services proposés.

Trop contraignant ? Notre smartphone est capable de compter les pas, possède un appareil photo, une application de l'hôpital permettrait de créer les rendez-vous et les rappels nécessaires. Je le répète, chaque rendez-vous mensuel a pour but de trouver des maladies et de les guérir le plus rapidement possible, en tout cas de te maintenir en forme. Ainsi tu te retrouveras dans une bulle, plus je donne des infos plus je me sentirai en sécurité (plus j'alimente en données biologiques la base de donnée du géant GAFA). 

100 dollars par mois c'est cher ? Oui mais il n'est pas à exclure que le prix tant à diminuer voire même devenir ou être déjà gratuit ! N'oublions pas que Google Search est une machine incroyable qui coûte extrêmement chère à entretenir et pourtant l'outil est gratuit et utilisable du jour et de la nuit par des milliards de personnes ! Va créer un site qui supporte un milliard de personne par jour et on verra combien va te coûter, ne serait-ce les serveurs pour le faire tourner correctement !

3 questions issues de 3 processus mutés

L'auteur nous fait part de 3 processus en actuelle mutation.

  1. La science converge vers un dogme universel suivant lequel les organismes sont des algorithmes et la vie se réduit au traitement des données
  2. L'intelligence se découple de la conscience
  3.  Les algorithmes non conscients (mais forts intelligents) nous connaîtrons bientôt mieux que nous-mêmes

Ces 3 processus soulèvent 3 questions cruciales donc j'espère qu'elles vont se représenter dans ton esprit :

  • Les organismes ne sont-ils réellement que des algorithmes et la vie se réduit-elle au traitement des données ?
  • De l'intelligence ou de la conscience laquelle est la plus précieuse ?
  • Que deviendra-t-il de la société, de la politique et de la vie quotidienne lorsque des algorithmes non conscients, mais hautement intelligents, nous connaîtrons mieux que nous nous connaissons ?
Homo deus (Homme dieu)

Homo deus (Homme dieu)

Après avoir terminé Sapiens, je profite toujours de l’offre Audible 3 livres gratuits pendant 3 mois. J’ai alors téléchargé Homo Deus dans la foulée. Je pensais me retrouver dans un récit futuriste alors que le livre n’est que la suite temporelle du premier opus. Néanmoins Homo Deus commence dans l’époque contemporaine et nous amène dans un monde de plus en plus technologique dont la place de l’Homme est discutable. Comme j’ai enchaîné les deux lectures très rapidement, j’ai pu constater qu’il y a quelques redondances dans les deux premiers tiers de l’ouvrage. Toujours est-il, le style est le même, fluide, rapide, avec des infos et surtout une réflexion étonnante.

C’est dans le dernier tiers du livre où j’ai pris beaucoup de plaisir. L’auteur apporte son flot de questions très intéressantes. Va-t-on dans un monde sans guerre ? Sommes-nous plus heureux aujourd’hui qu’à des temps plus anciens ? Pourquoi tuons-nous autant d’animaux ? Et aussi des interrogations plus philosophiques comme l’existence du libre arbitre, ou va-t-on vers la fin du travail, remplacé par les machines ? J’aborde toutes ces questions dans ce billet. Néanmoins encore une fois, écouter ce genre de livre, ne me permet pas de vérifier ce que j’écoute. Nous « avalons » les phrases comme si elles tombaient du ciel et donc je pourrais manquer de discernement.

Mon travail de synthèse me permet de checker les informations avant de les écrire. J’ai mis beaucoup plus de temps à rédiger cet article que tous les autres. D’ailleurs à la relecture je m’aperçois que mon intro est toujours trop longue ! D’ailleurs je vais couper le billet en deux parties, me concentrer sur livre ici et dans un autre billet je traiterai du dataisme. Je ne veux pas faire un simple résumé et comme Harari donne beaucoup d’infos, j’ai voulu en vérifier certaines et pousser la réflexion sur certain thème. Et j’ai, par conséquent, cassé quelques-unes de ses affirmations… ! (Evidemment je suis ouvert à toutes discussions, et si des sources complémentaires me permettent d’en apprendre davantage je suis preneur).

Nous vivons dans une époque formidable

Famines, épidémies, guerres n'existent bientôt plus

La grande famine de 874 a tué un tiers de la population française. Au XVIIIe siècle plusieurs dizaine de millions de personne sont mortes à cause de famines, tous pays confondus. Alors que j’ai fait le challenge de ne pas manger pendant 36 heures, je n’ai qu’une minuscule appréhension des atroces douleurs dont ces personnes ont pu subir… 

Aujourd’hui la famine tue toujours mais dans des proportions vraiment moins importants. D’ailleurs notre monde meurt de surconsommation (et malnutrition) que de privation de nourriture. En effet, les maladies liées au sucre tuent 3 millions de personnes (le diabète par exemple).
Coca (symbolisant les industries alimentaires) tue plus de monde que le terrorisme et la famine réunis.

Les maladies meurent 

La peste antonine au 2e siècle avant JC à fait quelques 10 millions de morts pour un empire de 64 millions de personnes. La peste noire a réduit la population européenne de moitié au moyen-âge ! Les épidémies étaient propagées par les commerçants, aujourd’hui des millions de personne voyagent et nous ne tombons pas plus souvent malade. En tout cas nous avons un système de santé efficient, évitant toute propagation de virus mortel. Les campagnes de vaccination ont permis de supprimer plusieurs souches mortelles. Et aujourd’hui il est digne de scénario hollywoodien qu’une pandémie mondiale puisse voir le jour.

La guerre de la guerre

Le nombre de morts aux combats sont tout aussi choquant. Aujourd’hui, la guerre est de plus en plus inexistante. Seuls les pays qui ont des valeurs en ressources naturelles sont (encore) en guerre. La première ressource au XXIe est le savoir. Harari dit que le Rwanda a pillé les champs de coton de son pays voisin et à gagner 240 millions de dollar en un an. Je n’ai pas retrouvé cette information. Mais l’analogie est intéressante. En effet, la Chine travaille avec Apple et d'autres entreprises tech de la Silicon Valley en coopétition (contraction de compétition et coopération). La ressource qui est utilisée est le savoir. Idriss Aberkane dit « c’est en partageant le savoir qu’il se multiplie ». Par conséquent, le savoir génère bien davantage d’argent que les ressources naturelles. Dans l’exemple de Homo Deus, la Chine a généré 240 millions de dollar en une semaine par les brevets et contrats commerciaux.

Le terrorisme où comment faire peur avec une mouche ?

Éléphant porcelaine cassée
Elephant porcelaine

Le terrorisme c'est comme une mouche dans un magasin de porcelaine. Elle est incapable de pousser une tasse pour la casser. En revanche la mouche peut aller dans l'oreille d'un éléphant. Si celui-ci se trouve dans le magasin alors la mouche va vrombir de toute ses forces pour faire peur à l'éléphant. Par conséquent, c’est lui qui va tout saccager. En gros nous sur-agissons. En cassant deux tours aux USA, les terroristes ont renversé le gouvernement de Saddam Hussein car les US sont venus faire la guerre (références ? je n’en ai pas trouvé…).

Concernant le terrorisme, dans mes recherches, j’ai trouvé qu’en 2014, au total, le terrorisme avait tué 37 400 personnes à l’échelle de la planète.

« Mais cette hausse ne concerne ni l’Amérique du Nord, ni l’Europe. En fait, ce sont surtout cinq pays qui en ont fait les frais : l’Irak, le Pakistan, l’Afghanistan, le Nigeria et la Syrie, qui totalisent 57% des attentats depuis le début du siècle. La majeure partie de ces attaques meurtrières n’ont pas visé de cibles dans le monde occidental, mais ont été perpétrées au sein des populations musulmanes chiites et sunnites. » Source 

Revenons sur un sujet plus joyeux : le bonheur

Plus de suicide de nos jours ?

Harari nous parle du bonheur. En effet, si les famines se font plus rare c’est que nous mangeons à notre faim. Moins de guerre signifie moins de stress et symbolise un environnement politique plus stable. Idem pour les pandémies, nous avons accès à des traitements efficaces pour soigner toute une population. Tout est réuni pour vivre plus heureux. Et pourtant, statistiquement nous sommes confrontés à une sorte de plafond de verre. Effectivement, les pays, même s'ils se développent très bien, le bonheur subjectif n'augmente pas. Pire le taux de suicide augmente ! N’ayant pas les sources j’ai dû faire des recherches moi-même et l’étude de l’OMS suggère : « À l’échelle mondiale, le taux de suicide standardisé selon l’âge (qui corrige les différences de taille et de pyramide des âges des populations dans le temps) a affiché une baisse de 26 % (23 % chez les hommes et 32 % chez les femmes) au cours des 12 années concernées. » - Années de référence 2000 à 2012 -

Et pour le bonheur, j’ai trouvé cette étude complète faite par un amateur. Ce qui est intéressant dans ce document c’est qu’il estime que le bonheur mondial a eu un taux d’évolution de 18% entre 2000 et 2015. Ce qui n’est pas rien ! J’ai recherché l’évolution de l’indice du bonheur par l’ONU et l’OCDE et ils vont dans le même sens. Ces deux derniers ont même calculé le bonheur des réfugiés dans les pays hôtes. Plus le pays hôtes dispose d’un score élevé, plus les immigrants sont également heureux. Le malheur diminue, le bonheur se propage à l’échelle mondiale.

Le bonheur de l'Homme est psychologique ou biologique ?

pyramide de maslow
Pyramide de Maslow

Revenons à Homo Deus, pour Harari le bonheur se définit en deux piliers, le bonheur psychologique et le bonheur biologique (ou physiologique). Le bonheur physiologique réside dans la satisfaction des besoins de notre corps. Nous pouvons reprendre la pyramide de Maslow dont les deux derniers points représentent le bonheur psychologique. Oui le besoin d’appartenance fait bien parti des besoins physiologiques, je t’invite à découvrir les recherches de René Sptiz sur le sujet.
Pour le bonheur psychologique, il est satisfait quand la réalité est en phase avec nos attentes. Problème, nous soulevons toujours plus d'attente quand nos conditions s'améliorent.

Poursuit of happiness

La science dit que la seule chose qui nous rendent heureux est la sensation d'être heureux.
Mais les sensations ne sont pas durables. C'est la faute à la biologie ! La reproduction est agréable mais si l'effet persistait alors nous nous reproduiront plus. Idem pour la faim et la satiété. Notre système de récompense est créé ainsi, pour que nous soyons toujours motivés à manger et nous reproduire.

Pour élever le bonheur il existe les drogues. Comme je viens de le dire, la sensation de bonheur n’est pas durable, on voit vite arriver la dépendance… Pour les bouddhistes, la seule manière d’être heureux c’est en réduisant sa soif de vouloir des sensations plaisantes.

Cependant l’auteur fait l’erreur de confondre bonheur et être content. Selon le Larousse le « bonheur » est l’état de « complète satisfaction ». Et, « être content » signifie que nous sommes satisfaits. Nous pouvons être content sans satisfaire toutes nos envies. Par exemple que je rentre dans la FNAC j’ai une envie irrésistible de tout acheter : une nouvelle télé, une console de jeu, et quand j’arrive dans le rayon librairie… j’ai toujours cette sensation particulière de « une vie ne suffit pas pour tout lire ». Ainsi, je suis horriblement insatisfait, car jamais je ne pourrais tout lire. Mes envies ne seront jamais assouvies, est-ce pour autant que je ne suis pas content lorsque je passe à la caisse avec un seul livre dans les mains ?

Pourquoi avons-nous de la pelouse devant notre maison ?

champ pelouse avec un panneau "pelouse interdite". Une personne marche sur la pelouse au loin
Pelouse interdite

Le livre comporte des anecdotes historiques dont je ne vais pas prendre la peine de vérifier. Avoir un carré de pelouse devant sa maison est coutume. Ne pas avoir de terrain est signe d’austérité. Inconsciemment passé devant un lotissement et voir des hautes et mauvaises herbes dans une pelouse, et nous voilà déjà en train de préjuger ce malheureux voisins. « Oula il ne prend pas soin de son jardin c’est la ruine ici ! ». Pourquoi pensons-nous cela ? C'est un vestige du temps des rois : « comme je suis puissant je suis capable d'avoir du terrain pour faire pousser seulement de l'herbe qu'il ne faut pas toucher ». Ce gazon sera coupé au ciseau à 2 centimètres. Il n’existait pas de tondeuse à l’époque mais une armada de jardinier ! Et voilà un bel exemple de la condition humaine d’augmenter toujours plus ses attentes au bonheur !

Pourquoi l'Homme tue des animaux de manière industrielle ?

Certainement l'agriculture y joue pour beaucoup. Avant, il était nécessaire de savoir ce que le tigre pensait, ce que le cerf pensait pour pouvoir anticiper leurs actes.

L'agriculture a maîtrisé le bétail, les poulets et certaines plantes. L’auteur prend exemple sur une des dernières tribus qui est passée à l'agriculture dans le sud de l'Inde. Cette tribu vit des récoltes du thé, et d’élevage de poulets. Dans cette tribu, tout ce qui est vivant est « Mansanne » (comme j’écoute le livre, je ne vois pas l’orthographe et je n’ai rien trouvé à ce sujet…). Lorsque l’on interroge des membres de la tribu ils nous disent : « les arbres oui, ils sont mansanne. Le tigre vivant dans la forêt oui, les éléphants aussi sont mansannes. » Et les poulets ? Ben non ils ne le sont pas car ils sont bêtes et sans âmes, les moutons pareils car il faut les guider. Nous sommes supérieurs à ces animaux dit le chef de la tribu.

L’agriculture a donné une supériorité à l’Homme sur l’animal, s’élevant ainsi, lui permettant de lui asséner la mort quand bon lui semble. L’auteur a une longue et très intéressante réflexion à ce sujet. Voyons laquelle.

Pourquoi la théorie de l'évolution est plus facilement rejetée que la théorie de la relativité générale ?

La relativité générale dit que l'espace et le temps peuvent se courber. Il est vrai que cela fait peur d'entendre ça. Pourtant dire que les animaux et l'Homme ainsi que les végétaux ont évolué pendant des millions d'années est rejeté (38% des Américains). Car si nous acceptons la théorie de l'évolution nous supprimons l'âme. L'âme fait partie de l'individu qui signifie indivisible. Tout n'est qu'un, mais notre corps a plusieurs parties qui ont évoluer. Notre œil est sensiblement le même que chez Erectus et a le même passif qu’un être unicellulaire qui est capable de détecter la lumière. En quoi l'Homme a une âme et pas les animaux. Les animaux n'en ont pas mais alors les végétaux ? Non plus seul l'Homme possède une âme. Pourtant rien ne prouve que l'Homme à une âme ou quelconque être vivant. La théorie de la relativité générale ne touche pas l’âme, ne touche pas l’Homme dans son individualité. C’est la raison pour laquelle la théorie de l’évolution est bien plus critiquée, notamment par les créationnistes, que la relativité générale.

"Les hommes acceptent d'abandonner le sens en échange du pouvoir". Par exemple, accepter les conditions d'utilisation d'une application. On clique j'accepte sans savoir car le plus important c’est le pouvoir d’utiliser ; le sens de l’outil ne m’importe guère.

Cette phrase est percutante. Elle donne acte et clos la question sur le bonheur posée ci-dessus.  Le sens de la vie c’est ce qui nous anime chaque jour. Parfois nous arrive-t-il d’oublier pourquoi nous sommes sur Terre, pourquoi fais-je ce travail, cette tâche ?

Je me rappelle un jour en allant au collège, 3 ou 4 autocars étaient stationnés sur le bord de la route et des dizaines d’étudiants en sortaient dans un rythme mécanique. Personne ne parlait, il faisait encore nuit, tout le monde se dirigeait vers l’entrée du collège. Je me suis surpris, saisi par ces questions qui avaient émergé de nulle part : « pour quoi (dans le sens : par quelle motivation) les gens se déplacent et vont au collège alors que personne n’a envie d’y aller, pour quoi je suis là à les regarder ? ». J’avais besoin de connaitre le sens de tout ça. Tout comme le burnout fait des ravages aujourd’hui car les employés ont de plus en plus besoin de connaitre le sens de leur tâche, de leur fonction. Ma scolarité a été un échec jusqu’à ce que j’aie pu enfin trouver des éléments de réponse à mes questions (10 ans plus tard…).

L’Homme passe à côté du plus important, c’est bizarre je fais l’apologie de lire les CG alors que moi-même je trouve ça barbant. Pourtant dans cette métaphore, le plus important est de comprendre pour quoi je suis là et comment je fais les choses.

Homo deus ; l'Homme Dieu

La fin des médecins et pharmaciens

Le métier de médecin est en train de se métamorphosé. La question cruciale est la formation, qui elle, est toujours ancienne. Cela fera l’objet d’un autre billet. Concentrons-nous sur le robot pharmacien.
Harari dit que le taux d'erreur des pharmaciens est de 1,7% soit 50 millions d'erreurs pour seul pays des USA. A Los Angeles, un robot pharmacien a traité 2 millions ordonnances sans aucune erreur. J’ai trouvé un acteur français.

service d'un robot pharmacien
 robot pharmacien

Quand je dis « la fin des médecins et pharmaciens » c’est un terme fort. Et pourtant un logiciel aussi précis soit-il, s’il remplace une tâche qu’un Homme peut faire, alors cette tâche sera exclusivement faite par la machine. Par exemple la conduite autonome, le jour où la machine sera plus efficace, c’est la fin immédiate de tous les chauffeurs. Idem pour les pharmaciens. Pour en avoir un, il faut un Homme et le former, cela prend beaucoup de temps (30 ans), alors qu’un logiciel, même développé à l’autre bout du monde, entre en service immédiatement et partout sur terre.

Je reviendrai sur ce changement de paradigme et toutes les implications politico-économique dans le prochain billet. 

Le libre arbitre existe-t-il ?

Une étude montre que nous prenons des décisions 130 milliseconde avant d'en avoir conscience. Nous agissons en fonction des sensations que nous avons. Ces sensations sont les résultats d'échanges électrochimiques dans notre cerveau et nous n'avons pas de contrôle là-dessus.
Si nous avons un libre arbitre propre à chacun alors il n'est pas possible de le contrôler. Pourtant il est possible de piloter un rat à distance avec des électrodes implantés dans son cerveau. Le rat n'a pas l'impression d'être contrôlé, il le désir réellement, mais pourtant le rat pense avoir son libre arbitre. D’ailleurs dans ce billet sur l’intestin, la chercheure nous explique que notre ventre nous fait prendre des décisions, parfois grave ! Et cette prise de décision est initiée par… les bactéries de notre microbiote !
L’armée américaine a déjà des tests concluants pour supprimer les chocs post traumatiques. Les gens se sentent mieux et ils n'ont plus de déprime.

L’Homme est contrôlable et si nous considérons que nous sommes un algorithme, alors l’IA pourrait comprendre comment nous fonctionnons. Cet article sur le biohacking est renversant ! Dans mon prochain billet je parlerai, à mon sens, le point le plus important du livre, le dataisme. 

Les différents types de réseaux de neurones : réseau de convolution

Les différents types de réseaux de neurones : réseau de convolution

Reprenons la série des articles traitant des différents réseaux de neurones. Dans cet article je vais t'expliquer comment fonctionne un réseau de convolution.

Dans l'article précédent nous avions vu comment fonctionnait un réseau de neurone artificiel. Si tu n'as jamais entendu parlé du fonctionnement, je te conseille de le lire avant de continuer. Comme je l'ai déjà expliqué, même en simplifiant, il y a une partie "technique" et "représentative" que je ne peux pas soustraire à l'explication. Je vais essayer de mettre le plus d'illustration possible pour bien comprendre. Chaque réseau à sa spécialité, ils ont des fonctionnement différents avec des résultats plus ou moins performants. Les réseaux de convolution sont très bon pour l'analyse des images. 

Réseau de convolution

Je ne vais pas faire de l'histoire sur la création, ni qui, Wikipédia s'y prête très bien pour ce genre d'information. Allons dans le technique et pragmatique tout de suite ! Toujours en quatre étapes.

Conception en 4 étapes

Une image est composé de petits carrés que l'on nomme "pixel". Dans une image en noir et blanc, nous parlerons de 2 dimensions (array) car il y a blanc et noir. De plus, chaque pixel aura une valeur comprise entre 0 et 255 nuances de "gris" (rien à voir avec le film). Le blanc est représenté par le 0.
Pour une image en couleur, elle aura trois dimensions (array), repartie en 3 couleurs primaires, bleu, vert et rouge. Idem avec 255 nuances. Pourquoi 0 et 255  ? Selon mes recherches, c’était l’ensemble du code couleur RGB des écrans dans les années 80, les chercheurs ont gardé cette base.

pixel-image-reseau-convolution

Voilà une manière de comment l'ordinateur voit une image. Pour faire simple il n'y a pas de nuance dans les futurs exemples, c'est soit blanc donc 0 soit noir 1.

pixel-image2-reseau-convolution

Convolution

Pour la convolution, il suffit de reprendre l'image pixelisée, carré par carré, et de la "convertir" avec une sorte de "calque". Oui j'utilise beaucoup de guillemets car aucun de ces termes sont utilisés. Le calque s'appelle un feature detector et l'image convertie se nomme feature map. Il existe des millions de feature detector différents et de taille différente, le choix se fait en fonction des best practice des data scientist. Une fois que l'image est intégralement passée par un feature detector, on obtient une feature map. C'est l'image originale, compressée une nouvelle fois avec un calque précis.

Voici en image :

Ce diaporama nécessite JavaScript.

Nous répétons ce processus avec d'autres feature detector pour créer plusieurs feature map de cette image. Cela va créer une sorte de mille feuilles de plein de feature map différentes. On appelle cela une couche de convolution.

convolution-réseau-neurone

Dans ce site tu écris avec ta souris un chiffre dans la barre en haut à gauche. Avec le pointeur de ta souris tu peux voir les 7 couches de convolution comment elles travaillent. Elle détermine ce que tu as écris en fonction de tout ce traitement d'image.

Max Pooling

Le réseau de neurone doit avoir une invariance spatiale. Notre cerveau est vraiment très fort, car sur les images ci-dessous nous sommes capable de comprendre que c'est un guépard. Et cela peu importe si l'image est tordue ou non. De même si le guépard est en premier plan, allongé, en train de courir, quoiqu'il en soit on le reconnait au premier coup d’œil.

Nous le faisons de manière naturelle et nous n'avons pas l'impression que notre cerveau travaille dur. Ainsi, nous devons adapter l'algorithme de la machine pour qu'elle soit capable de faire comme nous. Si l'image est tordue, cela peut donner un résultat totalement différent. Idem, nous reconnaîtrons l'animal qu'il soit assis, nous regarde, ou de dos qu'il soit au premier ou second plan !

réseau-convolution-max-pooling

Pour limiter les erreurs, le max pooling est la même manipulation que pour obtenir une feature map.

convolution-max-pooling

On passe la feature map dans un max pooling (ici d'un carré de 2 par 2) où l'on va garder par exemple que les chiffres les plus grands. L'image encore réduite s'appelle un pooled feature map. Idem que pour les features map, on va multiplier les max pooling pour obtenir un mille feuilles de pooled feature map. Ainsi la machine va comprendre qu'il y a un pattern, un motif qui se présente souvent au même endroit et que cela fait parti de l'animal en question.

Flattening

Comme nous l'avions vu précédemment, un réseau de neurone connecté, les couches d'entrées ,cachées, et de sorties sont verticales. Jusqu'à maintenant nous avions une image représentée par des carrés. Nous avons diminué la taille de l'image. Le Flattening permet de verticaliser les pooled feature map.

Ce diaporama nécessite JavaScript.

Couche entièrement connectée

Nous arrivons au bout. Si nous devions schématiser le travail accompli jusqu'à maintenant et que nous voulions apprendre à la machine à reconnaître un chien d'un chat, voici ce que ça donne :

reseau_de_convolution

Nous retrouvons la forme de notre réseau de neurone comme expliqué dans le premier article. Les deux neurones de sortie permettent de déterminer la valeur y (chien ou chat).

Le réseau est auto-apprenant en supervision, ce qui signifie que si nous montrons une image de chien et que le réseau dit chat, alors nous indiquons au réseau qu'il a faux. Ainsi, il va se réajuster lui-même en modifiant ses paramètres pour éviter la même erreur.

J'espère que cela t'a éclairé davantage sur la composition et le fonctionnement des réseaux de convolutions. C'est ce système qu'utilise la reconnaissance faciale chez Facebook, à une voiture de comprendre les panneaux ou tout autre machine capable de comprendre son environnement.

Dans le prochain article, je parlerai de comment fonctionne un réseau de reinforcement learning, une machine capable d'apprendre depuis zéro ! Sans lui dire comment faire pour apprendre, la machine est capable de dialoguer, voir, et se déplacer juste parce que nous lui avons donné un objectif à atteindre !

Disruption : Préparez-vous à changer de monde

Disruption : Préparez-vous à changer de monde

Sans perdre de temps : un des meilleurs livres que j'ai lu en cette année 2018. Voilà c'est dit. En effet, un style très facile à lire, du coup on mange les pages rapidement. Pour ceux qui n'ont pas l'habitude de lire c'est plaisant. Même si je comprends plutôt bien le sujet, c'est un livre qui a un vocabulaire et une syntaxe accessible à toutes et à tous.

C'est un bon bouquin pour toute personne qui veut se lancer dans son business ou qui en a marre du salariat sans comprendre pourquoi. Stéphane Mallard pose des mots aux maux sociétaux. Ce livre doit également se retrouver dans les mains de manager, de chef d'entreprise ainsi que dans les Comex. Ceux-ci auront une larme de douleur à la lecture de certains paragraphes.

"Le rôle de la douleur, des déceptions et des idées noires n'est pas de nous aigrir, de nous faire perdre nos valeurs et notre dignité, mais de nous mûrir et de nous purifier". Peter camenzind - Hermann Hesse

Pour faire très simple, la "disruption" est un nouveau modèle d'entreprise qui est en rupture avec ce qui se fait. Uber est la disruption de monde des taxis. Amazon est la disruption des centres commerciaux. Mais pas seulement.

Dans l'introduction, Stéphane dit que la disruption est multiforme. Elle est technologique, sociale, sociétale, économique, anthropologique et transgressive. Et il nous emmène sous le prisme de la disruption sous chacune de ces formes. Renversant ! Je poursuis ce challenge d'un livre par mois, avec Disruption de Stéphane Mallard, je donne mon point de vue, et je reprends les idées qui m'ont le plus percuté. En te souhaitant une bonne lecture !

L'empathie la valeur refuge

Un niveau d'empathie élevé sera la compétence humaine faisant clairement la différence entre les entreprises/experts. Sans cette compétence, elles/ils seront sans activité à l'heure de l'IA. Nous sommes constamment (et on le sera de plus en plus) assistés par l'IA. La meilleure façon de pouvoir continuer à fournir des services haut de gamme (qui deviennent peu à peu la norme), c'est l'empathie. Par exemple, si tu es membre premium chez Amazon ou client Apple.

Un jour j'ai commandé des compotes pour ma fille. J'avais commandé 5 lots de 4 compotes. 2 pots ont été écrasés, j'ai nettoyé les autres et j'ai signalé un problème. Ils ne m'ont pas questionné ni demandé de justificatif et ont recommandé l'intégralité gratuitement, le tout livré en 24h. Pour ainsi dire, je n'avais pratiquement rien demandé. Ils ont fourni un service premium en anticipant ma demande (remboursement) et ont offert plus que ce que j'attendais (2 pots remboursés versus 20 nouveaux pots livrés le lendemain !).

Ce service "premium" devient peu à peu la norme. Nous devenons de plus en plus en exigeant car de nouveau acteur permet de fournir un service irréprochable à moindre coût. Je m'attends à un niveau équivalent pour tous les autres services, que ça soit pour prendre un abonnement pour les transports en commun comme pour avoir un rendez-vous avec le pédiatre.

I am a slasher and switcher

Je suis un slasher car je fais plusieurs métiers en même temps. Mes activités professionnelles font que je ne peux pas rester les bras croisés, et j'ai plusieurs passions. Je suis un switcher non pas, parce que j'ai quitté une grande entreprise mais plus par mon aversion au salariat. Le livre Jouez sa peau, m'a totalement convaincu que nous sommes des esclaves modernes dont l'entreprise nous dicte notre façon de penser et de se comporter. Je tiens bien trop à ma liberté et je ne conçois pas de limiter ma liberté enfermée dans une prison appelé bureau en échange d'un salaire.

Disruption ; Dilemme de l'innovateur

Toutes personnes issues de filière marketing ou commerciale connaît la loi de Pareto. La fameuse loi des 20-80, où en d'autres termes, "20 % de nos clients génèrent 80% de notre chiffre d'affaires". Le dilemme de l'innovateur est de trouver un produit ou un service qui permet de satisfaire les 80% des clients restant ! Ce qui est tout de même incroyable qu'une entreprise aujourd'hui fasse le nécessaire pour rendre le service optimal pour une minorité. (D'ailleurs dans l'article de Taleb, il explique justement le pouvoir des minorités.)

L'obsession du service client

Pour une entreprise traditionnelle, le client est un numéro dans une base de données qui permet la hausse du chiffre d'affaires. Si un client est mécontent : "faite le taire le plus rapidement".

Pour les disrupteurs, le client est une obsession. Ils résonnent plus ainsi : "c'est parce que nous leur apportons un service en or qu'il nous augmentera notre chiffre d'affaires". L'approche est totalement différente. Chez Amazon, plus haut j'ai dit qu'ils m'ont remboursé sans que je me justifie. J'ai été mécontent, mon problème a été très bien résolu. Par conséquent, je suis davantage heureux d'être leur client (la preuve j'en parle !). Pour un disrupteur, un client mécontent est une opportunité de faire ravir l'entreprise !

En d'autres termes, le dilemme de l'innovateur est donc de trouver un nouveau marché avec des revenus inconnus sur une cible méconnue. Ne pas se lancer est rationnel pour l'entreprise. On le lit à plusieurs reprises, les sociétés ne prennent aucun risque. Et justement, selon Stéphane Mallard (et d'autre d'ailleurs), ce manque de risque va les conduire à leur propre perte.

Aujourd'hui les nouveaux entrants dans un domaine procèdent ainsi. Un disrupteur va donc axer son business model en partant de ces 80%. Prenons Revolut ou N26, les néo-banques ; elles proposent des services "bas de gamme" donc très peu cher (pas de frais de banque, carte gratuite), en offrant une expérience réjouissante (ouvrir un compte bancaire en 8 minutes) tout en gardant un service client élevé (Revolut répond 24/7). Cela satisfait l'exigence des 80% des clients mais génèrent très de peu de CA. Lorsqu'elles atteindront une masse critique d'utilisateurs, elles proposeront d'autres services à fortes valeurs ajoutées.

Monkey first

Une métaphore que j'ai adoré dans ce livre, est le monkey first. Chez Google X, la branche de Google pour l'innovation, ont un adage le : "Monkey First". En effet, si l'on donne pour exercice :

"Construisez un piédestal et apprenez à un singe à jouer du Shakespeare"

95% des gens commenceront à construire le piédestal. En effet, nous le ferons pour montrer au manager que nous nous sommes mis au travail, et pris la difficulté à bras le corps. Alors que la plus grande difficulté est d'apprendre au singe à parler ! Les entreprises agissent de la même manière, elles contournent leur propre (vrai) problème et difficulté par des approches plus faciles et surtout pour avoir des résultats plus visibles.

Mon point de désaccord : le marketing

Oui le marketing a bien changé. En effet, le marketing traditionnel (faire de l'affichage urbain par exemple) n'a pas le vent en poupe car les campagnes digitales sont plus précises et plus flexibles. Selon Stéphane, le marketing va disparaître. Je ne suis pas contre cette idée, mais plutôt dans la réflexion.

Regarde mon thread sur Twitter :

Pourquoi ne voyons-nous pas que les choses vont de plus en plus vite ?

Nous sommes adaptés pour suivre

Stéphane nous apporte un élément de réponse à cette question fort intéressante. Notre cerveau est programmé pour suivre notre environnement immédiat. Par conséquent nous ne voyons pas l'inertie technologique qui nous entraîne de plus en plus vite. Comme un cycliste qui a la tête dans le guidon, il est très réactif au comportement de son vélo et suit la route avec un regard vif et une concentration maximale. Cette appréhension naturelle à voir notre environnement immédiat à un défaut. En effet, ce même cycliste a beaucoup de difficulté à voir l'issue de sa course, à visualiser le reste du parcours futur. Ainsi nous sommes aptes à utiliser toujours plus de technologie, mais nous manquons de discernement quant à notre avenir.

Neuro-augmentation pour aller toujours plus vite

Dans le dernier tiers du livre, Stéphane nous parle des pratiques de la Silicon Valley pour augmenter leur créativité, leur productivité toujours dans le but d'aller plus vite. Je ne vais pas spoiler la fin, mais c'est un passage où j'ai appris pas mal de chose, notamment l'influence du Burning Man !

Pour conclure, Disruption est un livre accessible à tous et que je recommande de lire. Que tu sois étudiants, salariés, à ton compte ou membre d'un Comex, il faut l'avoir entre les mains ! Pour moi cet ouvrage fait le résumé de plusieurs livres. Du livre La Guerre de Intelligence (pour le coté IA et tech),  de Jouez sa peau pour le côté anti-entreprise (entreprises qui ne prennent pas de risque, fin du salariat etc.) et Libérez votre cerveau (pour le coté cognitif et le style qui se lit tout aussi bien).

Etre autodidacte, faire plusieurs activités, apprendre plusieurs domaines et prendre des risques sont les qualités nécessaires pour les dix prochaines années. Je partage la même position que Stéphane concernant le devenir des entreprises traditionnelles. Elles vont toutes mourir, car la génération d'aujourd'hui est plus exigeante, nous avons le choix et perdons pas de temps pour changer. D'autant plus que nous voulons vivre des expériences incroyables et toujours dans un rythme de plus en plus important.

L'avènement de la conscience artificielle n'est pas liée de la singularité

L'avènement de la conscience artificielle n'est pas liée de la singularité

Pour fabriquer une IA consciente il faut trois éléments. Une machine qui réagit à son environnement, comme une lampe à détection de mouvement. Ensuite qu'elle soit capable de prendre des décisions - quand tu fais une recherche sur Google, l'IA prend la décision de te présenter ces résultats. Et enfin qu'elle soit capable de se voir elle-même en train d'agir et se poser des questions sur ses agissements. Ce sont des aspects bien commun de nos jours et contrairement à ce que l’on pourrait croire, il est plutôt facile d’en créer une. Mais alors, pourquoi nous n’en voyons pas ? Je vais te l’expliquer mais avant tout il faut faire un tour dans l’inconscient des humains.

La théorie de l’esprit

Pour comprendre la conscience humaine, il faut plonger profondément dans l'étude de la théorie de l'esprit.
La théorie de l'esprit est la tentative par un cerveau de déterminer le contenu d'un autre cerveau. Par exemple, Amandine se demande ce que pense Bruno du monde dans lequel nous vivons tous. Amandine crée des théories sur l'état actuel de l'esprit de Bruno.

Elle fait cela pour deviner ce que Bruno pourrait faire ensuite. Il est vrai d’un côté, aucun pouvoir ne pourrait être plus grand pour un animal social comme nous, les humains, d’anticiper le comportement des autres. Pendant des milliers et des milliers d'années, nous avons vécu à proximité des uns des autres. À mesure que nos comportements et nos pensées devenaient de plus en plus complexes, il devenait crucial pour chaque membre de la tribu d'avoir une idée de ce que pensaient les autres membres et des actions qu'ils pourraient accomplir. La théorie de l'esprit, c’est de l'espionnage intellectuel ! Et nous sommes plutôt doués, mais avec des limites critiques que nous aborderons plus tard.

Notre cerveau est comme un ordinateur ?

Dès lors qu’un système s’auto-observe et essai de faire de prédiction sur ce qu’il voit (de manière la plus approximative possible) est tout à fait envisageable. Alors pourquoi nous ne le faisons pas ?
On aime penser que notre cerveau est comme un ordinateur. Avec une RAM (mémoire court terme), un disque dur (mémoire long terme), un système de refroidissement et alimentation (vaisseaux sanguins) etc. Mais c’est très loin d’être le cas. Un ordinateur est construit avec toutes les pièces de son époque. Le cerveau pas du tout, certaine zone du cerveau sont beaucoup plus vieille que d’autre. De plus, la mémoire n’est pas unifiée dans une seule partie.

D’autre part, notre cerveau bouge, change, adapte les aires (cela se nomme la plasticité cérébrale). Notre cerveau ressemble plus à une ville comme Rome, toute sinueuse, où l’ancien se mélange avec le moderne. D’ailleurs toutes les zones ne communiquent pas ensemble. Un exemple frappant, si tu as eu le mal de mer. Une partie du cerveau comprend qu’il y a une différence entre les informations de l’oreille interne et de ce que tu voies. Le cerveau se met en alerte “empoisonnement tout le monde sort d’ici”, et tu vomis tout ce qui est possible pour éliminer le poison. Sauf que consciemment, tu sais que tu n'as pas ingurgité de poison…

Un humain n’est pas une machine ?

Nous venons de voir que les humains ont des comportements différents avec des similitudes. D’une part, les humains se regroupent par similitude car l’union fait la force. Dans la nature, vivre en communauté est plus facile que vivre seul. D’ailleurs le test de Ash prouve que nous préférons nous conformer au groupe; même si le groupe à faux, plutôt que d’être seul contre le groupe. Et puis nous avons des comportements constamment contradictoire ! Pourquoi voulons-nous nous habiller et aller danser ? Parce que c'est drôle ! Et nos amis seront là ! Pourquoi voulons-nous continuer à manger quand nous sommes repus ? Parce que c'est délicieux ! Et nous avons fait mille pas supplémentaires aujourd'hui !
Ces questions sur nos propres comportements n’en finissent jamais. Et les réponses sont presque toujours fausses.

L’égo fait la conscience de soi

Nos suppositions sur les motivations des autres sont beaucoup plus précises que les suppositions que nous faisons sur les nôtres. Ce champ de force est notre ego, et il nous donne une opinion exagérée de nous-mêmes. En effet, nous nous accordons un esprit plus élevé pour nos actions et une illusion de dangerosité lorsqu'un autre est meilleur que nous (ensuite vient la fascination et l'envie de s'améliorer). C'est d'ici que vient ce biais "les machines voudront nous tuer".

Les explications incorrectes que nous présentons sur nos propres comportements visent à nous protéger. Elles sont souvent follement créatives, ou mêmes absurdes. Les réponses comme «amusant» et «délicieux» sont des réponses qui font référence à un module de bonheur, sans aucune curiosité quant aux avantages sous-jacents de ce mécanisme de récompense.

La vérité est que nous continuons à manger quand nous sommes repus parce que nous avons évolué dans un monde de pénurie calorique. Nous dansons pour attirer les copains et les copines à faire des copies de nous-mêmes (se reproduire). Parce que les modules de reproduction ont guidé ce comportement et nous sommes la descendance de ces premiers modules (c’est donc une affaire qui marche).

Alors cette machine existe-elle vraiment ?

Avec tous aspects précédents, si nous devions faire une analogie la plus précise d’une machine existante, alors je dirais : la voiture autonome connectée.

En effet, les voitures autonomes ont la capacité de voir et d’entendre pour se mouvoir sans heurter les obstacles. Elles ont donc une perception de leur environnement. Les voitures Tesla éduquent les  conducteurs pour l’utilisation de l’autopilot. La voiture conduit toute seule pendant un certain nombre de mètres et elle indique qu’il faut remettre les mains sur le volant. Plus le conducteur est réactif, plus la distance de conduite autonome sera longue. Il existe bel et bien une sorte de langage entre la machine et l’humain. Elles ont donc une perception langagière comportementaliste.

En voiture Simone

Maintenant, la conscience des autres. Si toutes les voitures étaient connectées, alors elles pourraient également communiquer entres-elles. Cette Nissan bleue va à l'épicerie parce qu'elle a faim. Et cette camionnette rouge va dans une station d'essence parce qu'elle a besoin de carburant. Cette voiture est en état d'ébriété. Celui-là ne peut pas très bien voir à cause de son phare cassé.

La bibliothèque de perceptions commence simplement avec les concepts du premier ordre, mais se transforme ensuite en idées de deuxième et troisième ordre. Est-ce que cette Ford jaune voit la Citroën grise venir vers elle ? Il s’est légèrement décalé, alors oui, c'est le cas. Est-ce que cette camionnette pense que la berline conduit trop agressivement ? Elle laisse plus de distance que les autres voitures, alors oui.
Notre machine va inventer des histoires sur ce qu'elle fait. Elle essaiera de relier ces histoires aux autres et ce sera souvent faux.

Est-ce vraiment souhaitable ? Nous avons créé des robots et des machines dans l’unique but qu’ils soient experts. Qu’ils traitent les informations sans erreur et de manière standardisée. C’est bien le paradoxe, nous fonctionnons totalement à l’opposé !

Rendre humain la machine, le piège anthropomorphique

Ce qui a vraiment fait apparaître Watson comme humain, c'est quand il a fait des gaffes. Comme une réponse finale de Jeopardy dans la catégorie "American Cities" où Watson a répondu une ville canadienne.
Il vaut la peine de noter ici que les robots nous semblent plus humains quand ils échouent.

Notre égo nous fait rire et nous fait peur

Il faut avouer que nous avons un certain plaisir quand nous regardons les vidéos des robots de Boston Dynamics. Notamment quand le robot soulève la boite et le gars tape sur la boite avec son bâton pour la faire tomber. Et maintenant quand nous voyons ce même robot faire un salto arrière (donc meilleur que nous) on se dit qu'il va nous écrabouiller... encore l'égo qui parle (relis le paragraphe, ci-dessus, de l'égo fait la conscience de soi) !

Les constructeurs automobiles sont en train de construire des véhicules qui ne seront jamais conscients. C'est parce qu'ils sont trop biens construits ! Notre projet consiste à rendre une machine ignorante de ses motivations tout en fournissant un dialogue de ces motivations. Une meilleure idée serait de construire une machine qui sait ce que font les autres voitures. Pas de devinettes.

Le savoir est la nouvelle richesse

Cela signifie accès au GPS, aux messages du smartphone, aux e-mails de l'ordinateur personnel. Mais aussi l'accès à tous les autres véhicules et toutes les données des capteurs de la ville. La Nissan dit à la Ford qu'elle va au centre commercial. Chaque voiture sait ce que chaque voiture fait. Il n'y a pas de collision.

Sur l'autoroute, des voitures aux destinations similaires se regroupent, des pare-chocs magnétiques se relient, en file indienne et réduisant de moitié l'utilisation énergétique collective de chaque voiture. Les machines fonctionnent de concert. Elles affichent tous les traits de l'omnipotence véhiculaire. Elles savent tout ce qu'elles ont besoin de savoir, et avec de nouvelles données, elles changent d'avis instantanément. Pas de parti pris. D'ailleurs, si une entreprise dit pouvoir guérir n'importe quelle maladie dans l'unique condition de te pister, même biologiquement, serais-tu prêt à l'accepter ?

L'IA sera au service de l'Homme

L’avenir le plus probable selon moi, c'est l'expansion et l'amélioration de nos propres algorithmes. Nous avons une longue histoire sur la condition humaine et de l’Homme contre l’Homme. Malgré ce que les nouvelles locales essaient de te vendre, le monde devient plus sûr tous les jours pour la grande majorité de l'humanité. Où l'éthique s'améliore. Nos sphères d'empathie sont en expansion. Sans besoin de créer une conscience artificielle.

La singularité

Pour conclure, selon moi nous vivons déjà la singularité. La machine est déjà plus performante que l'Homme dans bien des tâches. Les IA leur manque le "sens commun", c'est-à-dire la capacité à trouver une solution dans n'importe quelle situation. L'Homme a la prodigieuse capacité d'apprendre dans de nouvelle situation. Je ne sais pas faire un mur avec des briques et du ciment pourtant sur le fait accompli, j'essaierais, je vais surement me tromper et être très lent mais je suis "capable" de le faire. Est-ce grâce à ma conscience ? Pourtant je ne suis pas conscient de tout ce que je sais !

Enfin, une conscience a déjà été simulée, je te conseille de lire les recherches du professeur Alain Cardon sur la conception d'une conscience artificielle. N'en démords pas moins qu'il a détruit ses travaux dans l'attente d'un comité d'éthique mondial sur les réglementations et les usages de l'IA.

Nous pouvons également considérer notre propre cerveau comme une machine. Il est impossible de prouver le contraire. Exemple : comme un ordinateur dont on ne voit pas la masse de calcul à chaque instant, notre programme nous empêcherai de voir comment notre cerveau fonctionne !

 

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Un grand défi en neuroscience est de comprendre comment le cerveau encode l'information. Les réseaux de neurones se révèlent être des crackers de code géniaux.

Notre cerveau code ses informations

Chaque fois que vous déplacez votre main ou votre doigt ou votre globe oculaire, le cerveau envoie un signal aux muscles pertinents contenant l'information qui rend ce mouvement possible. Cette information est encodée d'une manière spéciale qui permet la transmission par les neurones et ensuite d'être appliquée correctement par les muscles concernés.
Exactement, comment ce code fonctionne ? C'est un mystère. Depuis longtemps, les neuroscientifiques sont en mesure d'enregistrer ces signaux lorsqu'ils traversent les neurones. Mais les comprendre est beaucoup plus difficile. Il existe différents algorithmes qui peuvent décoder certains de ces signaux, mais leurs performances sont inégales.

Une technique permet de lire le code du cerveau

Aujourd'hui, Joshua Glaser à Northwestern University à Chicago et quelques copains disent qu'ils ont développé une telle technique en utilisant la nouvelle technologie du ML (Machine Learning). Ils disent que leur décodeur dépasse considérablement les approches existantes. En effet, il est tellement efficace que l'équipe affirme qu'elle devrait devenir la méthode standard pour analyser les signaux neuronaux à l'avenir.

Partons dans le cerveau

L'information se déplace le long des fibres nerveuses sous la forme de pointes de tension (électrique). Les neuroscientifiques pensent que le schéma des pointes code les données sur les stimuli externes, tels que le toucher, la vue et le son. De même, le cerveau encode l'information sur les mouvements musculaires d'une manière similaire.

Comprendre ce code est un objectif important. Il permet aux neuroscientifiques de mieux comprendre l'information qui est envoyée et traitée par le cerveau. Il aide également à expliquer comment le cerveau contrôle les muscles.

Les neuroscientifiques aimeraient avoir de meilleures interfaces cerveau-machine. Les buts sont multiples (contrôler les fauteuils roulants, les prothèses et les jeux vidéo). «Le décodage est un outil essentiel pour comprendre comment les signaux neuronaux se rapportent au monde extérieur», disent Glaser et Co.

La méthode utilise le ML avec peu de données

Leur méthode est simple. Les neuroscientifiques ont formé des singes macaques. En effet, l'exercice est de déplacer un curseur vers une cible sur un écran. Pour cela les macaques utilisent une sorte de souris d'ordinateur. Dans chaque test, le curseur et la cible apparaissent sur un écran à des endroits aléatoires. Alors le singe doit déplacer le curseur horizontalement et verticalement pour atteindre le but.

Après avoir formé les animaux, Glaser et Co ont enregistré l'activité de dizaines de neurones dans les parties de leur cerveau qui contrôlent le mouvement : le cortex moteur primaire, le cortex prémoteur dorsal et le cortex somatosensoriel primaire. Les enregistrements ont duré environ 20 minutes.

Le travail d'un algorithme de décodage consiste à déterminer la distance horizontale et verticale que le singe déplace le curseur dans chaque test, en utilisant uniquement les données neuronales. Les algorithmes conventionnels fonctionnent en utilisant une technique statistique connue sous le nom de régression linéaire. Cela implique d'estimer une courbe qui correspond aux données, puis de réduire l'erreur qui lui est associée. Il est largement utilisé dans le décodage neuronal dans des techniques telles que les filtres de Kalman et les cascades de Wiener.

Plusieurs techniques mises à contribution

Les neuroscientifiques ont comparé ces techniques à une variété d'approches d'apprentissage mécanique basées sur des réseaux de neurones. Il s'agissait d'un réseau de mémoire à long terme, d'un réseau neuronal récurrent et d'un réseau de neurones feedforward. Tout cela provient des ensembles de données annotés, et plus l'ensemble de données est grand, plus ils apprennent.

Les résultats sont convaincants. Glaser et Co disent que les techniques de ML ont considérablement surpassé les analyses conventionnelles. "Par exemple, pour l'ensemble des trois domaines du cerveau, un décodeur du réseau de mémoire à long terme a expliqué plus de 40% de la variance inexpliquée d'un filtre Wiener", disent-ils.

"Ces résultats suggèrent que les techniques modernes de ML devraient devenir la méthodologie standard pour le décodage neuronal".

À certains égards, il n'est pas surprenant que les techniques de ML soient bien meilleures. Les réseaux de neurones ont été à l'origine inspirés par l'architecture du cerveau. C'est pourquoi, le fait qu'ils peuvent mieux modeler leur fonctionnement est attendu.

Des résultats qui doivent être re-analysés

L'inconvénient des réseaux de neurones est qu'ils ont généralement besoin de grandes quantités de données d'entraînement. Mais les neuroscientifiques ont délibérément réduit la quantité de données. Ainsi, ils ont constaté que les réseaux neuronaux étaient encore supérieurs aux techniques classiques.

C'est probablement parce que l'équipe a utilisé des réseaux plus petits. "Nos réseaux ont de l'ordre de 100 000 paramètres. Alors que les réseaux communs pour la classification des images peuvent avoir sur l'ordre de 100 millions de paramètres", disent-ils.

Le travail ouvre la voie à d'autres pour s'appuyer sur cette analyse. Glaser et Co ont mis leur code à la disposition de la communauté afin que les ensembles de données neurales existants puissent être réanalysés de la même manière.

La machine est créée sur la base d'un réseau humain

Il y a beaucoup à faire. Peut-être la tâche la plus importante sera de trouver un moyen de procéder au décodage neuronal en temps réel. Tous les travaux de Glaser et Co ont été effectués hors ligne après l'enregistrement des enregistrements. Mais il serait évidemment utile de pouvoir apprendre à la volée et de prévoir le mouvement tel qu'il se produit.

C'est une approche puissante qui a un potentiel important. Ce serait une surprise si la même chose n'était pas le cas du décodage neuronal.

Source

Pourquoi l'IA arrive à son âge d'or aujourd'hui?

Pourquoi l'IA arrive à son âge d'or aujourd'hui?

La recherche en IA a commencé dans les années 1950. Après de faux espoirs répétés, l'IA est aujourd'hui à son point d'inflexion. L'efficacité de l'IA a été transformé ces dernières années en raison du développement de nouveaux algorithmes. Il a fallut rassembler un certains nombres d'ingrédient pour que l'IA soit efficace. En effet, nous profitons d'une plus grande disponibilité des données afin de la "nourrir" (big data). Couplé d'un meilleur matériel pour la créer et les services basés sur le cloud pour catalyser leur adoption par les développeurs. Voyons ensemble ces cinq points :

1. Algorithmes améliorés

Le Deep Learning n'est pas nouveau. Spécifiquement, le premier réseau multi-couche neuronal efficace a été publié en 1965. L’évolution des algorithmes en Deep Learning ont transformé tous les résultats au cours de la dernière décennie !
Notre capacité à reconnaître des objets dans les images a été transformé (figure 9). Via le développement des réseaux de neurones convolutifs - convolutional neural networks (CNN). Un design inspiré par le cortex visuel des animaux. En effet, chaque couche dans le réseau neuronal agit comme un filtre pour la présence d'un motif spécifique. En 2015, le système de vision par ordinateur basé sur le CNN, Microsoft a identifié des objets dans des images plus efficacement (95,1% précision) que les humains (94,9% de précision). «À notre connaissance," ils ont écrit, «notre résultat est le premier à dépasser les performances au niveau humain." Applications plus larges des CNNs comprennent la reconnaissance vidéo et de la parole.

reconnaissance IA du langage humain
Les progrès dans la parole et la reconnaissance d'écriture, quant à lui, s'améliore rapidement (Figure 10) après la création de réseaux de neurones récurrents - recurrent neural networks (RNN). Les RNNs ont des liens de rétroaction qui permettent aux données de circuler dans une boucle. A la différence des réseaux neuronaux classiques qui "avalent les informations" seulement. Un nouveau type puissant de RNN est la «longue mémoire à court terme» (modèle LSTM).

C'est pourquoi, avec des connexions et des cellules de mémoire supplémentaires, les RNNs "se souviennent" des données. Celles qu'ils ont vu des milliers d'étapes auparavant et vont les utiliser pour informer leurs interprétations de ce qui suit. En somme, précieux pour la reconnaissance vocale où l'interprétation du mot suivant sera informé par les mots qui l'ont précédé. Depuis 2012, Google a utilisé les modèles LSTMs pour alimenter le système de reconnaissance vocale dans Android. En novembre 2016, les ingénieurs de Microsoft ont indiqué que leur système avait atteint un taux d'erreur de parole de 5,9%. Un chiffre à peu près égal à celui des capacités humaines pour la première fois dans l'histoire.
Niveau langage humain par IA atteint des records

2. Matériel spécialisé

Les GPUs sont des circuits électroniques spécialisés qui réduisent le temps requis pour former les réseaux de neurones utilisés pour le Deep Learning.
Les GPU modernes ont été développés à l'origine à la fin des années 1990 pour accélérer les jeux 3D et des applications de création 3D. En effet, faire un zoom dans un logiciel 3D utilise un processus mathématique appelé "calcul matriciel répété". Les microprocesseurs avec des architectures en série, ce sont les processeurs qui alimentent les ordinateurs d'aujourd'hui. Ils sont peu adaptés à la tâche. C'est pourquoi, les GPU ont été développé avec des architectures massivement parallèles (la Nvidia M40 a 3072 cœurs) pour effectuer efficacement des calculs matriciels .

Une formation d'un réseau neuronal fait usage intensif des calculs matriciels. Par conséquent, les GPUs qui sont utiles pour les jeux 3D. Ces GPUs se retrouvent très bien adaptés pour accélérer le Deep Learning. Néanmoins leur effet a été considérable; un GPU simple peut offrir un gain de temps cinq fois plus rapide pour l'entraînement d'un réseau de neurones. Tandis que les gains de dix fois ou beaucoup plus sont possibles sur des problèmes plus importants ! Lorsqu'il est combiné avec des kits de développement en DL, les améliorations de la vitesse d'entrainement peuvent être encore plus grande (Figure 11).GPU augmente par 60 la vitesse IA

3. De nombreuses données

Tout d'abord, les réseaux de neurones utilisés pour le Deep Learning nécessitent généralement de grands ensembles de données. De quelques milliers d'exemples à plusieurs millions. Heureusement, la création de données et la disponibilité a augmenté de façon exponentielle. Aujourd'hui, alors que nous entrons dans la «troisième vague» des données, l'humanité produit 2,2 exaoctets (2300 millions de gigaoctets) de données chaque jour ; 90% de toutes les données du monde a été créé au cours des 24 derniers mois.

D'une part, la «première vague» de la création de données, qui a commencé dans les années 1980. Les ordinateurs de bureau connectés à Internet ont généré des documents et de données transactionnelles. D'autre part, une «deuxième vague» des données a suivi. En effet, l'explosion des médias non structurées (e-mails, photos, musique et vidéos), des données Web et méta-données résultant des smartphones. Aujourd'hui, nous entrons dans le «troisième vague» des données. Dans laquel des capteurs de machines déployés dans l'industrie et dans la maison créent un suivi supplémentaires et des travaux analytiques.

Dernièrement, nous, l'espèce humaine, nous avons transféré 100 Go de données par jour en 1992, d'ici 2020, nous transférerons 61 000 Go (ou 61 To) par seconde de data (Figure 12).Le trafic internet augmente logarithmement

Au-delà de l'augmentation de la disponibilité des données générales, les ressources de données spécialisées ont catalysé des progrès dans le DL. Par exemple, le site ImageNet est une base de données librement disponible de plus de 10 millions d'images renseignées à la main. Sa présence a soutenu le développement rapide de la classification d'objet par les algorithmes en Deep Learning.

4. Les services Cloud

L'utilisation des ML par les développeurs est catalysée par la fourniture d'une machine dont l'infrastructure est dans le cloud.

Google, Amazon, Microsoft et IBM offrent tous une infrastructure basée sur le cloud. Pour conséquence de réduire le coût et la difficulté de développer les capacités des ML.

En outre, ils offrent une gamme en plein essor des services de Machine Learning en Cloud (de reconnaissance d'image à la traduction de la langue) que les développeurs peuvent utiliser directement dans leurs propres applications. Google Machine Learning propose des services faciles d'accès pour :

  • vision (identification des objets, la détection du contenu explicite, la détection de visage à l'analyse des sentiments);
  • la parole (reconnaissance de la parole et lecture des textes);
  • analyse de texte (reconnaissance de l'entité, l'analyse des sentiments, la détection de la langue et de la traduction); et
  • la recherche d'emploi (définition des compétences et correspondance à l'ancienneté).

Microsoft Cognitive Services comprend plus de 21 services dans les domaines de la vision, de la parole, la langue, la connaissance et la recherche.

5. Les intérêts et l'esprit d'entreprise

Effectivement, de la part du public l'intérêt pour l'IA a augmenté six fois au cours des cinq dernières années. Nous notons une encore plus grande augmentation du nombre de placements dans des sociétés IA par les sociétés d'investissement (Figure 14). En effet, nous sommes entrés dans un cercle vertueux. Dans lequel les progrès dans le Deep Learning est d'attirer l'investissement, l'entrepreneuriat et la sensibilisation. Ce dernier, à son tour, catalysent de nouveaux progrès (figure 13).Intérêt 6 fois plus important pour l'IAInvestissement 7 fois plus élevé IA

Que se passe-t-il ensuite ?

Enfin, les avantages de la ML et du DL seront nombreux et importants. Beaucoup seront visibles, des véhicules autonomes à de nouvelles méthodes d'interaction homme-machine. Beaucoup seront moins apparentes, mais permettront de créer des processus efficaces aux services des consommateurs.
C'est ainsi pour tout changement de paradigme, parfois des attentes gonflés dépassera le potentiel à court terme. Nous nous attendons à une période de désillusion au sujet de l'IA à un moment donné. Véritablement, elle sera suivie par une reconnaissance plus longue et durable de sa valeur. Ainsi, comme la ML est utilisée pour améliorer et réinventer les systèmes existants.

Cet article fait suite également à "Nous sommes en train de vivre une quatrième révolution industrielle"

Comprendre les limites de l’apprentissage en profondeur (Deep Learning)

Comprendre les limites de l’apprentissage en profondeur (Deep Learning)

L'intelligence artificielle a atteint un haut niveau médiatique. Nous pouvons lire dans la presse que les entreprises ont remplacé les travailleurs par Watson de IBM et que les algorithmes battent les médecins dans leurs diagnostic. Chaque jour de nouvelles start-up sur l'IA sont créées tous les jours, prétendant résoudre tous vos problèmes personnels et d'affaires.

Les objets ordinaires comme des frigos et des routeurs Wi-Fi s'annoncent soudainement « powered by AI ». Des bureaux intelligents qui se souviennent de vos paramètres de hauteur, peuvent aussi commander votre déjeuner.

Tout ce brouhaha est crée par des journalistes qui ne prennent pas le temps de discuter avec des ingénieurs ou des Digital Evangelist afin de s'assurer quelles entreprises utilisent vraiment de l'Intelligence Artificielle. Tant de fausses idées sont véhiculées. Lors de conversations passionnantes, je me retrouve à expliquer ce qui est possible et la limite actuelle de ce qui ne l'est pas (encore) pour l'Intelligence Artificielle.

Le Deep Learning est plus une prouesse qu'une promesse

Pour être claire d'entrée de jeu, les réseaux de neurones ont été crée dans les années 60. C'est donc une technologie vieille de plus de 50 ans ! Le Deep Learning est issu des réseaux de neurones artificiels. Les exploits ne sont visibles que depuis quelques années car nous avons aujourd'hui deux choses essentielles : les data et la puissance de calcul pour les traiter.

Les résultats sont indéniablement impressionnants. Les ordinateurs peuvent désormais reconnaître des objets dans les images et la vidéo et retranscrire au texte la parole mieux que les humains. Google a remplacé l'architecture de Google Translate par des réseaux de neurones, et maintenant la traduction automatique est aussi proche de la performance humaine.

L'apprentissage profond a aussi des problèmes profonds

Le problème le plus important aujourd'hui pour l'IA est l'abstraction et le raisonnement. Les algorithmes de perception et de Reinforcement Learning nécessite une quantité monstrueuse de données. Ces algorithmes ont pour limite de ne pas planifier leur action et ne font qu'une simple reconnaissance de modèle.

En revanche, les humains apprennent avec très peu d'exemples, peuvent faire de la planification à très long terme, et sont capables de former des modèles abstraits d'une situation et [manipulation] de ces modèles pour atteindre une généralisation extrême.

Pour simplifier : lorsqu'un enfant commence à parler, on lui dit "voiture" on pointe du doigt (connaissance du modèle), l'enfant répète "voiture", le parent lui répond "oui !" (acquisition du modèle). Maintenant une voiture peut être dangereuse, surtout lorsque nous traversons une route. L'enfant comprend "toutes les voitures sont dangereuses en roulant" (processus de généralisation). Lorsque l'enfant imagine traverser la route, il sait qu'il devra faire attention (processus de planification).

Comment ce cas est traité par le DP et le RL

Tout cela, était pour l'apprentissage humain. Pour un réseau de neurone c'est tout autre. Reprenons le même cas que représente le danger d'une voiture.

Pour l'apprentissage supervisé, vous aurez besoin d'énormes ensembles de données de situations différentes. D'une part il faudra reconnaitre une voiture dans n'importe quel angle, luminosité, vitesse différents. Et pour chaque cas des actions à prendre clairement identifiées. Comme « en arrêt » ou « en mouvement ». Ensuite, vous aurez besoin de former un réseau de neurones pour apprendre la correspondance entre la situation et l'action appropriée.

Pour l'apprentissage par renforcement, vous donnez à l'algorithme un but et le laisser déterminer indépendamment les actions idéales à prendre. Comme nous l'avions vu dans mon billet sur le Reinforcement Learning, l'ordinateur apprend en faisant des erreurs. Il va donc "mourir" des milliers de fois avant d'apprendre à éviter les voitures dans différentes situations. Et entre nous, nous n'avons qu'une vie et heureusement que notre cerveau n'agit pas de cette manière !

En effet, nous avons cette formidable capacité de "raisonnement", celui qui nous permet d'imaginer. C'est-à-dire de créer une réalité "imaginaire" et voir le pire comme se faire écraser par une voiture.

“You cannot achieve general intelligence simply by scaling up today’s deep learning techniques,” warns Chollet*.

"Vous ne pouvez pas obtenir des renseignements généraux simplement en multipliant les techniques d'apprentissage en profondeur d'aujourd'hui ", prévient M. Chollet

*François Chollet, est un ingénieur en IA chez Google. Aussi créateur de la bibliothèque de Deep Learning Keras.

Une limite, limite beaucoup l'apprentissage

Alors que les réseaux de neurones obtiennent des résultats statistiquement impressionnants à travers des échantillons de grande taille. Ils sont « individuellement peu fiables » et souvent font des erreurs que les humains ne feraient jamais, comme classer une brosse à dents comme une batte de base-ball.

brosse-à-dent-batte-baseball
brosse-à-dent-batte-baseball

La limite que l'ensemble des données soit erronée a joué des tours à Microsoft et Twitter. J'avais écris un article sur Siècle Digital sur ce sujet.

Peut-on surmonter la limite du Deep Learning ?

Je t'invite à lire la suite sur mon LinkedIn.

Le défi auquel nous sommes confrontés aujourd'hui n'est pas un « monde sans travail », mais un monde qui change rapidement de travail

Le défi auquel nous sommes confrontés aujourd'hui n'est pas un « monde sans travail », mais un monde qui change rapidement de travail

Cet article fait référence à ce précédent billet.

Le rythme des progrès dans l'intelligence artificielle et l'automatisation s'accélère rapidement

Dans l'unique mois de février, ce ne sont pas moins de cinq informations importantes que j'ai vu:

  • Google DeepMind Ltd à Londres, a développé un système pour numériser 1 million d' images à partir de scanner de l' oeil. L'IA sera suffisamment compétente pour repérer des maladies de l'oeil beaucoup plus tôt qu'un humain le pourrait.
  • Rethink Robotics Inc. de Boston, Massachusetts, fondée par l'ancien directeur du MIT AI Lab. Rodney Brooks, a fait des améliorations incroyables à ses robots Sawyer. Ce sont des robots que l'on peut entrainer très rapidement pour des tâches routinières. Mais il est aussi capable de procéder à des vérifications techniques dignes d'un expert.
  • H & R Block ont commencé à utiliser le système informatique Watson d'IBM pour maximiser les déductions des clients. Watson "connaît" des milliers de pages de code sur l'impôt fédéral et mettra à jour les changements à mesure de son apprentissage.
  • NuTonomy Inc., une startup développant les voitures auto-conduites basées sur la technologie du MIT. Ils ont lancé une petite flotte de taxis autonomes à Boston.
  • Forward , San Francisco, une startup fondée par l'ancien directeur des projets spéciaux de Google. Ils tentent de déplacer les soins de santé traditionnels aux soins proactifs grâce à l'utilisation de l'IA en raccourcissant le temps des diagnostics.

Le Deep Learning et les réseaux neuronaux ont considérablement amélioré leur propre efficacité. Cela conduit à des performances de niveau humain dans de nombreux domaines; tels que la vision, de la parole (conversationnelle) et la résolution de problème. En conséquence, les industries sont au milieu d'une transformation majeure de grande envergure.

Mais il y a aussi un changement sociétal

Le revenu médian en Amérique est plus faible aujourd'hui que dans les 15 dernières années. Comme on le voit dans les récentes élections américaines, il y a insatisfaction quant à la répartition inégale des avantages du progrès technologique. Recherche IDE soutient les gouffres que beaucoup ressentent.

Les rumeurs au sujet des robots qui remplacent de plus en plus le travail humain sont d'actualité; avec des préoccupations légitimes. Bien sûr, ce n'est pas la première fois que l'automatisation a transformé les usines. Cependant avec des technologies IA de plus en plus fiable d'aujourd'hui, l'automatisation commence à se glisser dans les domaines qui semblaient à l'abri de ce changement, comme le droit, l'éducation, et journalisme.

Au milieu de toutes ces merveilles, il est important de se rappeler qu'il n'y a pas de pénurie de travail qui peut être fait que par les humains. Comme dans ce précédent billet, j'explique qu'il y aura toujours du travail mais pas forcément avec des emplois. Et cela restera vrai pour de nombreuses années. Le défi auquel nous sommes confrontés aujourd'hui n'est pas un « monde sans travail », mais un monde qui change rapidement de travail. La réponse est donc non pas simplement de remplacer le revenu pour les travailleurs étant déplacés par la technologie, mais de les préparer à faire de nouveaux emplois. Ces emplois qui font cruellement défaut dans l'éducation, les soins de santé, les infrastructures, le nettoyage de l'environnement, l'esprit d'entreprise, l'innovation, la découverte scientifique, et beaucoup d'autres domaines.

Le travail oui, mais différemment

Comment ? Trop de dirigeants patronaux et syndicaux ainsi que des hommes politiques, sont devenus complaisants. Ils craignent un avenir qui va perturber (disrupter) les modèles et les économies actuelles. Mais la solution à la disruption n'est pas de protéger le passé du futur ni de geler les anciennes façons de faire. C'est garantir l'échec. La meilleure voie à suivre est d'adopter des outils et des modèles émergents qui non seulement créent des biens et des services, mais la prospérité générale.

Le développement de produits et des services IA d'une manière compétitive, ne doit pas entrer en conflit avec le déploiement - et le redéploiement - de la main-d'œuvre.

Au lieu de penser l'IA comme un jeu à somme nulle, ou un moyen d'automatiser des emplois et des services existants. Les dirigeants avant-gardistes reconnaissent que la technologie apporte une valeur ajoutée. En développant des emplois et stimulant la productivité.

Quand la technologie vient compléter les travailleurs humains, qui les rend plus productifs, et réduit également les coûts (La nouvelle société du coût marginal zéro ? prédit Jeremy Rifkin), les entreprises et les employés sont mieux lotis.

 

Source