Superintelligence

Devons-nous augmenter notre intelligence face aux avancées de l'intelligence artificielle ? Ou sommes-nous déjà dans un monde dirigé par une superintelligence ?
superintelligence

Ce mois de mai est particulier en termes de lecture car j’accumule plusieurs livres en même temps.

J’ai enfin terminé le livre de Nick Bostrom, je l’avais commencé en fin d’année 2018. Je me suis arrêté et j’ai repris plusieurs fois. Mais la complexité du livre a fait que j’ai mis beaucoup plus de temps à le lire que n’importe quel autre ouvrage. Je vais parler du livre à ma manière avec les infos les plus concrètes (et que j’ai retenues), mais sache que le bouquin est compliqué, plus d’une fois j’ai senti mon cerveau vouloir partir par tous les orifices de ma tête tellement il en avait marre de ne pas comprendre les concepts exposés !

Une petite fable sur la superintelligence en préambule

Cette fable résume fidèlement son ouvrage. En résumé, c’est l’histoire de petits moineaux qui en ont marre de leur vie. La vie est dure et ils s’en plaignent. L’un d’eux propose une solution, adoptons un hibou ! Il est plus fort que nous et il pourra surveiller le chat du voisin et fabriquer nos nids. L’idée est bonne et approuvée par tout le reste du groupe sauf par le vieux ronchon. Le vieux ronchon dit « nous allons droit à notre perte. Nous devons apprendre à apprivoiser le hibou avant d’en ramener un ici ». Oui mais cela semble encore plus compliqué qu’aller chercher un œuf de hibou de l’amener ici, dit le leader. Une fois le petit hibou naitra on pourra l’élever et on verra à ce moment-là.

Le vieux moineau ronchon proteste que ce n’est pas la meilleure façon, mais les moineaux sont déjà tous partis en quête d’un oeuf. Deux ou trois moineaux restaient au nid. Ensemble, ils ont commencé à essayer de déterminer comment apprivoiser ou domestiquer les hiboux. Ils se sont vite rendu compte que le vieux avait raison : c’était un défi extrêmement difficile, surtout en l’absence d’un hibou sur lequel s’entraîner ! Néanmoins, ils ont agi comme ils pouvaient, craignant constamment que le troupeau ne revienne avec un œuf de chouette avant de trouver une solution.

Ce qui est beau dans cette fable, c’est qu’elle n’a pas de fin ! Elle se termine comme ça et l’auteur dédicace son livre au moineau ronchon ! Je vois une belle métaphore avec une IA superintelligente, nous faisons tout pour la trouver mais nous n’avons pas moyen de s’entraîner à l’apprivoiser avant !

En page 16, le contexte est posé

superintelligence-citation1

Comment augmenter notre intelligence face à l’intelligence artificielle ?

Certains chercheurs sont obsédés par la course à l’intelligence. Certains pensent que l’IA va devenir plus intelligente que nous (superintelligente) alors ils se lancent dans une course effrénée pour augmenter l’intelligence de l’homme. En s’augmentant on gagne du temps sur la prochaine IA surperintelligente.

Figure 1

Les interfaces cerveau-machine (ICM)

Mais augmenter les capacités de notre cerveau n’est pas vraiment possible car il sait traiter beaucoup d’information cependant c’est l’usage qu’il en fait qui est important. Nous pouvons lire 18 livres en 1 jour, notre cerveau arrivera à encaisser les informations mais sera-t-il la « digérer » pour en faire usage par la suite, pas vraiment. Alors il est important de pouvoir augmenter notre QI mais il n’est pas possible d’augmenter les capacités de notre cerveau. Certain bandeau ou implant pourrait augmenter notre « bande passante » et ainsi augmenter le traitement de l’information.

En augmentant l’efficacité du traitement de l’information nous pourrons agréger de l’information mais aussi la diffuser en l’intégrant dans d’autre processus. Cela sera possible uniquement lorsque nous aurons une connaissance poussée de notre cerveau.

Devenir superintelligent par sélection génomique

Nick Bostrom en est convaincu, on arrivera à une superintelligence (SI), et essayer d’améliorer notre cerveau par les ICM n’est pas envisageable. En effet, il y a de gros progrès mais il semble mineur par rapport au résultat que nous voulons atteindre.

Le temps nous manquera

Améliorer notre cerveau, par sélection génomique, l’eugénisme pourrait augmenter l’intelligence par sélection embryonnaire, mais il y a tout de même un facteur temps à prendre en compte. Pour lui, le temps nous manquera, même si nous procédions de la sorte, l’IA arrivera à un tel niveau avant même que les deuxièmes voire troisièmes génération d’humain au cerveau augmentée soit plus intelligent que l’IA (il parle d’une échelle à 2050 – ce qui explique « figure 1 » plus-haut).

Cependant, il admet qu’avec plus de gens intelligent la société évoluera beaucoup plus rapidement et dans un avenir meilleur. Pour autant, même s’il y a une probabilité non nulle que l’inverse peut se produire aussi, trop de personne intelligente dans une société peut mener à sa perte. Cela donne une idée de scénario antagoniste à Idiocraty !

Nick Bostrom est persuadé, nous nous dirigeons vers une SI. Cependant nous ne savons pas quand, elle arrivera vite, tellement vite qu’au moment où le point de singularité sera franchi, les évènements vont s’enchaîner très rapidement. Soit mener la perte de l’espèce humaine, soit un esclavagisme passif, soit elle nous aidera à régler nos problèmes.

Mes points de divergences

En page 169, l’auteur nous parle d’apocalypse. Il faut partir du constat (oui il nous laisse plus le choix à partir de maintenant) qu’une IA générale est possible (ce qui est toujours dur à concevoir pour moi).

Nick Bostrom parle de mutinerie de l’IA. Personnellement, c’est de l’anthropomorphisme à plein tube, alors que quelques paragraphes avant il disait qu’il ne faut pas faire d’anthropomorphisme !

En effet, la mutinerie suggère que l’IA a autant d’ego qu’un humain et autant de perfidie. Même si elle est capable de nous tromper comment pourrait-elle subvenir à ses besoins ? Elle prend le contrôle du monde et nous mourons tous… C’est grossier comme argument.

Les humains comme les chevaux

superintelligence-citation2

Singleton

Pour étayer sa thèse, l’auteur parle de singleton. Bon je te sors la définition wikipédia mais cela ne va pas trop nous aider :

« En génie logiciel, le singleton est un patron de conception dont l’objectif est de restreindre l’instanciation d’une classe à un seul objet. Il est utilisé lorsqu’on a besoin exactement d’un objet pour coordonner des opérations dans un système. « 

wikipédia

En d’autres termes, un singleton peut être une société gérée par une IA générale. Elle s’occuperai de la production des services, de tout ce que les humains auraient besoin.

Un nouvel ordre mondial

Je reprends une partie de son texte : « Parmi ses pouvoirs figurent la capacité d’empêcher toute menace (interne ou externe) à sa propre existence et à sa suprématie, et la capacité d’exercer un contrôle effectif sur les principales caractéristiques de son domaine (y compris la fiscalité et la répartition territoriale) »

Un système simple mais compliqué

Il y a une partie (celle que je préfère) où l’IA est vu comme un outil pour nous aider et dans un certain nombre d’année on peut imaginer que le singleton nous aide dans la politique. Il pourrait contenir en son sein une énorme variété d’agents (IA) indépendants poursuivant chacun des objectifs différents. En quelques sortes des ministres mais cette fois, le service n’est pas représenté par un humain mais une IA ultra qualifiée de son ministère, comme dans un État démocratique libéral. Cependant, je cite « Les objectifs et les actions du singleton pourraient être décidés par ses habitants ou leurs représentants élus. » Du coup je perds le fil encore une fois, si les ministres sont des agents, alors les représentants élus, sont aussi des IA… ?

Un singleton, une superintelligence conspirationniste

Et la dernière partie (que je n’adhère pas), le singleton est une superintelligence, donc elle est aussi capable d’exécuter des tâches sans que l’Homme puisse s’en apercevoir.

En tout cas, il fait le florilège d’un singleton méchant, neutre, et bon. Sans pour autant, écrire 10 pages pour mentionner qu’il est très difficile pour nous, humain, de définir correctement ces 3 notions.

Pour conclure, comme une superintelligence peut aussi agir d’une manière invisible nous pouvons affirmer qu’une probabilité non nulle que nous vivons déjà dans un singleton. Et nous faisons la course à des agents préhistoriques, où l’IA joue déjà avec nous tel un chat avec une souris au bord de l’agonie.

Source

Partage ton amour pour cet article
Optimized with PageSpeed Ninja