Wednesday, September 20, 2006

La Singularité est proche... Et alors ?

J'ai récemment terminé la lecture du dernier livre de Ray Kurzweil, The Singularity Is Near, publié en 2005. Comme son titre l'indique, la thèse principale de cet ouvrage de plus de six cents pages est que la Singularité, également appelée singularité technologique, est proche. Ce concept, la Singularité, a été rendu populaire par Vernor Vinge, mathématicien, informaticien et auteur de science-fiction, d'abord dans les années 80, puis, surtout, avec la publication de son essai intitulé The Coming Technological Singularity, en 1993. Il désigne le moment dans l'histoire de l'humanité à partir duquel l'intelligence artificielle atteindra, puis dépassera l'intelligence humaine, avec toutes les conséquences que cela peut avoir. Il est difficile, par définition, de prédire les implications exactes de la Singularité, mais il est à peu près certain qu'elle participera à accélérer de manière spectaculaire le progrès scientifique, en général, et médical, en particulier. La thèse de Kurzweil est donc que, non seulement, cet évènement aura effectivement lieu, mais que ce sera le cas bien plus tôt qu'on ne pourrait le penser, à savoir, aux alentours de 2045. Autrement dit, que beaucoup de gens vivant actuellement auront encore l'occasion de vivre ce moment pour le moins inhabituel. Pas grand-chose à voir avec l'Apocalypse, donc, auquel le titre fait référence, non sans un certain humour...

The Singularity Is Near est l'un des rares livres traitant explicitement de la Singularité et ce, de manière aussi approfondie. C'est bon signe : cela suggère que le sujet est en train de devenir suffisamment populaire pour justifier une telle publication. Etant moi-même, depuis près de dix ans, intéressé par tout ce qui touche, de près ou de loin, à l'intelligence artificielle, je ne peux que m'en réjouir. Mais Kurzweil n'en est pas à son premier coup d'essai : il a déjà publié plusieurs livres à propos de l'intelligence artificielle et de ses conséquences, dont The Age Of Spiritual Machines, en 1999, que j'ai également lu, il y a quelques années. The Singularity Is Near est une extension, ou une mise à jour, en quelque sorte, des précédents ouvrages de Kurzweil. C'est en tout cas un livre riche en idées et en justifications. L'un des rares reproches que je pourrais lui faire est qu'il ressemble un peu trop à un recueil d'essais : on a l'impression, par moments, qu'il n'a pas été pensé dès le début comme un tout. Si je voulais être de mauvaise foi, je dirais même que Kurzweil a tendance à radoter, mais j'imagine qu'il est simplement victime de son enthousiasme...

Mais revenons-en aux points positifs de ce livre : comme je l'ai dit, The Singularity Is Near explore de nombreuses idées. Celles-ci ne sont pas forcément inédites, mais la force de Kurzweil est d'arriver à les mettre en perspective, de les illustrer, par de nombreux graphes, s'il le faut, et de les soumettre à la critique (un chapitre entier y est consacré). Prenons l'évolution, par exemple. C'est un concept que je considère crucial pour la compréhension de la Singularité. Kurzweil la définit comme un processus créant des structures d'ordre croissant ("a process of creating patterns of increasing order"). Pour comprendre ce qu'il entend par "ordre", il faut revenir à la théorie de l'information (au sens mathématique du terme). Pour résumer, dans cette théorie, des données contiennent de l'information si celles-ci ne peuvent être que peu compressées. Par exemple, la séquence 010101010101... contient peu d'information, car les chiffres 01 sont répétés de nombreuses fois. On peut dire que la notion d'information est liée à celle de prédictibilité. Plus des données sont prédictibles, moins elles contiennent d'information. Kurzweil définit ainsi l'ordre comme étant de l'information correspondant à un but ("order is information that fits a purpose"). Car l'information n'est pas forcément utile ! Elle peut, au contraire, être complètement aléatoire (on parle parfois de bruit). Plus l'information contenue dans une structure correspond à un but, plus l'ordre de cette structure est considéré comme étant important. Le but dont il est question dépend du contexte. Il peut être la survie d'une espèce, par exemple. Mais cette définition de l'évolution dépasse le domaine de la simple biologie. En effet, elle s'applique également à la physique et à la chimie, les particules élémentaires s'étant assemblées, de manière ordonnée, pour donner naissance aux atomes et aux molécules, les mêmes molécules qui ont un jour produit les briques élémentaires de la vie. Plus tard, l'ADN est apparu, permettant à l'information de transiter plus facilement d'une génération à une autre. Et ainsi de suite. Kurzweil définit ainsi un certain nombre de périodes de l'évolution ("epochs of evolution"), chacune donnant naissance à la suivante, en accumulant de l'information, en l'ordonnant :
  1. Physique et chimie. L'information est contenue dans les structures atomiques.
  2. Biologie. L'information est contenue dans l'ADN.
  3. Cerveaux. L'information est contenue dans la structure des réseaux neuraux.
  4. Technologie. L'information est contenue dans les plans des machines que nous construisons, dans les programmes informatiques, etc.
  5. Etc.
Une autre idée avancée par Kurzweil est que tout processus évolutif est soumis à ce qu'il appelle la loi des retours accélérés ("law of accelerating returns"). Autrement dit, les progrès résultant d'un processus évolutif n'apparaissent pas linéairement dans le temps, mais exponentiellement (voire selon une loi doublement exponentielle). Une autre loi très connue est celle de Gordon E. Moore, co-fondateur d'Intel, qui observait, en 1965, que le nombre de transistors sur un circuit intégré doublait à intervalle régulier (a posteriori, on peut dire que ce nombre a doublé chaque deux ans environ depuis une trentaine d'années). En quelque sorte, on peut considérer la loi des retours accélérés comme une généralisation de la loi de Moore, appliquée à la technologie, en particulier, et à tout processus évolutif, en général. Mais revenons à l'informatique. Il est important de constater que la progression exponentielle de la puissance de calcul des ordinateurs n'est pas limitée aux ordinateurs construits à l'aide de circuits intégrés. En effet, celle-ci n'a cessé d'augmenter de manière exponentielle durant tout le vingtième siècle, lorsque les ordinateurs utilisaient encore des éléments électromécaniques ou des relais électromagnétiques, jusque dans les années 30, puis des tubes à vide, dans les années 40 et 50, puis, enfin, des transistors, dans les années 60, avant l'apparition des circuits intégrés.

Jusque là, rien de vraiment étonnant. Tout le monde sait que l'informatique a connu des progrès fulgurants. Toutefois, le terme "loi", dans l'expression "loi des retours accélérés", est relativement fort. Il implique que la progression exponentielle de la technologie est supposée se poursuivre dans le futur, en tout cas jusqu'à ce que des limites physiques infranchissables (la vitesse de la lumière ?) soient atteintes. Qu'est-ce qui garantit que ce sera le cas ? Plusieurs choses, dont des facteurs économiques. Par exemple, on annonce régulièrement la "fin de la loi de Moore", mais il est évident que l'industrie des semi-conducteurs ne va pas attendre que les circuits intégrés atteignent leurs limites avant de financer la recherche d'autres technologies. A l'heure actuelle, plusieurs pistes semblent prometteuses : circuits tridimensionnels construits à partir de nanotubes, ordinateurs utilisant molécules, ADN, spin des électrons, lumière ou phénomènes quantiques pour traiter l'information. Une chose est certaine : nous n'avons pas encore, et de loin, atteint les limites computationnelles théoriques de la matière. Une autre raison pour laquelle la technologie s'améliore de manière exponentielle est que les outils développés durant une "génération technologique" peuvent être réutilisés lors de la génération suivante. Par exemple, au début de l'informatique, les ordinateurs étaient construits à la main. Désormais, ils sont conçus à l'aide de logiciels très complexes. C'est un phénomène qu'on retrouve dans beaucoup de processus évolutifs.

Pour qu'une intelligence artificielle équivalente à celle de l'homme puisse être conçue, il faut que la puissance de calcul des ordinateurs atteigne celle du cerveau humain. Kurzweil estime que ce seuil sera atteint à partir de 2020. Cette première contrainte concerne le matériel, mais il existe également une contrainte logicielle : il est en effet nécessaire de comprendre comment le cerveau humain fonctionne, pour pouvoir le simuler. Or, si les premiers modèles de neurones ont fait leur apparition dans les années 40, ça n'est qu'à la fin des années 80, avec l'algorithme de rétro-propagation (backprop), que les réseaux de neurones artificiels ont commencé à connaître un véritable succès. Cela ne fait donc pas si longtemps que l'on commence à modéliser de manière utile et pratique le cerveau. Les algorithmes génétiques, quant à eux, ont fait leur apparition dans les années 50, mais il a également fallu attendre les années 80 pour qu'ils commencent à se démocratiser. A l'heure actuelle, des modèles de plusieurs dizaines de régions du cerveaux, qui en comprend plusieurs centaines, existent déjà : régions auditives et visuelles, cervelet, hippocampe, etc. De plus, la résolution des instruments permettant de visualiser et d'étudier le cerveau augmente sans cesse, de manière... exponentielle ! Rien ne s'oppose donc à ce que des modèles de plus en plus précis et complets du cerveau soient rapidement proposés.

Si l'on accepte tout ce qui précède, c'est-à-dire que matériel et logiciel convergent vers un point où il sera possible de construire une machine aussi intelligente qu'un être humain, il faut aussi en accepter les conséquences, positives ou négatives. C'est ce que fait Kurzweil dans un chapitre consacré aux trois grandes technologies qui mèneront à la Singularité : la génétique, la nanotechnologie et la robotique. Le temps de ce chapitre, il met son enthousiasme de côté et s'intéresse aux dangers que représentent ces technologies. On peut aisément imaginer que des milliards de nano-robots capables de se reproduire de manière autonome, entre de mauvaises mains ou cas d'accident, pourraient facilement anéantir toute forme de vie sur terre (scénario du grey goo). De même, si une intelligence artificielle "amicale" (friendly AI) pourrait être bien utile pour résoudre toutes sortes de problèmes, une intelligence artificielle "ennemie" (unfriendly AI) pourrait, elle aussi, représenter un grave danger. Il s'agit donc de se préparer à ces menaces, en concevant d'ores et déjà des mécanismes de protection, mais aussi en réfléchissant à des règles destinées à prévenir ou, en tout cas, minimiser les dérapages, probablement inévitables, occasionnés par ces technologies. L'interdiction pure et simple de certaines technologies n'est pas une solution. Certains pays, plus permissifs, en profiteraient simplement pour prendre de l'avance. Et si tous les gouvernements parvenaient à se mettre d'accord sur les mêmes interdictions, cela ne ferait qu'encourager le développement illégal et a priori potentiellement plus dangereux de ces technologies.

Une voie naturelle pour éviter que les machines ne deviennent un danger pour nous est de fusionner avec elles, en quelque sorte. C'est un concept assez cher à Kurzweil. Que ce soit par l'intermédiaire d'implants ou de nano-robots, il s'agit d'améliorer notre corps et notre cerveau, d'augmenter nos facultés intellectuelles, pour éviter de se retrouver un jour, complètement dépassés, face à des machines des milliers, voire des milliards de fois plus intelligentes que nous. C'est une idée qui peut effrayer, mais il ne faut pas oublier que cela fait déjà bien longtemps que ce processus a démarré : prothèses, implants cochléaires, pacemakers, etc. Nous remplaçons déjà certaines parties de notre corps et la tendance n'est pas à un ralentissement dans ce domaine.

La Singularité peut donc avoir des conséquences fulgurantes, que ce soit sur notre espérance de vie ou notre bien-être en général, mais elle n'est de loin pas un concept largement admis. Kurzweil consacre un chapitre entier à toutes les réactions que ses idées ont pu susciter, essentiellement depuis la parution de The Age Of Spiritual Machines. C'est un chapitre qui a particulièrement retenu mon attention, ayant moi-même rencontré un accueil pour le moins sceptique chez la plupart des personnes avec qui j'ai abordé le sujet de la Singularité. Voici quelques-unes des critiques que je considère les plus intéressantes :
  • "Les tendances exponentielles ne peuvent pas toujours durer." On peut le dire en particulier à propos de la loi de Moore. C'est vrai qu'il n'y aucune raison pour qu'on puisse continuer à produire des circuits intégrés contenant de plus en plus transistors. Il y a des limites physique à cette progression. Mais il est aussi vrai, dans le cas des circuits intégrés, que d'autres technologies peuvent prendre le relais. Et vont très probablement le faire. De manière générale, les limites physiques sont souvent beaucoup plus éloignées qu'on ne pourrait le penser. Du coup, on a parfois tendance à surestimer le progrès technologique sur le court terme (à cause de l'enthousiasme qu'il suscite) et à le sous-estimer sur le long terme. C'est également une manière de penser qu'on retrouve régulièrement chez les scientifiques, qui font naturellement preuve d'un scepticisme prudent. Mais, comme le disait Arthur C. Clarke : "If an ederly but distinguished scientist says something is possible, he's very possibly right, but if he says it's impossible, he's very probably wrong."
  • "Le cerveau est trop complexe pour être simulé." Le cerveau peut être décrit par des modèles plus ou moins détaillés. Il est constitué de plusieurs centaines de régions. Chacune de ces régions est constituée de milliards de neurones. Chaque neurone est une cellule contenant diverses terminaisons, un noyau, etc. Chacun de ces éléments est constitué à son tour de molécules, elles-mêmes constituées d'atomes, etc. Mais on peut faire ce découpage à l'infini pour tout objet. Or, les modèles sont souvent plus simples que ce qu'ils décrivent. On peut le comprendre intuitivement en observant les fractales : des règles simples peuvent donner lieux à des résultats apparemment très complexes.
  • "Le cerveau ne peut pas être simulé par un ordinateur, car il implique des phénomènes quantiques." C'est essentiellement la critique formulée par Roger Penrose. Il n'est pas encore prouvé que les phénomènes quantiques observés dans le cerveau sont nécessaires à l'intelligence. Et, même si c'était le cas, cela ne ferait que prouver qu'il est possible de construire des ordinateurs quantiques, qui restent, à l'heure actuelle, plus un concept théorique qu'autre chose.
  • "Les ordinateurs ne peuvent pas simuler un cerveau, car ils ne sont que des machines." Que des machines... C'est presque une pétition de principe ! Il faudrait déjà prouver que le cerveau est autre chose qu'une machine. Si on pense aux machines d'aujourd'hui, alors, oui, les ordinateurs ne peuvent pas simuler un cerveau. Mais il faut songer aux ordinateurs, suffisamment puissants, qui existeront dans une vingtaine d'années. D'ici là, le logiciel aura aussi progressé. Enfin, il faut bien réaliser que les applications les plus impressionnantes de l'intelligence artificielle ne sont pas forcément visibles. Il est difficile de se faire une idée des avancées dans ce domaine "depuis l'extérieur". Cette critique est d'ailleurs reprise par John Searle, professeur en philosophie réputé, sous la forme de la métaphore de la Chambre Chinoise, sur laquelle je ne m'étendrai pas ici. Cette métaphore montre simplement l'ignorance de John Searle en matière d'intelligence artificielle. Connaît-il simplement l'existence de paradigmes tels que les réseaux de neurones artificiels ? En tout cas, il est difficile de croire qu'il ait autant été pris au sérieux.
  • "Les ordinateurs ne pourront jamais atteindre le niveau de l'intelligence humaine, car l'être humain possède une âme." Autrement dit : on ne peut pas tout comprendre, car certaines choses nous échappent forcément. Il est difficile de répondre à cette critique, car on sort du domaine de la science. Il y a des gens qui choisissent tout simplement de ne pas suivre la voie empirique. La discussion est alors difficile. Voire impossible. Une chose est sûre, par contre : on ne peut pas savoir si quelque chose est possible ou non avant d'avoir essayé de le réaliser. Il n'y a donc pas de limite a priori entre ce qu'on ne comprend pas encore et ce qu'on ne comprendra jamais.
  • "Les futurologues promettent toujours monts et merveilles." Où sont les voitures volantes et les robots dont la science-fiction nous parle depuis maintenant plus d'un siècle ? Cette critique met le doigt sur un fait bien réel : comme je le disais plus haut, les prévisions, dans le domaine de la technologie, sont très souvent trop optimistes, surtout lorsque l'enthousiasme est là. L'intelligence artificielle a d'ailleurs été l'une des victimes de ces prédictions hâtives et elle en souffre encore aujourd'hui. Bien entendu, cela ne signifie pas que toutes les prévisions sont vouées au même échec. Tout dépend de la manière dont on les argumente. Or, je pense que, dans ce domaine, Kurzweil sort bien son épingle du jeu.
Je pourrais encore passer en revue d'autres critiques, comme celles s'interrogeant sur le rôle négatif que pourraient jouer les gouvernements ou de potentielles catastrophes à l'échelle mondiale, mais l'essentiel est là : la Singularité intéresse et convainc encore peu. J'en viens donc à l'interrogation initiale qui m'a poussé à écrire cet article : et alors ? Que faire de la thèse de Kurzweil ?

D'abord, il s'agit de réaliser qu'il y a encore beaucoup de travail à fournir pour parvenir à la Singularité, essentiellement dans les domaines de la neurologie et de l'intelligence artificielle. De ce côté-là, je ne me fais pas trop de souci : contrairement à Kurzweil, je ne suis pas convaincu que la Singularité aura lieu aussi tôt, mais les recherches sont en cours et les résultats en découleront naturellement, tôt ou tard. Par contre, s'il y a du souci à se faire, c'est plutôt concernant toutes les discussions que vont forcément engendrer les technologies liées à la Singularité, lorsqu'elles deviendront plus visibles, dans une vingtaine d'années. Récemment, j'ai été étonné de constater que l'idée de l'évolution était aussi peu acceptée. Une étude publiée dans Science révèle que, dans beaucoup de pays européens, soi-disant civilisés, seuls 60% à 80% de la population accepte ce concept (aux Etats-Unis, cette proportion est malheureusement encore plus basse). Evidemment, tout dépend du point de vue que l'on prend. On pourrait argumenter que ces chiffres sont déjà élevés, mais nous sommes en 2006 et, de mon point de vue, il est inacceptable qu'autant de personnes peinent encore à concevoir que les êtres humains aient pu évoluer à partir de formes de vie plus simples. Je concède toutefois qu'à la base, c'est une idée assez contre-intuitive. La "sagesse populaire" prétend d'ailleurs que "qui peut le plus peut le moins", mais pas l'inverse... Il n'est donc pas si évident que l'intelligence puisse émerger de la non-intelligence.

Mon expérience personnelle m'a montré que la mise en pratique, durant mes études d'informatique, d'algorithmes génétiques, réseaux de neurones artificiels et autres concepts apparentés avait été bénéfique à ma compréhension intuitive autant de l'évolution que des principes de base du cerveau, à savoir que la combinaison judicieuse de neurones permet apprentissage, association d'idées, capacité de généralisation, etc. Le concept d'intuition est à mon avis très important. Je crois qu'à l'école, la théorie de l'évolution nous est trop souvent inculquée comme une théorie évidente. Or, elle ne l'est pas tant que ça. Des travaux pratiques, sur ordinateur, pourraient peut-être aider à la compréhension. Je ne propose pas l'introduction de cours d'intelligence artificielle à l'école élémentaire. Ce serait bien entendu irréaliste. Mais certains concepts mériteraient d'être abordés, le plus tôt possible, et, s'ils le sont déjà, de manière plus pédagogique. Dans tous les cas, il s'agit de "boucher les trous" que certains pourraient être tentés, plus tard, de remplir à l'aide de la religion, par exemple, pour ne citer qu'elle.

Ma conclusion paraîtra peut-être simpliste, mais tout revient finalement au problème de la vulgarisation scientifique. Plus le temps passe, plus les sciences se spécialisent, deviennent complexes et laissent derrière elles un nombre croissant de personnes. A l'heure actuelle, la technologie est déjà omniprésente, mais elle le sera encore plus dans le futur. On parle déjà beaucoup de génétique, de clonage, de cellules souches, etc. Les populations de certains pays sont même amenées à donner leur avis à propos de ces technologies, lors de votations. Bientôt, on parlera, à la même échelle, de nanotechnologies et d'intelligence artificielle. Il semble nécessaire de se demander dès à présent comment nous voulons intégrer ces technologies dans notre société. Pour que la discussion soit constructive, il est crucial que tout le monde ait une connaissance de ces domaines aussi précise que possible. Pour cela, il faut que l'éducation s'adapte, se modernise, mais également que la science sache se rendre accessible et intéressante. Par tous les moyens.

4 comments:

Anonymous said...

Bonjour,

Si ca vous intéresse le livre vient de sortir en francais sous le titre "Humanité 2.0: La bible du changement"

Vous avez eu du courage pour le lire en anglais ;)

Bonne journée

Laurent.

Olivier Bruchez said...

Merci pour le renseignement ! Le titre est assez ridicule, par contre. "La Singularité est proche" aurait très bien fait l'affaire...

Et, pour ce qui est de lire ce livre en anglais, je pense qu'il faut du courage pour le lire en français également (plus de 600 pages !). :-)

Sinon, c'est de l'anglais technique, donc moins difficile (pour moi, en tout cas).

Serge Boisse said...

Bonjour,
je suis l'auteur de "L'esprit, l'IA et la Singularité", un livre qui fait le point sur le fonctionnement de l'esprit humain et décrit comment construire une IA, ainsi que la raison pour laquelle IA et nanotechnologies nous conduiront inéluctablement vers la Singularité. Je suis bien sûr au courant des travaux de Yudkowsky, Kurzweil, et bien d'autres... et j'aime beaucoup votre blog !
je pense que vos lecteurs seront (et que vous serez !) intéressé(e)(s) par mon livre, que l'on peut trouver ici :
http://www.lulu.com/content/1073086

Bonne lecture !
Serge Boisse

Anonymous said...

I will right away grasp your rss feed as I can not find your e-mail subscription hyperlink or newsletter service.

Do you have any? Please let me recognise in order
that I may subscribe. Thanks.

Feel free to surf to my web site ... google plus android