vendredi 23 septembre 2016

Alors le Petit Prince me dit : s'il vous plaît, dessine-moi un robot...

(ce post est la seconde partie d'un post que j'ai scindé en trois et largement révisé, "L'homme est un robot pensant". Il n'est pas forcément besoin d'avoir lu le premier pour lire le second). Il sera suivi d'un autre post intitulé "Le robot qui pleurait".


C-3PO et D2R2, deux héros de Star Wars

Aujourd'hui, j'ai envie de construire un robot. Tu me donnes un coup de main ?

D'abord, faut-il lui donner une forme humaine ? Dans certains cas, oui. Si c'est un robot à usage sexuel, il faut qu'il soit le plus ressemblant possible. Si c'est un robot gardien d'enfants ou de personnes âgées, on lui donnera un aspect un peu humanoïde, mais pas totalement pour ne pas induire de malaise. Car il devra être sympathique, rassurant, mais aussi à sa place. Dans les autres cas, inutile de lui donner un aspect humain.

Je ne serais pas étonné qu'il soit plus difficile de réaliser la partie matérielle de ces robots que l'algorithme de leur commande. Pourquoi ? On se rappelle la science fiction du début du vingtième siècle. Ou bien la page de couverture du Meilleur des Mondes, dans sa première édition au Livre de Poche ? La circulation ordinaire des humains s'y faisait par les airs, à l'aide de petites machines individuelles très rapides.
Bonne prédiction ? Pas du tout. Au déplacement physique, on a substitué le téléphone portable et autres moyens de communication. Pour réaliser le projet initial, abolir la distance, on a contourné la difficulté matérielle. Au lieu d'aller voir ses parents avec un machine, on parle avec eux par Skype. Agir sur le virtuel se révèle plus simple que d'agir sur les objets.


Alors fabriquer des esclaves cybernétiques, des robots à visage humain, c'est une idée simpliste... et très compliquée, comme celle de l'appareil volant pour les déplacements courts. Sans doute, la robotique va continuer à faire des progrès très importants, de même que l'intelligence artificielle. Mais l'immense majorité des robots sera informe : des petites boîtes en plastique ou métal bourrées de circuits électroniques. L'intelligence sera donnée aux objets de manière éclatée. Chaque objet en aura une parcelle dans sa spécialité : réfrigérateur intelligent, téléphone intelligent, maison intelligente, drones et avions sans pilotes, chirurgiens intelligents...

Tu as déjà un exemple de cette intelligence à travers le fonctionnement de Google qui sait prédire tes souhaits avec une assez grande pertinence, après avoir enregistré tes comportements antérieurs. Google, c'est un robot que tu as tendance à sous-estimer. Tu l'appelles dix fois par jour, tu lui donnes des ordres. Pourtant, tu n'as jamais pensé à lui comme un humanoïde - Google, c'est Nestor en gilet rayé qui travaille pour les Bordaves.

Reprenons la construction de notre robot. Est-il utile de lui faire ressentir la douleur ? Chez l'homme, la douleur permet l'évitement et favorise l'apprentissage. Chez le robot, les connaissances auront été programmées ou seront acquises grâce au machine learning. Comme notre robot devra travailler dans des conditions de chaleur ou de froid, de pression plus agressives que ce que l'homme supporte, il faudra lui apprendre l'évitement. Facile, grâce à des mesures de température, de pression, et autres variables externes. Donc pas besoin de passer par la case douleur. Ça tombe bien, la douleur a toute une composante psychique qu'il serait compliqué d'imiter.

Une question essentielle est celle de l'initiative.

La première forme d'initiative qu'il faut donner au robot, c'est la capacité de s'auto-entretenir. Se recharger, aller chercher du combustible s'il ne fonctionne pas sur une pile lui fournissant une énergie permanente. L'aptitude à se maintenir en bon état, celle de détecter ses propres pannes, et autant que possible de se réparer. C'est ce que commencent à faire les voitures, mais elles n'ont pas l'autonomie suffisante pour aller toutes seules au garage - ça ne devrait pas tarder.

Les lois d'Asimov impliquent que le robot puisse faire des choix.

- La loi ZÉRO prévoit que le robot ne fasse rien qui puisse mettre en danger l'espèce humaine.
- La loi UN interdit au robot de faire du mal à un humain et l'oblige à ne pas rester passif si un humain est en danger.
- La loi DEUX : un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
- La loi TROIS : un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec les loi précédentes.

Ces lois supposent que le robot possède des capacités de jugement. Serait-il utile de doter notre robot de telles fonctions ? Oui, bien sûr. De toute manière, il y a un élément de raisonnement à partir du moment où une quelconque machine, recevant un signal, réagit en fonction de ce signal. Par exemple un radar au bord de la route qui enregistre une vitesse excessive va envoyer un message au centre de Rennes. Je ne dis pas qu'il pense ni qu'il juge ou raisonne, mais il possède le schéma élémentaire d'une prise de décision :
- sensation, réception d'une information,
- analyse de la sensation,
- réaction à cette analyse, décision.
Le robot prend l'initiative de te dénoncer. Ce qui explique pourquoi certains sont criblés de balles. Les suisses font ça aussi, par parenthèse. Si tu es mal garé, ils appellent la police - même si cela ne les dérange pas, même s'ils n'ont pas de voiture. J'ai vu faire à Zurich. Ils appellent cela du civisme. Et il n'est pas admis de les cribler de balles.

Lorsqu'on sera appelé à faire des voyages spatiaux de trente ou quarante ans, il vaudra mieux envoyer des robots autonomes s'exposer aux rayons cosmiques plutôt que des humains. La sonde New Voyager qui vient de passer près de Pluton est exactement ce type de robot. L'article du Monde titrait même : elle a téléphoné à la maison. Soulignant ainsi que la sonde avait pris une initiative. Bien sûr, c'est du journalisme... Mais oui, il faudra bien que les robots raisonnent et prennent des initiatives.

Robot islamique : avantages & inconvénients...
Or, les romans d'Asimov sont remplies d'histoires qui montrent les limites et la complexité des lois d'Asimov quand on se trouve dans des situations à tiroirs. Pourquoi y a-t-il des problèmes ? Tout simplement parce que ces lois sont exprimées de manière littéraire. S'il s'agissait d'un programme codé en dur, un accident serait considéré comme le résultat d'un bug, d'une mauvaise programmation qu'il faudrait corriger.

Tout le monde connaît le test du tramway avec lequel les cognitivistes torturent les étudiants pour étudier leur comportement : un tramway rempli de gens a été mal aiguillé, il va avoir un accident très grave ; si tu pousses un passant sur la voie, le passant va mourir mais tous les autres seront sauvés. Es-tu prêt à le faire ? Pour le robot, il n'y aura pas de choix, l'action viendra de l'arbre de décision. Un appendice à la loi UN d'Asimov. Ce problème se pose déjà aux ingénieurs de Chrisler avec la perspective de la circulation automatisée des voitures sur la route - on en trouve mention sur le net.


En réalité, on ne demande pas vraiment à un robot de choisir. On lui demande de traiter des problèmes. Quand il a fini, il présente le résultat. Parfois, ce qui se passe entre les deux dépasse les capacités de l'entendement. C'est ce qui arrive déjà : les mathématiciens travaillent avec des ordinateurs qui font des calculs dont les résultats sont exacts mais inconcevables pour un esprit humain. Pareil pour les robots joueurs d'échecs qui battent régulièrement les champions. L'homme qui utilise le robot ne vérifiera même pas le résultat de la réflexion robotique. De même que nous ne refaisons pas à la main les calculs d'une machine à calculer, nous les utilisons sans nous poser de questions.

Le fait qu'on ne puisse pas suivre ce qu'il y a sous le capot ne signifie pas qu'il y ait un quelconque mystère ou la possibilité d'une variabilité des réponses. Si on recharge le robot d'une quantité identique de données, il donnera toujours le même résultat. Même si on ne peut suivre le détail de son raisonnement.

- Il redonnera strictement le même résultat ! Donc tes robots ne seront pas vraiment humanoïdes s'ils ne peuvent pas changer d'avis. Car la caractéristique de l'homme est de changer d'avis. Imagine quelqu'un qui doit prendre une décision morale. Sa première réaction est par exemple un "non". Et puis elle se ravise, et penche finalement pour un "oui".

C'est vrai. Mais pourquoi l'homme a-t-il changé d'avis ? Parce qu'il aura eu entretemps un nouvel input, probablement interne, une réminiscence, et ce nouvel input changera la décision. A aucun moment, il n'y aura eu une errance de la délibération, mais on aurait pu observer deux délibérations distinctes, la première avec x facteurs de causalité, et la seconde avec x+1.

D'ailleurs, si tu demandes à une personne frappée de la maladie d'Alzheimer (forme avec prédominance de troubles de la mémoire antérograde) de te donner un chiffre au hasard en fermant les yeux, pour que son environnement ne lui fournisse pas une réponse et que tu lui redemandes dix minutes après de faire la même opération, il te redonnera le même chiffre sept fois sur dix. Et les trois autres fois ? Quelque chose lui aura traversé l'esprit, une causalité x+1.

En fait, c'est notre conception de l'homme qu'il faut modifier. L'homme n'est pas un robot pensant, c'est un robot tout court, le plus sophistiqué des robots, mais sans différence fondamentale avec sa créature de silicium et de métal.

Dans ces conditions, pourquoi vouloir reproduire l'artefact de la conscience ? Ce qui nous fascine dans l'idée de créer un robot, c'est de le rendre "humain", faillible, avec des sentiments. A partir du moment où l'homme sera considéré comme ce qu'il est essentiellement, une superbe machine à décider avec quelques bugs, qui aura envie de reproduire les bugs ? Il n'y a pas vraiment de magie à fabriquer des bugs... Et puis tu imagines, une boîte métallique noire, d'où sortent d'énormes faisceaux de câbles, larmoyante et raisonneuse ? Je trouve l'idée assez répugnante...

- Et moi je trouve que tu as une vision très réductrice de l'homme. J'ai envie de dire : et la tendresse, bordel !


A suivre au prochain numéro : "Le robot qui pleurait"...