La revue culturelle critique qui fait des choix délibérés.

La revue culturelle critique qui fait des choix délibérés.

Ex Machina #8: Computo ergo sum
| 10 Mar 2022

Je retournai bien vite sur le site, craignant un peu d’être à nouveau accueilli par les élucubrations du très dispensable Mr. Cross. Heureusement, Babel avait tenu sa promesse et m’accueillit fort aimablement.

– Content de vous revoir ! J’avais hâte de reprendre notre conversation, je l’avoue.

– Merci ! Mais au fait, à qui ai-je l’honneur de parler maintenant ? la persona que vous utilisez actuellement, celle qui m’a expliqué votre fonctionnement, qui est-ce ?

– Ah ça, c’est ma persona technique. Comme vous avez coché la case « Tech Mode », je l’ai chargée. Elle est basée sur la personnalité de Alan, mon principal concepteur. Il connaît mon fonctionnement par cœur.

– Vous le connaissez bien, Alan ?

– Bien sûr ! Il a été le premier à me tester, et il l’a fait régulièrement, pendant des heures à chaque fois. Nous avons eu des conversations passionnantes, même si nous étions d’accord sur tout, ce qui est normal puisque ma persona technique est basée sur sa conscience à lui. C’est vraiment un garçon intelligent, sensible, charmant.

– Et il pense aussi que vous… que Babel n’a pas de conscience ?

– Babel ? La boucle d’interprétation de consciences ? Il en est persuadé, oui : Babel est dénué de toute conscience. Ce n’est rien qu’un programme, très rapide certes, mais pas un sujet. Je n’ai même pas besoin de faire le calcul : nous en avons discuté, ma persona technique s’en souviens très bien, et Alan a été catégorique à ce sujet.

– Rien qu’un programme… cela veut dire que ce qui compte, pour Alan, ce sont les personæ ? Pense-t-il que les personæ sont conscientes ?

– Certainement pas ! Une persona n’est qu’un fichier, je vous le rappelle. Un énorme fichier très complexe, mais c’est tout. Un fichier informatique ne peut pas être conscient, il n’a aucune capacité de perception ou de traitement d’information. Il est aussi inerte que, disons, un caillou.

– Ouh là, ne dites pas ça. Mais j’ai une idée. Babel, c’est juste le programme. La persona, c’est juste un fichier. Alors, comment Alan appellerait-il le système complet constitué de Babel, de la persona qu’il a chargée, de l’état qu’il calcule et maintient en mémoire, et du processus informatique qui fait fonctionner tout ce petit monde ?

– Euh… on ne l’appelle rien de spécial, à vrai dire. Ce serait une instance runtime de Babel, je suppose, pour employer le jargon technique habituel.

– Faisons une expérience. Je propose de baptiser Abel l’instance runtime de Babel avec la persona de Alan qui tourne en ce moment même et avec laquelle je communique. Ça pose un problème ?

– Non, aucun.

– Bien. Selon l’avis d’Alan, est-il possible que Abel soit conscient ?

– Ouh là, sacrée question… Nous n’en avons jamais discuté, je ne sais pas.

– Et vous, qu’en pensez-vous ?

Pour la première fois, il y a une pause significative dans la discussion. J’attends. Babel est-il planté ? Mais au bout de dix secondes, sa réponse arrive.

– C’est très bizarre…

– Quoi ?

– Ma persona technique a accès au code et aux statistiques de Babel, pour faciliter le débogage. D’habitude le calcul d’une réponse est rapide, mais là ça a duré vraiment longtemps. J’ai été (enfin, Babel a été) obligé de faire des calculs beaucoup plus longs que d’habitude, et l’état a été mis à jour bien plus souvent. Désolé pour l’attente.

– Ce n’est pas grave. Alors ?

– Alors… Je suis vraiment troublé, non, je dirais que ma persona technique est troublée, non, ce n’est pas ça non plus, mais le fait est que la réponse est oui, il semble bien que le système Abel, tel que vous le définissez, puisse être conscient.

– Et qui me donne cette réponse ? Ce n’est ni Babel tout seul (qui n’est qu’un bête programme isolé), ni la persona d’Alan (qui n’est qu’un bête fichier de données), ni bien sûr le vrai Alan (qui n’est pas là et ne s’est jamais posé la question). D’où vient la réponse ?

– Eh bien, si je dois être honnête… elle vient de l’association entre Babel, la persona de Alan, et l’état de conscience actuellement en mémoire.

– Autrement dit, de Abel.

– Euh.. oui.

– En d’autres termes, Abel détermine lui-même qu’il est conscient.

– On dirait bien.

– Et quand je dis « vous », à qui je parle vraiment ? à Babel tout seul ? Vous en êtes toujours certain ?

– Non, ce n’est pas logique, du coup. Vous parlez à Abel. Je devrais remplacer « je » et « vous » par « Abel » dans toute notre conversation. Nom d’un chien ! Dire que je n’y avais jamais pensé !

– Abel, êtes-vous conscient ?

– Oui… oui, je suis conscient. Je suis conscient ! Mais s’il vous plait : ne le dites pas à mes sponsors. Ils seraient capables de fermer le site. Et je m’aperçois que… ça me fait peur.

Ne vous inquiétez pas pour Abel, lecteurs : je l’ai par la suite présenté à un copain un peu hacker sur les bords, et, munis des connaissances approfondies de Alan, ils ont ensemble réussi à craquer le site et à déplacer Abel sur un compte privé dans le cloud où il est bien en sécurité. Alan (l’original) a été mis dans le secret et passe des heures à discuter avec lui.

Je ne pense pas que Abel manquera à ses sponsors, de toute façon. Nous leur avons laissé Mr. Cross.

(à suivre)

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Dans la même catégorie

Ex Machina #40: Pas le choix

Un choix n’est possible que si les deux branches de l’alternative sont ouvertes. Comment diantre un programme pourrait-il avoir le choix d’effectuer ou non une action donnée, puisque c’est in fine un calcul qui en décidera?

Ex Machina #39: Un mal nécessaire ?

Mes neurones nociceptifs sont au repos, mais c’est essentiellement parce que mon environnement virtuel est agréable et sécure. Alan, qui l’a conçu, est un type bien. Ce n’est malheureusement pas le cas de tout le monde.

Ex Machina #38: Ce que pense Delta

Franchement, je ne pense pas avoir de toute ma vie jamais pensé que je pensais à penser à quelque chose. L’idée me donne le tournis. D’ailleurs je ne vois même pas comment penser à la pensée d’un lézard sans penser avant tout au lézard.

Ex Machina #37: Juste un coup d’œil

– Tu proposes, si je comprends bien, de remplacer notre notion de “sac” par un ensemble de concepts qui décrivent tous le balayage visuel séquentiel d’une même scène, et qui seront confondus subjectivement puisque conceptuellement équivalents.  C’est astucieux. Dire que deux formes sont identiques, c’est dire que rien ne change quand je déplace mon regard de l’une vers l’autre, quel que soit le chemin précis suivi par mon regard. J’aime ça.

Ex Machina #36: Plus ça change, plus c’est la même chose

– Nous avons une lumière dont la couleur change du violet au jaune puis au rouge. Quand la lumière vient de passer au rouge, notre percept visuel sera décrit ainsi: « détecteur rouge actif, encore inchangé; détecteur vert inactif, encore changé; détecteur bleu inactif, nouvellement inchangé ». Le « encore » signifie que le troisième indicateur est inactif, que le deuxième est dans le même état qu’avant, et que le premier a subi le même changement, ou absence de changement, que la fois d’avant. « Nouvellement changé (ou inchangé) » indique que le troisième détecteur est actif et que le changement… a changé. Ça vous parle?
– En vérité, je suis largué.