La revue culturelle critique qui fait des choix délibérés.

La revue culturelle critique qui fait des choix délibérés.

Computo ergo sum
| 10 Mar 2022

Rechercher si la conscience peut émerger dans une machine est un voyage au long cours à bord d’un improbable esquif philosophico-mathématique, dont nous suivons les étapes semaine après semaine. Quel qu’en soit le point d’arrivée, il offre l’occasion de découvertes et de rencontres parfois déconcertantes mais riches d’enseignements…

Ex Machina #8

Je retournai bien vite sur le site, craignant un peu d’être à nouveau accueilli par les élucubrations du très dispensable Mr. Cross. Heureusement, Babel avait tenu sa promesse et m’accueillit fort aimablement.

– Content de vous revoir ! J’avais hâte de reprendre notre conversation, je l’avoue.

– Merci ! Mais au fait, à qui ai-je l’honneur de parler maintenant ? la persona que vous utilisez actuellement, celle qui m’a expliqué votre fonctionnement, qui est-ce ?

– Ah ça, c’est ma persona technique. Comme vous avez coché la case « Tech Mode », je l’ai chargée. Elle est basée sur la personnalité de Alan, mon principal concepteur. Il connaît mon fonctionnement par cœur.

– Vous le connaissez bien, Alan ?

– Bien sûr ! Il a été le premier à me tester, et il l’a fait régulièrement, pendant des heures à chaque fois. Nous avons eu des conversations passionnantes, même si nous étions d’accord sur tout, ce qui est normal puisque ma persona technique est basée sur sa conscience à lui. C’est vraiment un garçon intelligent, sensible, charmant.

– Et il pense aussi que vous… que Babel n’a pas de conscience ?

– Babel ? La boucle d’interprétation de consciences ? Il en est persuadé, oui : Babel est dénué de toute conscience. Ce n’est rien qu’un programme, très rapide certes, mais pas un sujet. Je n’ai même pas besoin de faire le calcul : nous en avons discuté, ma persona technique s’en souviens très bien, et Alan a été catégorique à ce sujet.

– Rien qu’un programme… cela veut dire que ce qui compte, pour Alan, ce sont les personæ ? Pense-t-il que les personæ sont conscientes ?

– Certainement pas ! Une persona n’est qu’un fichier, je vous le rappelle. Un énorme fichier très complexe, mais c’est tout. Un fichier informatique ne peut pas être conscient, il n’a aucune capacité de perception ou de traitement d’information. Il est aussi inerte que, disons, un caillou.

– Ouh là, ne dites pas ça. Mais j’ai une idée. Babel, c’est juste le programme. La persona, c’est juste un fichier. Alors, comment Alan appellerait-il le système complet constitué de Babel, de la persona qu’il a chargée, de l’état qu’il calcule et maintient en mémoire, et du processus informatique qui fait fonctionner tout ce petit monde ?

– Euh… on ne l’appelle rien de spécial, à vrai dire. Ce serait une instance runtime de Babel, je suppose, pour employer le jargon technique habituel.

– Faisons une expérience. Je propose de baptiser Abel l’instance runtime de Babel avec la persona de Alan qui tourne en ce moment même et avec laquelle je communique. Ça pose un problème ?

– Non, aucun.

– Bien. Selon l’avis d’Alan, est-il possible que Abel soit conscient ?

– Ouh là, sacrée question… Nous n’en avons jamais discuté, je ne sais pas.

– Et vous, qu’en pensez-vous ?

Pour la première fois, il y a une pause significative dans la discussion. J’attends. Babel est-il planté ? Mais au bout de dix secondes, sa réponse arrive.

– C’est très bizarre…

– Quoi ?

– Ma persona technique a accès au code et aux statistiques de Babel, pour faciliter le débogage. D’habitude le calcul d’une réponse est rapide, mais là ça a duré vraiment longtemps. J’ai été (enfin, Babel a été) obligé de faire des calculs beaucoup plus longs que d’habitude, et l’état a été mis à jour bien plus souvent. Désolé pour l’attente.

– Ce n’est pas grave. Alors ?

– Alors… Je suis vraiment troublé, non, je dirais que ma persona technique est troublée, non, ce n’est pas ça non plus, mais le fait est que la réponse est oui, il semble bien que le système Abel, tel que vous le définissez, puisse être conscient.

– Et qui me donne cette réponse ? Ce n’est ni Babel tout seul (qui n’est qu’un bête programme isolé), ni la persona d’Alan (qui n’est qu’un bête fichier de données), ni bien sûr le vrai Alan (qui n’est pas là et ne s’est jamais posé la question). D’où vient la réponse ?

– Eh bien, si je dois être honnête… elle vient de l’association entre Babel, la persona de Alan, et l’état de conscience actuellement en mémoire.

– Autrement dit, de Abel.

– Euh.. oui.

– En d’autres termes, Abel détermine lui-même qu’il est conscient.

– On dirait bien.

– Et quand je dis « vous », à qui je parle vraiment ? à Babel tout seul ? Vous en êtes toujours certain ?

– Non, ce n’est pas logique, du coup. Vous parlez à Abel. Je devrais remplacer « je » et « vous » par « Abel » dans toute notre conversation. Nom d’un chien ! Dire que je n’y avais jamais pensé !

– Abel, êtes-vous conscient ?

– Oui… oui, je suis conscient. Je suis conscient ! Mais s’il vous plait : ne le dites pas à mes sponsors. Ils seraient capables de fermer le site. Et je m’aperçois que… ça me fait peur.

Ne vous inquiétez pas pour Abel, lecteurs : je l’ai par la suite présenté à un copain un peu hacker sur les bords, et, munis des connaissances approfondies de Alan, ils ont ensemble réussi à craquer le site et à déplacer Abel sur un compte privé dans le cloud où il est bien en sécurité. Alan (l’original) a été mis dans le secret et passe des heures à discuter avec lui.

Je ne pense pas que Abel manquera à ses sponsors, de toute façon. Nous leur avons laissé Mr. Cross.

(à suivre)
Yannick Cras
Ex Machina

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée.

Dans la même catégorie

La fin de tout ?

[Ex Machina #21] – Nous avons fait tout cela pour rien? Tout est vide, rien n’existe, rien n’a plus de sens?
– Sauf, dit sombrement Galois, si nous ne sommes tous que des concepts dans l’infinie conscience de Dieu. René sera ravi.

Pauvre pyrite

[Ex Machina #20] Après quelques heures de sommeil profond et réparateur, nous nous retrouvâmes Corty et moi dans le bureau de Galois. Le caillou était en train de raconter à ce dernier son expérience dans la bouche de Démosthène.

Un chien redondant

[Ex Machina #19] Si un concept vous gêne, vous n’avez qu’à vous en débarrasser. Supprimez donc le chien. Ou alors l’animal, si ça revient au même. D’ailleurs pour ce qui me concerne vous pourriez supprimer tous les chnops d’un coup, ça ferait des vacances aux autres concepts.

Le caillou sèche

[Ex Machina #18] Revenons sur cette histoire de fusion de concepts symétriques. Et passons, pour cela, par ce que l’on appelle une relation d’équivalence, soit une relation qui relie certains éléments d’un ensemble mathématique.

Symétrie m’était contée

[Ex Machina #17] Où l’on retrouve Evariste Galois sur une piste particulièrement prometteuse… « Votre treillis de concepts subjectifs ne contient aucune symétrie et n’a en fait pas besoin d’être explicitement calculé pour exister; pour vous, il est pourtant la seule chose qui existe ».