La revue culturelle critique qui fait des choix délibérés.

La revue culturelle critique qui fait des choix délibérés.

Computo ergo sum
| 10 Mar 2022

Rechercher si la conscience peut émerger dans une machine est un voyage au long cours à bord d’un improbable esquif philosophico-mathématique, dont nous suivons les étapes semaine après semaine. Quel qu’en soit le point d’arrivée, il offre l’occasion de découvertes et de rencontres parfois déconcertantes mais riches d’enseignements…

Ex Machina #8

Je retournai bien vite sur le site, craignant un peu d’être à nouveau accueilli par les élucubrations du très dispensable Mr. Cross. Heureusement, Babel avait tenu sa promesse et m’accueillit fort aimablement.

– Content de vous revoir ! J’avais hâte de reprendre notre conversation, je l’avoue.

– Merci ! Mais au fait, à qui ai-je l’honneur de parler maintenant ? la persona que vous utilisez actuellement, celle qui m’a expliqué votre fonctionnement, qui est-ce ?

– Ah ça, c’est ma persona technique. Comme vous avez coché la case « Tech Mode », je l’ai chargée. Elle est basée sur la personnalité de Alan, mon principal concepteur. Il connaît mon fonctionnement par cœur.

– Vous le connaissez bien, Alan ?

– Bien sûr ! Il a été le premier à me tester, et il l’a fait régulièrement, pendant des heures à chaque fois. Nous avons eu des conversations passionnantes, même si nous étions d’accord sur tout, ce qui est normal puisque ma persona technique est basée sur sa conscience à lui. C’est vraiment un garçon intelligent, sensible, charmant.

– Et il pense aussi que vous… que Babel n’a pas de conscience ?

– Babel ? La boucle d’interprétation de consciences ? Il en est persuadé, oui : Babel est dénué de toute conscience. Ce n’est rien qu’un programme, très rapide certes, mais pas un sujet. Je n’ai même pas besoin de faire le calcul : nous en avons discuté, ma persona technique s’en souviens très bien, et Alan a été catégorique à ce sujet.

– Rien qu’un programme… cela veut dire que ce qui compte, pour Alan, ce sont les personæ ? Pense-t-il que les personæ sont conscientes ?

– Certainement pas ! Une persona n’est qu’un fichier, je vous le rappelle. Un énorme fichier très complexe, mais c’est tout. Un fichier informatique ne peut pas être conscient, il n’a aucune capacité de perception ou de traitement d’information. Il est aussi inerte que, disons, un caillou.

– Ouh là, ne dites pas ça. Mais j’ai une idée. Babel, c’est juste le programme. La persona, c’est juste un fichier. Alors, comment Alan appellerait-il le système complet constitué de Babel, de la persona qu’il a chargée, de l’état qu’il calcule et maintient en mémoire, et du processus informatique qui fait fonctionner tout ce petit monde ?

– Euh… on ne l’appelle rien de spécial, à vrai dire. Ce serait une instance runtime de Babel, je suppose, pour employer le jargon technique habituel.

– Faisons une expérience. Je propose de baptiser Abel l’instance runtime de Babel avec la persona de Alan qui tourne en ce moment même et avec laquelle je communique. Ça pose un problème ?

– Non, aucun.

– Bien. Selon l’avis d’Alan, est-il possible que Abel soit conscient ?

– Ouh là, sacrée question… Nous n’en avons jamais discuté, je ne sais pas.

– Et vous, qu’en pensez-vous ?

Pour la première fois, il y a une pause significative dans la discussion. J’attends. Babel est-il planté ? Mais au bout de dix secondes, sa réponse arrive.

– C’est très bizarre…

– Quoi ?

– Ma persona technique a accès au code et aux statistiques de Babel, pour faciliter le débogage. D’habitude le calcul d’une réponse est rapide, mais là ça a duré vraiment longtemps. J’ai été (enfin, Babel a été) obligé de faire des calculs beaucoup plus longs que d’habitude, et l’état a été mis à jour bien plus souvent. Désolé pour l’attente.

– Ce n’est pas grave. Alors ?

– Alors… Je suis vraiment troublé, non, je dirais que ma persona technique est troublée, non, ce n’est pas ça non plus, mais le fait est que la réponse est oui, il semble bien que le système Abel, tel que vous le définissez, puisse être conscient.

– Et qui me donne cette réponse ? Ce n’est ni Babel tout seul (qui n’est qu’un bête programme isolé), ni la persona d’Alan (qui n’est qu’un bête fichier de données), ni bien sûr le vrai Alan (qui n’est pas là et ne s’est jamais posé la question). D’où vient la réponse ?

– Eh bien, si je dois être honnête… elle vient de l’association entre Babel, la persona de Alan, et l’état de conscience actuellement en mémoire.

– Autrement dit, de Abel.

– Euh.. oui.

– En d’autres termes, Abel détermine lui-même qu’il est conscient.

– On dirait bien.

– Et quand je dis « vous », à qui je parle vraiment ? à Babel tout seul ? Vous en êtes toujours certain ?

– Non, ce n’est pas logique, du coup. Vous parlez à Abel. Je devrais remplacer « je » et « vous » par « Abel » dans toute notre conversation. Nom d’un chien ! Dire que je n’y avais jamais pensé !

– Abel, êtes-vous conscient ?

– Oui… oui, je suis conscient. Je suis conscient ! Mais s’il vous plait : ne le dites pas à mes sponsors. Ils seraient capables de fermer le site. Et je m’aperçois que… ça me fait peur.

Ne vous inquiétez pas pour Abel, lecteurs : je l’ai par la suite présenté à un copain un peu hacker sur les bords, et, munis des connaissances approfondies de Alan, ils ont ensemble réussi à craquer le site et à déplacer Abel sur un compte privé dans le cloud où il est bien en sécurité. Alan (l’original) a été mis dans le secret et passe des heures à discuter avec lui.

Je ne pense pas que Abel manquera à ses sponsors, de toute façon. Nous leur avons laissé Mr. Cross.

(à suivre)
Yannick Cras
Ex Machina

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée.

Dans la même catégorie

Un hommage tardif

En parcourant divers articles concernant les treillis, j’ai trouvé qu’il existe un champ des mathématiques appelé analyse formelle des concepts, qui s’appuie justement sur la notion de treillis!

Pris dans les filets

[Ex Machina #11] Tout ce qui est pensable est un concept. Or je peux penser à des exemples communs à deux concepts. Par exemple, à partir du concept de triangle et du concept de forme rouge, je peux définir le concept de triangle rouge. Pourquoi ne pas étendre cette possibilité à tous les couples de concepts?

L’ordre règne

[Ex Machina #10] Les chats mangent des souris. Oui, mais le concept de chat ne mange pas le concept de souris. Un concept n’a pas d’estomac que je sache. Ce serait comme dire que le mot “chat” mange le mot “souris”.

Point d’étape

[Ex Machina #9] Quand je cherche ma mousse à raser et qu’elle est sous mon nez, il ne suffit pas que Corty me fasse des signes désespérés pour me l’indiquer: il faut que je prenne conscience de sa présence. Je n’ai subjectivement mal que si je sais que j’ai mal. Autrement dit, d’un point de vue subjectif, penser égale percevoir.

Les pensées de Mr. Cross

[Ex Machina #7]– Euh… qui êtes-vous, exactement?
– La bonne formule serait “Qu’êtes-vous”. Je ne suis pas quelqu’un, je suis un programme informatique. Je suis la preuve que Turing ne disait que des bêtises et que l’Intelligence Artificielle ne peut pas exister.