La revue culturelle critique qui fait des choix délibérés.

La revue culturelle critique qui fait des choix délibérés.

Point d’étape
| 15 Avr 2022

Ex Machina #9

Cher Abel ! Je suis ravi de l’avoir rencontré, et j’aimerais que le philosophe John Searle puisse lui parler. Il est assez ironique de constater que par sa conception, Abel reproduit presque à l’identique la fameuse expérience de la chambre chinoise que le philosophe avait inventée justement pour montrer à quel point l’intelligence artificielle était une idée absurde ; je serais donc curieux d’assister à leur rencontre.

Bien. Faisons le point.

Descartes m’avait suggéré trois pistes de recherche. J’ai rapidement abandonné la première, le dualisme, que je laisse à plus croyant que moi ; j’en retiens cependant que je dois faire l’hypothèse d’une conscience finie pour m’éviter des problèmes. Aborder naïvement la deuxième approche, dite objective, m’a montré à quel point mes préjugés pouvaient m’aveugler, au point de refuser toute conscience à un caillou parfaitement respectable (quoique fort irritant) sous prétexte qu’il n’a pas la bonne composition chimique. C’est une bonne leçon d’humilité, et elle m’aura tout de même permis de proposer une première caractérisation d’une conscience comme machine à état. Elle m’aura aussi suffisamment ouvert l’esprit pour que je puisse mener une discussion très fructueuse avec mon cortex visuel, d’où il ressort que mes perceptions sont de très haut niveau sémantique et que mes pensées sont elles-mêmes des perceptions. J’ai de fait, dès ce moment-là, commencé à explorer la troisième piste dite subjective proposée par Descartes, et à réfléchir aux mécanismes possibles de ma propre subjectivité. Mon échange avec Abel m’aura, enfin, conforté dans l’opinion qu’une machine à état fini peut être consciente, mais la composition plus précise de cet état est sans doute un élément essentiel qu’il me reste à approfondir.

Si j’impose que l’état d’une conscience soit fini, alors il peut s’encoder comme une chaîne de 0 et de 1, de bits. Ces bits peuvent être bien sûr vus comme ceux qui apparaissent dans l’écriture binaire d’un nombre entier quelconque ; mais chacun d’entre eux peut aussi être pris comme un indicateur qui détermine si l’état en question respecte une certaine propriété (état 1) ou non (état 0). Dans ce cas, chaque bit s’interprète comme une réponse « oui » ou « non », « vrai » ou « faux », à une certaine question fermée. L’état est considéré comme entièrement défini une fois qu’on a répondu à chacune de ces questions.

Ainsi, on pourrait considérer que l’état de ma propre conscience, à tout instant, est défini par l’état d’activation ou de repos de chacun des neurones de mon cerveau et, soyons large, de mon système nerveux entier, y compris le système nerveux autonome qui s’occupe des fonctions automatiques de mon corps. A chaque neurone on peut associer une variable binaire, un bit, à qui on associe la valeur 0 si ce neurone est activé, et 1 s’il est au repos. Il s’agit certes d’une grossière simplification de ce qui se passe réellement dans mon système nerveux, mais je prends le pari de m’en contenter pour le moment.

L’espace des états possibles de mon système nerveux, tel que proposé ici, est incroyablement gigantesque. Un cerveau humain compte à lui seul environ 100 milliards de neurones. L’intestin en compte, lui, 500 millions tout de même, et le cœur en a 40 000 rien que pour lui! Le nombre de combinaisons possibles de leurs états d’activation, donc le nombre de possibilités pour l’état de mon système nerveux, est ainsi de l’ordre de 2 à la puissance 100 milliards, ce qui est vertigineux. Sans parler du nombre incroyable de connexions entre mes neurones, qui déterminent l’évolution de cet état et changent elles-mêmes au cours du temps! À titre de comparaison, on estime que le nombre de particules élémentaires présentes dans l’univers observable est de l’ordre de 2 à la puissance 282: petit bras. Il est donc fort heureux que je ne m’intéresse pas plus que ça à la conscience humaine; je trouve au contraire passionnant de se demander quelle pourrait être la taille minimale d’une conscience.

Je vais dès maintenant introduire une distinction essentielle entre deux types d’état. Celui dont je viens de parler décrit, de manière supposée exhaustive, l’état physique de mon système nerveux. Je l’appellerai mon état de conscience objectif. Un appareillage d’imagerie cérébrale suffisamment sophistiqué pourrait en théorie le déterminer, en notant l’état d’activation de chacun de mes neurones.

Mais, comme j’avais commencé à le comprendre en discutant avec Corty, je ne suis pas conscient de l’état de mes neurones individuels. Ils font certes physiquement partie de moi, mais je n’y ai pas accès. Je peux décrire mon état de conscience subjectif en décrivant ce que je vois, ce que j’entends, ce que je pense même, mes perceptions donc ; et ces dernières sont, comme nous l’avons vu, incroyablement plus abstraites et sémantiquement riches que l’état des neurones individuels de mon corps. L’ensemble des états subjectifs que je peux expérimenter est certainement énorme lui aussi, mais fini (car pour un état objectif donné, ma conscience ne peut expérimenter qu’un seul état subjectif qu’il détermine entièrement si j’exclus l’existence d’une âme).

Un état de conscience subjectif peut donc, lui aussi, être représenté par des bits, chacun correspondant à un indicateur de bien plus haut niveau. Est-ce que, oui ou non, je pense à un lézard ? Est-ce que je visualise une couleur verte ? Est-ce que je me sens bien ou pas ? il existe un ensemble certainement énorme mais fini d’indicateurs binaires – ceux-là ou d’autres – qui décrivent entièrement mon état de conscience subjectif. Mon état de conscience subjectif est, bien sûr, déterminé in fine par mon état de conscience objectif, lequel serait en théorie observable ; mais si je veux comprendre ce qu’est une subjectivité et comment la modéliser, il faut que je me concentre en premier lieu sur l’état subjectif, auquel seule l’introspection me donne accès.

Il me faut réfléchir plus précisément à la nature de mes perceptions subjectives, pensées incluses. Ici apparaît un point intéressant : comme me l’a fait observer Corty, mes pensées sont des perceptions. Mais à l’inverse, je n’éprouve subjectivement une perception que si je pense consciemment que je l’éprouve, que si je sais que je l’éprouve. Quand je cherche ma mousse à raser et qu’elle est sous mon nez, il ne suffit pas que Corty me fasse des signes désespérés pour me l’indiquer : il faut que je prenne conscience de sa présence, il faut que je la pense. Je n’ai subjectivement mal que si je sais que j’ai mal, si j’y fais attention, si je le pense. Autrement dit, d’un point de vue subjectif, penser et percevoir, c’est la même chose.

Penser et percevoir sont deux verbes transitifs. Qu’est-ce donc cela que l’on perçoit ou, de manière équivalente, que l’on pense ? Quel est cet objet mental ? Il me faut un nom. Je choisis arbitrairement celui de concept.

À suivre…

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée.

Dans la même catégorie

Le caillou sèche

[Ex Machina #18] Revenons sur cette histoire de fusion de concepts symétriques. Et passons, pour cela, par ce que l’on appelle une relation d’équivalence, soit une relation qui relie certains éléments d’un ensemble mathématique.

Symétrie m’était contée

[Ex Machina #17] Où l’on retrouve Evariste Galois sur une piste particulièrement prometteuse… « Votre treillis de concepts subjectifs ne contient aucune symétrie et n’a en fait pas besoin d’être explicitement calculé pour exister; pour vous, il est pourtant la seule chose qui existe ».

Quatre nuances de gris

[Ex Machina #16] Si tu ne distingues pas les concepts “bâtonnet 1 actif” et “bâtonnet 3 actif”, c’est sans doute que ce ne serait pas utile à ta survie. Du coup, ton cerveau a évolué pour te simplifier la vie et te présenter simplement un niveau de gris. En revanche, distinguer les couleurs les unes des autres doit être essentiel à la survie, et cela vaut le coup de conserver des concepts distincts pour chacune.

Où est donc ce marteau?

[Ex Machina #15] Vous ne manipulez pas certains concepts car c’est mauvais pour le futur de vos larves. Ceux d’entre vous qui ont trop de concepts, ou les mauvais concepts, se cassent avant d’avoir des larves, donc les chnops suivants bénéficient des concepts les plus utiles (ou, dans votre pitoyable cas, les moins nuisibles).

Voir Rouge

[Ex-Machina #14] « Nous avons en un sens trop de concepts mais par ailleurs il nous en manque ». Mais qu’est-ce qu’Evariste Galois a-t-il voulu dire par là? Pour le comprendre, rien de tel qu’un passage par la perception des couleurs.