Search
  • Nouvelles
  • Cerveau, esprit et conscience Azrieli

Que faudrait-il pour que l’IA soit douée de conscience?

by Eva Voinigescu nov. 9 / 17

What would it take for AI to achieve consciousness?
Imaginez que vous êtes en voyage d’affaires, vous retournez à l’hôtel après un rendez-vous avec un client et le voyant lumineux de la jauge à essence de votre voiture s’allume.


Votre voiture est dotée d’un GPS qui peut lui dire où se trouve la station d’essence la plus proche. Toutefois, le voyant lumineux et le GPS ignorent l’existence de l’un et de l’autre. Mais si votre voiture recevait de l’information de toutes ses pièces et qu’elle avait une conscience de soi – en d’autres mots, qu’elle savait ce qu’elle savait –, elle pourrait se diriger vers la station la plus proche. Si elle pouvait faire cela, elle serait douée d’une conscience fonctionnelle.

Voilà l’argumentation avancée par les Boursiers de l’ICRA Stanislas Dehaene et Sid Kouider, membres du programme Cerveau, esprit et conscience Azrieli de l’ICRA, dans un article de synthèse publié le mois dernier dans la revue Science.

Cet article de synthèse examine les connaissances actuelles sur la neuroscience de la conscience et propose que la conscience découle de types spécifiques de traitement de l’information exécutés physiquement par la machinerie cérébrale. L’intelligence artificielle d’aujourd’hui n’est pas dotée de ces habiletés, disent les chercheurs.

En fait, les tâches que l’IA relève le mieux aujourd’hui sont des choses que le cerveau humain fait sans pensée consciente, comme la reconnaissance faciale et de la parole.

Afin d’atteindre une conscience fonctionnelle similaire à celle de l’humain, Kouider, Dehaene et leur collègue Hakwan Lau maintiennent que les machines doivent adopter deux types de traitement de l’information déjà présents dans le cerveau.
… les machines doivent adopter deux types de traitement de l’information déjà présents dans le cerveau.

Le premier est la « disponibilité globale », l’acte de choisir et de rendre accessible un élément d’information aux fins de traitement et de prise de décision par le système dans son ensemble. La disponibilité globale attire l’attention sur une pensée ou un élément d’information qui était jusqu’alors inconscient.

Même si le cerveau possède une hiérarchie profonde de modules spécialisés qui fonctionnent sans conscience et se consacrent à des tâches spécifiques, comme traiter des intrants visuels ou diriger un mouvement, il possède aussi un « espace de travail neuronal global » où des éléments d’information spécifiques sont choisis et partagés entre tous les modules. Peu importe l’information qui se trouve dans cette zone globale à un moment donné, cela correspond à ce que nous appelons la « conscience ».

Dans l’article, les chercheurs expliquent que le cortex préfrontal semble agir comme un appareil central de partage d’information. Ils ajoutent que l’expansion considérable du cortex préfrontal dans la lignée humaine pourrait avoir augmenté la capacité d’intégration entre les régions et les fonctions cérébrales.

En IA, la mise en œuvre de processus multiples dans un seul système et leur coordination souple comme cela se fait dans l’espace de travail global demeure un problème de taille, quoique de récentes architectures de machine soient prometteuses dans ce domaine.

Toutefois, pour qu’une machine agisse comme si elle était consciente, il faut plus que ce simple accès global à l’information. Les chercheurs soulignent un deuxième processus computationnel qui selon eux constitue la clé de l’émergence de la conscience dans le cerveau – la conscience de soi.

« L’humain ne fait pas que connaître des choses sur le monde, il sait en fait ce qu’il sait ou ce qu’il ne sait pas », disent les auteurs dans l’article. Cette conscience de soi nous permet, et permettrait aux machines, de maîtriser un comportement, de prendre des décisions avec confiance et de savoir quand une erreur a été commise. De plus, cela nous permet d’aiguiller les ressources pour recueillir davantage d’information quand ils nous en manquent – en fait, la conscience de soi alimente la curiosité.

« L’humain ne fait pas que connaître de choses sur le monde, il sait en fait ce qu’il sait ou ce qu’il ne sait pas »

Les auteurs soulignent que la plupart des réseaux neuronaux actuels n’ont pas de conscience de soi quant à la fiabilité et aux limites de ce qu’ils ont appris, quoique certains réseaux bayésiens utilisent le concept de probabilité pour déterminer s’il est probable qu’ils aient raison. D’autres systèmes ont été intégrés à des robots pour diriger leurs ressources vers des problèmes qui optimisent leur apprentissage.

Un aspect important associé au fait de savoir ce que l’on sait implique de savoir ce qui est réel et ce qui est issu de l’imagination. L’humain absorbe de l’information externe et génère aussi ses propres scénarios imaginés. Pour les algorithmes génératifs, l’apprentissage conflictuel est l’une des méthodes qu’utilisent les chercheurs pour évaluer l’authenticité des représentations générées. Cela pourrait aider l’IA à fonctionner davantage comme un humain conscient.

Comme les auteurs le soulignent dans leur article de synthèse, certains pourraient dire que cette mesure passe à côté de l’expérience subjective que la plupart des gens associent à la conscience. Les auteurs admettent que leur théorie de la conscience diffère d’autres théories, car elle est entièrement computationnelle. Toutefois, les chercheurs font remarquer que dans le cerveau humain, nous savons qu’une perte de disponibilité globale et de métacognition coïncide avec la perte de l’expérience subjective.

« Voilà ce que l’on sait à propos du seul système qui est indubitablement conscient, voilà ce que l’on sait grâce à l’étude du cerveau humain et de la cognition humaine, et il s’agit là d’ingrédients auxquels nous devrions songer quand nous tentons de concevoir de nouvelles implémentations d’[IA] », dit Kouider.