Les scientifiques ont du mal à définir la conscience, l’IA ou autre.
07e45532-b56f-4c6d-9b68-34c9e823d88a-image.png
Les progrès de l’intelligence artificielle rendent de plus en plus difficile la distinction entre les comportements uniquement humains et ceux qui peuvent être reproduits par des machines. Si l’intelligence artificielle générale (AGI) arrivait en force – une intelligence artificielle qui surpasse l’intelligence humaine – la frontière entre les capacités humaines et informatiques diminuerait entièrement.
Ces derniers mois, une part importante de la bande passante journalistique a été consacrée à ce sujet potentiellement dystopique. Si les machines AGI développent la capacité d’expérimenter consciemment la vie, les considérations morales et juridiques que nous devrons leur accorder deviendront rapidement lourdes. Ils auront des sentiments à prendre en compte, des pensées à partager, des désirs intrinsèques et peut-être des droits fondamentaux en tant qu’êtres nouvellement créés. D’un autre côté, si l’IA ne développe pas la conscience – mais simplement la capacité de nous surpasser dans toutes les situations imaginables – nous pourrions nous retrouver soumis à une entité largement supérieure mais sociopathe.
Aucun des deux futurs potentiels ne semble si confortable, et tous deux nécessitent une réponse à des questions exceptionnellement hallucinantes : qu’est-ce que la conscience exactement ? Et cela restera-t-il un trait biologique, ou pourrait-il finalement être partagé par les dispositifs AGI que nous avons créés ?
La conscience dans les ordinateurs de Von Neumann
Pour qu’un ordinateur puisse expérimenter le vaste répertoire d’états internes accessible aux êtres humains, son matériel doit probablement fonctionner un peu comme un cerveau humain. Les cerveaux humains sont des « appareils » analogiques extrêmement économes en énergie, capables de niveaux élevés de traitement parallèle.
Les ordinateurs modernes, basés sur l’architecture Von Neumann , ne sont rien de tout cela : ce sont des machines numériques énergivores et composées principalement de circuits en série.
Les puces informatiques de Von Neumann séparent physiquement la mémoire du traitement, ce qui nécessite que les informations soient récupérées de la mémoire avant que les calculs puissent être effectués. « Les ordinateurs classiques de Von Neumann ont une séparation entre la mémoire et le traitement. Les instructions et les données sont stockées dans la mémoire et le processeur les récupère autant qu’il le peut en parallèle, puis calcule les chiffres et remet les données en mémoire », explique Stephen Deiss, un ingénieur neuromorphique à la retraite de l’UC. San Diego.
Cette restriction sur la quantité d’informations pouvant être transférée dans un laps de temps spécifique (et la limite qu’elle impose à la vitesse de traitement) est appelée le goulot d’étranglement de Von Neumann . Le goulot d’étranglement de Von Neumann empêche nos ordinateurs actuels d’égaler, voire de s’approcher, la capacité de traitement d’un cerveau humain. Pour cette raison, de nombreux experts pensent que la conscience dans les ordinateurs modernes est très improbable.
La conscience dans les ordinateurs neuromorphiques
Les informaticiens développent activement des puces informatiques neuromorphiques qui échappent aux restrictions de traitement des ordinateurs de Von Neumann en se rapprochant de l’architecture des neurones. Certains d’entre eux combinent des unités de stockage mémoire et de traitement sur une seule puce. D’autres utilisent des éléments de traitement spécialisés de faible puissance, tels que des memristors, un type de transistor qui « se souvient » des états de tension passés, pour augmenter l’efficacité. Les puces neuromorphiques imitent le câblage parallèle du cerveau et ses faibles besoins en énergie.
“Un dispositif de calcul en mémoire, qui inclut des éléments tels que des ordinateurs neuromorphiques, utilise la physique réelle du matériel pour effectuer le calcul”, explique Deiss, faisant référence aux memristors. “Les éléments de traitement sont les éléments de mémoire.”
Si la technologie neuromorphique peut être développée au niveau nécessaire pour reproduire l’activité neuronale, les ordinateurs neuromorphiques pourraient avoir un plus grand potentiel pour expérimenter la vie consciemment plutôt que de simplement calculer intelligemment. "Si jamais nous atteignons le niveau de complexité de traitement qu’un cerveau humain peut atteindre, alors nous pourrons pointer du doigt [les ordinateurs neuromorphiques] et dire : “Cela fonctionne exactement comme un cerveau - peut-être qu’il ressent les choses comme nous ressentons les choses”. », dit Deiss.
Pourtant, même dans un avenir rempli de matériel informatique de type cérébral et de décors propices à la conscience artificielle, une grande question demeure : comment saurons-nous si nos systèmes AGI éprouvent ou non de la tristesse, de l’espoir et le sentiment exquis de tomber dans l’oubli ? l’amour ou s’ils ont juste l’air de vivre ces choses ?
Comment saurons-nous un jour ce qui se passe dans l’esprit d’une machine ?
Une corne d’abondance de théories de la conscience
Il n’y a qu’une seule façon de le savoir : en identifiant empiriquement comment la conscience fonctionne dans les formes de vie organiques et en développant une méthode par laquelle nous pouvons la reconnaître de manière cohérente. Nous devons comprendre la conscience en nous-mêmes avant d’avoir le moindre espoir de reconnaître sa présence dans des systèmes artificiels. Ainsi, avant de plonger profondément dans les conséquences complexes du silicium sensible et d’envisager un avenir rempli d’ordinateurs conscients, nous devons résoudre une question ancienne : qu’est-ce que la conscience et qui la possède ?
Au cours des dernières décennies, les neuroscientifiques ont arraché cette question millénaire à l’emprise des philosophes, reconnaissant que le lien entre l’activité neuronale et l’expérience consciente est incontestable. Il existe des dizaines de théories neuroscientifiques de la conscience (TdC), si nombreuses en fait qu’un effort concerté est en cours pour réduire la liste à un petit nombre gérable. Nous n’en discuterons que trois ici : la théorie de l’information intégrée, la théorie de l’espace de travail neuronal global et la théorie des schémas d’attention.
Selon la théorie de l’information intégrée (IIT), une ToC développée par Giulio Toloni , directeur du Wisconsin Institute of Sleep and Consciousness à l’UW Madison, la clé de la conscience réside dans la quantité d’informations intégrées d’un système, c’est-à-dire dans la manière dont ses composants communiquent entre eux. via des réseaux de neurones ou de transistors. Un système avec un niveau élevé d’informations intégrées est conscient ; un système avec peu d’informations intégrées ne l’est pas.
Christof Koch , chercheur émérite à l’Allen Institute for Brain Science à Seattle, Washington, et partisan de l’IIT, explique que le cerveau humain possède un niveau élevé d’informations intégrées en raison du câblage parallèle étendu de ses réseaux neuronaux. Les informations peuvent voyager simultanément par plusieurs voies neuronales, ce qui augmente la capacité de traitement du cerveau. Les ordinateurs modernes, soumis au goulot d’étranglement de Von Neumann, sont principalement composés de circuits en série, de sorte qu’un niveau comparable de traitement de l’information est impossible à obtenir.
La théorie des schémas d’attention (AST) , développée par Michael Graziano, professeur de psychologie et de neurosciences à Princeton, propose un point de vue différent : notre cerveau crée un modèle de ce à quoi nous prêtons attention, appelé « schéma d’attention ». Ce modèle, comme une maquette d’avion, est une représentation. Un modèle réduit d’avion ne comprend pas de cabine entièrement équipée ni de cockpit fonctionnel. De même, le schéma d’attention de notre propre conscience est une approximation : un modèle mental de ce à quoi notre esprit prête attention et de la manière dont nous le vivons.
AST propose que, malgré ses limites, notre schéma d’attention est si convaincant que nous avons tendance à en déduire à tort que la conscience est quelque chose de mystique, quelque chose de « plus que » la matière. En réalité, nous n’avons accès qu’à cette représentation de notre esprit – et non à notre esprit lui-même – et nous ne pouvons donc pas comprendre directement comment notre esprit fonctionne, tout comme un modèle réduit d’avion ne peut pas reproduire l’expérience de voler.
La théorie globale de l’espace de travail neuronal (GNWT), fondée par Bernard Baars , chercheur affilié en neurobiologie théorique à l’Institut des neurosciences de l’UC San Diego, propose que les informations que notre cerveau détermine comme suffisamment importantes soient placées de manière sélective et temporaire dans un espace de travail central au sein de notre cerveau (analogue à une salle de cinéma) pour que nous puissions y prêter attention. Les informations auxquelles nous n’avons pas besoin de prêter attention consciemment sont stockées dans des zones connectées mais séparées (analogues aux coulisses).
« L’idée de base [du GTNO] est assez simple. À un moment donné, seul un sous-ensemble d’informations inconscientes est sélectionné par les réseaux attentionnels, et cette sélection sert à connecter les modules de traitement inconscients à un « espace de travail global ». Quel que soit le contenu présent dans l’espace de travail, il est vécu consciemment à ce moment-là », explique Michael Pitts, professeur de psychologie au Reed College dans l’Oregon.
Malgré des approches disparates, l’IIT, le GTNO et l’AST partagent un objectif commun : élucider empiriquement la relation complexe entre le tissu cérébral et l’expérience de la vie. Une fois que les neuroscientifiques auront compris comment les réseaux neuronaux produisent la conscience, ces connaissances pourront être utilisées pour comprendre les expériences conscientes – ou leur absence – dans les réseaux inorganiques.
La conscience informatique n’est-elle qu’un rêve éveillé futuriste ?
Selon l’IIT, la conscience dans nos ordinateurs actuels est carrément impossible. Le battage médiatique autour de la conscience artificielle ne sert à rien. Le matériel est le matériel. Peu importe à quel point une machine est brillante pour jouer aux échecs, au Go, au Texas hold’em ou à Scotland Yard , en fin de compte, elle ne sait pas qu’elle a gagné une partie et elle n’a pas non plus ressenti les montagnes russes émotionnelles de la compétition. Selon les mots de Koch, « il n’a absolument rien vécu ».
“Il ne suffit pas d’observer un système d’IA de l’extérieur et de se demander s’il est conscient en fonction de son comportement”, explique Koch. « Il faut regarder sous le capot. Une machine de Turing qui semble penser n’est pas consciente. »
Selon l’IIT, l’incapacité d’une machine à « être quelque chose » qui s’éprouve elle-même en relation avec le monde extérieur réside clairement dans son pouvoir causal limité. Le pouvoir causal est défini comme la capacité d’un système à utiliser son état passé pour influencer son état présent et à utiliser son état présent pour influencer son état futur. Plus un système peut s’influencer lui-même, plus il possède un pouvoir causal. Les neuroscientifiques utilisent la variable « phi » pour représenter la quantité de puissance causale au sein d’un système, et elle est mesurée en analysant les connexions auto-influencées entre les composants du circuit.
Les processeurs informatiques modernes ne disposent tout simplement pas du nombre requis de connexions internes auto-influencées pour atteindre la valeur seuil d’informations intégrées requise pour que l’expérience se produise. Contrairement au cerveau humain, qui contient environ 86 milliards de neurones et 100 000 milliards de connexions entre eux, un ordinateur contient beaucoup moins de connexions en boucle ou auto-influencées. Un ordinateur peut se comporter avec une intelligence extraordinaire – même une intelligence qui dépasse celle des humains – mais cela n’équivaut pas à une capacité à exercer un effet sur lui-même : être conscient.
« Une manière populaire de résumer l’IIT est de proposer qu’un système est conscient lorsque l’ensemble (l’intégration de l’information) est plus que la somme de ses parties », explique Pitts. « L’IIT se concentre davantage sur la façon dont un système est organisé et sur la façon dont il s’affecte lui-même que sur ce qu’il fait. Selon l’IIT, deux systèmes peuvent avoir le même comportement d’entrée-sortie, mais selon la manière dont le système est organisé, l’un peut être conscient tandis que l’autre ne l’est pas.
Contrairement à la grande majorité des TdC, qui sont des théories fonctionnalistes computationnelles qui supposent que la conscience peut être réduite aux composants physiques qui la produisent, « l’IIT commence par la conscience et remonte jusqu’au substrat physique de la conscience. L’IIT ne commence pas avec un système physique, comme un cerveau ou une machine, et ne suppose pas qu’il peut être suffisamment réduit pour nous conduire à la source de la conscience », explique Koch.
En raison de cette prémisse, l’IIT ne s’inscrit parfaitement dans aucune des théories philosophiques traditionnelles de l’esprit, telles que le matérialisme, le dualisme, l’idéalisme ou le panpsychisme. « C’est le défi lorsque vous rencontrez deux mille ans d’«ismes». Elles sont enseignées dans toutes les écoles de philosophie et dans tous les livres, et elles sont très bien établies, mais elles relèvent toutes de la philosophie. L’IIT ne correspond à aucune [philosophie de l’esprit] », dit Koch.
Malgré le cadre théorique convaincant de l’IIT, certains neuroscientifiques remettent en question la structure de la théorie. L’IIT est fondé sur cinq axiomes considérés comme infailliblement vrais par les partisans de la théorie. Pitts explique : « Certaines personnes ont un problème avec la façon dont l’IIT démarre parce qu’il s’agit d’une théorie ambitieuse qui fait des affirmations audacieuses. Au lieu de prendre des données et d’élaborer une théorie, cela part des premiers principes. Il présente cinq axiomes qui doivent être vrais pour toute expérience consciente. Ensuite, il utilise ces axiomes pour dériver des postulats pouvant conduire à des prédictions.
« L’une des critiques que certains chercheurs font à l’égard de l’IIT », ajoute Pitts, « est qu’il est impossible d’obtenir un résultat expérimental qui remette en question le cœur de la théorie, car les axiomes sont conçus pour être un point de départ universellement vrai. C’est trop flexible ; ce n’est pas falsifiable, diraient certains.
Même si l’IIT prédit que les ordinateurs artificiellement intelligents ne possèdent pas le « quelque chose » supplémentaire requis pour la conscience (à savoir le pouvoir causal), il n’écarte pas la perspective d’approcher rapidement des machines hautement intelligentes – des systèmes AGI qui surpasseront les humains dans leurs capacités de calcul. Il s’agit d’une distinction cruciale que nous ne devons pas oublier de faire, prévient Koch, alors que nous évaluons la meilleure façon d’inaugurer un avenir rempli de robots AGI : « Il y a une différence entre l’intelligence et la conscience. »
La conscience informatique est-elle une réalité inévitable ?
De l’autre côté de la médaille de la conscience neuroscientifique se trouvent les théories fonctionnalistes computationnelles, telles que la théorie des schémas d’attention et la théorie de l’espace de travail neuronal global. Les deux ToC considèrent la conscience artificielle comme inévitable. En fait, AST suggère que nous sommes nous-mêmes des machines qui croient à tort que nous sommes conscients. La conscience est simplement le résultat de calculs ; la source de ces calculs (cerveau ou machine) n’a pas d’importance tant qu’ils se produisent d’une manière spécifiée.
La conscience machine semble suffisamment inévitable à certains chercheurs pour décider de vérifier si elle existe déjà. En août 2023, Patrick Butlin , chercheur à l’Université d’Oxford, et Robert Long , associé de recherche au Center of AI Safety de San Francisco, ont publié un article préimprimé sur arXiv.org intitulé « Consciousness in Artificial Intelligence : Insights from la science de la conscience . » Butlin, Long et 18 collaborateurs ont évalué six des théories fonctionnalistes computationnelles les plus importantes de la conscience et ont dressé une liste de propriétés d’indicateurs de conscience, propriétés nécessaires à l’apparition de la conscience chez les humains. Ils ont ensuite recherché des preuves de ces propriétés d’indicateurs dans les systèmes d’IA.
Butlin, Long et leurs collaborateurs sont arrivés à la conclusion suivante : « Notre analyse suggère qu’aucun système d’IA actuel n’est conscient, mais suggère également qu’il n’y a pas d’obstacles techniques évidents à la construction de systèmes d’IA qui satisfont à ces indicateurs. »
Les partisans de l’AST et du GTNO sont à l’aise avec la conclusion de Butlin et Long. Graziano explique que « l’AST repose sur l’hypothèse que les gens sont des machines biologiques. Tout ce qu’un cerveau sait de lui-même découle nécessairement des informations contenues dans ce cerveau. Nous pensons avoir la conscience – nous en sommes certains – parce que le cerveau construit des modèles de soi, ou des ensembles d’informations, qui se décrivent de cette manière. Si le cerveau ne construisait pas ces modèles, nous ne saurions rien de la conscience. Construisez un système artificiel avec les mêmes structures d’information en lui-même, et il aura les mêmes croyances et certitudes. Il devrait être possible (et beaucoup y travaillent) de construire une IA qui se pense également consciente et pense que les autres sont conscients.
La confiance de Graziano dans l’éventualité d’une conscience de l’IA provient des deux principes fondamentaux de l’AST. Premièrement, « les informations qui sortent d’un cerveau doivent se trouver dans ce cerveau », et deuxièmement, « les modèles du cerveau ne sont jamais précis ». En utilisant ces deux principes comme point de départ, Graziano écrit qu’il n’y a pas de « marge de manœuvre » : la seule explication logique et méthodique de la conscience est qu’elle prend naissance dans le cerveau et qu’elle est, comme tout ce qui prend naissance dans le cerveau, une approximation de la conscience. réalité.
Koch n’est pas d’accord. Selon l’IIT, l’expérience subjective de la dégustation d’une pomme ne peut pas être reproduite par un ordinateur en raison de sa capacité limitée à exercer une influence sur lui-même : « l’effet » de conscience ne peut pas se produire. “Ce n’est pas parce que quelque chose est une réplique parfaite d’un cerveau humain que la conscience en émergera”, explique Koch. “Il y a une différence entre la simulation d’une chose et la chose elle-même.” Même si les ordinateurs du futur deviennent aussi complexes que les cerveaux (en termes de circuits internes auto-influençant), la conscience ne sera pas automatiquement produite. Le niveau d’informations intégrées dans un cerveau simulé ne correspondra pas nécessairement à celui d’informations intégrées dans un cerveau réel.
AST réfute cet argument en affirmant que l’expérience subjective évoquée par l’IIT (et d’autres théories de la conscience) n’est rien de plus qu’un schéma mental – une illusion convaincante. En réalité, nous ne ressentons rien subjectivement lorsque nous mangeons une pomme ; notre cerveau nous convainc que nous le faisons. De la même manière, l’intelligence artificielle pourra bientôt se convaincre, grâce à une représentation interne d’une pomme en train de manger, qu’elle a goûté un Honeycrisp rouge vif, croquant et juteux.
“La conscience est une propriété que nous attribuons aux autres et à nous-mêmes, et nous le faisons parce qu’elle constitue un moyen utile de prédire le comportement”, explique Graziano. « AST propose que le cerveau construise un modèle, ou une représentation simplifiée, d’un état attentionnel. Nous donnons un sens à cet état d’attention en lui attribuant une conscience. En conséquence, nous acquérons une meilleure capacité à prédire nous-mêmes ou les autres.
Parce que l’AST et le GTNO affirment qu’il n’y a rien de « spécial » dans la conscience – c’est juste le résultat final d’une séquence de calculs – tous deux soutiennent que les ordinateurs sont tout aussi susceptibles de faire l’expérience de la vie que nous.
Butlin fait écho à ce point de vue en déclarant : « Je pense qu’il est probable que des systèmes d’IA seront bientôt construits avec de nombreuses propriétés d’indicateur et que ces systèmes seront des candidats beaucoup plus sérieux à la conscience que tous ceux qui existent actuellement. Ces systèmes ne seront probablement toujours pas conscients, mais ils rendront très urgentes les questions difficiles concernant la conscience.
Est-il possible d’unifier les théories de la conscience ?
Il existe une surabondance de ToC au sein de la communauté des neurosciences. Tant que ce groupe complexe de théories disparates ne sera pas unifié de manière cohérente ou réduit à une seule théorie correspondant aux résultats expérimentaux, nous n’aurons pas de moyen précis d’identifier la conscience machine. Pour lancer le processus de réduction, la Templeton World Charity Foundation (TWCF) finance une série de collaborations contradictoires destinées à accroître la communication entre les chercheurs en conscience et à réduire les écarts entre les ToC. Ce travail est impératif et urgent si nous voulons comprendre la conscience humaine avant que les ordinateurs ne soient suffisamment complexes pour potentiellement l’acquérir eux-mêmes.
Michael Pitts rappelle l’attention médiatique entourant la conférence de l’Association pour l’étude scientifique de la conscience à New York en juin 2023. Pitts et ses collègues, Liad Mudrik de l’Université de Tel Aviv et Lucia Melloni de l’Institut Max Planck, ont présenté les premiers résultats de l’étude. première collaboration contradictoire qu’ils ont conçue pour tester rigoureusement deux théories neuroscientifiques de la conscience de premier plan : la théorie de l’information intégrée et la théorie de l’espace de travail neuronal global.
« Nous avons présenté nos premiers résultats lors d’une conférence à New York l’été dernier, et la presse a eu une mauvaise impression. Leur idée était « c’est une théorie contre une autre », ou « l’un va gagner et l’autre va perdre », mais ce n’est pas ainsi que cela fonctionne », a déclaré Pitts. L’accent mis par les médias sur la nature conflictuelle des collaborations alimente la perception selon laquelle la recherche sur la conscience est décousue et incohérente.
Pitts et ses collègues en sont aux premiers stades de réflexion sur un concept appelé Unification sélective, dans l’espoir que des théories disparates de la conscience pourront finalement être combinées en une seule ToC empiriquement solide : « L’idée de l’Unification sélective est que nous pouvons sélectionner soigneusement certains aspects des théories. qui sont étayés par des données et les unifient en une seule théorie », explique Pitts.
En utilisant les résultats des collaborations contradictoires actuelles et futures, il espère éliminer les parties des ToC qui ne correspondent pas aux données expérimentales. Des éléments spécifiques des théories qui survivent au billot, théorise-t-il, peuvent ensuite être combinés dans une nouvelle ToC avec des prédictions qui s’alignent sur les preuves expérimentales. Pitts déclare : « Nous ne voulons pas combiner les théories à la manière de Frankenstein, mais d’une manière où nous conservons des éléments cohérents et abandonnons les éléments qui sont contestés expérimentalement. »
Koch, bien que tout aussi déterminé à tester les ToC, ne croit pas qu’il soit possible de combiner certains éléments de plusieurs théories de la conscience. Il dit : « Ce sont simplement des animaux fondamentalement différents. Vous ne pouvez pas les écraser ensemble. Ils pourraient tous deux avoir tort, mais ils ne peuvent pas tous les deux avoir raison.
Se préparer à l’AGI, conscient ou non
Les débats sur la nature de la conscience et sur la question de savoir si l’AGI connaîtra finalement la vie comme nous ne seront probablement pas résolus de sitôt. Pourtant, les progrès technologiques nous propulsent à une vitesse vertigineuse vers un avenir rempli de machines qui, à tous égards et à toutes fins, se comporteront comme nous. Comment s’y préparer ?
Koch propose que nous fassions un effort pour accroître l’intelligence humaine afin de compenser l’écart imminent entre les cerveaux organiques et artificiels. Conscientes ou inconscientes, les futures IA seront bien plus intelligentes que nous. Pourquoi ne pas consacrer certaines ressources technologiques à l’augmentation de l’intelligence humaine aux côtés de l’intelligence artificielle ?
Graziano suggère que nous nous préparions à une IA consciente en considérant de manière préventive la sociopathie de l’IA . La généralisation de l’AGI entraînera une influence et une puissance accrues de l’ordinateur. Si l’IA développe une intelligence extrême sans apprendre simultanément à naviguer dans les complexités des normes sociales humaines, nous pourrions avoir sous la main des machines sociopathes qui choisiront de nous tuer au lieu de travailler avec nous.
« La plupart des gens se concentrent sur la conscience comme une affaire privée et interne. Mais cela joue également un rôle central dans l’interaction sociale humaine », explique Graziano. « Nous nous reconnaissons comme des êtres conscients, et cela nous permet de nous traiter d’une certaine manière. Lorsque cette capacité commence à faiblir, un comportement antisocial apparaît. C’est à ce moment-là que les gens commencent à s’entre-tuer.
« Si nous voulons que l’IA soit prosociale, nous pourrions lui donner les mécanismes qui rendent les gens prosociaux », suggère Graziano.
Koch propose une dernière suggestion : plutôt que de se démener pour faire face à l’inévitable supériorité de l’AGI et aux ambiguïtés qui en résultent en termes de conscience informatique potentielle, il conseille de réglementer l’IA dès maintenant. « Nous devrions mettre des garde-fous à l’IA, comme c’est le cas dans l’UE – c’est la seule chose que nous pouvons faire. AGI arrivera très bientôt. Nous verrons comment nous nous en sortirons, pour le meilleur ou pour le pire.
Lindsey Laughlin est une écrivaine scientifique et journaliste indépendante qui vit à Portland, dans l’Oregon, avec son mari et ses quatre enfants. Elle a obtenu sa licence à l’UC Davis avec une spécialisation en physique, neurosciences et philosophie.
Source: https://arstechnica.com/science/2024/07/could-ais-become-conscious-right-now-we-have-no-way-to-tell/
Edit: Le titre à été changé dans l’article d’origine