Searle, J. R., & Duyckaerts, É. (1987). Document: Esprits, cerveaux et programmes. Quaderni, 1(1), 65-96.
Résumé : Cet article est une tentative d'explorer les conséquences de deux propositions. (1) L'intentionnalité chez les êtres humains (et les animaux) est le produit de caractéristiques causales du cerveau: certains processus cérébraux suffisent à l'intentionnalité. (2) Un programme d'ordinateur n'est jamais en soi une condition suffisante d'intentionnalité. L'argument principal de cet article vise à établir cette affirmation. La forme de l'argument est de montrer comment un agent humain pourrait implémenter le programme sans avoir toujours l'intentionnalité appropriée. Ces deux propositions ont les conséquences suivantes (3) L'explication de la façon dont le cerveau produit l'intentionnalité ne peut pas être qu'il le fait en mettant en œuvre un programme informatique. C'est une conséquence logique stricte de 1 et 2. (4) Tout mécanisme capable de produire une intentionnalité doit avoir des pouvoirs causaux égaux à ceux du cerveau. Ceci est censé être une conséquence insignifiante de 1. (5) Toute tentative de créer artificiellement une intentionnalité (IA forte) ne pourrait pas réussir simplement en concevant des programmes mais devrait dupliquer les pouvoirs causaux du cerveau humain. Cela découle de 2 et 4.
Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press.
Lorsqu'en 1979, Zenon Pylyshyn, rédacteur en chef adjoint de The Behavioral and Brain Sciences (BBS, une revue de commentaires par les pairs que j'édite) m'a informé qu'il avait obtenu un article de John Searle (avec un titre peu engageant que Zenon, John et moi avons tous depuis oublié !), je ne peux pas dire que j'ai été particulièrement impressionné ; et une lecture rapide du bref manuscrit - qui semblait être une autre "objection de grand-mère" fastidieuse sur le pourquoi/comment nous ne sommes pas des ordinateurs - n'a rien fait pour améliorer cette impression.
L'article soulignait qu'un programme informatique « compréhension du chinois » ne comprendrait pas vraiment le chinois parce que quelqu'un qui ne comprendrait pas le chinois (par exemple, Searle lui-même) pourrait exécuter le même programme tout en ne comprenant pas le chinois ; par conséquent, l'ordinateur exécutant le programme ne comprendrait pas non plus le chinois. L'article a réfuté divers contre-arguments prima facie contre cela (principalement des variantes sur le thème que ce ne serait pas Searle mais "le système", dont Searle ne serait qu'une partie, ce serait en effet comprendre le chinois lorsque le programme était exécuté), mais tout cela me semblait trivial : oui, bien sûr, un programme inerte seul ne pouvait rien comprendre (donc Searle avait raison à ce sujet), mais sûrement un programme d'exécution pourrait faire partie de ce qu'un « système » compréhensif comme nous fait vraiment et est (donc la "réponse du système" avait également raison).
L'article a été évalué (favorablement) et accepté sous le titre révisé "Minds, Brains, and Programs", distribué à une centaine de commentateurs potentiels dans toutes les disciplines et dans le monde, puis copublié en 1980 dans BBS avec vingt-sept commentaires et la réponse de Searle. Au cours des années qui ont suivi, d'autres commentaires et réponses ont continué d'affluer car, à ma grande surprise, l'article de Searle est devenu l'article cible le plus influent du BBS (et l'est toujours à ce jour) ainsi qu'un classique des sciences cognitives. (Lors de la Conférence de Rochester sur les programmes cognitifs (Lucas & Hayes 1982), Pat Hayes est allé jusqu'à définir les sciences cognitives comme "le programme de recherche en cours visant à montrer que l'argument de la salle chinoise de Searle est faux" -- "et idiot", je crois avait-il ajouté à l'époque).
Alors que les arguments et les contre-arguments n'arrêtaient pas d'augmenter au fil des ans, je me suis irrité d'être le seul sur la planète à ne pas avoir le droit (d'office, étant l'arbitre) d'essayer, même si je sentais que je pouvais régler le wagon de Searle si j'en avais l'occasion. , et mettre un terme à la polémique plutôt répétitive et non résolue. À la fin des années 80, je préparais ma propre critique, intitulée "Minds, Machines and Searle" (d'après "Minds, Machines, and Gödel", de Lucas [1961], un autre philosophe affirmant que nous ne sommes pas des ordinateurs), mais pas sûr où le publier (le BBS étant hors de question). L'une des accusations portées contre Searle par ses détracteurs était que sa critique erronée avait étouffé le financement de l'intelligence artificielle (IA), de sorte que le nouveau Journal of Experimental and Theoretical Artificial Intelligence (JETAI) semblait un lieu raisonnable pour ma propre critique de Searle, qui y parut donc en 1989.
Je n'ai jamais rien entendu de Searle au sujet de ma critique de JETAI, même si nous interagissions encore régulièrement en relation avec le Commentaire continu incessant sur son argument de chambre chinois (CRA) dans BBS, ainsi qu'un tout nouvel article cible de BBS (Searle 1990a) qui il a écrit spécifiquement pour souligner le 10e anniversaire de la SCR. Cette incapacité à entrer dans la mêlée aurait été beaucoup plus frustrante pour moi si un média radicalement nouveau pour Open Peer Commentary ne s'était pas ouvert en même temps : on m'avait attiré l'attention sur le fait que depuis le début des années 80, l'ARC avait été un sujet principal sur "comp.ai", un groupe de discussion sur Usenet. (Ce Global Graffiti Board for Trivial Pursuit devait avoir de multiples influences sur moi et BBS, et sur le futur cours de Learned Inquiry et Learned Publication, mais c'est une autre histoire [Harnad 1990a, 1991b; Hayes et al., 1992] nous ne nous intéressons ici qu'à son influence sur la saga Searle).
Se connecter à comp.ai au milieu des années 80 avec l'intention d'essayer de résoudre le débat avec ma propre critique quelque peu œcuménique de Searle (Searle a raison de dire qu'un programme d'exécution ne peut pas être tout ce qu'il y a à être un système de compréhension, mais à tort que un programme d'exécution ne peut pas faire partie d'un système de compréhension), à ma grande surprise, j'ai trouvé comp.ai étouffé par une telle litanie d'arguments anti-Searle incroyablement mauvais que j'ai trouvé que je devais passer tout mon temps d'antenne à défendre Searle contre ces non -starters au lieu de l'enterrer, comme j'avais l'intention de le faire. (Searle l'a remarqué cette fois, car apparemment il s'est également connecté à comp.ai à l'époque, m'encourageant [hors ligne] à continuer à mener le bon combat - ce qui m'a intrigué, car j'étais convaincu que nous étions sur des côtés opposés ).
Je n'ai jamais eu le temps d'enterrer Searle, car quand, après des mois à ne jamais essayer de clarifier les choses en réfutant les mauvaises réfutations à l'ARC, j'ai supplié Searle [hors ligne] de lire mon 'Minds, Machines and Searle' et sachez que nous étions des adversaires plutôt que des compagnons d'armes, malgré les apparences contraires sur comp.ai. Il m'a répondu que bien que mon article contienne des points sur lesquels des hommes raisonnables pourraient accepter de ne pas être d'accord, sur le point essentiel, celui que tout le monde était occupé à contester, je suis en fait d'accord avec lui -- alors pourquoi ne pas simplement sortir et le dire?
C'est alors que le jeton est tombé. Car il y avait quelque chose dans l'argument de la salle chinoise qui m'avait été évidemment juste depuis le début, et j'avais donc tout à fait pris cette partie pour acquise, me concentrant plutôt sur ce que je pensais que Searle avait tort; pourtant ce point d'accord essentiel était celui-là même que tout le monde contestait ! Et ne vous y trompez pas, si vous avez répondu à un sondage - dans le premier tour du commentaire BBS, dans le commentaire continu, sur comp.ai ou dans la littérature secondaire sur l'argument de la salle chinoise qui s'est accumulée au cours des deux décennies pour aujourd'hui (et culminant dans le présent livre) - l'écrasante majorité pense toujours que l'argument de la chambre chinoise est tout à fait faux, même parmi ceux qui conviennent que les ordinateurs ne peuvent pas comprendre ! En fait (je suis ouvert à la correction sur ce point), j'ai l'impression que, à part moi, les seuls qui professent accepter la validité du CRA semblent être ceux qui sont également persuadés par ce que j'ai appelé plus tôt les "objections de grand-mère". " -- le genre d'amis à la tête douce qui font encore plus de mal à son cas que ses ennemis.
Alors, qu'est-ce que cette ARC, et qu'y a-t-il de bien et de mal à ce sujet ? Searle est certainement en partie responsable des deux décennies de malentendus concernant son argumentation sur la compréhension. Il n'a pas toujours dit les choses de la façon la plus claire. Pour commencer, il a baptisé comme cible une position que personne n'était tout à fait prêt à posséder pour être la sienne : "Strong AI".
Qu'est-ce que "l'IA forte" ? Comme distillé des différentes incarnations successives du CRA (oral et écrit : Searle 1980b, 1982, 1987, 1990b), les partisans de Strong AI sont ceux qui croient en trois propositions :
(1*) L'esprit est un programme informatique.
(2*) Le cerveau n'est pas pertinent.
(3*) Le test de Turing est décisif.
C'est ce trio de principes que l'ARC entendait réfuter. (Mais bien sûr, tout ce qu'il pouvait réfuter était leur conjonction. Certains d'entre eux pourraient encore être vrais même si le CRA était valide). Je vais maintenant reformuler (1*) - (3*) afin qu'ils soient les principes reconnaissables du computationalisme, une position (contrairement à "Strong AI") qui est en fait défendue par de nombreux penseurs, et donc qui mérite d'être réfutée, si elle est fausse (Newell 1980; Pylyshyn 1984; Dietrich 1990).
Le calculalisme est la théorie selon laquelle la cognition est un calcul, que les états mentaux ne sont que des états computationnels. En fait, c'est ce que le principe (1) aurait dû être :
(1) Les états mentaux ne sont que des implémentations du (des bon) programme(s) informatique(s). (Autrement dit : les états mentaux ne sont que des états computationnels).
Si (1*) avait été formulé de cette manière en premier lieu, il aurait devancé les objections selon lesquelles le code inerte n'est pas un esprit : bien sûr, les symboles sur une feuille de papier ou sur un disque ne sont pas des états mentaux. Le code - le bon code (en supposant qu'il existe) - doit être exécuté sous la forme d'un système dynamique s'il doit s'agir d'un état mental.
Le deuxième principe a conduit à encore plus de malentendus. Comment le cerveau peut-il être sans rapport avec les états mentaux (surtout les siens !) ? Doit-on croire que si l'on enlève le cerveau, ses états mentaux perdurent quelque part, comme le sourire du chat du Cheshire ? Ce que Searle voulait dire, bien sûr, n'était que la distinction matériel/logiciel standard : un état computationnel est indépendant de l'implémentation. Venons-nous de contredire le principe (1) ?
(2) Les états computationnels sont indépendants de l'implémentation. (Le logiciel est indépendant du matériel).
Si nous combinons (1) et (2), nous obtenons : les états mentaux ne sont que des implémentations indépendantes de la mise en œuvre des programmes informatiques. Ce n'est pas contradictoire. Le programme informatique doit être physiquement implémenté en tant que système dynamique afin de devenir l'état computationnel correspondant, mais les détails physiques de l'implémentation ne sont pas pertinents pour l'état computationnel qu'ils implémentent - sauf qu'il doit y avoir une certaine forme d'implémentation physique . Des systèmes physiques radicalement différents peuvent tous implémenter un seul et même système de calcul.
L'indépendance de la mise en œuvre fait en effet partie à la fois de la lettre et de l'esprit du calculalisme. Il fut même un temps où les informaticiens pensaient que la distinction matériel/logiciel éclairait (si elle ne résolvait pas carrément) le problème esprit/corps : la raison pour laquelle nous avons ce problème de longue date pour comprendre comment les états mentaux pouvaient être juste des états physiques, c'est qu'ils ne le sont pas ! Les états mentaux ne sont que des états computationnels, et les états computationnels sont indépendants de l'implémentation. Ils doivent être physiquement mis en œuvre, bien sûr, mais ne cherchez pas la mentalité en la matière (le matériel) : c'est le logiciel (le programme informatique) qui compte.
Si Searle avait formulé le deuxième principe du computationalisme de cette manière explicite, non seulement la plupart des informaticiens de l'époque auraient dû se reconnaître comme sa cible légitime, non seulement cela aurait repoussé les faux-fuyants quant à la non-pertinence des cerveaux pour leur propre mental. états, ou sur le fait qu'il n'y avait aucun besoin d'une implémentation physique, mais cela aurait clairement exposé le ventre mou du calculalisme, et donc la véritable cible du CRA de Searle : car c'est précisément sur la force de l'indépendance de la mise en œuvre que le calculalisme rester debout ou tomber.
La propriété critique est la transitivité : si toutes les implémentations physiques d'un seul et même système de calcul sont effectivement équivalentes, alors lorsque l'une d'entre elles a (ou manque) une propriété de calcul donnée, il s'ensuit qu'elles le font toutes (et, selon le principe (1 ), être un état mental n'est qu'une propriété de calcul). Nous y reviendrons. C'est ce que j'ai appelé « le périscope de Searle » sur la barrière normalement impénétrable des « autres esprits » (Harnad 1991a) ; c'est aussi ce ventre mou du computationalisme. Mais d'abord, nous devons fixer le principe (3 *).
En fait, textuellement, le principe (3*) n'est pas tant trompeur (dans le sens où (1*) et (2*) étaient trompeurs) qu'il est incomplet. Il aurait dû se lire :
(3) Il n'y a pas de test empirique plus fort pour la présence d'états mentaux que l'indiscernabilité de Turing ; par conséquent, le test de Turing est le test décisif pour une théorie computationnelle des états mentaux.
Cela n'implique pas que réussir le test de Turing (TT) soit un garant d'avoir un esprit ou que l'échouer soit un garant d'en manquer. Cela signifie simplement que nous ne pouvons pas faire mieux que le TT, empiriquement parlant. Quelle que soit la réalité de la cognition - qu'il s'agisse simplement de calcul, ou quelque chose de plus, ou autre chose - la science cognitive ne peut jamais être qu'une forme de "rétro-ingénierie" (Harnad 1994a) et la rétro-ingénierie n'a que deux types de données empiriques en passant : structure et fonction (cette dernière incluant toutes les capacités de performance). En raison du principe (2), le computationalisme a évité la structure ; cela ne laisse que la fonction. Et le TT demande simplement une équivalence fonctionnelle (en fait, une indiscernabilité fonctionnelle totale) entre le candidat rétro-conçu et la chose réelle.
Considérez la rétro-ingénierie d'un canard : un canard rétro-ingénierie devrait être impossible à distinguer d'un vrai canard à la fois structurellement et fonctionnellement : il devrait non seulement marcher, nager et cancaner (etc.) exactement comme un canard, mais il devrait aussi doivent ressembler exactement à un canard, tant à l'extérieur qu'à l'intérieur. Personne ne pouvait se quereller avec un candidat rétro-conçu avec succès comme ça; personne ne peut nier qu'une compréhension complète du fonctionnement de ce candidat équivaudrait également à une compréhension complète du fonctionnement d'un vrai canard. En effet, personne ne pouvait demander plus.
Mais on pourrait demander moins, et un fonctionnaliste pourrait se contenter de la marche, de la nage et du charlatanisme (etc., y compris tout ce qu'un canard peut faire d'autre), mais en ignorant la structure, c'est-à-dire à quoi elle ressemble, sur le à l'intérieur ou à l'extérieur, de quel matériau il est fait, etc. Appelons le premier type de canard rétro-conçu, celui qui est totalement indiscernable d'un vrai canard, à la fois structurellement et fonctionnellement, D4, et celui qui est indiscernable seulement fonctionnellement, D3.
Notez, cependant, que même pour D3, tous les détails structurels ne seraient pas sans importance : pour marcher comme un canard, quelque chose comme deux appendices en peluche sont nécessaires, et pour nager comme un seul, ils feraient mieux d'être quelque chose comme des palmés aussi. Mais même avec ces contraintes de couplage structure/fonction, viser la seule équivalence fonctionnelle laisse encore de nombreux degrés de liberté structurels ouverts. (Ces degrés de liberté se réduiraient encore plus si nous devenions plus minutieux au sujet de la fonction - mue, accouplement, digestion, immunité, reproduction - d'autant plus que nous approchions du niveau de la fonction cellulaire et subcellulaire. Il y a donc vraiment un continuum microfonctionnel entre D3 et D4 ; mais laissons cela de côté pour l'instant et restons-en à la macrofonction D3, principalement sous la forme de capacités de performance).
Le test de Turing est-il juste l'équivalent humain du D3 ? En fait, la version "correspondant" du TT, telle que Turing (1950) l'a formulée à l'origine, était encore plus macrofonctionnelle que cela - c'était l'équivalent de D2, nécessitant que le canard cancane. Mais dans le cas humain, le "charlatanisme" est une capacité de performance plutôt plus puissante et générale, et certains considèrent que son plein pouvoir expressif équivaut à, ou du moins qu'il s'appuie sur, notre pleine capacité cognitive (Fodor 1975 ; Harnad 1996a).
Appelons donc la version correspondante du test de Turing T2. Pour réussir le T2, un candidat rétro-conçu doit être Turing-indiscernable d'un vrai correspondant. Le principe de Searle (3) pour le calculalisme est à nouveau un peu équivoque ici, car il stipule que TT est le test décisif, mais cela signifie-t-il T2 ?
C'est le point où des hommes raisonnables pourraient commencer à être en désaccord. Mais supposons que ce soit T2 pour l'instant, en partie parce que c'est la version que Turing a décrite, et en partie parce que c'est celle que les informaticiens se sont montrés prêts à défendre. A noter que T2 couvre toutes les capacités cognitives qui peuvent être testées par des tests papier/crayon (raisonnement, résolution de problèmes, etc.) ; seules les capacités sensorimotrices (c'est-à-dire robotiques) (T3) sont omises. Et les capacités du correspondant sont à la fois grandeur nature et permanentes : le candidat doit pouvoir les déployer avec n'importe qui, indéfiniment, comme le ferait un vrai correspondant ; il ne s'agit pas ici de tours de passe-passe d'un soir (Harnad 1992) mais d'une réelle capacité de performance à taille humaine, indiscernable de la nôtre (Harnad 2000a).
Nous reformulons maintenant l'argument de la chambre chinoise de Searle en ces nouveaux termes : supposons que le calculalisme est vrai, c'est-à-dire que les états mentaux, tels que la compréhension, ne sont en réalité que des implémentations indépendantes de la mise en œuvre des états computationnels, et donc qu'un ordinateur passant par T2 serait ( entre autres) comprendre.
Notez qu'il existe de nombreuses façons de rejeter cette prémisse, mais recourir à l'une d'entre elles revient à accepter la conclusion de Searle, à savoir qu'un ordinateur passant par T2 ne comprendrait pas. (Sa conclusion est en fait plus forte que cela - trop forte, en fait - mais nous y reviendrons comme un autre des points sur lesquels des hommes raisonnables peuvent être en désaccord). Donc, si l'on rejette la prémisse qu'un ordinateur pourrait jamais passer T2, on fait le jeu de Searle, comme on le fait si l'on soutient que T2 n'est pas un test assez fort, ou que les détails de mise en œuvre ont de l'importance.
Alors acceptons la prémisse et voyons comment Searle arrive à sa conclusion. C'est là, après tout, que la plus grande partie de la chaleur des vingt dernières années a été générée. Searle va directement au ventre mou du computationalisme : l'indépendance de la mise en œuvre (principe (2)). En raison de (2), toute mise en œuvre de ce programme de passage en T2 doit avoir les états mentaux en question, s'il ne s'agit vraiment que d'états computationnels. En particulier, chacun d'eux doit comprendre. Assez juste. Mais maintenant, Searle fait ressortir sa pompe à intuition, ajoutant que nous devons imaginer cet ordinateur comme passant T2 en chinois ; et on nous demande de croire (parce que c'est vrai) que Searle lui-même ne comprend pas le chinois. Il ne reste plus qu'à noter que si Searle lui-même exécutait le programme informatique, il ne comprendrait toujours pas le chinois. Par conséquent (par (2)) l'ordinateur non plus, exécutant le même programme. Q.E.D. Le computationalisme est faux.
Maintenant, tout comme ce n'est pas une réfutation (mais plutôt une affirmation) de l'ARC que de nier que T2 est un test suffisamment fort, ou de nier qu'un ordinateur puisse jamais le réussir, c'est simplement un plaidoyer spécial pour essayer de sauver le calcul en stipulant ad hoc (face à l'ARC) que les détails de mise en œuvre comptent après tout, et que celui de l'ordinateur est le « bon » type de mise en œuvre, tandis que celui de Searle est le « mauvais » type. Cela revient à admettre que le principe (2) est faux après tout.
De la même manière, il ne sert à rien d'essayer de sauver le calcul en soutenant que Searle serait trop lent ou incompétent pour mettre en œuvre le programme de passage T2. Ce n'est pas un problème en principe, donc ce n'est pas une clause échappatoire pour le calculalisme. Certains ont fait un culte de la vitesse et du timing, estimant que, lorsqu'il est accéléré à la bonne vitesse, le calcul peut faire une transition de phase vers le mental (Churchland 1990). Il devrait être clair qu'il ne s'agit pas d'un contre-argument, mais simplement d'une spéculation ad hoc (tout comme l'opinion selon laquelle tout n'est qu'une question d'augmenter jusqu'au bon degré de "complexité").
Sur comp.ai (et même dans le commentaire original de 1980 sur Searle), certains de ces contre-arguments ad hoc ont été faiblement exprimés, mais de loin les plus tenaces des réfutations potentielles étaient des variantes de la réponse systémique, à l'effet qu'elle était déraisonnable de supposer que Searle devait être compréhensif dans ces conditions ; il ne serait qu'une partie du système de mise en œuvre, alors que ce serait le système dans son ensemble qui ferait la compréhension.
Encore une fois, il est regrettable que dans la formulation originale de l'ARC, Searle ait décrit la mise en œuvre du programme de passage T2 dans une pièce à l'aide de symboles et de règles de manipulation de symboles écrits partout sur les murs, car cela a ouvert la porte à la réponse des systèmes. Il a offert une réfutation préventive, dans laquelle il a suggéré aux systématistes que s'ils étaient vraiment prêts à croire que, alors que lui seul ne serait pas compréhensif dans ces conditions, la "salle" dans son ensemble, composée de lui et du symbole -des murs jonchés, seraient compréhensifs, alors ils devraient simplement supposer qu'il avait mémorisé tous les symboles sur les murs ; alors Searle lui-même serait tout ce qu'il y avait dans le système.
Cette variante décisive n'a pas empêché certains systématistes de recourir au contre-argument encore plus ad hoc selon lequel même à l'intérieur de Searle il y aurait un système, consistant en une configuration différente des parties de Searle, et que ce système serait en effet compréhensif. Cela revenait à conjecturer qu'à la suite de la mémorisation et de la manipulation de très nombreux symboles dénués de sens, la compréhension du chinois serait induite soit consciemment chez Searle, soit, à la manière d'une personnalité multiple, dans une autre entité consciente de compréhension du chinois à l'intérieur de sa tête. que Searle ignorait.
Je ne m'attarderai sur aucun de ces actes héroïques ; qu'il suffise de dire que même le créationnisme pourrait être sauvé par des spéculations ad hoc de cet ordre. (Ils montrent seulement que le CRA n'est pas une preuve ; pourtant, il reste la seule prédiction plausible basée sur ce que nous savons). Un pari plus intéressant consistait à concéder qu'aucune compréhension consciente ne se produirait dans ces conditions, mais que la compréhension inconsciente le serait, en vertu des calculs.
Ce dernier n'est pas une spéculation arbitraire, mais une notion révisée de la compréhension. Searle n'a vraiment aucune défense contre cela, car, comme nous le verrons (bien qu'il ne l'admette pas explicitement), la force de son ARC dépend entièrement du fait que la compréhension est un état mental conscient, dont on peut consciemment la présence ou l'absence (et donc honnêtement) vérifier et attester (le périscope de Searle). Mais Searle n'a pas non plus besoin de défense contre cette notion révisée de compréhension, car cela n'a de sens que de parler d'états mentaux inconscients (si cela a du sens) dans une entité autrement consciente. (Searle se dirigeait vers cette position dix ans plus tard en 1990a).
Les états inconscients dans les entités non conscientes (comme les grille-pain) ne sont pas du tout une sorte d'état mental. Et même dans les entités conscientes, les états mentaux inconscients feraient mieux d'être brefs ! Nous sommes prêts à croire que nous « connaissons » un numéro de téléphone lorsque, incapables de nous en souvenir consciemment, nous constatons que nous pouvons néanmoins le composer lorsque nous laissons nos doigts faire le tour. Mais se trouver capable d'échanger des lettres impénétrables toute sa vie avec un correspondant de cette manière ressemblerait plutôt à du somnambulisme ou au parler en langues (même le syndrome neurologique de "l'écriture automatique" n'a rien à voir avec cela ; Luria 1972) . Ce n'est certainement pas ce que nous entendons par "comprendre une langue", ce qui signifie sûrement une compréhension consciente.
La synonymie du "conscient" et du "mental" est au cœur du CRA (même si Searle n'en est pas encore pleinement conscient -- et même s'il l'a obscurcie en utilisant constamment le mot fouine "intentionnel" dans son lieu !) : Normalement, si quelqu'un prétend qu'une entité -- n'importe quelle entité -- est dans un état mental (a un esprit), il n'y a aucun moyen que je puisse le confirmer ou l'infirmer. C'est le problème des "autres esprits". Nous le « résolvons » les uns avec les autres et avec des espèces animales qui nous ressemblent suffisamment grâce à ce que l'on appelle la « lecture de l'esprit » (Heyes 1998) dans la littérature depuis qu'elle a été introduite pour la première fois dans le BBS deux ans avant l'article de Searle (Premack & Woodruff 1978). Mais bien sûr, la lecture de l'esprit n'est pas vraiment de la télépathie, mais du Turing-Testing - des inférences préparées biologiquement et de l'empathie basée sur des similitudes avec notre propre apparence, nos performances et nos expériences. Mais le TT n'est bien sûr pas une garantie ; elle ne donne rien de comparable à la certitude cartésienne que nous avons de nos propres états mentaux.
Pouvons-nous jamais expérimenter directement les états mentaux d'une autre entité ? Pas à moins que nous ayons un moyen de devenir réellement cette autre entité, et cela semble être impossible - à une exception très spéciale, à savoir, ce ventre mou du calcul : car bien que nous ne puissions jamais devenir une autre entité physique que nous-mêmes, s'il y a sont en effet des états mentaux qui se produisent uniquement en vertu d'être dans le bon état computationnel, alors si nous pouvons entrer dans le même état computationnel que l'entité en question, nous pouvons vérifier si oui ou non elle a les états mentaux qui lui sont imputés. C'est le périscope de Searle, et un système ne peut s'en protéger qu'en ne prétendant pas être dans un état mental uniquement parce qu'il est dans un état computationnel -- ou en renonçant à la nature mentale de l'état computationnel, en concédant que c'est juste un autre état inconscient (ou plutôt non conscient) - rien à voir avec l'esprit.
Le calculalisme était très réticent à abandonner l'un ou l'autre de ces éléments; le premier serait passé à la conversion du calculalisme au "mise en œuvre" pour sauver le mental - et ce serait simplement de rejoindre le monde matériel des systèmes dynamiques, dont le calcul avait espéré faire abstraction. Le second serait allé jusqu'à renoncer complètement au mental.
Mais il y a aussi un sens dans lequel la réponse des systèmes a raison, car bien que l'ARC montre que la cognition ne peut pas être uniquement computationnelle, elle ne montre certainement pas qu'elle ne peut pas être computationnelle du tout. Ici, Searle semble avoir tiré des conclusions plus solides que ne le justifiait l'ARC. (Ce n'était pas nécessaire : montrer que les états mentaux ne peuvent pas être simplement computationnels était assez fort !) Mais il pensait avoir montré plus :
Searle pensait que l'ARC avait invalidé le test de Turing en tant qu'indicateur des états mentaux. Mais nous avons toujours su que le TT était faillible ; comme l'ARC, ce n'est pas une preuve. De plus, c'est seulement T2 (et non T3 ou T4 REFS) qui est vulnérable à l'ARC, et même cela uniquement pour le cas particulier d'un candidat purement informatique indépendant de la mise en œuvre. L'ARC ne s'opposerait pas à un système de transmission T2 non informatique; cela ne fonctionnerait pas non plus contre un système hybride, informatique / non informatique (REFS), pour la simple raison que dans aucun des cas Searle ne pourrait être le système entier; Le périscope de Searle échouerait. Non pas que les systématiciens devraient s'en réjouir, car si la cognition est hybride, le calculalisme est toujours faux.
Searle allait également trop loin en concluant que l'ARC redirige notre champ d'enquête du calcul vers la fonction cérébrale : il existe encore de nombreux degrés de liberté dans les approches hybrides et non computationnelles de la cognition par rétro-ingénierie sans nous contraindre à rétro-concevoir le cerveau. (T4). Les neurosciences cognitives ne peuvent donc pas non plus se fier au CRA. C'est seulement une approche très étroite qui a été discréditée : le computationalisme pur.
La contribution de Searle n'a-t-elle été que négative ? En montrant que la route purement computationnelle ne mènerait pas à Londres, nous a-t-il laissé aussi incertains qu'auparavant quant à la bonne route vers Londres ? Je ne pense pas, car sa critique a contribué à ouvrir les perspectives que l'on appelle maintenant la "cognition incarnée" et la "robotique située", et elles m'ont certainement poussé vers la voie hybride des systèmes de symboles ancrés dans le monde sensorimoteur (T3) avec les neurones. filets.
Et Granny s'est vue donner une raison beaucoup plus dure de croire ce qu'elle savait depuis le début : que nous ne sommes pas (seulement) des ordinateurs (Harnad 2000b, 2001).
Références (sont dans la version anglaise)
Je viens de terminer la lecture du texte de Searle et je m’étonne à remarquer que les réponses de Berkeley, Standford et de Yale ne concernent que la technique ou la mise en place du système de traite d’information de l’IA forte et non les potentiels éléments qui affectent la réelle compréhension des situations. Cela me fait penser à une chose qui est rarement discutés dans ces débats et qui se rapproche beaucoup du terme que vous utilisez dans votre résumé du texte de Searle; le libre-arbitre et l’interprétation sémantique. Ce sont des éléments qui, selon mon opinion, sont important à déchiffrer pour saisir plus profondément les systèmes internes de cognition chez l’être humain. Elles causent ou sont les conséquences des systèmes de calculs internes et pourrait donner des explications sur nos fameux systèmes de traite d’information si particulière. C’est là que se fait toute la différence (toujours selon moi) entre une personne qui entend, comprend et répond à une question sur une situation hypothétique (comme présenter au début du texte) et une IA qui active simplement son programme de ‘’compréhension des situations’’.
RépondreEffacerRoxane, c'est ta première ciélo, et elle porte sur la semaine 3, où on n'est même pas encore rendu.
EffacerPlus important, les semaines sont du cours sont consécutives: chacune battit sur ce qui venait avant.
Stp lire (et commenter sur) ce que c'est que le calcul (semaine 1) et ce que c'est que le Test de Turing (semaine 2). Sans ça c'est impossible de comprendre l'argument de Searle.
J’ai de la difficulté à voir comment Chat GPT peut me faire croire qu’il est un humain. Dès que je lui dit bonjour et lui demande comment il va, il me répond qu’il n’a pas de sentiments et qu’il est prêt à m’aider pour toute question que j’aie. Ensuite, je lui demande son opinion sur plusieurs sujets. Premièrement, je lui demande quel pays a la meilleure cuisine selon lui. Il me donne une réponse très standard et sans aucune personnalité. Il dit juste que quelle est la meilleure cuisine est un choix subjectif et que plusieurs pays sont réputés pour leur nourriture. Il décrit ensuite la cuisine de plusieurs pays. Je lui demande ensuite s’il préfère la cuisine japonaise ou mexicaine et il me réponse qu’en tant que « machine learning model », il n’a pas de préférences personnelles ou de goûts et qu’il peut me fournir de l’information sur ces cuisines si je le souhaite. Ainsi, on voit bien que ce n’est pas un humain, car il est incapable d’avoir des opinions personnelles et ne peut s’empêcher de me rappeler, à chaque fois que je lui pose une question d’opinion, qu’il n’est qu’une machine sans opinion. Donc ChatGPT peut être utile pour trouver rapidement de l’information objective, mais il n’est pas capable de partager des opinions personnelles. Selon moi, il échoue au test de Turing.
RépondreEffacerMégane, avec la capacité verbale que possède et démontre déjà ChatGPT, ce serait facile de lui fournir une biographie fictive, avec les expériences et les préférences personnelles. Ce n'est qu'un robot T3 avec une vraie historique « vécu », plutôt que juste verbale (et fictive), qui pourrait répondre aux questions comme ça sans mentir.
EffacerTenant compte de ceci, évite maintenant les questions portant à ce qui serait impossible pour un humain qui n'a aucune capacité sensorimotrice (vision, ouï, motricité) et évalue ce qui reste. Est-ce qu'il y autre chose qui manque?
Mégane, ça veut dire quoi, l'intentionnalité?
Effacer(Pour le sens « mouvement volontaire » regarde les ciélos concernant les recherches de Libet sur les activités cérébrales précédant les mouvements volontaires. L'autre sens du mot est très loin de ce que nous étudions ici; il provient de la philosophie de Brentano et concerne « l'entendement » en ce sens que ce que j'ai « à l'idée» lorsque je pense ou parle de quelque chose: l'objet « mental » vers lequel la pensée ou la parole est « dirigée »,)
Je crois que l'intentionnalité sert à désigner une entité qui est autonome, qui comprend le sens des symboles qu'il manipule et ne fait pas qu'exécuter aveuglément une "recette" (algorithme). Pour faire un lien avec Searle, l'intentionnalité (et non la computation) serait donc la cognition?
EffacerMégane, en sciences cognitives on cherche des explications causales des capacités cognitives humaine. On cherche à découvrir -- rétroingénierier -- ce qui est le mécanisme qui les produit, et comment.
EffacerLa computation, on sait exactement ce que c'est, et comment ça fonctionne. (Comment?) Par contre, on ne sait pas ce que c'est que « l'intentionalité ». C'est une autre chose à expliquer, et beaucoup plus vague que la cognition (la capacité de penser) et la capacité de faire tout ce que peuvent faire les êtres qui sont capables de penser.
Maintenant, met le chapeau de rétroingénieure, chargée d'expliquer ce qui est le mécanisme causal de la cognition, et reconsidère si la mention de « l'intentionalité » nous informe de quelconque manière ? (Rappelle-toi de la définition de l'information...)
Pour ceux qui ont déjà vu le premier film Blade Runner j'aime bien le passage de ce T4 (à moins que ce soit un T5?) https://www.facebook.com/share/v/faPn5ow8H8Gj5ouF/?mibextid=WC7FNe
RépondreEffacerNous sommes des machines capables de créer des machines. Nous tentons de les créer à notre image. Ce faisant, nous découvrons qui nous sommes.
Josée, la sci-fi c'est le fun, mais ici c'est la sci-co!
EffacerJosée, c'est beau, mais c'est de la poésie et de la science-fiction. En ce qui concerne l'explication du mécanisme de la pensée, il faut maîtriser les faits.
RépondreEffacerLa pensée chez l'humain permet de générer calcul, des algorithmes, à l'inverse le calcul n'amène pas la pensée (pour l'instant chez l'IA, sinon elle serait programmée selon quel modèle?).
EffacerQue se passera-t-il, si jour un IA ne veut pas mourir ou lorsqu'il jugera que l'humain est nuisible à certains égards pour la planète?
Josée, « programmé » ne signifie que ce qu'il existe un algorithme qui s'exécute (comme dans le cas de l'ADN, issue de l'évolution biologique). (Avant de spéculer concernant ce que pourrait faire une IA fictive, il faut bien comprendre ce que c'est que le calcul en tant que tel, et ensuite considérer s'il y a quoi que ce soit qui indique que le mécanisme causal de nos capacités cognitives ne pourrait pas être le calcul. As-tu lu l'article de Searle et/ou ma critique, qui s'adressent à cette question? Les ciélos sont censée de faire preuve d'avoir lu les lectures.)
EffacerCiello #1 (Article de Searle)
RépondreEffacerDans la Chinese room thought experiment, Searle montre que la cognition n’est pas la computation parce qu’il réussit le Test 2 (verbal) en chinois même s’il ne parle pas la langue. Il utilise l’algorithme pour manipuler des symboles (le chinois) qu’il ne comprend pas.
Searle a donc été capable de faire lui-même le T2, mais il n’a pas eu la capacité d’apprendre à comprendre une nouvelle langue dans le processus…
Andréane, comment Searle aurait-il pu constater qu'il ne comprenait pas le chinois, malgré le fait que ses clavardeurs chinois comprenait ce que Searle leur écrivait, et qu'ils pouvaient discuter avec lui en chinois?
EffacerSearle a seulement exécuté l’algorithme pour pouvoir réussir le T2. Il ne comprend pas les symboles qu’il manipule avec cet algorithme (le chinois), mais il a tout de même réussi T2.
EffacerJ'ai l'impression de me répéter, mais ce que je veux dire c'est que Searle se transforme en « le matériel » qui exécute l'algorithme et il sait qu'il ne comprend rien en chinois. En plus de ça, on est chanceux parce qu'il est humain... Alors il peut faire un article scientifique disant « j'ai réussi T2 parce que j'ai exécuté/mémorisé un algorithme, je n'ai pas réussi avec ma compréhension du chinois ».
Andréane, tout ce que tu dis est correct. Mais je répète ma question: Comment sait-il qu'il ne comprend pas le chinois, bien que pour tous ses correspondents chinois, il semble comprendre at communiquer parfaitement? La réponse à ma question est simple, mais elle va s'avérer importante!
EffacerDans le texte de la chambre chinoise, l'argument de Searle remet en question l'idée selon laquelle la manipulation des informations équivaut à une véritable compréhension. Par exemple, le changement d'une personne dans une pièce qui suit des règles afin de manipuler des symboles chinois sans comprendre la langue reflète la distinction entre la simulation de l'intelligence et la compréhension. Searle nous montre que cette complexité de la compréhension et de la conscience humaines va au-delà du traitement formel des symboles ou des informations en raison de la richesse inhérente à la nature humaine et à la cognition.
RépondreEffacerClaude, Searle montre que si le calcul seul peut réussir le Test de Turing T2 (c'est quoi?) ne suffit pas à la compréhension. Qu'est-ce que Searle recommande?
EffacerMégane, c'est quoi le calcul (la computation)? Et qu'est-ce qu'un algorithme? Et une machine de Turing? Une machine de Turing, exécutant l'algorithme qui modélise les propriétés d'un piano lorsqu'on touche à une de ses clés, n'est pas un piano. C'est quoi la thèse de « computationiisme » (l'IA forte de Searle)? Et comment est-ce que Searle réfute cette thèse?
RépondreEffacerDonc, comme Searle l'explique vers la fin de son article, le problème principal de la thèse de l'I.A. forte revient à une présupposition dualiste implicite au computationnalisme. En voulant définir la cognition comme la manipulation formelle de symboles selon une série de règles données, elle concède l'importance du cerveau (le matériel) pour celle de l'esprit (le logiciel). Or, Searle démontre que l'entendement ne peut pas être seulement expliqué par cet aspect formel, puisque le « sujet » qui les manipule n'est jamais forcé de comprendre les symboles afin d'accomplir sa tâche, seul sa compréhension des règles est nécessaire ; la sémantique des symboles importe peu, c'est la syntaxe qui défini l'algorithme. Searle exclut donc une machine qui réussirait le test T2, mais aussi un robot T3 où les entrées sensorimotrices et perceptuelles ne diffèrent que sémantiquement, et non syntaxiquement, des symboles chinois ou autres. Ce dualisme amène donc Searle à poser le processus causal entre le « matériel » et le « logiciel » comme condition nécessaire à la cognition, voir si un robot qui passerait le test T4 pourrait être conscient, ou si seul un clone humain T5 peut être qualifié ainsi, est un problème empirique que Searle n'écarte pas.
RépondreEffacer** CECI EST UN TEST DE LA COMPRÉHENSION DE L'ARGUMENT DE LA CHAMBRE CHINOISE DE SEARLE. TOUT LE MONDE EST INVITÉ À ESSAYER **
EffacerÉdouard, quand le calcul semble avoir un attribut mystérieux on peut toujours le démystifier en faisant l’analogie avec le langage naturel. (Le calcul ressemble au langage — en effet il est un sous-ensemble spécial du langage; mais on verra que le langage est encore beaucoup plus que ça.)
Le fait que l’algorithme (la recette pour manipuler les symboles de forme arbitraire) est indépendant du matériel qui exécute la recette, est semblable au fait qu’une phrase verbale — « le chat est sur le tapis » est la même phrase, peu importe qui prononce la phrase (et elle peut aussi être prononcée par une machine). On pourrait aussi dire exactement la même chose concernant la musique, soit d’une chanson soit de juste une mélodie: la forme auditive est la même, peu importe le matériel qui l’exécute.
Ainsi, Searle n’est qu’un autre matériel qui exécute la recette qui réussit le T2 chinois: une recette qui permet de manipuler la forme des mots chinois pour clavarder avec n’importe quel vrai sinophone humain (le long d’une vie), sans que le sinophone ait la moindre indication que son interlocuteur n’est pas un autre sinophone humain.
Mais voici une deuxième sorte d’indépendance: pas celle entre l’algorithme et le matériel qui l’exécute, mais entre la forme d’une phrase linguistique et son sens: ce qu’il veut dire.
Grâce à l’indépendance recette/matériel ( « le périscope de Searle »: c’est quoi?), Searle peut exécuter la même recette qu’exécute l’ordinateur qui réussit le T2 chinois (celle produit la capacité à clavarder avec les sinophones, de façon indiscernable des sinophones humains). Mais quand il fait ça, Searle ne comprend pas le sens de ce qu’il écrit. Par conséquent, l’ordi qui réussit T2 ne l’avait par compris non plus (ou au moins pas grâce à avoir exécuté la recette T2). (Ça c’est largement l’argument de Searle.)
Contrairement qu’en mathématique, où il n’est pas nécessaire de comprendre la recette pour arriver au bon résultat, la langue naturelle a non seulement sa forme matérielle; elle a aussi son sens. Et pour comprendre ce sens, il faut avoir le sens de le comprendre. Ce sens est un ressenti, et Searle ne l’a pas, lorsqu’il devient le matériel qui exécute la recette T2. Ça Searle peut constater et déclarer avec certitude, main (cartésienne) sur coeur. Si les symboles chinoise 墊子上的貓 veut dire « le chat est sur le tapis », Searle n’en a la moindre, ni en entrée ni en sortie.
Si tu as compris ça, tu peux expliquer pourquoi (contrairement à ce qu’il soutient) Searle ne peut pas se servir de son « périscope » contre le T3 (c’est quoi?). Ce n’est efficace que contre le « computationisme » (c’est quoi?).
[le « computationisme » = « l'IA forte »,
EffacerDans le texte de Searle (1987) portant sur l’argument de la chambre chinoise, il propose des arguments qui infirment la position des tenant de l’I.A forte, la thèse forte dans le cadre de ce cours. Premièrement, pour les tenants de la thèse forte, l’ordinateur ne fait pas que simuler l'aptitude humaine à comprendre une histoire. Ils considèrent que l’ordinateur en a une véritable compréhension. Deuxièmement, le programme qui dirige cette compréhension explique aussi la capacité humaine à comprendre des histoires.
RépondreEffacerCes positions, pour Searle ne sont pas fondés et propose l’argument de la chambre chinoise pour soutenir et tester la compréhension des ordinateur. En résumer, il est dans pièce fermée, seule, 1-on lui remet une paquet de carte avec des symbole chinois (script), 2- on lui remet un second paquet avec des symboles chinois (histoire) et un paquet pour les corréler, donc des instructions /règles à suivre anglais (questions/ programme). Ce que Searle fournit à la fin de l’exercice sont des réponses. Il propose qu’a force de se pratiquer, il devient habille et ses réponse aux questions deviennent difficiles à distinguer des réponses d’une personne pour qui le chinois et la langue maternelle au quotidien. En d’autre mots, comme l’ordinateur, Searle, par ses réponses, passe le test de Turing mais il ne comprend toujours pas le chinois au bout du compte. Il considère que l’ordinateur n’a pas une compréhension de la sémantique, mais applique des règles syntaxiques. Et, qu’un programme n’est pas une condition suffisante pour expliquer la compréhension des histoires pour les humains. Il y va de même pour la réponse systémique, robotique et propose que les neurosciences sont la voie à emprunter pour que l’I.A comprenne le fonctionnement de la compréhension. En résumé, la compréhension n’est pas le produit de la computation.
Majdouline, c’est une synthèse presqu’exacte de l’argument de Searle. Maintenant simplifie ça et laisse tomber les composants superflus comme la chambre, les cartes, l’anglais, etc. Un algorithme est une recette pour manipuler les symboles. Il n’est pas nécessaire, par exemple, de comprendre les symboles quand on exécute la recette pour extraire les racines d’une equation quadratique. On n’a qu’à suivre la recette. C’est ces deux attributs du calcul qu’exploite Searle: (1) À cause de l’indépendance de la recette du matériel, Searle soi-même peut servir comme le matériel qui exécute l’algorithme qui réussit le T2 chinois. (2) À cause de la la distinction entre le sens et la syntaxe, on peut exécuter la syntaxe sans comprendre. C’est tout.
EffacerPour ma ciélo j’ai demandé à CHATGPT son opinion. CHATGPT dit qu’il comprend à sa façon. Je crois que c’est vrai. Je ne dis pas qu’il comprend comme un humain. Mais je crois aussi que même les autres animaux (un gorille, un moineau, un requin) comprennent le monde à leur façon.
RépondreEffacerMOI: Je crois que l'argument de la chambre chinoise de Searle est incorrect, car il assigne une importance biaisée à la compréhension (bien qu'il ne comprenne lui-même comment la compréhension fonctionne). Qu'est-ce que tu en penses?
CHATGPT - L'argument de la chambre chinoise de John Searle conteste l'intelligence artificielle forte, affirmant qu'une personne manipulant des symboles selon des règles formelles ne comprend pas réellement le sens du langage. Certains critiquent l'accent de Searle sur la compréhension, arguant que cela pourrait ne pas être un critère nécessaire pour l'intelligence artificielle. Des débats persistent quant à la possibilité d'une émergence de la compréhension à partir de règles formelles. Votre objection souligne que Searle ne comprend pas pleinement le fonctionnement de la compréhension, remettant en question la prééminence accordée à ce critère dans son argument. Le débat persiste sur la validité de l'argument de la chambre chinoise et son application à l'intelligence artificielle.
MOI: Est-ce que tu comprends ce que tu viens d'écrire?
ChatGPT: Oui, en tant que modèle de langage, je génère des réponses en fonction des modèles linguistiques appris pendant l'entraînement. Cependant, il est important de noter que je ne "comprends" pas de la même manière qu'un être humain. Mon fonctionnement est basé sur des modèles statistiques et des motifs dans les données que j'ai été entraîné à traiter. Ma capacité à générer du texte est limitée à la reconnaissance de motifs linguistiques et à la réponse en conséquence.
Fredy, dans la version de l’argument de Searle où il mémorise l’algorithme qui réussit T2 (comme nous faisons tous dans un cours d’algèbre-I sur la recette pour résoudre des équations quadratiques) Searle ne comprend aucunement le chinois en exécutant l'algo. Et si Searle faisait pareil avec l’algo de ChatGPT?
EffacerDans son texte Harnad, S. (2001) est en désaccord avec la position de Searle quant à position disant que la cognition n’est pas de la computation. L’auteur rappel les proposition de l’I.A forte 1-L’esprit est un programme informatique, 2- Le cerveau n'est pas pertinent, 3- Le test de Turing est décisif: la computation. Dans ce résumé, je m'attarde sur le point 3, le test de Turing. Dans son argumentation, Searle avance que le résultat de la chambre chinoise passe le test de Turing: les réponses fournies en fonction du programme sont indiscernables. Dans ce cas, selon Harnad, S. (2001), il est question de T2. Pour réussir le T2, un candidat rétro-conçu doit être Turing-indiscernable d'un vrai correspondant. Et ne partage pas l’avis de Searle sur sa réfutation complète du computationisme. Par contre, son argument de la chambre chinoise ouvre la voie à de nouvelles perspectives, tel que la "cognition incarnée" et la "robotique située”(T3). Je termine ce Cielo avec une citation qui reflète, à mon avis le questionnement sur la compréhension et les états manteaux des ordinateurs ou de programme comme ChatGPT, et qui reflète aussi ma réflection : “ bien que l'ARC montre que la cognition ne peut pas être uniquement computationnelle, elle ne montre certainement pas qu'elle ne peut pas être computationnelle du tout”.
RépondreEffacerMajdouline, la thèse forte de l'IA, synonyme avec ls computationisme soutient que la cognition n'est que de la computation. La thèse que la cognition est en partie computationnelle est triviale et évidement vraie, car nous faisons tous un peu de calcul...
EffacerJe suis loin d’être certaine d’avoir bien compris. Je pense qu’avec son expérience, Searle cherche à savoir si un humain sans réelle compréhension peut manipuler des symboles et exécuter une recette valide. Et si par conséquent, un programme informatique agit de la même manière.
RépondreEffacerSearle réussit T2 sans comprendre le sens des symboles et en conclut que l’ordinateur T2 n’aurait pas non plus cette compréhension. Cela ne pourrait pas s’appliquer à T3 parce qu’il possède un ancrage dans le monde. Et qu’en voyant, en entendant, bref, en expérimentant le réel, il pourrait ainsi développer un sens, obtenir un référent. Si Searle avait pu « voir » une chose liée à un symbole, il aurait développé une compréhension de ce qui est dit/écrit, et de ce qu’il souhaite énoncer. Cependant, j’avoue ne pas bien saisir l’idée du périscope.
L’AI forte (computationisme) suppose que le cerveau n’est pas important et que l’esprit n’est qu’un programme. Mais, cela semble se baser sur T2 qui ne se concentre que sur l’indiscernabilité de la fonction, de la capacité à « faire » et non à ce que cela ressemble.
Je crois qu’il est peut-être impossible de savoir si Searle ne comprenait pas vraiment. Peut-être qu’un mécanisme s’est mis en place en-dehors de sa conscience. Si l’on peut démontrer qu’une sphère s’active dans le cerveau avant que la conscience en prenne acte, si comme Ryan le souligne, un observateur peut voir les mécanismes dans le cerveau du participant et déterminer le choix de ce dernier (entre A ou B) avant qu’il en ait pris conscience, alors il me semble que cela suggère un état mental qui précède la décision. C’est peut-être dans ce sens que l’approche de Searle discréditerait celle qui veut que la cognition ne soit que du calcul. Et que pour arriver à une véritable compréhension de la cognition, il faut explorer les mécanismes causaux dans le cerveau qui produisent cette intentionnalité.
Donc, pour arriver à une véritable AI forte, il faudrait pouvoir reproduire les mêmes mécanismes que dans le cerveau humain.
(Je réponds avec beaucoup de doutes sur ma compréhension.
Est-ce que l'expérience de Searle discrédite le computationisme parce qu'il a démontré que le calcul seul ne donne pas la compréhension, qu'on a besoin du sens?
EffacerValérie, l’IA forte ( = le computationisme ) est l’hypothèse que la cognition n’est que de la computation. La cognition inclut la compréhension. Searle, en exécutant les computations (l’algo, la recette) qui réussit T2 (chinois), constate qu’il ne comprend pas le chinois, ainsi aucun ordi qui réussit le T2 chinois ne comprend non plus (à cause de l’indépendance de la computation de son implémentation matérielle (c’est ça le périscope de Searle) réfute le computationisme.
EffacerSi on veut modéliser aussi le fonctionnement du cerveau, alors il faut T4. Searle ne peut réfuter ni T3 ni T4: pourquoi pas?
Le périscope de Searle permet de pénétrer la barrière des autres esprit, Comment?
Mon fils et Moi avons questionné Chat GPT sur ‘Connaissez-vous ‘Marioni Cycles’ (avec une erreur d’orthographe); notre fournisseur de vélo étant ‘Marinoni Cycles’. Elle a répondu ‘À ma connaissance, il n'y a pas d'information spécifique sur Marioni cycles’. Nous lui avons alors demandé si elle connaissait Giuseppe Marinoni, elle a alors sortie l’histoire de ce coureur et des vélos qu’il fabrique.
RépondreEffacerÀ mon avis, Chat GPT n’a pas passé le test de Turing puisque si nous avions parlé à un humain (minimalement connaisseur en vélo) celui-ci aurait détecté l’erreur dans le nom et aurait sans doute demandé, voulez-vous parler de Marinoni Cycles et non pas de Marioni?
Danielle, stp lis les autres ciélos. Évalue la compétence cognitive de ChatGPT. Moi je n'aurais pas connu Marioni Cycles non plus. Ça ne prouve rien.
EffacerJe ne crois pas que le fait de ne pas connaître le fournisseur de vélo ou reconnaître le nom est ce qui est important dans le « test » de Danielle, mais plutôt qu’un « humain normal » n’aurait pas répondu de la sorte. On a plus tendance à dire « Non, je ne connais pas Marioni Cycles » ou une affirmation de ce style que la réponse qui a été donnée à Danielle. Ce n’est pas forcément le fait que chatGPT ne l’a pas corrigé tant du fait que celui-ci n’a pas donné une réponse très « humaine », mais une réponse très « machinale ».
EffacerAlexandre, certes que GPT fait beaucoup d'erreurs, parfois des erreurs qui semblent absurde, Mais je crois que parfois je fais des telles erreurs aussi. GPT, lorsqu'on tire son attention à son erreur, l'admet, et la corrige.
Effacer(Faut lui accorder les bénéfices du doute pour plusieurs tours plutôt que de tirer des conclusions prématurées grâce aux présuppositions. C'est comme ça qu'on arriver à une idée plus vraisemblable de ses compétences ainsi que ses moyens.)
D’après mon interprétation des trois propositions de la chambre de Searle:
RépondreEffacer(1*) L'esprit est un programme informatique.
(2*) Le cerveau n'est pas pertinent.
(3*) Le test de Turing est décisif.
(1*)
Les programmes informatiques sont codés par rapport à des ordres créés par l’humain. Donc, celui-ci pourrait refléter les décisions de l’esprit humain. Ils n’ont pas le sens du jugement ou des émotions pour exécuter ce qui lui est demandé comme l’esprit d’un humain. C’est l’humain qui peut lui attribuer des caractéristiques dans son fonctionnement.
(2*)
On a besoin du matériel pour faire fonctionner le programme. Cependant, le programme est l’essence du fonctionnement de la machine. Sans elle, le matériel est inutile, car, c’est elle qui exécute les actions. Donc, deux sujets sont à la fois dépendants (combinaison pour la mise en marche de la machine) et indépendants (fonctionnalité différente et complexité du programme en lui-même).
(3*)
Selon le test de Turing, pour le réussir, l’ordinateur est indiscernable à un être humain. Il ne comprend pas à travers la conscience, mais plutôt grâce à la computation. Le programme interprète et manipule les symboles qui donnent une signification à son interlocuteur. Selon Searle la cognition est de la computation. De là, il y a un grand débat sur la contradiction de ses dires. Par exemple, son argument a été réfuté avec l’argument de la chambre chinoise.
Thi Tanh, les 3 prémisses de computationisme sont (1) que la cognition n'est que de la computation; (2) que pour une computation, le matériel n'est pas pertinent: il faut que la computation soit exécutée, évidemment, mais ça peut s'exécuter avec maintes différents matériaux, y compris, en l'occurence, par soit un un ordi, soit Searle. Si Searle ne comprend pas, l'ordi ne comprend pas non plus (pourquoi?). (3) Le Test de Turing T2 est définitif si l'entité qui le réussit à une compétence verbale qui est totalement indiscernable de celle d'un vrai penseur humain. Searle réfute ça. (Comment?) Mais T2 n'est pas totalité de la compétence cognitive humaine: Il y a aussi le T3... Ça nous amènera à la nécessité de l'ancrage sensori-moteur (Senaine 5).
EffacerSi ma compréhension du texte de Searle est bonne, il y a deux opinions soit ceux en accord avec la Thèse de l’I.A forte et ceux en désaccord. La thèse « est de simuler l’aptitude humaine à comprendre des histoire ». Ici, il prend comme exemple et teste l’argument de la chambre chinoise. Si on compare ses actions, soit observer les symboles chinois, ne pas comprendre, résoudre ses questionnements avec des explications en anglais. On voit qu’il finit par se créer un algorithme et c’est ce qui lui permet de faire entrer et sortir des signes chinois. Plus il s’exerce plus il est difficile de le distinguer d’une personne qui manipule le chinois de manière naturelle.
RépondreEffacerAlexia, stp lis les autres ciélos et mes répliques pour mieux comprendre ce que c'est que la computation, le T2, l'hypothèse que la cognition n'est que de la computation, et l'argument de Searle contre cette hypothèse.
EffacerL'argument de la chambre chinoise de Searle réfute la thèse de l'IA forte qui dit que (1) l'esprit est un programme informatique, (2) le cerveau n'est pas pertinent et (3) le TT est décisif. Il y a un lien avec l'IA forte et le computationnalisme puisque les deux stipulent que la cognition = calcul, et donc les états mentaux = états computationnels.
RépondreEffacerDans le texte, on modifie les affirmations (1)(2)(3) de façon à ce qu'on comprenne le point de Searle (qui est jugé pas assez clair) selon le computationnalisme.
On spécifie donc que (1) que les états mentaux ne sont pas des symboles mais un code qui doit être sous forme de système dynamique. (2) Les états computationnels sont indépendants de l'implantation (Logiciel indépendant du matériel) et (3) il n'y a pas de test plus fort que le TT pour discerner la présence d'états mentaux.
Ariane, correct.
EffacerGrâce à cette cielographie et au cours, je comprend mieux l'argument de Searle.
EffacerPetite correction pour Ariane: « code » veut dire les symboles. Le code doit s'implémenter par un système dynamique (matériel) mais les propriétés matérielles du système qui implémente le code ne sont pas pertinentes; c'est le code (l'algo) qui compte. Mais si un système dynamique n'est pas un ordi qui ne fait que d'implémenter un code symbolique, alors on parle d'autre chose (par exemple, un robot sensorimoteur T3, où le matériel est tout ce qu'il y de pertinent). Si C = C est incorrect, nous sommes comme les glaçons, que l'ordi peut simuler symboliquement, mais le code ne deviendra jamais le froid ou la fonte.
EffacerPour dire qu'il y a compréhension (de la part d'une entité consciente, humain, ou non, ordinateur), les états mentaux doivent être conscients. C'est ainsi qu'on explique que seul nous-même pouvons affirmer notre propre compréhension, nos propres états mentaux. Nous ne pouvons affirmer ou infirmer les états mentaux d'une autre personne ou d'un ordinateur. Par contre, la lecture d'Esprit nous donne une empathie basée sur des similitudes avec notre propre apparence donc il est possible pour moi d'assumer que quelqu'un d'autre (humain) ait des états mentaux, donc a une certaine compréhension. Je ne peux toutefois l'affirmer avec certitude.
RépondreEffacerJe ne peut également pas affirmer avec certitude qu'un ordinateur a des états mentaux, mais le TT est le test le plus empirique à ce niveau pour détecter cela.
Ariane, la probabilité suffit; pas besoin de la certitude. Mais c'est quoi, le périscope de Searle? Et si ChatGPT ne comprend pas, n'est-ce pas frappant qu'il communique comme s'il comprenait? Pourquoi faut-il la conscience [le ressenti]? -(s'il est vrai qu'il le faut?)
EffacerLe périscope de Searle est le principe que la fonction est indépendante du matériel.
EffacerChatGPT génère ''simplement'' un algorithme, ce qui est insuffisant pour considérer qu'il en a une compréhension. Il faut le ressenti pour atteindre la compréhension.
Ariane, ChatGPT exécute un algorithme, ce qui produit ses mots. Mais son énorme base de données verbales n'est qu'une base de données; ce ne sont pas des mots qu'il a produit.
EffacerIl semble que mon message ait été supprimé. Je me permet donc de le repost: «Votre perspective est intrigante. Personnellement, je partage l'avis selon lequel un ordinateur, y compris une intelligence artificielle, est incapable de réelle compréhension. Une IA peut effectivement traiter des symboles et imiter les comportements humains, mais elle ne parvient pas à saisir le sens véritable de ces actions. Par ailleurs, le théorème d'incomplétude de Gödel fournit un argument intéressant contre l'idée d'une IA forte. Ce théorème stipule qu'aucun système axiomatique ne peut valider la vérité de ses propres axiomes de manière autonome. Ainsi, il devient évident que l'IA forte est confrontée à une barrière structurelle. Selon ce théorème, même les systèmes mathématiques les plus élaborés ne sont pas en mesure de valider ou de prouver toutes les vérités qu'ils contiennent. Cette limite suggère que toute intelligence artificielle, qui repose sur de tels systèmes mathématiques et logiques pour son fonctionnement, se heurterait également à des contraintes inhérentes. En particulier, cela implique qu'une IA, malgré sa sophistication, pourrait ne pas être capable de « comprendre » entièrement ou de développer un raisonnement complètement autonome, car elle est contrainte par les limitations de la logique formelle sur laquelle elle est construite.»
RépondreEffacerVoici une discussion que j'ai eue avec CHAT GPT. Je lui ai demandé de me donner 5 métaphores et 5 analogies abstraites portant sur le CAPITALISME. J'ai ensuite décidé de lui demander de sélectionner seulement celles qu'il jugeait avoir une valeur supérieure;
EffacerLe capitalisme comme une rivière sans fin : Toujours en mouvement, portant richesse et débris avec la même indifférence. (Métaphore);
Un arbre gigantesque aux racines profondes : S'étendant partout, soutenant de nombreuses branches, mais parfois étouffant ce qui se trouve en dessous. (Métaphore);
Comme un écosystème de la jungle : Où la survie du plus apte règne, et chaque espèce (entreprise) doit s'adapter ou périr. (Analogie);
Semblable à une course de marathon : Où l'endurance et la stratégie à long terme sont essentielles pour réussir, et non seulement la vitesse initiale. (Analogie);
Ne trouvez pas que les métaphores et analogies proposées par CHATGPT manquent d'une certaine profondeur abstraite ? J'ai personnellement observé que CHATGPT se repose principalement sur les aspects les plus élémentaires des sujets abordés. Il semble ne pas s'aventurer plus loin dans l'exploration des caractéristiques plus nuancées des objets. Comme il a été souligné dans le cours, il existe une infinité de manières de décrire un concept, mais il semble que l'absence d'expérience sensorielle chez GPT limite sa capacité à diversifier et approfondir ses descriptions. Le lien qu'il établit entre les deux termes est souvent superficiel, manquant de sophistication.
EffacerRyan, on parle de T2, pas T3. Pourquoi est-ce qu’un T2 est incapable de compréhension? (Je suis d’accord avec toi, mais j’ai mes raisons. C’est quoi tes raisons?) Les seules actions d’un T2 sont ses actions verbales. Et ChatGPT est parfaitement en mesure d’expliquer, verbalement, ce qu’il dit.
EffacerConcernant Gödel: Ni le calcul, ni le mathématicien humain n’est capable de prouver toutes les vérités mathématiques. En quoi est-ce que ça les rend discernable un de l’autre? Et en quoi est-ce que la compréhension = la probabilité?
Bravo pour le petit test d’analogie chez ChatGPT. Ceux qui ont dit dans leurs ciélos qu’un ordi ne pourrait jamais faire ça devront maintenant reconsidérer…
Mais l’ancrage sensori-moteur n’est pas juste pour « approfondir » la compréhension mais pour la fondre, à partir de la terre. On peut manipuler les symboles d’après les axiomes d’Euclid, mais on ne comprend pas l’espace sans l’avoir expérimenté directement à partir de la stimulation sensorielle ainsi que la navigation motrice (ce qui nécessitent T3).
il s'agit peut-être d'une erreur d'interprétation de ma part, mais jai de la difficulté à comprendre en quoi l'argument de la chambre chinoise de Searle affirme que la conscience est de la computation. Je comprends parfaitement qu'il a pu reproduire les capacité d'un robot T2 par lui-même, mais jai de la difficulté à comprendre pourquoi il créé un lien direct avec la conscience tout en sachant pertinemment qu'il ne comprend pas le chinois
RépondreEffacerLoïk, tu confonds (1) l'IA forte (ce qui est la même chose que le computationisme (C = C) avec (2) l'argument de Searle contre C=C. (Stp lire les autres ciélos et mes répliques.) Et on parle de la cognition, pas de la conscience.
EffacerUn T2 n'est pas un robot mais un chatbot (un ordi).
Qu'est-ce que le Périscope de Searle.
(Faut lire l'article de plus près, pas juste les résumés.)
2ème cielo: jai finalement eu une discussion avec ChatGPT, et jai été surpris par les connaissances qu'il pouvait avoir! j'ai fait exprès de lui poser des question sur des termes assez techniques sur les jeux vidéos par exemple, et il était tout de même capable de répondre... jusqu'à ce que je lui pose des questions qui touche à du savoir-faire et là il commençait à avoir beaucoup de difficulté et me répondait des choses carrément fausses. j'ai réalisé que c'était assez simple à expliquer: comme ChatGPT n'a pas de main et encore moins de mannette, il ne peut pas tester si ses trucs fonctionnent, il doit donc se baser sur... bah un peu n'importe quoi haha
RépondreEffacerSinon, un collègue l'a aussi mentionné plus haut, mais ChatGPT a beaucoup de difficulté lorsqu'il s'agit d'émettre un avis
Loïk, là t'as découvert que ce qu'a un robot T3 c'est exactement ce que manque un chatbot T2. Pourquoi serait-ce important?
EffacerEnzo, je crois que tu a saisi l'argument de Searle. Je vais élaborer mard soir. Mais les les autres ciélos et me répliques auss.
RépondreEffacerL'argument de la chambre chinoise de John Searle offre une perspective intrigante sur la cognition et l'intelligence artificielle. Searle met en avant le cas d'une personne exécutant des tâches en chinois sans comprendre la signification des symboles, soulignant le défaut potentiel des approches purement computationnelles. Une question importante est soulevée par cette analogie : est-ce que la manipulation symbolique de l'information, qui est fréquemment employée dans l'intelligence artificielle, est suffisante pour obtenir une véritable compréhension?(T2) Selon Searle, la réponse réside dans l'absence de compréhension sémantique dans les processus computationnels simples. Cette pensée met l'accent sur le défi de développer une véritable conscience artificielle dans le domaine de l'intelligence artificielle. Elle encourage à aller au-delà de la simple manipulation de symboles pour comprendre la nature profonde de la la cognition. Ces considérations ont des implications importantes non seulement pour le développement technologique, mais aussi pour les débats éthiques entourant la création d'entités artificielles qui peuvent simuler l'intelligence sans en posséder la véritable essence.
RépondreEffacerAudrey, la computation est très puissante, mais elle n'est certes pas la seule option pour produire la cognition artificiellement: la computation est indépendante de son implémentation matérielle. Mais il y des moyens matériels aussi, comme la robotique (T3) et la biorobtique (T4).
EffacerSur "the robot reply" (Yale)
RépondreEffacerEn fait, même si le robot est équipé d'outils qui permettent de "percevoir", le tout est digitaliser. Ainsi, ce qui est transmis à son "centre de contrôle", est une digitalisation/codification du réelle, des 0 et des 1 en bout de ligne, ce qui revient à la même chose qu'un système de symboles comme le chinois. Et le robot ne comprend pas plus, du moins à la façon dont nous comprenons, il ne fait que recevoir des symboles et répondre à la manière dont il a été programmé. Puis, si intégré en lui il a des mécanismes pour l'apprentissage, il ne fait qu'appliquer ces mécanismes aussi, mais cela n'est pas comparable à notre façon de fonctionner. J'avancerais que nos mécanismes d'apprentissages même sont modulables. Peut-on faire ça dans un robot? Surement, mais encore il me semble qu'il y aura cette même caractéristique de pré-programmer comment la modulation pourra être réaliser. Et je comprend que ce n'est pas ainsi que nous, humains, fonctionnons. Je crois qu'en nous est possible plus grande variété puis, qu'elle n'est selon nos interactions avec notre environnement.
Qu'en pensez-vous?
EffacerAntoine, bonne réflexions. Mais comme je viens de rappeler à Audrey, la computation n'est pas la seule possibilité pour réaliser la cognition artificielle: Il y a aussi le matériel dynamique: la robotique (T3) et la biorobotique (T4).
Et attention concernant tes objections que c'est « programmé »! ChatGPT est computationnel aussi, et regarde ce qu'il s'est avéré capable de faire avec ces recettes (algos)! La computation n'est pas le trichage en IA (mais la base de donnée textuelle humaine le serait, peut-être).
Merci!
EffacerJe trouve le débat concernant l’argument de la chambre chinoise de Searle très intéressant, mais fondamentalement réducteur. Avec nos connaissances actuelles, il est évident que la cognition et la computation sont deux principes distincts. On pourrait considérer que la computation est une forme de cognition, mais affirmer le contraire reviendrait à réduire la portée de la cognition. En effet, je pense également que la cognition englobe la computation, mais aussi d'autres composantes. Même si, à l'aide de la computation (IA forte), un ordinateur peut réussir le test de Turing, cela ne prouve rien en soi. Du moins, il demeure vulnérable à plusieurs lacunes au niveau du raisonnement cognitif qui vont au-delà de la simple computation.
RépondreEffacerJose Franklin, ça se peut que tu aies raison, et que la cognition n'est pas juste de la computation. Mais il faut un argument ou des preuves, lçpas juste « je trouve »! Est-ce que Searle a fait cet argument? Et est-ce qu'il a réfuté le computationisme (C = C) ou le Test de Turing?
EffacerLe texte fournis une perspective critique sur la nature de l'esprit, de l'intentionnalité et de la cognition, notamment dans le contexte de l'intelligence artificielle. Au début on remet en question la suffisance des programmes informatiques pour générer l'intentionnalité, soulignant l'importance des processus causaux du cerveau. Ensuite on met en lumière les limitations du TT en tant qu'indicateur absolu de la compréhension et explore les implications de l'argument de la chambre chinoise de Searle.
RépondreEffacerEn combinant ces idées, il semble émerger une critique de la vision purement computationnelle de l'esprit. Le texte ouvre la porte à des approches hybrides qui intègrent à la fois des éléments computationnels et des aspects causaux du cerveau. Ces réflexions stimulent la recherche sur la cognition incarnée et la robotique située, montrant que la compréhension de l'esprit dépasse les limites strictes du calcul. Cela souligne l'importance de prendre en compte à la fois la structure et la fonction dans la compréhension de la cognition humaine et artificielle.
Andy, c'est quoi « l'IA forte »? c'est quoi l'argument de Searle contre l'IA forte?
EffacerDésolé si c’est une incompréhension de ma part, mais est-ce que « l’argument de le chambre chinoise », du point de vue de Searle, n’est-elle pas un simple « partern recognition ». Dans le sens de : si je vois « x », je fais « y ». Quand il est parlé de ne pas comprendre le sens des signes chinois, mais d’être capable d’envoyer le bon message pareil. Est-ce que cela ne renvoie-t-il pas à l’algorithme qui effectue le travail pour la machine en étant dépourvu de tout sens de ce qu’elle (la réponse) envoie? L’exemple donné d’utiliser les symboles chinois dans le bon ordre pour renvoyer une réponse à l’autre pour qu’il comprenne, suit la méthode de voir un exercice de mathématique et de faire une démarche donnée pour arriver à une réponse/conclusion voulue si nous respectons les règles de ladite démarche.
RépondreEffacerAlexandre, oui, c'est essentiellement ça, la computation.
EffacerLe programme d’un ordinateur ne contient pas suffisamment d’intentionnalité, car pour qu’il soit considéré comme ‘’intentionnelle’, il faudrait que l’intelligence artificielle puisse avoir les mêmes caractéristiques causales du cerveau.
RépondreEffacerLa chambre chinoise de Searle à démontrer qu’il y avait une faille dans ses calculs. Probablement parce que la cognition ne peut pas être calculée. Dans l’article présenté, la théorie était de démontrer que quelqu’un qui ne comprend pas le chinois par l’exemple pourrait réaliser le même programme sans comprendre cette langue. Pourtant, comment peut-on comprendre sans vraiment comprendre?
Justement, semblerait-il que Searle était quelqu’un de très critiqué où l’opinion de personnes influentes semblait le voir comme étant une farce et une absurdité. Certains éléments semblaient nébuleux tels que la ‘’ Strong AI’’. Dans cette idéologie trois éléments sont présents : (1) L’esprit est un programme information, (2) le cerveau n’est pas pertinent et (3) le test de Turing est décisif.
On comprend finalement que ce que Searle tente de dire est que si une personne X envoie un message à une personne Z en chinois. La personne Z va automatiquement croire qu’elle est en présence d’une personne (X) qui parle chinois. L'IA (computation) est poussé au maximum, mais elle n'est pas la source de la cognition.
Amélie, il faut que tu lise l'article de Searle pour comprendre de quoi il s'agit. Lis aussi les autres commentaires ici, et mes répliques. Et évite les mot « intentionnalité » sauf si tu es confiante que tu sais ce que ça veut dire. Pour l'argument de Searle il suffit de parler de « comprendre (le chinois) ».
Effacerje pense avoir compris de l'article sur la chambre chinoise est le suivant : Searle ne comprenait pas le chinois, parlé ou écrit, et il avait du mal à répondre aux questions liées à un texte écrit en chinois. . Leurs réponses étaient impossibles à distinguer de celles des locuteurs natifs chinois. Searle a donc accompli la tâche mais n'a même pas compris la langue. Il a donc manipulé des symboles arbitraires en suivant des règles, ce qu'on pourrait décrire comme un algorithme, un programme formel, c'est-à-dire des règles sans rapport avec le sens des mots mais avec leur forme.
RépondreEffacerEn conséquence, Searle a déclaré que puisqu'il ne comprenait pas le chinois, l'ordinateur doté de cet algorithme intégré ne comprendrait pas plus que lui, car l'algorithme était indépendant du matériel. Il a ensuite conclu que la cognition n’est pas du tout informatique.
Cette affirmation est fausse, comme indiqué dans la section de lecture critique, pour plusieurs raisons. La phrase que je retiens est la suivante : « Oui, un programme ne peut rien comprendre, mais un programme exécutable peut faire partie d’un « système » global, tout comme les humains.
Tanya, tu n'as pas lu les deux articles suffisamment attentivement. Est-ce que depuis le cours d'hier soir c'est plus clair? S'il te plait explique à la soeur cadette, très brièvement, ce que critiquait Searle, comment, et quelle partie de ses conclusions est correcte puis quelle partie est incorrecte, et pourquoi.
EffacerTout comme toi, je pense aussi que la cognition n'est pas simplement réduite aux calculs. En effet, même si la cognition implique certainement des processus de calcul, elle englobe bien plus que cela. Des aspects tels que la perception, l'émotion, la créativité et la conscience sont également des éléments essentiels de la cognition, qui vont au-delà de la simple manipulation de symboles ou de calculs.
RépondreEffacerSearle’s pense que si nous ne savons pas quelque chose nous ne pouvons programmer l’ordinateur à le savoir. Or, c’est faux la computation n’égale pas cognition. Vous m’aviez demandé dans ma dernière ciéllo ou j’affirmais que chat GPT manquait de créativité de le prouver (d’avoir une conversation avec lui). Ce que j’ai fait, la conversation était sur un sujet spécifique de philosophie ou je cherchais une lacune dans ses réponses qu’un humain n’aurait pas eu vis-à vis un tel sujet. Qu’est-ce que j’ai retiré de cette conversation? Eh bien, il m’a appris des choses qu’au départ lui-même n’était pas sûre d’avoir bien compris. Il m’a même demandé de mettre un certain mot dans sa base de données pour qu’il s’enrichisse davantage. Il s’est ajusté à la conversation de tel sorte que même dans un sujet qu’il ne connaissait il était en recherche de savoir. Ce qui est semblable au comportement humain, la différence qui est troublante est le temps de réponse qui était et est extrêmement rapide comparativement à celle d’un humain.
RépondreEffacerLaurence, les humains varient beaucoup en temps de réponse aussi. Mais d'après GPT semblait comprendre, et être en mesure de discuter verbalement, comme un humain? (Et, en passant, c'est quoi la computation, le Test de Turing, le computationisme et l'argument se Searle?
EffacerLaurence, consulte les PPT pour voir ce que c'est que la computation et ce que c'est que le computationisme (pas la même chose). Le test de Turing ne s'applique pas aux ordis mais à toutes les tentatives de rètroingénierier les capacités cognitives. T3 n'est pas un ordi; T4 non plus. Et l'argument de Searle démontre que C = C est faux. Comment? Si tu comprends le « périscope de Searle » cela explique tout.
EffacerSearl’s avance donc qu’il n’est pas nécessaire de comprendre le chinois
Effacerpour le manipuler, si non il aurait du comprendre le chinois avant de le
manipuler, ce qu’il n’a pas fait. Il vient donc prouver que C n’égales pas C.
Tu n’es pas obliger de savoir quelques choses pour le manipuler car Searl’s
a prouvé que l’autre personne avec qui tu interagis n’a aucune idée si tu
comprends vraiment puisque la cognition est invisible et que Searl’s a été
capable d’entretenir une conversation sans connaître la langue tout de
même.
Résumé de ma compréhension du cours (30 janvier 2024) concernant ce qui porter à confusion (I.A forte / faible, Thèse forte / faible, équivalence forte/ faible).
RépondreEffacerVoici ce que je retient :
I.A forte correspond au computationisme selon Searle ( cognition = computation, indépendante de l’implémentaion, T2). (computation = manipulation de symboles : suit des règles, porte sur la forme, ne dépend pas du matériel, interprétation sémantique).
I.A faible correspond à la thèse forte de Chuch/Turing (modèle de calcule, simulation de la réalité, exemple du glaçon ou de la fusée).
équivalence faible : algorithmes différents, réponses (output) similaires / équivalence forte : algorithmes similaires, réponses similaires. l’équivalence fait référence à la recette (algorithme).
Majdouline, c'est un bon aide-mémoire, mais frère cadet ne comprendrait pas beaucoup!
Effacerj'ai une question : la définition de l'I.A forte que Searle réfute est une conception des partisans de l'I.A forte :(1*) L'esprit est un programme informatique, (2*) Le cerveau n'est pas pertinent.
RépondreEffacer(3*) Le test de Turing est décisif.). Est ce qu'il est convenable de conclure qu'il n'y a pas de consensus quant à la définition de l'I.A forte? De la même manière que le débat est toujours actif en ce qui concerne la compréhension et la conscience pour ChatGPT par exemple? Est-ce qu'il s'agit plutôt de questions portant sur capacités sensorimotrices ( robotiques, T3) et les ancrages.
Majdouline, non, IA et C=C soutiennent exactement la même chose (j'ai montré la traduction dans le PPT). Tout le monde est d'accord sur ce qui est l'hypothèse, mais pas sur sa vérité. Il y a encore davantage de désaccord concernant ce que c'est que la compréhension, mais dans le cas de la compréhension du chinois il est assez évident que Searle ne comprendrait pas le chinois grâce à exécuter l'algo T2 (s'il existait),
EffacerSi j’ai bien compris. Le périscope de Searle permet de briser la barrière des autres esprits en arrivant à reproduire l’état computationnel de l’ordi. Si en manipulant une recette, il n’arrive toujours pas à comprendre le chinois mais réussit tout de même T2, alors l’ordi T2 se trouve dans la même position. Searle réussit à pouvoir savoir ce qui se déroule lorsqu’un ordi réussit T2. Et par cela, il affirme que la compréhension/cognition dépend aussi d’un ressenti. (Nous ne ressentons pas la même chose si quelqu’un nous parle dans une langue étrangère que si l’on comprend la langue.) Et donc, il réfute le computationisme (AI forte) en démontrant que la cognition n’est pas que de la computation. Car, exécuter un algorithme n’est pas suffisant pour obtenir une compréhension. Le matériel (ordi ou Searle) peut exécuter la recette sans savoir ce qu’il fait.
RépondreEffacerValerie, excellent résumé, sauf que l'argument de Searle ne fait que de réfuter l'hypothèse C = C (en utilisant le fait que d'exécuter l'algo T2 chinois ne donnerait pas le ressenti de comprendre le chinois). On savait déjà qu'on ressent ça quand on comprend une langue. C'est grâce à une propriété de la computation (laquelle?) que Searle à pu faire cet argument pour réfuter le computationisme (C = C).
EffacerJ’hésite. Je dirais la 4e. Le fait que la computation (l’algorithme) serait interprétable sémantiquement. Il a démontré une autre sorte d’indépendance entre la forme et le sens qui va au-delà de celle entre la recette et le matériel qui l’exécute.
EffacerValerie, c'est plutôt la 3e -- le fait que la computation est indépendante de son implémentation matérielle. C'est ça ce qui permet Searle de devenir lui-même l'implémentation de la computation qui réussit le T2 chinois -- ce qui le permet de rapporter, main sur coeur, qu'il ne comprend pas un seul mot de chinois! La 4e concerne plutôt les interlocuteurs sinophones, qui interprètent les mots chinois de Searle comme si Searle les comprenait. (Quelle en est l’implication pour notre interprétation de ChatGPT ?)
EffacerMerci pour la précision, je comprends un peu mieux la différence maintenant. Pour ce qui est de ChatGPT, je pense que ceux qui croient qu’il a réussi T2 se retrouvent dans la position des interlocuteurs sinophones; ils interprètent les mots de GPT comme si ce dernier les comprenait. Mais, selon l’expérience de Searle, rien n’indique que GPT comprend vraiment ce qu’il dit. Peut-être que comme Searle, il apprend simplement comment manipuler les symboles et suivre des recettes de façon de plus en plus efficace?
EffacerValérie, exactement.
Effacer
RépondreEffacerLe texte expose la relation entre l'argument de la Chambre Chinoise de Searle, l'Intelligence Artificielle forte (IA forte) et le computationnalisme. Il souligne que l'IA forte et le computationnalisme partagent l'idée que la cognition équivaut au calcul, considérant les états mentaux comme des états computationnels. L'argument de Searle conteste cette perspective en mettant en doute la suffisance de la computation seule pour expliquer la compréhension. Les modifications apportées aux affirmations (1)(2)(3) dans le texte visent à clarifier le point de Searle, en insistant sur le fait que les états mentaux ne sont pas simplement des symboles, mais plutôt des systèmes dynamiques, et que les états computationnels ne sont pas indépendants de l'implémentation. Cela suggère une réflexion sur la nécessité de considérer d'autres aspects, au-delà de la simple computation, pour comprendre l'esprit humain.
On peut dire que Searle propose un argument basé sur l'expérience de la Chambre Chinoise, mettant en évidence qu'une personne peut suivre des instructions en chinois mécaniquement sans réellement comprendre la signification. Cela suggère que la simple manipulation de symboles ne suffit pas à garantir une compréhension sémantique réelle.
RépondreEffacerCependant, Searle n'invalide pas nécessairement tout le computationnalisme. Son argument vise plutôt à souligner les limites d'une approche purement computationnelle de la compréhension mentale. Il invite à considérer d'autres dimensions, telles que la sensorimotricité et la sémantique, dans la compréhension de l'esprit humain. En ce qui concerne le Test de Turing, Searle remet en question son caractère décisif, suggérant qu'il pourrait ne pas être suffisant pour établir la présence d'états mentaux réels. Ainsi, l'ARC de Searle n'annule pas complètement l'idée que la computation peut jouer un rôle, mais elle met en garde contre une conception trop étroite de la cognition.
Célio sur l’argument de la « chambre chinoise » (chinese room) de Searle(contre la théorie computationnelle de la cognition
RépondreEffacerL’argument de la chambre chinoise contre la théorie computationnelle de la cognition met en lumière les limites de cette approche tout en expliquant comment un système purement informatique ne peut réellement pas en comprendre le sens ou la signification des informations qu’il traite. Prenons par exemple dans le texte, l’auteur souligne le fait « qu’un programme informatique « compréhension du chinois » ne comprenait pas vraiment le chinois, comme c’est le cas de Searle lui-même.la chambre chinoise remet en question l’idée selon laquelle une machine pourrait comprendre le sens des informations qu’elle traite, on peut dire qu’elle est capable de les manipuler de manière complexe. On peut aussi dire que, la théorie computationnelle de la cognition, qui soutient que l’esprit humain peut être considéré comme un système de traitement de l’information, et ne peut pas expliquer pleinement la nature de la compréhension et de la conscience humaine
J’ai utilisé Chatgpt plusieurs fois dans la session pour m’aider à me rappeler des définitions dans mon domaine. C’est-à-dire dans le monde des mathématiques. C’est arriver plusieurs fois que lorsque je lui demandais la réponse d’une question mathématique, je trouve plusieurs erreurs dans son raisonnement. Ainsi, à mes yeux de tutrice, Chatgpt ne passe pas le test T2 étant donné qu’il fait des erreurs de raisonnements même après lui avoir montrer la bonne réponse ou la bonne définition à utiliser pour trouver la réponse, il fait encore des erreurs de raisonnement, qui dans mes yeux est inconcevable face à un être humain. Chatgpt va préférer te dire des niaiseries plutôt que de te dire qu’il ne le sait pas et qu’il aimerait que tu lui montre comment faire.
RépondreEffacerEn tant que future mathématicienne, je suis ébahie face à la définition d’une thèse de Church/Turing vue en classe. Ça va à l’encontre de la logique de comment crée quelque chose d’irréfutable. De ce fait, je suis en admiration devant la machine de Turing est un parfait exemple d’une thèse. J’ai essayé de trouver un contre-exemple dans le monde virtuel (internet) et d’y réfléchir par moi-même mais je n’ai rien trouver.
RépondreEffacerDans votre texte, vous avez posez cette question : Pouvons-nous jamais expérimenter directement les états mentaux d’une autre entité? Cette question m’a faite penser à une maladie mentale qui pousse la personne atteint de ressentir instantanément la douleur ou les sentiments d’autrui grâce à sa grande capacité d’observation. Est-ce que les personnes atteintes de cette maladie auraient la possibilité de vérifié si oui ou non une autre entité a les états mentaux qui lui sont imputés.
RépondreEffacerCiélo n. 1 : On peut comparer une algorithme avec un système qu’on peut constater physiquement. Par exemple, quand j’appuie sur la troisième touche blanche à partir de la gauche sur un piano, le basculement de cette touche actionne une mécanique qui lance un marteau contre des cordes, Ce mécanisme me donne ainsi le son « do ». Le piano n’a aucune faculté cognitive et aucune intention, il ne comprend pas que quand je touche telle touche il doit faire tel note. C’est seulement à cause d’un système mécanique qu’il fait une note. Or, un algorithme est comme un tel système mécanique. À l’instar du piano, qui joue automatiquement le son qui correspond à la touche que le pianiste joue, un ordinateur fournit automatiquement la réponse qui équivaut à l’élément que son utilisateur lui donne. Ainsi, un ordinateur n’est qu’une machine comme une autre. Il n'a pas plus de composante cognitive qu’un piano.
RépondreEffacerEn conséquence, je ne pense pas qu’il soit possible pour les humains de fabriquer une conscience ou une cognition parce qu’un algorithme ne fait qu’expliciter un mécanisme. Je ne peux pas imaginer comme une formule pourrait créer cette conscience ou cognition.
Ciélo n. 2 : "Can we ever experience another entity's mental states directly? Not unless we have a way of actually becoming that other entity, and that appears to be impossible -- with one very special exception, namely, that soft underbelly of computationalism…" En lisant le 2e texte, je suis d’accord pour dire que le problème des autres esprits est un bon obstacle à l’argument de la chambre chinoise de Searle (malgré que Searle ait fourni une réfutation de cet argument). Je concède que, tout comme il est impossible de savoir ce que ça fait d’une autre personne ou un chien, il est impossible de savoir ce que ça fait d’être un ordinateur… Ainsi, il est impossible de répondre avec certitude qu’un ordinateur n’a pas de facultés cognitives et ne comprend pas ce qu’il fait mais, de la même manière, il est également impossible de dire avec certitude le contraire.