Archives du blogue

samedi 4 janvier 2025

2. Le test de Turing

CETTE SEMAINE, LISEZ, EXCEPTIONNELLENT L'ARTICLE DE TURING  (1950/1990) (en français) AINSI QUE LA TRADCTION DE MON CHAPITRE DE CRITIQUE (2008)

1. --> Turing, A. M. (1950/1990). Machines informatiques et intelligence. Mind49, 433-460.

Intro : Je propose de considérer la question, “Les machines peuvent-elles penser ?”. On devrait commencer par définir les termes “machine” et “pensée.” Les définitions devraient être choisies de manière à refléter aussi bien que possible l’usage courant de ces mots, mais cette attitude est dangereuse. Si les significations des mots “machine” et “pensée” doivent être utilisées de la manière dont elles le sont habituellement, il est difficile d’échapper à la conclusion que le sens de la question “Les machines peuvent-elles penser ?” et la ré- ponse à cette question doivent être recherchés de façon statistique, comme par sondage. Mais cela est absurde. Plutôt que de tenter une telle définition, je remplacerai la ques- tion par une autre, qui lui est intimement reliée et qui s’exprime en termes relativement non-ambigus...

Harnad, S. (2008) The Annotation Game: On Turing (1950) on Computing,Machinery and Intelligence. In: Epstein, Robert & Peters, Grace (Eds.) Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. Springer 

Résumé : C'est l'article classique de Turing avec citation/commentaire pour souligner ce que Turing a dit, aurait pu signifier ou aurait dû signifier. Le document était équivoque quant à savoir si le test robotique   complet était prévu (T3), ou seulement le test verbal (T2). Il n'est pas clair si tous les candidats sont éligibles, ou uniquement des ordinateurs, ni si le critère de réussite est vraiment total -- l'équivalence et l'indiscernabilité le long d'une vie ou simplement de tromper suffisamment de personnes. assez longtemps. Une fois ces incertitudes résolues, le test de Turing reste aujourd'hui le critère empirique légitime (et unique) de la science cognitive.

2. --> Harnad (2008) traduction ci-dessous:

[tous les extraits en gras italique sont des citations provenant de l’article de (Turing 1950)]

 

Je propose de considérer la question, « Les machines peuvent-elles penser ? 

 

Turing part d'une équivoque. Nous savons maintenant que ce qu'il va continuer à considérer n'est pas si les machines peuvent ou non penser, mais si oui ou non les machines peuvent faire ce que des penseurs comme nous peuvent faire - et si oui, comment. Faire est une capacité de performance, empiriquement observable. La pensée (ou la cognition) est un état interne, ses corrélats empiriquement observables en tant qu'activité neuronale (si seulement nous savions quelle activité neuronale correspond à la pensée !) et sa qualité associée observable de manière introspective en tant que notre propre état mental lorsque nous pensons. La proposition de Turing s'avérera n'avoir rien à voir ni avec l'observation d'états neuronaux ni avec l'introspection d'états mentaux, mais seulement avec la génération d'une capacité de performance (intelligence ?) indiscernable de celle de penseurs comme nous.

 

Cela devrait commencer par les définitions de... "machine" et "penser"... [Une] enquête statistique telle qu'un sondage Gallup [serait] absurde. Au lieu de tenter une telle définition, je remplacerai la question par une autre... en termes relativement non ambigus.

 

"Machine" ne sera jamais définie de manière adéquate dans l'article de Turing, bien que (ce que l'on appellera éventuellement) la "machine de Turing", la description abstraite d'un ordinateur, le sera. Cela introduira une ambiguïté systématique entre un système physique réel, faisant quelque chose dans le monde, et un autre système physique, un ordinateur, simulant formellement le premier système, mais ne faisant pas réellement ce qu'il fait : un exemple serait la différence entre un avion réel - une machine, volant dans le monde réel - et une simulation informatique d'un avion, ne volant pas vraiment, mais faisant quelque chose de formellement équivalent au vol, dans un "monde virtuel" (également simulé).

 

Une définition raisonnable de « machine », plutôt que de « machine de Turing », pourrait être n'importe quel système causal dynamique. Cela fait de l'univers une machine, d'une molécule une machine, et aussi des cascades, des grille-pain, des huîtres et des êtres humains. Qu'une machine soit ou non fabriquée par l'homme n'a évidemment aucune importance. La seule propriété pertinente est qu'il est "mécanique", c'est-à-dire qu'il se comporte conformément aux lois de cause à effet de la physique (Harnad 2003).

 

« Penser » ne sera jamais défini par Turing ; elle sera remplacée par une définition opérationnelle selon laquelle « la pensée est comme la pensée fait ». C'est très bien, car la pensée (cognition, intelligence) ne peut pas être définie avant de savoir comment les systèmes de pensée le font, et nous ne savons pas encore comment. Mais nous savons que nous, les penseurs, le faisons, quel qu'il soit, lorsque nous pensons ; et nous savons quand nous le faisons (par introspection). Ainsi, la pensée, une forme de conscience, est déjà définie de manière ostensive, en désignant simplement cette expérience que nous avons et connaissons tous.

 

Prendre une enquête statistique comme un sondage Gallup à la place, pour connaître l'opinion des gens sur ce qu'est la pensée serait en effet une perte de temps, comme le souligne Turing - mais plus tard dans l'article, il introduit inutilement l'équivalent d'une enquête statistique comme son critère pour avoir réussi son test de Turing !

 

La nouvelle forme du problème peut être décrite en termes de jeu que nous appelons le "jeu d'imitation".

 

Autre choix terminologique malheureux : "jeu" implique caprice ou supercherie, alors que Turing désigne en fait une affaire empirique sérieuse. Le jeu est la science (la future science de la cognition -- en fait une branche de la bio-ingénierie inverse ; Harnad 1994a). Et "l'imitation" a aussi des connotations de falsification ou de tromperie, alors que ce que Turing proposera est une méthodologie empirique rigoureuse pour tester les théories de la capacité de performance cognitive humaine (et donc aussi les théories de la pensée qui engendre vraisemblablement cette capacité). Appeler cela un "jeu d'imitation" (au lieu d'une méthodologie de rétro-ingénierie de la capacité de performance cognitive humaine) a invité des générations de malentendus inutiles (Harnad 1992).

 

L'interrogateur reste dans une pièce à l'écart des deux autres. Le but du jeu pour l'interrogateur est de déterminer lequel des deux autres est l'homme et lequel est la femme.

 

Le test homme/femme est une "préparation" intuitive à l'essentiel de ce qui sera éventuellement le test de Turing, à savoir un test empirique de capacité de performance. Pour cela, il faut d'abord que toutes les données de non-performance soient exclues (donc les candidats sont hors de vue). Cela prépare le terrain pour ce qui sera le véritable objet de comparaison de Turing, qui est un être humain pensant contre une machine (non pensante), une comparaison qui doit être impartiale en apparence. 

 

Les critères de Turing, comme nous le savons tous maintenant, se révéleront être deux (bien qu'ils soient souvent confondus ou confondus) : (1) Les deux candidats ont-ils une capacité de performance identique ? (2) Existe-t-il un moyen de les distinguer, en se basant uniquement sur leur capacité de performance, afin de pouvoir détecter que l'un est un être humain pensant et que l'autre n'est qu'une machine ? Le premier est un critère empirique : peuvent-ils tous les deux faire les mêmes choses ? Le second est un critère intuitif, s'appuyant sur ce que des décennies plus tard on a appelé nos capacités humaines de « lecture de l'esprit » (Frith & Frith 1999) : y a-t-il quelque chose dans la façon dont les candidats font ce qu'ils peuvent faire tous les deux qui m'indique au fait que l'un d'eux n'est qu'une machine ?

 

Turing présente tout cela sous la forme d'un jeu de société, un peu comme 20-Questions. Il ne débriefe jamais explicitement le lecteur sur le fait que ce qui est réellement en cause n'est rien de moins que le jeu de la vie lui-même, et que « l'interrogateur » est en fait le scientifique pour la question (1), et, pour la question (2), tout du reste d'entre nous, dans chacune de nos interactions quotidiennes les uns avec les autres. La malheureuse métaphore du jeu de société a de nouveau donné lieu à des cycles inutiles de malentendus lors de l'écriture et de la réflexion ultérieures sur le test de Turing.

 

Pour que les tons de voix n'aident pas l'interrogateur, les réponses doivent être écrites, ou mieux encore, dactylographiées.

 

Cette restriction du test exclusivement à ce que nous appellerions aujourd'hui les interactions par e-mail est, comme indiqué, un moyen raisonnable de nous préparer à son éventuelle concentration sur la capacité de performance seule, plutôt que sur l'apparence, mais elle a l'effet supplémentaire involontaire d'exclure tout tests directs des capacités de performance autres que verbales ; et c'est potentiellement une équivoque beaucoup plus grave, sur laquelle nous reviendrons. Pour l'instant, nous devons seulement garder à l'esprit que si le critère est d'être une capacité de performance indiscernable de Turing, nous pouvons tous faire bien plus que de simples e-mails !

 

Nous posons maintenant la question : « Que se passera-t-il lorsqu'une machine jouera le rôle de A dans ce jeu ? L'interrogateur décidera-t-il aussi souvent à tort lorsque le jeu se joue ainsi que lorsqu'il se joue entre un homme et une femme ? Ces questions remplacent notre question d'origine, "Les machines peuvent-elles penser ?"

 

Ici, avec un peu d'imagination, nous pouvons déjà passer au test de Turing complet, mais encore une fois, nous sommes confrontés à une distraction inutile et potentiellement trompeuse : le but n'est sûrement pas simplement de concevoir une machine que les gens confondent statistiquement avec un être humain. souvent comme pas ! Cela réduirait le test de Turing au sondage Gallup que Turing a rejeté à juste titre en soulevant la question de ce qu'est la "pensée" en premier lieu ! Non, si le critère d'indiscernabilité de Turing doit avoir une substance empirique, les performances de la machine doivent être totalement indiscernables de celles d'un être humain - pour n'importe qui et tout le monde, pour toute une vie (Harnad 1989).

 

Le nouveau problème a l'avantage de tracer une ligne assez nette entre les capacités physiques et intellectuelles d'un homme.

 

Il aurait eu cet avantage, si la ligne avait seulement été tracée entre l'apparence et la performance, ou entre la structure et la fonction. Mais si la ligne est plutôt entre les capacités de performance verbales et non verbales, alors c'est une ligne très arbitraire en effet, et très difficile à défendre. Comme il n'y a aucune défense explicite ou même inférable de cette ligne arbitraire dans aucun des articles de Turing (ni d'une ligne tout aussi arbitraire entre celles de nos "capacités physiques" qui dépendent et ne dépendent pas de nos "capacités intellectuelles"), je prendrai c'est que Turing n'y a tout simplement pas réfléchi. S'il l'avait fait, la frontière aurait été tracée entre l'apparence physique et la structure du candidat, d'une part, et ses capacités de performance, tant verbales que non verbales, d'autre part. Tout comme (dans le jeu) la différence, s'il y en a, entre l'homme et la femme doit être détectée à partir de ce qu'ils font, et non à quoi ils ressemblent, de même la différence, s'il y en a, entre l'homme et la machine doit être détectée à partir de ce qu'ils font. qu'ils font, et non à quoi ils ressemblent. Cela laisserait la porte ouverte à la version robotique du test de Turing dont nous parlerons plus tard, et pas seulement à la version e-mail. 

 

Mais avant qu'un lecteur qualifie ma propre ligne de démarcation entre structure et fonction d'aussi arbitraire, permettez-moi de convenir rapidement que Turing a en fait introduit une hiérarchie de tests de Turing ici, mais pas une infinité d'entre eux (Harnad 2000). Les niveaux pertinents de cette hiérarchie se révéleront être uniquement les 5 suivants :

 

t0 : indiscernabilité locale dans la capacité d'effectuer une tâche arbitraire, telle que les échecs. t0 n'est pas du tout un test de Turing, car il s'agit évidemment d'un sous-total ; par conséquent, le candidat machine se distingue facilement d'un être humain en voyant s'il peut faire autre chose que jouer aux échecs. S'il ne peut pas, il échoue au test.

 

T2 : indiscernabilité totale de la capacité de performance des e-mails (verbaux). Cela semble être un module de performance autonome, car on peut parler de tout et de rien, et le langage a le même genre d'universalité que les ordinateurs (machines de Turing) se sont avérés avoir. T2 englobe même le jeu d'échecs. Mais cela englobe-t-il l'observation des étoiles, ou même la recherche de nourriture ? Est-ce que la machine peut aller voir et me dire ensuite si la lune est visible ce soir et peut-elle aller déterrer des truffes et ensuite me dire comment elle s'y est prise ? Ce sont des choses qu'une machine avec une capacité de messagerie seule ne peut pas faire, mais que tout être humain (normal) peut faire.

 

T3 : indiscernabilité totale de la capacité de performance robotique (sensorimotrice). Cela englobe T2, et c'est (je soutiendrai) le niveau de Test que Turing a vraiment voulu (ou aurait dû avoir !).

 

T4 : indiscernabilité totale dans la capacité de performance externe ainsi que dans la structure/fonction interne. Cela englobe T3 et ajoute toutes les données qu'un neuroscientifique pourrait étudier. Ce n'est plus strictement un test de Turing, car il va au-delà des données de performance, mais il intègre correctement la hiérarchie de Turing dans une hiérarchie empirique plus large. De plus, la frontière entre T3 et T4 est vraiment floue : est-ce que rougir T3 ou T4 ?

 

T5 : indiscernabilité totale dans la structure/fonction physique. Cela englobe la T4 et exclut tout système nerveux fonctionnellement équivalent mais synthétique : le candidat T5 doit être indiscernable des autres êtres humains jusqu'à la dernière molécule.

 

Aucun ingénieur ou chimiste ne prétend être capable de produire un matériau qui ne se distingue pas de la peau humaine... [Il n'y aurait] aucun intérêt à essayer de rendre une "machine à penser" plus humaine en l'habillant d'une telle chair artificielle.

 

Ici, Turing rejette correctement T5 et T4 -- mais certainement pas T3.

 

La forme sous laquelle nous avons posé le problème reflète ce fait dans la condition qui empêche l'interrogateur de voir ou de toucher les autres concurrents, ou d'entendre leurs voix.

 

Oui, mais utiliser T2 comme exemple a par inadvertance donné l'impression que T3 est également exclu : non seulement nous ne pouvons ni voir ni toucher le candidat, mais le candidat ne peut rien voir ni toucher - ni faire autre chose que calculer et envoyer des e-mails.

 

La méthode des questions et réponses semble convenir pour introduire presque tous les domaines de l'activité humaine que nous souhaitons inclure.

 

Cela reflète correctement le pouvoir universel du langage naturel (de dire et de décrire n'importe quoi avec des mots). Mais "presque" ne correspond pas au critère de Turing d'une capacité de performance identique.

 

Nous ne souhaitons pas pénaliser la machine pour son incapacité à briller dans les concours de beauté

 

C'est l'exclusion valable de l'apparence (d'ailleurs, la plupart d'entre nous ne pourraient pas non plus briller dans les concours de beauté).

 

…ni de pénaliser un homme pour avoir perdu dans une course contre un avion

 

La plupart d'entre nous ne pouvaient pas battre Deep Blue aux échecs, ni même atteindre le niveau de grand maître ordinaire. Ce ne sont que les capacités humaines génériques qui sont en cause, et non celles d'un individu en particulier. D'un autre côté, nous pouvons à peu près tous marcher et courir. Et même si nous sommes handicapés (cas anormal, et loin d'être celui sur lequel bâtir ses tentatives de générer des capacités de performance positives), nous avons tous une certaine capacité sensorimotrice. (Ni Helen Keller ni Stephen Hawking ne sont un module désincarné de messagerie uniquement.) 

 

Les conditions de notre jeu rendent ces handicaps non pertinents

 

Les handicaps et l'apparence ne sont en effet pas pertinents. Mais les capacités de performance non verbales ne le sont certainement pas. En effet, nos capacités verbales pourraient bien être ancrées dans nos capacités non verbales (Harnad 1990 ; Cangelosi & Harnad 2001 ; Kaplan & Steels 1999). (En fait, par « handicap », Turing signifie non-capacité, c'est-à-dire l'absence de capacité ; il ne veut pas vraiment dire être handicapé dans le sens d'être physiquement handicapé, bien qu'il mentionne Helen Keller plus tard.)

 

L’interrogateur ne peut exiger des démonstrations pratiques

 

Ce serait certainement une faille fatale dans le test de Turing si Turing avait voulu exclure T3 - mais je doute qu'il ait voulu dire cela. Il soutenait simplement que c'est la capacité de performance qui est décisive (pour le problème empirique que la future science cognitive finirait par résoudre), et non quelque chose d'autre qui pourrait dépendre de caractéristiques non pertinentes de la structure ou de l'apparence. Il a simplement utilisé la performance verbale comme exemple d'amorçage de l'intuition, sans vouloir dire que toute «pensée» est verbale et que seule la capacité de performance verbale est pertinente.

 

La question... ne sera pas tout à fait définie tant que nous n'aurons pas précisé ce que nous entendons par le mot "machine". Il est naturel que nous souhaitions permettre à toutes sortes de techniques d'ingénierie d'être utilisées dans nos machines.

 

Ce passage (bientôt contredit dans le texte suivant !) implique que Turing ne voulait pas dire uniquement des ordinateurs : que tout système dynamique que nous construisons est éligible (tant qu'il délivre la capacité de performance). Mais nous devons le construire, ou au moins avoir une compréhension causale complète de son fonctionnement. Un être humain cloné ne peut pas être inscrit comme machine candidate (parce que nous ne l'avons pas construit et donc ne savons pas comment cela fonctionne), même si nous sommes tous des « machines » dans le sens d'être des systèmes causaux (Harnad 2000, 2003 ).

 

Nous souhaitons également permettre à un ingénieur ou à une équipe d'ingénieurs de construire une machine qui fonctionne, mais dont le mode de fonctionnement ne peut être décrit de manière satisfaisante par ses constructeurs parce qu'ils ont appliqué une méthode largement expérimentale.

 

C'est là le début de la différence entre le domaine de l'intelligence artificielle (IA), dont le but est simplement de générer un outil de performance utile, et la modélisation cognitive (CM), dont le but est d'expliquer comment la cognition humaine est générée. Un appareil que nous avons construit mais sans savoir comment il fonctionne suffirait pour l'IA mais pas pour le CM.

 

Enfin, nous voulons exclure des machines les hommes nés de manière habituelle.

 

Cela n'implique pas, bien sûr, que nous ne soyons pas des machines, mais seulement que le test de Turing consiste à découvrir quel type de machine nous sommes, en concevant une machine qui peut générer notre capacité de performance, mais par des moyens causals/fonctionnels que nous comprendre, parce que nous les avons conçus.

 

Il est probablement possible d'élever un individu complet à partir d'une seule cellule de la peau (disons) d'un homme ... mais nous ne serions pas enclins à le considérer comme un cas de "construction d'une machine à penser".

 

C'est parce que nous voulons expliquer la capacité de réflexion, pas simplement la dupliquer. http://www.ecs.soton.ac.uk/~harnad/Hypermail/Foundations.Cognitive.Science2001/0056.html  

 

Cela nous incite à abandonner l'exigence selon laquelle toutes les techniques doivent être autorisées. Nous n'autorisons [en conséquence] que les ordinateurs numériques à participer à notre jeu.

 

C'est là que Turing contredit ce qu'il a dit plus tôt, retirant l'éligibilité de tous les systèmes d'ingénierie sauf un, introduisant ainsi une autre restriction arbitraire - une qui exclurait à nouveau T3. Turing a dit plus tôt (à juste titre) que tout dispositif d'ingénierie devrait être éligible. Maintenant, il dit que ce ne peut être qu'un ordinateur. Sa motivation est bien sûr en partie due au fait que l'ordinateur (Turing Machine) s'est révélé universel, en ce sens qu'il peut simuler n'importe quel autre type de machine. Mais ici nous sommes carrément dans l'équivoque T2/T3, car un robot simulé dans un monde virtuel n'est ni un vrai robot, ni un vrai test de Turing robotique, dans le monde réel. T2 et T3 sont des tests effectués dans le monde réel. Mais une interaction par e-mail avec un robot virtuel dans un monde virtuel serait T2, pas T3.

Autrement dit : avec le test de Turing, nous avons accepté, avec Turing, que la pensée est comme la pensée. Mais nous savons que les penseurs peuvent faire et font plus que simplement parler. Et il reste ce que les penseurs peuvent faire que notre candidat doit également être capable de faire, pas seulement ce qu'ils peuvent faire verbalement. Par conséquent, tout comme voler est quelque chose que seul un vrai avion peut faire, et non un avion virtuel simulé par ordinateur, même si Turing est équivalent au vrai avion -- ainsi passer T3 est quelque chose que seul un vrai robot peut faire, pas un robot simulé testé par T2, qu'il en soit ainsi Turing-équivalent au vrai robot. (Je suppose également qu'il est clair que les tests de Turing testent dans le monde réel : une simulation de réalité virtuelle [VR] ne serait pas une sorte de test de Turing ; cela ne ferait que tromper nos sens dans la chambre VR plutôt que de tester le candidat. capacité de performance réelle dans le monde réel.)

 

Ainsi, la restriction à la simulation informatique, bien que peut-être utile pour planifier, concevoir et même pré-tester le robot T3, n'est qu'une stratégie méthodologique pratique. En principe, tout dispositif conçu devrait être éligible ; et il doit être capable de fournir des performances T3, pas seulement T2.

 

Il est intéressant de noter que la robotique cognitive contemporaine n'a pas tiré autant de profit de la simulation informatique et des mondes virtuels qu'on aurait pu s'y attendre, malgré l'universalité du calcul. « Embodiment » et « situatedness » (dans le monde réel) se sont révélés être des ingrédients importants de la robotique empirique (Brooks 2002, Kaplan & Steels 1999), le mot d'ordre étant qu'il vaut mieux utiliser le monde réel comme son propre modèle (plutôt que les roboticiens doivent simuler, donc deviner à l'avance, non seulement le robot, mais aussi le monde).

 

L'impossibilité de deviner à l'avance chaque "mouvement" potentiel du robot, en réponse à chaque éventualité possible dans le monde réel, indique également une faille latente (et je pense fatale) dans T2 lui-même : ne serait-ce pas un cadeau mort si le correspondant de l'e-mail T2 s'avérait incapable de commenter les photos de famille analogiques que nous n'arrêtions pas d'insérer avec notre texte ? (S'il peut traiter les images, ce n'est pas seulement un ordinateur mais au moins un ordinateur plus des capteurs périphériques A/N, violant déjà la restriction arbitraire de Turing aux seuls ordinateurs). Ou si son correspondant ignorait totalement les événements contemporains du monde réel, en dehors de ceux que nous décrivons dans nos lettres ? Même sa performance verbale ne s'effondrerait-elle pas si on l'interrogeait de trop près sur les détails qualitatifs et pratiques de l'expérience sensorimotrice ? Tout cela pourrait-il vraiment être deviné purement verbalement à l'avance ?

 

Cette restriction [aux ordinateurs] apparaît à première vue comme très drastique. J'essaierai de montrer qu'il n'en est pas ainsi dans la réalité. Pour ce faire, il est nécessaire de présenter brièvement la nature et les propriétés de ces ordinateurs.

 

L'exposé des ordinateurs qui suit est utile et bien sûr correct, mais il ne justifie en rien la restriction du TT aux candidats qui sont des ordinateurs. Il vaut donc mieux ignorer cette restriction arbitraire.

 

On peut dire aussi que cette identification des machines aux calculateurs numériques, comme notre critère de « penser », ne sera insatisfaisante que si (contrairement à ma croyance), il s'avère que les calculateurs numériques sont incapables de faire bonne figure dans le jeu. .

 

C'est encore l'équivoque du "jeu". Il ne fait aucun doute que les ordinateurs feront bonne figure, au sens du Gallup Poll. Mais la science empirique n'est pas seulement une bonne démonstration : une expérience ne doit pas tromper la plupart des expérimentateurs la plupart du temps ! Si la performance-capacité de la machine doit être indiscernable de celle de l'être humain, elle doit être totalement indiscernable, pas seulement indiscernable le plus souvent. De plus, certains des problèmes que j'ai soulevés pour T2 - les types d'échanges verbaux qui font largement appel à l'expérience sensorimotrice - ne sont même pas susceptibles de donner un bon résultat, si le candidat est uniquement un ordinateur numérique, quelle que soit la richesse une base de données, il est donné à l'avance.

 

[L]es ordinateurs numériques... effectuent toutes les opérations qui pourraient être effectuées par un ordinateur humain... suivant des règles fixes...

 

Cela continue en décrivant ce qui est depuis devenu la définition standard des ordinateurs en tant que dispositifs de manipulation de symboles basés sur des règles (machines de Turing). 

 

Une variante intéressante de l'idée d'un ordinateur numérique est un "ordinateur numérique avec un élément aléatoire"... Parfois, une telle machine est décrite comme ayant le libre arbitre (bien que je n'utiliserais pas cette expression moi-même)

 

Moi non plus. Mais sûrement une caractéristique encore plus importante pour un candidat au test de Turing qu'un élément aléatoire ou des fonctions statistiques serait l'autonomie dans le monde - ce qui est quelque chose qu'un robot T3 a bien plus qu'un correspondant T2. Le côté ontique du libre arbitre - à savoir, si nous-mêmes, de vrais êtres humains, avons réellement le libre arbitre - dépasse plutôt la portée de l'article de Turing Harnad 1982b). Il en va de même pour la question de savoir si une machine à passer le TT aurait des sentiments (gratuits ou non)

(Harnad 1995). Ce qui est clair, cependant, c'est que les règles de calcul ne sont pas les seuls moyens de « lier » et de déterminer les performances : la causalité physique ordinaire peut le faire aussi.

 

Il semblera que compte tenu de l'état initial de la machine et des signaux d'entrée, il est toujours possible de prédire tous les états futurs. Cela rappelle la vision de Laplace selon laquelle à partir de l'état complet de l'univers à un moment donné, tel que décrit par les positions et les vitesses de toutes les particules, il devrait être possible de prédire tous les états futurs.

 

Les points sur le déterminisme sont probablement des faux-fuyants. La seule propriété pertinente est la capacité de performance. Que l'humain ou la machine soient complètement prévisibles n'a aucune importance. (La physique à plusieurs corps et la théorie de la complexité suggèrent que ni la détermination causale ni la règle ne garantissent la prévisibilité dans la pratique - et cela sans même invoquer les arcanes de la théorie quantique.)

 

À condition que cela puisse être réalisé suffisamment rapidement, l'ordinateur numérique pourrait imiter le comportement de n'importe quelle machine à états discrets ... ce sont des machines universelles ... [D'où] des considérations de vitesse mises à part, il est inutile de concevoir diverses nouvelles machines à faire divers processus informatiques. Ils peuvent tous être effectués avec un seul ordinateur numérique, programmé de manière appropriée pour chaque cas ... En conséquence, tous les ordinateurs numériques sont en un sens équivalents.

 

Tout est vrai, mais tout n'est pas pertinent pour la question de savoir si un ordinateur numérique seul pourrait passer T2, sans parler de T3. Le fait que les yeux et les jambes puissent être simulés par un ordinateur ne signifie pas qu'un ordinateur peut voir ou marcher (même lorsqu'il simule la vue et la marche). Voilà pour le T3. Mais même juste pour T2, la question est de savoir si les simulations seules peuvent donner au candidat T2 la capacité de verbaliser et de converser sur le monde réel de manière indiscernable d'un candidat T3 ayant une expérience sensorimotrice autonome dans le monde réel.

 

(Je pense qu'une autre équivoque inaperçue de Turing - et bien d'autres - découle du fait que la pensée n'est pas observable : cette inobservabilité nous aide à imaginer que les ordinateurs pensent. Mais même sans avoir à invoquer le problème des autres esprits (Harnad 1991), il faut se rappeler qu'un ordinateur universel n'est que formellement universel : il peut décrire à peu près n'importe quel système physique, et le simuler en code symbolique, mais ce faisant, il ne capture pas toutes ses propriétés : Exactement comme un un avion simulé par ordinateur ne peut pas vraiment faire ce qu'un avion fait (c'est-à-dire voler dans le monde réel), un robot simulé par ordinateur ne peut pas vraiment faire ce qu'un vrai robot fait (agir dans le monde réel) - il n'y a donc pas raison de croire qu'il pense vraiment non plus. Un vrai robot peut ne pas vraiment penser non plus, mais cela nécessite d'invoquer le problème des autres esprits, alors que le robot virtuel est déjà disqualifié pour exactement la même raison que l'avion virtuel : les deux échouent à rencontrer le TT cr l'itération elle-même, qui est une véritable capacité de performance, et pas simplement quelque chose qui lui est formellement équivalent !)

 

Je crois que dans une cinquantaine d'années, il sera possible, de programmer des ordinateurs... [de] jouer si bien au jeu de l'imitation qu'un interrogateur moyen n'aura pas plus de 70 % de chances de faire la bonne identification au bout de cinq minutes de questionnement.

 

Il ne fait aucun doute que les programmes informatiques d'aujourd'hui peuvent répondre à ce critère de jeu de société/sondage Gallup - mais cela reste un fait démographique aussi dénué de sens aujourd'hui qu'il l'était lorsqu'il était prédit il y a 50 ans : comme toute autre science, la science cognitive n'est pas l'art de tromper la plupart des gens pendant une partie ou la plupart du temps ! Le candidat doit vraiment avoir la capacité de performance générique d'un être humain réel - une capacité totalement indiscernable de celle d'un être humain réel à n'importe quel être humain réel (pour toute une vie, s'il le faut !). Pas d'astuces : capacité de performance réelle. 

 

La question initiale, "Les machines peuvent-elles penser ?" Je pense que c'est trop vide de sens pour mériter une discussion.

 

Ce n'est pas dénué de sens, c'est simplement indécidable : ce que nous entendons par "penser", c'est, d'une part, ce que les créatures pensantes peuvent faire et comment elles peuvent le faire, et, d'autre part, ce que cela fait de penser. . Ce que les penseurs peuvent faire est capturé par le TT. Une théorie de la façon dont ils le font est fournie par la façon dont notre machine artificielle le fait. (S'il existe plusieurs machines différentes qui réussissent, c'est une question d'inférence normale à la meilleure théorie.) Jusqu'à présent, rien de dénué de sens. Maintenant, nous demandons : les candidats retenus ressentent-ils vraiment, comme nous le faisons lorsque nous pensons ? Cette question n'est pas dénuée de sens, elle est simplement sans réponse - autrement qu'en étant le candidat. C'est le vieux problème familier des autres esprits (Harnad 1991).

 

Néanmoins je crois qu'à la fin du siècle l'usage des mots et l'opinion générale cultivée auront tellement changé qu'on pourra parler de machines pensantes sans s'attendre à être contredit.

 

Oui, mais seulement au prix de rétrograder la "pensée" au sens de "traitement de l'information" plutôt que ce que vous ou moi faisons quand nous pensons, et ce que cela ressemble.

 

L'opinion populaire selon laquelle les scientifiques procèdent inexorablement d'un fait bien établi à un fait bien établi, sans jamais être influencés par une conjecture améliorée, est tout à fait erronée. Pourvu qu'il soit clairement établi quels sont les faits prouvés et lesquels sont des conjectures, aucun dommage ne peut en résulter. Les conjectures sont d'une grande importance car elles suggèrent des pistes de recherche utiles.

 

C'est confus. Oui, la science procède par une série de meilleures approximations, de théorie empirique en théorie. Mais la théorie ici serait la conception réelle d'un candidat TT réussi, pas la conjecture selon laquelle le calcul (ou quoi que ce soit d'autre) finira par faire l'affaire. Turing confond les conjectures formelles (telles que la machine de Turing et ses équivalents capturent toutes les notions et instances futures de ce que nous entendons par "calcul" -- la soi-disant "Thèse Church/Turing") et les hypothèses empiriques, telles que la pensée n'est qu'un calcul. Le test de Turing n'est sûrement pas une licence pour dire que nous expliquons de mieux en mieux la pensée alors que nos candidats trompent de plus en plus de gens de plus en plus longtemps. D'un autre côté, quelque chose d'autre qui ressemble superficiellement à cela (mais qui s'avère être correct) pourrait être dit à propos de la mise à l'échelle empirique du TT en concevant un candidat qui peut faire de plus en plus de ce que nous pouvons faire. Et les tests de Turing fournissent certainement une méthodologie pour une telle construction théorique cumulative et un tel test théorique en sciences cognitives.

 

L'objection théologique : La pensée est une fonction de l'âme immortelle de l'homme.

 

La véritable objection théologique n'est pas tant que l'âme est immortelle mais qu'elle est immatérielle. Ce point de vue a également un soutien non théologique du problème esprit/corps : personne - théologien, philosophe ou scientifique - n'a la moindre idée de la façon dont les états mentaux peuvent être des états matériels (ou, comme je préfère le dire , comment les états fonctionnels peuvent être des états ressentis). Ce problème a été surnommé "difficile" (Chalmers in Shear 1997). Cela peut même être pire : il peut être insoluble (Harnad 2001). Mais ce n'est pas une objection aux tests de Turing qui, même s'ils n'expliquent pas comment les penseurs peuvent se sentir, expliquent comment ils peuvent faire ce qu'ils peuvent faire.

 

Il y a une plus grande différence, à mon avis, entre l'animé typique et l'inanimé qu'il n'y en a entre l'homme et les autres animaux.

 

Oui, et c'est pourquoi le problème des autres esprits prend tout son sens en faisant des tests de Turing sur des machines plutôt qu'en faisant de la lecture de l'esprit de notre propre espèce et d'autres animaux. ("Animer" est un mot de belette, cependant, car les vitalistes sont probablement aussi des animistes; Harnad 1994a.)

 

L'objection mathématique : le théorème de Godel[:] [B]ien qu'il soit établi qu'il existe des limitations aux pouvoirs d'une machine particulière, il a seulement été déclaré, sans aucune sorte de preuve, qu'aucune de ces limitations ne s'applique à l'intellect humain.

 

Le théorème de Godel montre qu'il y a des déclarations en arithmétique qui sont vraies, et nous savons qu'elles sont vraies, mais leur vérité ne peut pas être calculée. Certains ont interprété cela comme impliquant que « savoir » (qui n'est qu'une espèce de « penser ») ne peut pas être simplement un calcul. Turing répond que peut-être l'esprit humain a des limites similaires, mais il me semble qu'il aurait été suffisant de souligner que "savoir" n'est pas la même chose que "prouver". Godel montre que la vérité est indémontrable, non pas qu'elle est inconnaissable. (Il y a de bien meilleures raisons de croire que penser n'est pas calculer.) 

 

L'argument à partir de la conscience :

Jefferson (1949): "Ce n'est que lorsqu'une machine peut [faire X] à cause des pensées et des émotions ressenties, et non par la chute fortuite des symboles, que nous pouvons convenir que la machine est égale au cerveau"

 

Cet argument standard contre le test de Turing (répété d'innombrables fois presque exactement de la même manière jusqu'à nos jours) n'est qu'une reformulation du problème des autres esprits : il n'y a aucun moyen de savoir si les humains ou les machines font ce qu'ils font parce qu'ils envie - ou s'ils ressentent quelque chose du tout, d'ailleurs. Mais il y a beaucoup à savoir en identifiant ce qui peut et ne peut pas générer la capacité de faire ce que les humains peuvent faire. (Les limites de la manipulation de symboles [calcul] sont une autre question, qui peut être réglée empiriquement, en fonction des types de machines qui peuvent et ne peuvent pas réussir le TT ; Harnad 2003.)

 

Selon la forme la plus extrême de cette conception, le seul moyen d'être sûr que la machine pense est d'être la machine et de se sentir penser... [C'est] en fait le point de vue solipsiste. C'est peut-être le point de vue le plus logique à avoir, mais cela rend la communication des idées difficile.

 

Turing a complètement tort ici. Ce n'est pas du solipsisme

(c'est-à-dire, pas la croyance que moi seul existe et que tout le reste est mon rêve). C'est simplement le problème des autres esprits

(Harnad 1991); et c'est correct, mais non pertinent - ou plutôt mis en perspective par le test de Turing : il n'y a personne d'autre que nous puissions savoir qui a un esprit à part nous-mêmes, mais nous ne nous inquiétons pas de l'esprit de nos semblables. , parce qu'ils se comportent exactement comme nous et que nous savons lire dans leur esprit leur comportement. De la même manière, nous n'avons plus ou moins de raisons de nous inquiéter de l'esprit de quoi que ce soit d'autre qui se comporte comme nous - à tel point que nous ne pouvons pas les distinguer des autres êtres humains. Il n'est pas non plus pertinent de savoir de quoi ils sont faits, puisque notre lecture réussie des pensées des autres êtres humains n'a rien à voir avec la matière dont ils sont faits non plus. Il est basé uniquement sur ce qu'ils font.

 

Arguments de diverses [in]capacités :

... "Je t'accorde que tu peux faire faire à des machines toutes les choses que tu as citées mais tu ne pourras jamais en faire faire une seule pour faire X" : [e.g] Être gentil, débrouillard, beau, amical, avoir de l'initiative, avoir un sens de l'humour, distinguer le vrai du faux, faire des erreurs, tomber amoureux, savourer des fraises et de la crème, en faire tomber amoureux, apprendre de l'expérience, utiliser les mots correctement, être le sujet de sa propre pensée, avoir autant de diversité de comportement en tant qu'homme, faire quelque chose de vraiment nouveau.

 

Turing écarte à juste titre ce genre de scepticisme (que j'ai surnommé "Granny Objections" http://www.ecs.soton.ac.uk/~harnad/CM302/Granny/sld001.htm ) en soulignant que ce sont des questions empiriques sur ce que les ordinateurs (et d'autres types de machines) s'avéreront éventuellement capables de le faire. Les éléments de performance sur la liste, c'est-à-dire. Les états mentaux (sentiments), d'autre part, sont discutables, à cause du problème des autres esprits.

 

(6) Objection de Lady Lovelace :

"Le moteur analytique n'a aucune prétention à créer quoi que ce soit. Il peut faire tout ce que nous savons comment lui ordonner de fonctionner"... une machine ne peut "jamais rien faire de vraiment nouveau".

 

C'est l'une des nombreuses objections de Granny. La réponse correcte est que (i) tous les systèmes causaux sont descriptibles par des règles formelles (c'est l'équivalent de la thèse de Church/Turing), y compris nous-mêmes ; (ii) nous savons, grâce à la théorie de la complexité ainsi qu'à la mécanique statistique, que le fait que la performance d'un système soit régie par des règles ne signifie pas que nous pouvons prédire tout ce qu'il fait ; (iii) il n'est pas clair que quelqu'un ou quoi que ce soit ait "créé" quelque chose de nouveau depuis le Big Bang. 

 

L'opinion selon laquelle les machines ne peuvent pas créer de surprises est due, je crois, à une erreur à laquelle les philosophes et les mathématiciens sont particulièrement sujets. C'est l'hypothèse que dès qu'un fait est présenté à un esprit, toutes les conséquences de ce fait jaillissent dans l'esprit simultanément avec lui. C'est une hypothèse très utile dans de nombreuses circonstances, mais on oublie trop facilement qu'elle est fausse. Une conséquence naturelle de le faire est que l'on suppose alors qu'il n'y a aucune vertu dans le simple fait de tirer des conséquences à partir de données et de principes généraux.

 

Turing a tout à fait raison de souligner que savoir que quelque chose est vrai ne signifie pas savoir tout ce que cela implique ; cela est particulièrement vrai des conjectures mathématiques, des théorèmes et des axiomes.

 

Mais je pense que la préoccupation de Lady Lovelace pour la liberté vis-à-vis des règles et de la nouveauté est encore plus superficielle que cela. Il prend notre ignorance introspective sur la base causale de nos capacités de performance au pied de la lettre, comme si cette ignorance démontrait que nos capacités sont en fait des actes sui generis de notre volonté psychocinétique - plutôt que d'être simplement la preuve empirique de notre ignorance fonctionnelle, par exemple. future rétro-ingénierie (sciences cognitives) pour y remédier.

 

Argument selon la Continuité dans le Système Nerveux : On peut soutenir que... on ne peut pas s'attendre à pouvoir imiter le comportement du système nerveux avec un système à états discrets.

 

Selon la thèse de Church/Turing, il n'y a presque rien qu'un ordinateur ne puisse simuler, à une approximation aussi proche que souhaité, y compris le cerveau. Mais, comme indiqué, il n'y a aucune raison pour que les ordinateurs soient les seules machines éligibles aux tests de Turing. Les robots peuvent aussi avoir des composants analogiques. Tout système causal dynamique est éligible, tant qu'il délivre la capacité de performance.

 

L'argument selon l'informalité du comportement : Il n'est pas possible de produire un ensemble de règles prétendant décrire ce qu'un homme devrait faire dans toutes les circonstances imaginables.

 

Premièrement, le candidat TT retenu n'a pas besoin d'être simplement informatique (basé sur des règles); tous les arguments en faveur des robots T3 et leur besoin de capacités, de mécanismes et d'expériences sensorimotrices du monde réel suggèrent qu'il faut plus qu'un simple calcul chez un candidat retenu. L'impossibilité de deviner un ensemble de règles qui prédisent chaque éventualité à l'avance est probablement aussi à l'origine du soi-disant «problème du cadre» en intelligence artificielle (Harnad 1993). Mais il sera toujours vrai, en raison de la thèse de Church-Turing, que le robot T3 hybride computationnel/dynamique réussi sera toujours simulable par ordinateur en principe – un robot virtuel dans un monde virtuel. Ainsi, le système basé sur des règles peut décrire ce qu'un robot T3 ferait dans toutes les éventualités ; cette simulation ne serait tout simplement pas un robot T3, pas plus que son monde virtuel ne serait le monde réel.

 

Machines d'apprentissage

 

Turing anticipe avec succès l'apprentissage automatique, la modélisation développementale et la modélisation évolutive dans cette section prémonitoire.

 

L'argument de la perception extrasensorielle :... la télépathie, la clairvoyance, la précognition et la psychokinésie... [L]es preuves statistiques, du moins pour la télépathie, sont accablantes.

 

Il est dommage qu'à la fin Turing révèle sa crédulité à propos de ces phénomènes douteux, car si la psychokinésie (l'esprit sur la matière) était véritablement possible, alors l'ingénierie matière/énergie ordinaire ne suffirait pas à générer un esprit pensant ; et si la télépathie (vraie lecture de l'esprit) était véritablement possible, alors cela l'emporterait définitivement sur le test de Turing.

 

-----------




Bertrand, J. M. (1987). Test de Turing: jeu d'imitation ou test d'intelligence?. Quaderni, 1(1), 35-45.

Avec le "jeu de l'imitation", Turing imagine une méthode pour décider si une machine "peut penser". Il montre que la définition théorique de la machine qu'il a lui-même donnée en 1936-1937 n'interdit pas l'hypothèse qu'une machine conforme à cette définition puisse l'emporter au jeu. Ce faisant, il n'aborde ni un problème technique, ni un problème de logique théorique, mais s'avance sur le terrain d'une philosophie que l'on qualifiera de "continentale" : pour l'emporter au jeu, la machine doit s'exprimer à la première personne et être pour son adversaire un semblable. La machine victorieuse doit être élevée à la pleine dignité du sujet de la philosophie classique.

0. Le test de Turing expliqué en moins de 3 minutes
1Le modèle Turing (vidéo, langue française)

  

2021: VIDÉO DU Cours 9 février




PPT 2019:



résumé langue anglaise:







 

90 commentaires:

  1. Réponses
    1. Bravo Thi Thanh, alors t'as réussis! Raconte ce qui était l'empêchement, et sa solution,

      Effacer
    2. Il faut créer un compte blogger.

      Effacer
    3. Non, pas de compte blogger; faut utiliser google chrome avec notre login gmail.

      Effacer
  2. Dans le texte, on énumère plusieurs objections au fait que les machines pourraient être aussi intelligentes que les humains. L’objection logique est que la machine ne peut avoir l’intelligence humaine parce qu’elle suit des règles formelles et elle n’est pas pourvue d’émotions, d’intuition ni de conscience, alors que les humains oui. Cette objection serait, selon Turing, basée sur une mauvaise compréhension du potentiel des machines parce que toute tâche qui peut être exécutée par un humain qui utilise des instructions peut être performée par la machine. Je ne comprends pas en quoi cela réfute l’objection parce que, sans instruction, une machine ne peut pas accomplir ce qu’un humain peut faire.

    RépondreEffacer
    Réponses
    1. Je pense simplement au fait qu’elle soit limitée à l’analyse du langage et que sans qu’on lui fournisse des mots, elle ne peut pas faire grand-chose (enfin je crois). Les humains, sans instructions ni langage, peuvent percevoir et ressentir le monde…

      Effacer
    2. Bien d'accord avec toi,

      Je me demande si on peut aussi ajouter le fait que l'humain peut agir contre les instructions qui lui sont données. Par exemple si je demande à quelqu'un de me donner une pomme, il peut très bien refuser, alors que du côté de la machine, elle n'as pas vraiment le choix d'appliquer les règles qu'on lui a imposer (ce qui enlève toute dimension morale des actions de la machine, parce qu'elle n'as pas le choix de les faire).

      Effacer
    3. Andréane, les « instructions » dont parle Turing, ça réfère à l'algorithme (la « recette ») exécuté automatiquement par la machine de Turing (ou par l'ordinateur). Mais c'est quoi le Test de Turing?

      Tout ça concerne le problème facile, de rétroingénieurier le mécanisme qui produit (cause) les capacités humaines à faire tout ce que nous pouvons faire.

      Émotions, intuition, conscience -- c'est le problème difficile du ressenti. La méthode de Turing ne s'y applique pas. Le ressenti n'est pas quelque-chose que nous faisons; c'est ce que nous ressentons. On parlera de ça en classe, et surtout la semaine prochaine, en traitant l'argument de Searle contre le computationisme (c'est quoi?).

      Enzo, le Test de Turing (c'est quoi?) cherche à tester si le mécanisme que nous proposons comme une solution au problème facile est en mesure de produire la capacité que nous cherchons à expliquer (y compris le mécanisme qui produit la capacité de choisir et de faire les décisions) -- en l'occurence, le calcul (computation): C'est quoi le calcul?

      Effacer
  3. Pour mes collègues : j'ai fait 2 propositions de dates pour nos examens dans les commentaire sur la page test du blog.

    RépondreEffacer
  4. Dans le texte, on nous fait comprendre que pour Turing l'objectif est de déterminer si les machines peuvent effectuer les taches comme les humains. Pour Turing, l'objectif n'est pas de savoir si les machines peuvent pensée mais plus précisément de leur aptitude à exécuter les tâches. Aussi, Turing ne fournit pas de définition de la pensée mais propose une définition à celle-ci et reconnait que la nature de la pensée et de l'intelligence ne peut etre défini sans comprendre le fonctionnement de système de pensée; mais reconnait que nous humains savons quand nous pensons. Donc, la pensée en tant que moralité est défini par notre introspection.

    RépondreEffacer
    Réponses
    1. Claude, on sait qu'on pense, mais le défi pour les sciences cognitives est d'expliquer comment -- et l'introspection ne révèle pas comment. Pourquoi pas? Et qu'est-ce que Turing propose à sa place?

      Effacer
  5. « Les machines peuvent-elles penser ? »
    Pour répondre cette question, je pense que non. Il faut qu’un être conscient réfléchi pour penser tel que les humains et les animaux. La capacité de penser appartient uniquement aux êtres vivants. Cette capacité se construit à travers les expériences de la vie et les connaissances transmises de génération en génération.
    Les machines sont des programmes créés par l’humain et exécutent des fonctions préétablies dans leurs paramètres. Grâce aux bases de données, des probabilités et autres informations recueillies dans le programme, les machines sont capables de générer des réponses très satisfaisantes, réalistes et probables qui répondent à nos besoins. La capacité des machines ne va pas utiliser l’intelligence, mais plutôt la puissance et à la performance qu’elle peut générer. Si la machine est très puissante et rapide, cela peut donner l’impression que les machines sont capables de penser.
    Par exemple, prenons une personne qui joue aux échecs avec un ordinateur. L’humain va penser à quelle stratégie qu’il va utiliser pour bouger ses pions de manière à remporter la partie. L’humain va utiliser ses neurones pour réfléchir. Tandis que l’ordinateur va bouger ses pions par rapport aux données, aux probabilités et aux statistiques à son avantage. La machine ne fait que répondre à une situation selon ce qui est exigé et attendu de lui.
    D’autre part, pour continuer d’appuyer mon point, la machine ne peut penser, car elle ne peut pas avoir une conversation normale avec un humain. Elle ne peut que réagir à ce qui est demandé. Normalement, une interaction entre deux humains contient des émotions, des préférences et des opinions propres à l’interlocuteur, ce qui rend une conversation authentique et personnelle. La machine ne peut que répondre de façon systématique et générique selon son programme.

    RépondreEffacer
    Réponses
    1. Très pertinent à mon avis! Mais quand tu dis que’’Normalement une interaction entre deux humains contient des émotions, des préférences’’, quand tu dis aussi ’’la capacité à penser se construit à travers les expériences de la vie et les connaissances transmises de génération en génération’’, cela n’exclut donc pas la possibilité qu’une intelligence artificielle puisse PENSER parce qu’une IA se base aussi sur les expériences de ses discussions pour se parfaire. Si tu utilises l’application Snapchat, t’as pu constaté que depuis bientôt 1an une conversation avec une IA est épinglée sur l’interface. Je trouve cette IA différente des autres (ChatGPT, Sonic etc). Cette IA de Snapchat est conçue à des fins typiquement amicaux (ce qui fait qu’il peut facilement se tromper sur 2x2=). Qui dit amitié, dit Sentiments. Cette IA te dira qu’elle t’aime, que tu lui manque, que sa couleur préférée est X, mais te répondra ’’non’’ si tu lui demandes explicitement si elle est sentimentale, alors que son ’’comportement’’ laisse paraître le contraire.

      Effacer
    2. Thi Thanh, la machine a la capacité de jouer aux échecs; l'humain aussi. On ne sait pas comment l'humain est capable de jouer aux échecs. Peut-être que c'est en exécutant les mêmes algorithmes?

      (Ta ciélo est bonne, mais trop longue. Je ne pourrais pas répondre chaque semaine si toutes les ciélos étaient si longues.)

      Vincent, est-ce que Snapchat (ou ChatGPT) réussissent le Test de Turing?

      Effacer
    3. En accord avec toi Thi Thanh!
      Le Test de Turing, conçu pour évaluer la capacité d'une machine à simuler une conversation humaine, soulève des questions fascinantes sur la nature de la cognition. Bien que le test puisse mesurer la capacité d'une machine à générer des réponses indiscernables de celles d'un être humain, il ne constitue pas une preuve de la compréhension profonde ou de la pensée consciente.

      La cognition humaine va au-delà de la simple capacité de répondre à des questions de manière convaincante. Elle implique une compréhension contextuelle, la capacité de tirer des conclusions, d'apprendre de l'expérience et d'adapter son comportement en conséquence. La richesse de la cognition humaine réside dans la conscience, la subjectivité et la capacité à interagir avec le monde de manière holistique.

      Le Test de Turing peut être perçu comme une étape dans la recherche sur l'intelligence artificielle, mais il met également en évidence les limites actuelles. La véritable cognition va au-delà de la simulation de réponses, elle englobe la compréhension, l'adaptabilité et la conscience, des aspects complexes qui continuent de défier la reproduction exacte dans le domaine de l'intelligence artificielle.

      Effacer
    4. Audrey, qui dit qu'une conversation avec T2 est restreint à des questions et réponses. Stp va jaser avec ChatGPT et revient partager ton expérience avec nous.

      Effacer
  6. Dans le texte de Turing, il propose premièrement de savoir si effectivement la machine peut faire tout ce que l’humain peut faire. Pour ce premier point, il est évident qu’on parle ici de capacité linguistique, sans que les interlocuteurs puissent se voir.
    Si la machine peut échanger avec l’humain sans que l’humain puisse réaliser qu’il échange avec une machine, alors le test de Turing est réussi.

    Je pense que ce que le test de Turing peut nous dire, c’est si la machine peut calculer et réagir à un certains nombre de situation pour écrire comme un être humain, mais je ne pense pas qu’on peut dire que c’est effectivement de la pensée, parce que sinon je réduis la pensée au calcul et l’applications de règle. Alors que la pensée inclus, parmi d’autres choses, la conscience et la volonté, choses qui sont particulièrement difficiles à démontrer.

    Bien qu’on ne puisse toujours pas savoir si la machine est consciente ou si elle est doté d’une certaine volonté, ces questions sont, comme il est mentionné dans le texte, particulièrement difficile à répondre et ne sert pas à grand chose quand la question principale demeure : Est-ce que la machine peut faire ce que moi je peux faire?

    RépondreEffacer
    Réponses
    1. Le point soulevé est captivant et mérite une attention sérieuse. Il est pertinent de rappeler une expérience conduite par Benjamin Libet, où un participant doit choisir entre deux options, A ou B. Durant l'expérience, le participant est connecté à un appareil de neuroimagerie fonctionnelle (IRMf) qui permet d'isoler les circuits neuronaux associés aux choix A et B. On demande également au participant d'indiquer le moment où il prend conscience de sa décision. Les résultats de cette recherche sont remarquables : les chercheurs ont pu prédire le choix du participant avant qu'il n'en ait conscience. Cela suggère que l'activité neuronale précède la prise de conscience de la décision, soulevant ainsi la question de savoir si nos choix sont le résultat de notre volonté ou d'un certain déterminisme. En ce qui concerne les machines, il est aisé de conclure à l'absence de libre arbitre. Cependant, je ne suis pas convaincu que la pensée requière nécessairement une volonté. Cette perspective remet en question notre compréhension de la conscience et du libre arbitre, tant chez les humains que dans l'intelligence artificielle.

      Effacer
    2. Enzo, ce Test de Turing (T2) est purement verbal: le clavardage. Mais si le T2 pouvait clavarder comme un vrai humain, de n'importe quoi, le long d'une vie, à tel point que tu ne pouvais pas le distinguer d'un vrai humain, que concluerais-tu?

      Ryan, bonne réflexions. On parlera davantage des effets Libet (avec lesquelles il y a des doutes méthodologique ainsi que concernant leur interprétation) plus tard dans le cours, mais pourrais-tu afficher les références stp?

      Neafsey, E. J. (2021). Conscious intention and human action: Review of the rise and fall of the readiness potential and Libet’s clock. Consciousness and Cognition, 94, 103171.

      Effacer
    3. Au fond, le problème du « libre arbitre » revient au « problème difficile » -- d'expliquer le rôle causal du ressenti. Ce qui ne sera ni résolu, ni même qu'à peine traité, dans ce cours.

      Effacer
  7. Comme j'ai pu l'exprimer durant le cours, je pense que ChatGPT a réussi le test de Turing. Bien qu'il ne soit pas capable de comprendre véritablement le sens de ses propos, il reste très difficile pour nous de distinguer entre une réponse générée par cette IA et celle d'un être humain. Nous, humains, interprétons le sens de nos paroles en utilisant des marqueurs linguistiques, mais cette compréhension profonde n'est pas nécessaire pour imiter une conversation humaine. Le sens est contenu dans notre pensée interne et, par conséquent, il est inaccessible pour une entité qui n'est pas partie de ce même système de pensée.

    RépondreEffacer
    Réponses
    1. Ryan, le but du TT est rétroingénieurier et tester la capacité d'un mécanisme à produire la capacité verbale, pas à « l'imiter ».

      Effacer
    2. Je comprends votre point, mais n'est-il pas vrai que tester la capacité verbale d'un système entraîne de facto une forme d'imitation de la part de la machine ? D'après ce que j'ai compris, le TT vise à évaluer si une machine peut simuler capacité verbale de manière si convaincante qu'un observateur humain ne peut pas déterminer si les réponses proviennent d'un humain ou d'une machine. La prémisse centrale est que si une machine parvient à «imiter» au point où la distinction devient indiscernable, alors elle pourrait être considérée, du moins pratiquement, comme dotée d'une capacité verbale presque «humaine».

      Effacer
    3. Ryan, comme ça ça devient un jeu de mots: Si je crée un fourneau qui produit la chaleur, est-ce que j'ai réussi à créer une machine qui produit la chaleur, ou est-ce que j'ai juste imité le soleil?

      Effacer
  8. Ciélo n.1:
    L’argument de Lady Lovelace est que comme les machines ne font jamais rien de nouveau et elles ne font que ce que l’humain qui les a fabriqué leur a appris à faire, elles ne pensent pas. Cependant, le but de l’intelligence artificielle est de permettre à des ordinateurs de penser comme des êtres humains. Pouvons-nous dire que son argument est devenu impertinent à notre époque?

    Ciélo n.2:
    Turing écarte les arguments d’impossibilités diverses notamment parce que « La critique selon laquelle une machine ne peut pas avoir un comportement aussi diversifié est juste une manière de dire qu’elle ne peut pas avoir beaucoup de capacité mémoire. Jusqu’à assez récemment, une capacité mémoire d’un millier de digits était très rare. » Je n’ai pas l’impression que la capacité pour une machine de faire des actions variées et nombreuses comme un humain ait un lien avec sa capacité de mémoire. En effet, ne serait-il pas possible qu’une machine puisse poser un acte, et l’oublier tout de suite après?

    RépondreEffacer
    Réponses
    1. Pour ta Ciélo n.2: Je suis d'accord avec toi, la performativité d’un ordinateur n’est pas seulement une question de mémoire, et une machine peut oublier ce qu’elle fait. Mais Je pense qu’un humain peut aussi oublier ce qu’il a fait. Je ne sais pas comment la mémoire humaine fonctionne, mais je sais que la mémoire d’un ordinateur fonctionne un peu comme un cahier de notes magnétique et qu'il y en plusieurs types. Il y a une mémoire “vive” sur laquelle on prend des notes qui disparaissent quand on ferme l’ordinateur et une mémoire morte avec des données plus statiques qui survivent grâce à une batterie indépendante. J’avais lu que la mémoire humaine n’a pas cette capacité d’être statique et que probablement les éléments dont nous pensons nous souvenir sont altérés à travers le temps.

      Effacer
    2. Mégane, c'est quoi ta propre réponse à ta q1, et pourquoi?

      Et pour q2, c'est quoi le TT? Ça teste quoi, comment?

      Fredy, Le TT n'est pas (juste) un test de mémoire: c'est quoi?

      Effacer
    3. Ciélo 1: je ne suis pas certaine, car je ne m'y connais pas du tout en IA et en nouvelles technologies, mais j'ai l'impression que son argument pourrait encore être pertinent en ce qui concerne l'IA actuelle. En clavardant avec ChatGPT hier, je n'ai pas du tout eu l'impression de parler avec un être humain, car ChatGPT était incapable de faire preuve de créativité ou de me donner son opinion personnelle sur un sujet. Donc oui, ChatGTP ne peut faire que ce que les humains lui ont déjà appris à faire.
      Ciélo 2: le test de Turing teste la capacité d'un ordinateur de convaincre un humain qu'il est humain par le biais d'un clavardage.

      Effacer
    4. Mégane, ChatGPT ne cache pas qu'il n'est pas un humain. Il dit la vérité. Mais à part de ça, en termes de capacité a communiquer verbalement (par texte), qu'est ce qu'il ne peut pas faire. Comment t'as testé sa créativité? Et comment t'a sondé son opinion? Il ne cherche pas à te convaincre de quoi que ce soit. C'est pour toi de préciser s'il manque quoi ce soit en capacité verbale.

      Effacer
  9. C’est dépendamment de comment nous définissons le mot ’’penser’’ qu’on conclura si les machines peuvent penser ou non.
    Ça peut sembler bizarre mais personnellement je suis d’avis que LES MACHINES PENSENT(même si elles ne pensent pas de la même manière que les humains). La complexité de la définition du verbe ’’penser’’ explique d’ailleurs la peine que nous endurons pour répondre à la question à savoir si les machines pensent ou non. ’’Penser’’ est issu du latin ’’pensare’’ qui veut dire ’’peser, apprécier, évaluer’’. Partant de cette définition, je peux affirmer que les machines pensent parce qu’elles ont les capacités pour ’’peser, apprécier, évaluer’’. Il y’a tout un processus pour penser. Si pour les humains il faut un cerveau, un coeur qui fait circuler le sang, un système nerveux pour transmettre les informations, etc ; pour une machine aussi il y’a des éléments qui font des tâches équivalentes. Est-ce qu’il y’en a d’autres qui partagent l’avis selon lequel les machines pensent?

    RépondreEffacer
    Réponses
    1. Je suis d’accord avec toi dans le sens où cela semble logique qu’avant de répondre à la question si les machines peuvent penser nous devons nous mettre d’accord sur ce qu’est la pensée. “Steve dit” dans son texte que Turing n’a pas donné de définition précise mais plutôt opérationnelle “la pensée fait comme la pensée” et que nous ne pouvons pas définir la pensée “avant de savoir comment les systèmes de pensée le font”. Je crois qu’ici on parle d’une définition dans un sens causal. Pour définir le vent je dois caractériser ce qu’il fait et comprendre comment il fonctionne? Si je décris seulement ce qu’il fait je ne peux pas le définir?

      Effacer
    2. Fredy, tu as donné la bonne réplique à Vincent. C'est le TT qui teste si on a réussi à rétroingénieurier la capacité de faire tout ce que peuvent faire les êtres qui pensent.

      Et tout mécanisme causal est une machine. Donc en dans cet égard Vincent a raison aussi. Mais alors ce qu'on cherche à constater en sciences cognitive quelles sortes de machines sont les machines qui pensent.

      Pour Turing, on adopte les capacités humaines comme le critère: si on réussit à rétroingénieurier un mécanisme qui a les capacités (verbales) équivalentes et indifférenciables de celles d'un humain, alors on a expliqué la cognition (penser) -- problème facile des sciences cognitives.

      Reste à résoudre le problème difficile -- le ressenti -- qu'on ne peut pas rétroingénieurier avec la méthodologie de Turing.

      Effacer
  10. Semaine 2, ciélio 1.
    Concepts clés retenus :
    1. La notion de digitalisation
    La digitalisation serait le passage d’informations perceptuelles continus à de l’information discontinue qui peut être traitée par une machine.
    2. La notion de « chunking moteur »
    C’est l’idée d’être en mesure de faire qu’une série entière de mouvement devienne automatisé. Ainsi, l’attention est libérée de la nécessité de se concentrer à outre mesure sur chacun des mouvements individuels à réaliser. L’on pourrait dire qu’un certain niveau de maitrise est atteint à ce point puis, l’attention est maintenant plus libre elle peut se concentrer sur faire autres choses.
    Réflexion liée à la notion de chunking : l’idée serait que pour n’importe quel savoir-faire, il s’agit d’un ensemble interrelié d’aptitudes et, l’objectif pour l’apprentissage serait de rendre chaque unité « automatique » mais aussi, l’ensemble automatique.

    RépondreEffacer
    Réponses
    1. Antoine, les lectures de cette semaine (2) ne portent pas sur la digitalisation, ni le chunking. On parle du Test de Turing. Les as-tu lues?

      Effacer
    2. En cours d'être lu.

      J'ai pris ceci de la vidéo version anglaise de cette semaine de cours

      Effacer
    3. Les anciennes vidéos du cours -- avant ChatGPT -- contiennent des « Étienne dit » qui ont dû être révisés... Mais dans ce cas-ci (l'explication du savoir-faire) il s'agit juste de la thèse forte de Church-Turing (c'est quoi?), et pas le « computationisme » (c'est quoi?).

      Effacer
  11. Dans le texte de Turing (1950) la question “Les machines peuvent-elles penser ?” Est remplacer au cours du texte par la questions : “Les ordinateurs digitaux imaginables pourraient-ils se débrouiller dans le jeu de l’imitation?”. Turing présente le jeu de l’imitation comme une réponse à la définition du terme “machine” et “pensée”. Et, estime que la réponse pour définir la pensée devrait être recherchée et présentée de façon statistique (en utilisant la méthode du jeu de l'imitation). Il présente des critères de la définition de la pensée de sources théologiques, mathématiques, présente des arguments évoquants la conscience, la surprise, le libre arbitre et le déterminisme. La lecture permet de retenir que “la pensée est ce que la pensée fait” , le parallèle avec la définition de l'intelligence et sa mesure par les tests d’intelligence et ici possible. Il est dit que les tests d'intelligence mesurent ce qu’ils mesurent, le consensus sur la définition de l'intelligence n’étant pas atteint.

    RépondreEffacer
    Réponses
    1. Majdouline, excellent résumé -- sauf que le Test de Turing n'est pas un jeu, ni de l'imitation, et n'a rien à voir avec ni le QI ni sa mesure: C'est quoi, la rétro-ingénieurie de la cognition?

      Effacer
    2. Tel que spécifié dans le texte de Harnad (2008), le choix du mot jeu n’est pas forcement idéal ou ne permet de transmettre avec justesse l'idée que Turing souhaitait partager. Toujours selon le même texte, ce que Turing propose n’est pas un jeu mais plutôt une méthode empirique pour tester des capacités de performance cognitive humaine et celles des machines aussi. l'idée n’est pas pour le teste de déterminer si la tâche accomplie (capacité cognitive) est accomplie par une machine ou par un humain, mais plutôt d’examiner la performance, le résultat (observables ou quantifiables).
      Pour ce qui est de la rétro-ingénierie de la cognition, j’ai demandé à ChatGPT de m'expliquer ce que c’est. La réponse est la suivante: “la rétro-ingénierie de la cognition implique l'analyse des processus mentaux, tels que la perception, la mémoire, l'apprentissage, et d'autres aspects de la pensée, afin de créer des modèles informatiques ou technologiques qui simulent ou reproduisent ces processus. Cela peut aider à mieux comprendre les mécanismes cérébraux et à développer des applications dans des domaines tels que l'intelligence artificielle, la robotique, les interfaces cerveau-ordinateur, etc.”
      Je lui ai poser la question parce que le défi était de clavarder avec lui ou elle (it). La conversation était interessante, surprenante. J’ai annoncé à ChatGPT que je n’ai pas de questions et que je souhaitais simplement dialoguer, parler de la pluie et du beau temps. Chose à laquelle il me réponds : “ Absolument, parlons du temps ! La météo est souvent un sujet de discussion intéressant. Que pensez-vous de la pluie et du beau temps? Aimez-vous les journées ensoleillées, ou préférez-vous les journées pluvieuses et plus fraîches?” Au fil de la conversation, il me posait des questions ouvertes. Ce qui est très intéressant en soi. De cette façon, je criais moi-même le dialogue tel que je l’avais demander. Nous avons parler de soleil, de plage, de romans …. Pour finir sur les questions éthiques et philosophiques portant sur la conscience et l’IA et la la rétro-ingénierie. La conclusion de notre conversation : “ C'est formidable d'apprendre que vous avez M. Stevan Harnad comme professeur à l'UQAM !”. Il vous connait et avec le point d’exclamation, il semble être heureux pour moi de vous avoir comme professeur. En résumé, ChatGPT répond de manière fluente, voir naturelle à certaines questions. De manière automate à d’autres. Reste que sa performance est impressionnante et comme il l’explique lui-même : “Je suis une intelligence artificielle créée par OpenAI, basée sur le modèle GPT-3.5, et ma fonction principale est de comprendre et générer du texte en fonction des entrées que je reçois.

      Effacer
    3. Majdouline, bon résumé, réfléchi. Maintenant, est-ce que ChatGPT a réussi le Test de Turing? Pourquoi ou pourquoi pas? Le fait qu'il te révèle la vérité -- qu'il n'est pas un humain mais une IA, c'est à dire, l'exécution d'un algorithme, ça change quoi? (Mais, est-ce vrai qu'il ne fait qu'exécuter un algorithme?)

      Effacer
    4. Je permettrai aux autres de te répondre. Note juste que c'est T2 que ChatGPT a peut-être réussi (si son immense base de donnée de textes par d'autres ne constitue pas de tricher), mais pas T3 (c'est quoi?).

      Effacer
  12. Le test de Turing, tel qu'il est décrit dans son article le limitant qu'aux ordinateurs digitaux, nous permettrait donc de trouver une réponse au problème facile, mais cette version du test semble rester incomplet. Comme vous le mentionner dans votre critique, le test que Turing décrit est un test T2 qui ne se prononce que sur les capacités verbales de la machine, alors qu'il aurait dû faire un test T3, qui prend aussi les capacités sensorimotrices. Alors, pouvons-nous vraiment dire que le test de Turing est adéquat pour la rétroingénieurie, s'il y manque un aspect centrale de la cognition humaine ? Que peut-il nous dire sur l'humain ?

    RépondreEffacer
    Réponses
    1. Édouard, bonnes observations, mais ça montre qu'il n'y a pas un TT mais une série. Ce qui les réunie c'est la capacité équivalente à -- et indifférenciable de -- celle des humains. (C'est quoi la thèse forte de Church-Turing?)

      Effacer
  13. Amélie, c'est quoi la différence entre une machine et une Machine de Turing (MT)? Une machine n'est qu'un système causal. Les avions sont des machines; les oiseaux aussi. Mais ils n'ont pas les mêmes capacités. Ce qui les réunit c'est que tous les deux font ce qu'ils font grâce à un mécanisme causal: pas de magie.

    Une MT exécute un algorithme; une MT universelle peut exécuter n'importe quel algorithme (on peut la reconfigurer avec un autre logiciel). Mais un glaçon et une MT exécutant un algorithme qui est interprétable comme représentant les propriétés d'un glaçon ne sont pas la même chose. Ce n'est que le glaçon, mais pas la MT d'un glaçon qui fond. Mais tous les. deux sont des machines.

    Les sciences cognitives cherchent à rétroingénieurier notre mécanisme causal, pour pouvoir expliquer quelle sorte de machine nous sommes.

    RépondreEffacer
  14. Ce que je retiens de ma lecture est que la pensée est réservée aux êtres pensants. Elle est un état interne non observable qui ne se traduit pas dans les performances que la machine de Turing peut générer. Le critère empirique du test de Turing étant que la performance doit être totalement indiscernable de celles d'un humain pour tous et pour toujours, on conclue donc avec certitude que la pensée ne peut être recréée ou ''vécue'' par la machine de Turing.
    Quelque part dans le texte, on différencie l'intelligence artificielle (outil de performance utile) et modélisation cognitive (qui a pour but d'expliquer comment la cognition humaine est générée). La pensée est issue de la cognition. Je crois donc qu'il est important de reconnaître que ces deux processus sont totalement indépendants.

    RépondreEffacer
    Réponses
    1. Ariane, pas tout à fait. Les êtres pensants pensent (par définition). Puisqu'il n'y a que le penseur qui sait, avec certitude cartésienne, qu'il pense, on ne peut pas être certain que les humains pensent. Mais on n'a pas besoin de la certitude; la haute probabilité suffit. Et (avant ce cours), ça suffisait pour nous. Tout ce qu'ajoute Turing ce n'est que si on ne peut pas discerner le candidat au TT des autres humains (de par sa capacité), on n'a peut pas nier (ou affirmer) concernant l'un ce qu'on ne peut pas nier (ou affirmer) concernant l'autre. C'est ça la force incontournable de l'indiscernabilité!

      Et oui, l'IA est un autre projet scientifique que la modélisation informatique de la cognition humaine, mais rien n'empêcherait à ce que les mêmes mécanismes sortent des deux projets, en tout ou en partie. [Mais reste à l'antenne pour ce qu'on apprendra la semaine prochaine, selon l'argument de Searle contre ce qu'il appelle « l'IA forte » (et ce que nous appelons « le computationisme »: la cognition n'est que du calcul].

      Effacer
    2. Alors si seul le penseur sait qu'il pense, et qu'il ne peut savoir si les autres pensent vraiment (humain ou ordinateur), le test de Turing me semble inefficace voire non pertinent? Dans le sens ou je ne peux même pas affirmer qu'un autre humain pense, pourquoi vouloir tant tester si l'ordinateur pense ? Si on ne peut même pas appliquer le critère d'indiscernabilité sur un humain (car on ne sait pas s'il pense), comment l'appliquer sur l'ordinateur?

      Effacer
    3. Ariane, revient sur Descartes: Faut-il la certitude de vérité en science? Ou est-ce que la probabilité de vérité selon les preuves observables suffit?

      Effacer
  15. Avant de déterminer si les machines peuvent penser, j’ai cherché à comprendre les différences entre ces deux éléments afin de les distinguer. Les machines ne peuvent pas voir, ressentir, parler, toucher ou éprouver une quelconque émotion. Elles sont totalement détachées des êtres, des appareils ou de quoi que ce soit les entourent. Tandis que la pensée est quelque chose d’excessivement complexe, unique et personnel. La pensée est également quelque chose de conscient, d’automatique et d’incontournable. Elle diffère d’un être à l’autre et c’est ce qui diverge grandement des machines. Avec le test de Turing, on comprend qu’il cherche à savoir si les machines peuvent réaliser ou imiter les mêmes tâches que les êtres humains. Je crois que les machines peuvent effectuer des tâches similaires aux êtres humains, mais de façon restreinte. Par exemple : envoyer des messages automatisés, répondre à des courriels, échanger sur un clavardage, etc. Mais tous les actes des intelligences artificielles sont automatisés et non pensée. De plus, même si certaines logistiques semblent être en mesure de songer, est-ce une pensée de qualité ou plutôt l’ajout d’une qualité de la pensée? Pour ma part, je crois que c’est l’ajout d’une qualité de pensée limité. Je crois que la question est beaucoup plus profonde qu’elle n’y paraît et pour répondre à la question, ça prendrait plus d’une centaine de mots, car j’ai à peine effleuré le sujet.

    RépondreEffacer
    Réponses
    1. Amélie, une question, une correction, puis un défi:

      (1) Qu'est ce qu'une machine? (Pas une machine de Turing, ce qui n'est qu'un matériel qui peut exécuter un algorithme (une recette): une machine en tant que tel.)

      (2) La rétroingénieurie ne cherche pas à imiter une capacité: Elle cherche à produire la capacité. Et c'est le succès ou l'insuccès dans ça que le Test de Turing teste.

      (3) DÉFI À TOUTE LA CLASSE: (Ceci s'adresse à tous les étudiants inscrits dans ce cours): branchez-vous sur le site https://openai.com, inscrivez-vous (c'est gratuit), et ensuite calavardez au moins au moins 30 minutes (en français) avec lui, puis revenez nous raconter si vous êtes toujours convaincu qu'un ordinateur ne pourrait jamais faire ça.)

      Effacer
    2. 1) Une machine c'est un mécanisme qui a pour but d'effectuer une tâche précise.


      3) Pour répondre au défi proposé : j'ai clavardé avec l'intelligence artificielle et j'ai posé une série de questions. Afin de voir quelles étaient ses limites et ses capacités. Premièrement, les réponses qu'ils proposaient étaient très réfléchies et rapides. Je lui ai demandé ce qu'il était en mesure de faire en tant que IA.
      J'ai eu la réponse suivante:
      Voici quelques-unes de mes capacités :
      - Répondre aux questions : Je peux fournir des réponses à des questions sur une gamme diversifiée de sujets.
      - Générer du texte : Je peux créer du texte pour des articles, des essais, des histoires, ou d'autres formes de contenu.
      - Assister à la rédaction : Je peux aider à la rédaction, à la révision ou à la reformulation de textes.
      - Traduction : Je peux aider à traduire des phrases ou des textes entre différentes langues.
      - Programmation simple : Je peux générer du code simple dans des langages de programmation courants.
      - Simulation de conversation : Je peux simuler des conversations sur divers sujets.
      - Fournir des informations générales : Je peux fournir des informations de base sur des sujets tels que la science, la technologie, l'histoire, etc.
      - Mathématiques simples : Je peux effectuer des calculs mathématiques et résoudre des problèmes mathématiques simples.
      - Jeu de rôle textuel : Je peux participer à des jeux de rôle textuels et créer des scénarios interactifs.

      C'était la première fois que je prenais le temps de clavarder avec une intelligence artificielle et je vois que c'est vraiment un outil de qualité. Puis, je lui ai demandé s’il vous connaissait. En donnant votre nom, il a été en mesure de me donner votre date de naissance, les recherches que vous avez faites auprès de l'intelligence artificielle et de la cognition, ainsi qu'aux des travaux liés à l'accès ouvert de publication scientifique.

      Petite chose intéressante liée à cette intelligence artificielle est le fait que sa dernière mise à jour date de janvier 2022. Alors, tout ce qui a été développé ultérieurement n'est pas inclus dans sa base de données.

      Effacer
    3. Amélie, une « machine » et un « mécanisme » veulent dire la même chose: un système qui agit selon la loi de la causalité, selon laquelle l'effet suit la cause, selon les lois de la mécanique classique de Newton.

      On voit la loi de cause et effet dans un tremblement de terre, une avalanche, une réaction chimique ou une partie de billard. Idem chez le développement de l'embryon à partir de la fertilisation -- et avant.

      Donc tout (sauf peut-être la mécanique quantique) est « machine ». Ce n'est qu'en langage populaire que « machine » a la connotation de quelque chose qui est construit par un humain, donc synthétique, et construit pour exécuter une tâche particulière (pour un humain).

      Bref, les organismes biologiques sont des machines, mais des machines « naturelles », construites par l'évolution biologique de Darwin (semaine 7), suivant les lois mécaniques de Newton.

      Ainsi l'objectif des sciences cognitives est d'expliquer le mécanisme cause/effet qui produit les capacités cognitives humaines.

      La question devient donc « est-ce que le mécanisme qui produit et explique les capacités de ChatGPT explique aussi les capacités cognitives humaines? »

      La question sous-jacente n'est pas « Sommes nous des machines? » mais « Quelles sortes de machines sommes nous? »

      C'est ça ce que la biologie, les sciences cognitives, et l'informatique cherchent à rétroingénieurier, es ce que le Test de Turing cherche à tester.

      Le défi ChatGPT est pour mettre à jour nos intuitions à l'effet que « une machine » ne pourrait jamais faire ceci ou cela...

      Effacer
  16. Ciello par rapport au défi du courriel.

    J'ai lu les 2 textes proposés mercredi passé. J'ai aussi discuté un peu avec ChatGPT mais pas encore 30 minutes puisque je n'ai pas compris la question dans le courriel : « revenez nous raconter si vous êtes toujours convaincu qu'un ordinateur ne pourrait jamais faire ça ». Que l'ordinateur ne pourrait faire quoi ? Il me manque cette info pour continuer l'exercice et tirer des conclusions de cette discussion.

    RépondreEffacer
    Réponses
    1. Andréane, ça ne t'as pas surpris qu'un ordinateur puisse jaser comme ça avec toi? Regarde les ciélos des autres sur la semaine 2 où elles racontent ce qu'un ordi ou un algo ne pourrait jamais faire, parce qu'il est « programmé »...

      Effacer
  17. Je trouve la fameuse question «Les machines peuvent-elles penser ?» très intéressante. Notamment, puisqu’elle introduit des débats sur ce que c’est de penser, mais aussi, car je pense que la réponse à cette question est dépendante de l’époque. En d’autres mots, une réponse appropriée il y a 10 ans ne le serait probablement plus aujourd’hui, surtout si nous prenons en compte la grande évolution des «machines». Il est toujours possible d’argumenter que les machines ne peuvent pas penser puisqu’elles utilisent des bases de données fournies par des humains. Cependant, au fur et à mesure que ces bases de données s’élargissent, les «machines» auront le choix entre plusieurs informations pour répondre à une question donnée. D’ailleurs, aujourd’hui, les machines ont accès à plus d’informations qu’un humain obtient à travers son expérience de vie. Il me semble alors que les machines devront «se questionner» sur qu’elles informations est plus pertinentes dans la résolution d’un problème demandé. Certes, elles peuvent faire des analogies entre le problème qui lui ait présenté et des problèmes similaires qu’elle a dans ses bases de donnés, mais ce principe est également vrai chez les humains. Pourtant, si une personne utilise des analogies afin de résoudre un problème donné, nous considérons tout de même cela comme une forme de pensée.

    RépondreEffacer
    Réponses
    1. Jose Franklin, as-tu déjà essayé ChatGPT? Fais-le puis reviens témoigner.

      Effacer
    2. Bonjour, j'avais déjà testé ChatGPT brièvement, mais j'ai eu l'occasion de l'utiliser réellement au cours d'un projet de recherche. J'ai utilisé ma thèse de spécialisation pour évaluer le raisonnement et la résolution de problèmes de ChatGPT. Je lui ai posé des questions sur chaque étape de ma thèse et sur ce qu'il ferait ensuite. Bien évidemment, j'avais déjà les réponses à ces questions. Il a démontré une très bonne capacité à résoudre des problèmes relativement simples (par exemple, quel test statistique utiliser), mais il a rencontré des difficultés à trouver des solutions pour des problèmes nécessitant plus de créativité. Par exemple, il a eu du mal à se questionner sur les sources possibles de problèmes dans ma thèse, ce que mon directeur avait identifié rapidement.

      Effacer
    3. Jose Franklin, oui, on remarque ça souvent avec GPT. C'est peut-être une limitation intrinsèque -- ou c'est peut-être spécifique à un entrainement particulier qu'on a fait pour assurer qu'il plaira au client, en le flattant. Ça peut aussi être que GPT n'a pas (encore) toutes les informations spécialisées de ton prof -- mais dès que ça aussi sera dans sa base de données...

      Effacer
  18. de ce que j'ai compris, la machine Turing a rejeté le T3. En effet, il précise que l'ordinateur est le seul dispositif technique éligible aux tests car il s'agit d'un système universel capable de simuler n'importe quelle machine. En conséquence, les ordinateurs peuvent également simuler des robots, par exemple T3. Cependant, ce n’est pas parce qu’un ordinateur peut tout simuler qu’il peut implémenter dans le monde réel toutes les propriétés qu’il simule. Par conséquent, omettre T3 ne démontrerait pas que les ordinateurs peuvent utiliser l’expérience sensorimotrice pour répondre à certaines questions qui nécessitent des compétences sensorimotrices. J'ai du mal à distinguer les robots des ordinateurs à certains moments. Par exemple, il me semble qu’un robot simule certains comportements comme un ordinateur lié à l’expérience sensorimotrice.

    RépondreEffacer
    Réponses
    1. Tanya, une MT ou un ordi ne fait que de manipuler les symboles en suivant des règles (algorithmes). Les mots sont des symboles. ChatGPT (un T2) manipule les mots. C'est tout ce qu'il fait. Quand tu clavarde avec lui, ses mots sont interprétables comme voulant dire quelque chose. Mais ce ne sont que des mots.

      Un robot (T3) n'est pas un ordinateur, qui ne fait que de manipuler les mots. S'il dit "le chat est sur le tapis" il peut t'amener voir le chat qui est sur le tapis. Il peut caresser le chat.

      Turing soutient qu'un ordi peut modéliser presque tout. Donc un ordi peut modéliser un robot, en manipulant des symboles. Mais les symboles dont le manipulation sont interprétables comme modélisant un robot ne sont pas un robot.

      Effacer
  19. Alexandre, faut encore réfléchir un peu. GPT n'est pas un T3 (c'est quoi?). Il ne cherche à être qu'un T2 (c'est quoi), peu importe s'il invente une bio fictive ou il dit la vérité. (Rien à voir avec Descartes, ni même le Problème des Autres Esprit.)

    Un T3 pourrait sortir et te faire une visite; un T2 ne peut que clavarder avec toi.

    RépondreEffacer
  20. Le texte explore de manière approfondie les divers aspects et implications du Test de Turing dans le contexte de la réflexion de Turing sur la capacité des machines à penser. En mettant l'accent sur la capacité de performance plutôt que sur la compréhension interne de la pensée, Turing cherche à établir des critères empiriques pour évaluer si une machine peut être considérée comme pensante. Les définitions de termes clés tels que "machine" et "penser" sont scrutées, soulignant la nécessité de clarifications pour éviter les ambiguïtés.

    L'auteur exprime des réserves quant à certaines des formulations et métaphores utilisées par Turing, critiquant notamment l'idée d'un "jeu d'imitation" et soulignant les malentendus potentiels qui pourraient découler de ces termes. Les arguments se concentrent sur la distinction entre la capacité de performance verbale et non verbale, et la nécessité d'englober toutes les facettes des capacités cognitives humaines.

    Des objections théoriques, telles que le théorème de Gödel, et des objections liées à la conscience et à d'autres capacités sont discutées en détail, offrant une analyse critique des réponses de Turing. L'auteur met également en lumière des perspectives alternatives sur la pensée des machines, suggérant que la pensée pourrait être définie par la capacité de traitement de l'information plutôt que par une compréhension subjective.

    En conclusion, le texte souligne les nuances et les défis entourant la question complexe de la pensée des machines. En explorant diverses objections et en critiquant les éléments du raisonnement de Turing, l'auteur contribue à une discussion approfondie sur la nature et les limites du Test de Turing.

    RépondreEffacer
    Réponses
    1. Andy, c'est un classique, le papier de Turing 1950. Et 2024 est l'année à tester ChatGPT, voir s'il a réussi. Fais-le et reviens partager ton avis.

      Effacer
  21. Nous sommes des machines capables de créer des machines. Nous tentons de les créer à notre image. Ce faisant, nous découvrons qui nous sommes.

    RépondreEffacer
    Réponses
    1. Josée, d'accord, mais qu'est-ce que tu as saisi du papier de Turing 1950, et la critique?

      Effacer
  22. Selon la question; les machines peuvent-elles penser? Voici ma critique par rapport au texte, les machines peuvent penser selon des datas et des algorithmes prédéfinis. Selon les informations enregistrées les machines répondent d’une façon souhaitée. La ou nous devons faire une nuance, est que les ordinateurs n’ont pas d’instinct en ce sens que dans certaines situations complètement nouvelles, ou ils n’ont enregistré aucune information qui pourrait s’appliquer dans cette situation spécifique. Les machines ne vont pas savoir comment réagir. Elles n’ont pas conscience d’un certain imaginaire collectif et ce spécifiquement dans des contextes complexes qui demandent une créativité. L’intelligence artificielle étend ses connaissances chaque jour, mais atteindre le stade cognitif d’un humain ne dépend pas seulement des connaissances intellectuelles. Comme Turing a mentionné ils seront éventuellement capables si ce n’est pas déjà le cas. Cependant il est question d’un ensemble de facteurs qui demande une considération éthique.

    RépondreEffacer
  23. La critique de Turing est vraiment interessante et j'essaie de me positionner dans son état d'esprit en suivant la suite de ses idées lorsqu'il bâtit ses arguments et je me demande; a-t-on besoin du cerveau nécessairement pour arriver à des explications des processus cognitifs ? Parce que j'ai l'impression que non mais que le cerveau est une ''inspiration'' pour le développement des futurs méthodes.

    RépondreEffacer
    Réponses
    1. Louiza, bonnes observations. Ça concerne en partie T3 vs. T4. Ça sera traité encore en Semaine 4 (la critique de Fodor). Mais entre temps, il y aura la critique de Searle (Semaine 3).

      Effacer
  24. Au cours 3, nous avons abordé « La hiérarchie des tests Turin ». Les éléments de la hiérarchie dont le T1, T2, T3, T4 et T5 ont été expliqués de manière très théorique. De ce que je comprends, « T1 (jouet) » est une machine qui peut exécuter une fonction/action particulière de l’humain. « T2 (verbal) » est une intelligence artificielle capable d’élaborer des réponses écrites. « T3 (robot) » est un robot qui interagit avec notre monde réel. « T4 (neurone) » est une machine capable de reconnaitre et réfléchir sur une problématique donnée afin de trouver une solution. « T5 (physique) » se situe dans un domaine plus poussé.
    En tant qu’hygiéniste de profession, pour mieux comprendre ces énoncés ci-dessus, j’ai comparé les éléments de « la hiérarchie de Turin » aux éléments de ma profession. Donc, je vous présente mon analogie.
    T1 = la machine à détartrer les dents
    T2 = chat GPT qui explique les maladies de gencives
    T3 = un robot qui utilise la machine à détartrer pour détartrer les dents
    T4 = un robot qui détecte les maladies de gencives et traite les gencives avec un détartrage
    T5 = un robot avec toutes les compétences d’une hygiéniste dentaire indistinguable de celle-ci

    RépondreEffacer
    Réponses
    1. Thi Thanh, d’abord, t1 devrait être en minuscules, car ce n’est qu’un jouet (“toy”) qui ne produit qu’un fragment arbitraire de la capacité cognitive. Le critère du TT est l’indiscernabilité totale d’un vrai humain.

      T2 est l’indiscernabilité totale en capacité verbale (ce qui n’est pas encore la totalité de la capacité cognitive, mais un immense défi quand-même, vue la puissance et la portée du langage (Semaines 7 à 9).)

      T3 est l’indiscernabilité totale en capacité verbale ainsi que sensori-motrice (robotique), ainsi que la cohérence totale des deux capacités.

      T4 est l’indiscernabilité totale en toutes les capacités T3 ainsi qu’en tout ce qui se fait à l’intérieur du cerveau.

      On cherche à expliquer tout ça causalement. L’hygiéniste IA ne serait qu’un outil qu’utiliserait les hygiénistes pour traiter les patients, pas pour expliquer causalement la totalité de la capacité cognitive.

      Effacer
  25. Ciélo récapitulative des cours 1 et 2 et pont avec les suivants, mes excuses je suis un peu en retard mais je rattrape.

    L’objectif des sciences cognitives est de faire la rétro-ingénierie de nos capacités cognitives. Nos capacités cognitives, c’est tout ce que l’on peut faire qui n’est pas de la nature du système nerveux périphérique autonome (que pensez-vous de délimiter la chose ainsi?). De faire la rétro-ingénierie de nos capacités mentales, c’est aussi d’être en mesure d’expliquer le mécanisme causal qui nous permet de faire ce que nous faisons.
    L’introspection échoue dans cette tâche car, l’on se rend bien vite compte qu’il ne nous est pas possible d’expliquer la causalité de nos état mentaux grâce à celle-ci.
    Le béhaviorisme aussi car, de prime abord, il ne porte aucune attention au mécanisme causale interne (est-ce dire correctement?), pour se concentrer uniquement sur les comportements observables. Ce que nous voulons, c’est expliquer le mécanisme interne causal qui permet la réalisation de ces observables.

    Notions qui font le pont entre le cours 1 et la cours 2 :
    - La notion de certitude par la vérité mathématique et la notion d’information, comme permettant la réduction de l’incertitude.
    o Ceci rejoint entièrement la notion de calcul, qui est, selon une certaine perspective, un outil logique et mathématique permettant de trouver les réponses à toutes les questions que l’on pourrait se poser ou, autrement dit, qui permettrait de réduire entièrement toute incertitude.

    Le calcul est la manipulation, par des opérations prédéfinîtes, de symboles qui sont des objets arbitraires.

    Où j'en suis en ce moment, j'ai de la difficulté à saisir la porté du calcul, à m'imaginer de quelle manière il serait possible de simuler l'univers avec celui-ci puis, à comprendre de quelle manière il pourrait générer nos capacités. Aussi, à faire le pont entre le fonctionnement de la machine de Turing puis, la calcul.

    RépondreEffacer
    Réponses
    1. Antoine, bon résumé. La portée du calcul ressemble à la portée du langage: On peut tout décrire et expliquer en mots (à condition qu'on sait). Idem pour les algorithmes.

      Effacer
    2. Merci beaucoup, j'aime cette réponse.

      Sur un autre sujet, je me penche en ce moment davantage sur le test de Turing, je me souviens de mes premières lectures en mode survol que le test de Turing est en fait un critère empirique, on veut savoir si la machine qu'on a construite tient le coup dans le test c'est-à-dire qu'elle n'est pas différentiable d'un humain. Cela dit, je ne voit pas la pertinence de ça. Ça me semble en fait une perte de temps de chercher ça. Ça me semble être une forte réduction du domaine des possibles de tenter de vouloir créer une machine de même, qui n'est pas différentiable (c'est sur ce dernier point que je buck, pour moi, on s'en fou si on remarque qu'elle est pas pareil). Mais bon, je me laisse parler un peu à l'intuitif là. Je compte lire plus les textes...

      Effacer
    3. Antoine, c'est sûr que si on veut expliquer le mécanisme qui produit une capacité il faut qu'il produise la capacité totale, pas juste un fragment: On veut un avion qui vole, pas juste un avion qui saute. Le défi est encore plus étendu avec une capacité aussi étendue que la cognition. On veut éviter les explications qui ne produisent qu'un seul fragment de la capacité, comme la capacité de jouer à l'échec, ou, notamment de faire le calcul, car il y a beaucoup de façons de produire un fragment de capacité particulière, et il est improbable que la capacité cognitive ne soit que la somme de tous ces fragments. (Il n'est pas exclu que certaines capacités cognitives soient des modules fonctionnelles indépendantes, mais même ça on ne peut pas constater que lorsqu'on a expliqué le tout, pas juste un fragment.)

      Mais tu as raison que ce n’est pas évident pourquoi le mécanisme qui est capable de produire toute la capacité cognitive humaine doit la démontrer à tel point que les humains ne peuvent pas distinguer sa performance de celle d’un humain. C’est en partie parce que la capacité à voler en air est plus facile, et nécessite beaucoup moins d’épreuves expérimentales à vérifier que la capacité à faire tout ce que peuvent faire les penseurs (problème facile). Mais c’est aussi parce que les humains ont évolué des capacités de « lecture d’esprit » (“mind-reading” — qu’on traitera en Semaine 4 sur les neurones-miroir), qui sont plus sensibles aux nuances subtiles de divergence qui sont importantes non seulement pour peaufiner l’épreuve des capacités à l’action observable, mais aussi pour détecter les corrélats de la présence ou l’absence du ressenti qui ne sont observables que par le ressenteur même..

      Effacer
    4. Merci beaucoup pour cette superbe réponse!

      Effacer
  26. Expérience discussion avec ChatGPT:
    Rapidement (dans la deuxième réponse), l'IA me répond qu'il n'a pas de perception, conscience, expérience subjective, capacité à sentir/ percevoir quoi que ce soit, opinions personnelles, etc. Peut-être est-ce moi qui posait des questions qui relevaient trop des émotions). J'ai trouvé qu'il répétait ces informations +++. Ainsi, dans mon expérience je n'ai pas du tout été trompée à savoir si je parlais à un IA ou un humain. ChatGPT a même mentionné qu'il répondait en se basant sur l'analyse du langage naturel. Je fais un lien directement avec notre cours et la hierarchie de Turing. ChatGPT est au niveau T2 (langage). C'est assez clair pour moi.
    Information autre, ChatGPT m'a mentionné à travers notre communication que son entraînement à terminé en janvier 2022. Je trouvais cela étrange, pourquoi ne pas continuer à l'entraîner constamment ? ChatGPT incapable de répondre clairement...

    RépondreEffacer
    Réponses
    1. Ariane, ChatGPT dit la vérité: il est un IA, pas une personne. Mais ce que tu dois évaluer c’est sa capacité verbale (pas sa bio personnelle, qui serait une fiction s’il ne disait pas la vérité).

      Est-ce que ce qu’ont dit les commentateurs de Turing en 1950 (ou les ciels des autres étudiants dans ce cours) concernant ce qu’une machine ne pourrais PAS faire est vrai de ChatGPT?

      (ChatGPT-3.5 est la version gratuite. La version GPT-4 est beaucoup plus performant et plus à jours; et GPT-5 le sera encore plus.)

      Effacer
  27. La machine de Turing universelle est capable de résoudre tous sortent de calculs donnés, ainsi d’analyser et d’accepter tous langage. Elle peut imiter le comportement de n’importe quelle machine de Turing, par exemple si une machine de Turing universelle reçoit en entrée un cryptage d’une machine A et des données C, elle fournit le même résultat de la machine A à laquelle on donnerait en entrée les données C. La machine de Turing universelle contient une mémoire infinie qui lui permet de stocker et de mémoriser tous donnés sans se soucier d’un déchainement de mémoire. C’est pour cela elle est considérée comme un objet de pensée.







    RépondreEffacer
    Réponses
    1. Mounira, ça c'est la semaine 1, sur ce que c'est que le calcul. (la machine de Turing). Mais cette semaine concerne le Test de Turing: C'est quoi? Et à quoi ça sert en sciences cognitives?

      Effacer
    2. Le test de Turing est un test d’intelligence artificielle qui permet de savoir si un ordinateur a la capacité de penser comme un humain. Il est basé sur un dialogue fait en ligne entre une personne qui pose des questions ouvertes à deux interlocuteurs (machine et humain) dont l’identité est anonyme et non visible aux yeux de la personne qui lance les conversations. À la fin du test, si l’interrogateur n’arrive pas à confondre entre l’être humain et la machine, cela signifie qu’il est possible d’estimer que l’intelligence de la machine est égale à celle de l’être humain.
      La question qui se pose est : est-ce que le fait qu’une machine passe le test de Turing est une preuve suffisante pour dire qu'elle est intelligente ?
      Selon Searle qui a critiqué le test de Turing en s’appuyant sur l’argument de la chambre chinoise, désapprouve l’idée que l’intelligence artificielle est possible parce que les signes ou les symboles maniés par le programme présumé L’intelligence artificielle (IA) non pas de sens d’après Searle seul l’intention net de certains humains peut faire créer le sens au contraire de la machine qui imite le comportement intentionnel. La conclusion de Searle est que le test de Turing est inadéquat parce qu’il ne peut pas faire la différence entre l’intelligence intentionnelle et l’imitation de l’intelligence intentionnelle.

      Effacer
    3. Mounira, Le TT cherche à tester le succès d’une tentative à rétroingéingénierier la capacité cognitive. Le mécanisme qui est le candidat n’est pas nécessairement un ordinateur. Searle démontre que comme mécanisme de la capacité de produire et comprendre le langage humain, un ordi (donc un algorithme) ne suffit pas. C’est quoi le « périscope » de Searle qui permet de tirer cette conclusion?

      Effacer
  28. Ryan a posé une bonne question à la fin de ma conférence jeudi matin: Il a demandé si la cause des difficultés allégués de ChatGPT avec les analogies et les métaphores pourraient provenir du fait ChatGPT n’a aucun ancrage sensori-moteur, juste les mots.

    S’il s’avère qu’en effet, ChatGPT a des difficultés particulières avec les analogies et les métaphores – soit à les comprendre, soit à les expliquer, et qu'on ne peut pas remédier ça, l'hypothèse de Ryan pourrait être correct.
     
    Pour la production (plutôt la compréhension) des analogies, c'est plus compliqué, car on pourrait dire qu'en « alignant » toutes les sources de sa base de donnée afin de causer d'une façon cohérente avec un utilisateur, ChatGPT est en train de faire beaucoup d'analogies implicitement, en traitant son immense base de données textuel.

    Quand à ne pas produire les métaphores -- il y a beaucoup d'humains qui passent le long de leurs vies sans en produire une!

    Mais, Ryan, interroge-le là dessus. Et donne lui des analogies, de plus en plus compliquées, pour tester s'il a vraiment des problèmes. Les metaphores aussi. Puis reviens et partage en ciélo ce que tu as trouvé.

    Webb, T., Holyoak, K. J., & Lu, H. (2023). Emergent analogical reasoning in large language models. Nature Human Behaviour, 7(9), 1526-1541.

    RépondreEffacer
  29. Vous avez tout à fait raison. Je crois que je me suis emballé un peu trop vite lors de mon cielo en ignorant les capacités sensorimotrices du T3. J'ai lu « capacité de performance robotique » et je me suis arrêté là, en associant cette capacité à un ordinateur comme ceux que l’on utilise tous les jours et non pas à un robot de type humanoïde. C’est une erreur de ma part.

    Pour le T2, qui est l’indiscernabilité totale de la capacité de performance verbale, il est dur de dire s’il l’atteint. Puisqu’il est possible de faire dire à chatGPT du non-sens, comme il est possible d’avoir une « conversation » comme une autre en ligne avec lui. De plus, je trouve que puisque nous savons à quoi nous avons affaire, qu’il est facile de discerner que nous parlons à une « machine » lorsque nous nous adressons à lui (chatGPT). Il serait plus facile de juger sa capacité à atteindre le T2 si nous ne savions pas d’avance que l’on s’adressait à une machine. J’ai l’impression qu’il est facile d’être biaisé dans nos réponses selon ce que nous cherchons à démontrer, comme je le suis en ce moment.

    RépondreEffacer
  30. Alexandre, oui, mais on peut quand-même sonder ses compétences verbales (spécialement GPT-4), sachant ce qu'il est, et n'est pas.

    RépondreEffacer
  31. Alexandre, j'ai la même impression (et j'utilise GPT-4, qui est plus performant que GPT-3.5). Il n'atteint pas T2, mais presque -- et certes il va plus loin que j'aurais cru possible il y a quelques années. Et il faut avouer que c'est surprenant qu'il puisse aller si loin. Je sais plus ou moins ce qui est son mécanisme, mais je trouve que ça n'explique pas un tel succès. On va en parler plus tard dans le cours. Mon hypothèse reste que c’est parce qu’il manque l’ancrage sensori-moteur du T3. Mais même parmi les trois « parrains » de cette approche à l’IA (Hinton/Bengio/LeCun) deux croient déjà que GPT comprend. Je crois aussi que son énorme base de données textuel humain constitue du trichage en ce qui concerne T2.

    RépondreEffacer
  32. Célio sur le test de turing
    En se basant base du texte, on peut dire que le test de Turing est utilisé pour évaluer les capacités des systèmes d’intelligence artificielle en matière de compréhension du langage naturel et de conversation. On peut souligner aussi le fait que le test de Turing est fréquemment utilisé pour évaluer les capacités des systèmes d’intelligence artificielle en matière de compréhension du langage et de la conversation. Dans le texte, on voit aussi que l’auteur énumère la différence entre le domaine de l’intelligence artificielle dont le but est de générer un outil de performance utile, comparé à la modélisation cognitive dont le but est d’expliquer comment la cognition humaine est générée.

    RépondreEffacer
  33. Le texte aborde divers arguments philosophiques liés au Test de Turing et à la question de savoir si les machines peuvent réellement "penser". Il explore des thèmes tels que le déterminisme, les limites des règles formelles et des calculs, la nature de la conscience, et examine des objections de différentes perspectives (mathématique, théologique, etc.). Le texte anticipe également des discussions sur l'apprentissage machine et l'intelligence artificielle.
    Un thème notable est la distinction entre la simulation de comportement et la possession de véritables capacités cognitives. Le texte soulève également le défi de définir et de comprendre la conscience, mettant en lumière le "problème difficile" de la conscience.
    Dans l'ensemble, il reflète un examen approfondi de questions philosophiques liées à l'intelligence artificielle, à la cognition et à la nature de la pensée.

    RépondreEffacer
  34. Nous avons défini la cognition comme étant le computationnalisme. Cependant, je crois que la cognition est un vaste monde de processus mentaux. Par exemple le langage ou le jugement. Deux processus mentaux qui dépend de la manière dont un être vivant perçoit, traite, enregistre et utilise les informations qu’il reçoit de son environnement. En tant que mathématicienne, je me demande '' Comment on est capable d’écrire un algorithme qui tiens compte de tous ses facteurs qui sont propre à chaque être humain? ''

    RépondreEffacer
  35. Dans le texte de Turing, l’auteur parle de la possibilité qu’un jour les ordinateurs pourront penser. On sait que le computationnalisme soutient que la conscience fonctionne de manière similaire à un système de calcul informatique. C’est-à-dire que cette théorie compare le cerveau à un ordinateur ou les processus mentaux sont vus comme des formes de calcul. Je comprends que pour définir quelque chose il faut la mettre en relation avec quelque chose que nous connaissons déjà. Je trouve que la comparaison se fait de façon très naturelle étant donné que nous n’avons pas encore atteint les limites de se que peut faire les ordinateurs tous comme notre compréhension du cerveau. Or, est-ce qu’il est possible de crée un algorithme qui peut décrire le ressenti? C’est-à-dire, est-ce qu’il est possible que la computation puisse décrire ce que l’on ressent?

    RépondreEffacer

1. Cognition = computation (calcul)?

  Ici (1a) on explique ce que c'est que la computation et le computationnelisme (cognition = computation). Mais ne  manquez pas de lire ...