lundi 18 janvier 2021

3. L'argument de la chambre chinoise de Searle

Searle, J. R., & Duyckaerts, É. (1987). Document: Esprits, cerveaux et programmesQuaderni1(1), 65-96.

Résumé : Cet article est une tentative d'explorer les conséquences de deux propositions. (1) L'intentionnalité chez les êtres humains (et les animaux) est le produit de caractéristiques causales du cerveau: certains processus cérébraux suffisent à l'intentionnalité. (2) Un programme d'ordinateur n'est jamais en soi une condition suffisante d'intentionnalité. L'argument principal de cet article vise à établir cette affirmation. La forme de l'argument est de montrer comment un agent humain pourrait implémenter le programme sans avoir toujours l'intentionnalité appropriée. Ces deux propositions ont les conséquences suivantes (3) L'explication de la façon dont le cerveau produit l'intentionnalité ne peut pas être qu'il le fait en mettant en œuvre un programme informatique. C'est une conséquence logique stricte de 1 et 2. (4) Tout mécanisme capable de produire une intentionnalité doit avoir des pouvoirs causaux égaux à ceux du cerveau. Ceci est censé être une conséquence insignifiante de 1. (5) Toute tentative de créer artificiellement une intentionnalité (IA forte) ne pourrait pas réussir simplement en concevant des programmes mais devrait dupliquer les pouvoirs causaux du cerveau humain. Cela découle de 2 et 4.

 

Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press.

Résumé : L'argument de la chambre chinoise de Searle a montré une faille fatale dans le calcul (l'idée que les états mentaux ne sont que des états de calcul) et a contribué à inaugurer l'ère de la robotique située et de l'ancrage des symboles (bien que Searle lui-même croyait que la neuroscience était le seul moyen correct d'expliquer et comprendre l'esprit).

2021: VIDÉO DU Cours 16 février










PPT 2019:


SEMAINE 3 2018






see also:

Click here --> SEARLE VIDEO

148 commentaires:

  1. Ce que je trouves fort intriguant personnellement suite au texte de John Searle :
    « En supposant qu’il soit possible de produire artificiellement une machine doté d’un système nerveux, de neurones avec dendrites et axones, et de tout le reste, qui nous ressemble suffisamment, la réponse semble évidemment devoir être encore positive. Si vous pouvez reproduire les causes avec exactitude, vous pouvez reproduire les effets. De plus il pourrait en fait être possible de produire de la conscience, de l’intentionnalité et tout le reste, en se servant de principes chimiques différents de ceux mis en œuvre chez les êtres humains. C’est là comme je l’ai dit une question empirique. » Document : Esprits, cerveaux et programmes
    [article] P.86



    Je vais un peu loin avec toutes mes questionnement, mais s’il était possible un jour ne serait-ce que de réussir à reproduire les causes et les effets avec certitudes et d’ainsi pouvoir produire de la conscience, de l’intentionnalité et tout le reste comme le dit dans son texte M. Searle, empiriquement parlant, si nous réussirions à isoler chaque composante qui fait qu’on est qui l’on est, nos axones, dendrites, système nerveux etc, et donc, notre conscience, nos intentions et tout autre procédé qui jusqu’ici nous définissait en tant que personne unique, mais qui deviendrait reproductible, omettant le fait qu’une « âme » ou qu’une entité quelconque subsiste au corps, cela réussirait-il à nous rendre par le fait même immortel?
    Il ne suffirait que de mettre cette nouvelle reproduction de Kathleen, composante par composante, en œuvre dans un système chimique adéquat à la machine dans un corps robotique et Kathleen subsisterait, car reproduite dans toutes ses détails. Sinon, qui est-ce moi que je ressens pensant? Si ce « moi » est irréproductible, il est donc la chose manquante à la machine pour pouvoir penser, non? Si mon « moi » conscient/pensant n’est que la résultante de connexions neuronales, souvenirs et autres procédés physiques et chimiques, est-il alors possible qu’un jour on réussisse à recopier parfaitement ces éléments et ainsi « transférer ou recopier ces mécanismes et composantes dans un autre corps artificiel? La reproduction serait incomplète si la machine ne peut ressentir son « moi » ou mon « moi ». Mais seule la machine pourrait expérimenter, ou pas, ce « moi » c’est ce qui est difficile a prouver, car par la suite qui saurait sauf la machine, si Kathleen a subsistée?

    RépondreEffacer
    Réponses
    1. C’est vrai que même Turing (grand) et Searle (petit) rentre un peu dans le sci-fi avec leurs spéculations concernant la sci-cog. Donc tes spéculations sont justifiées.

      Mais pour demeurer plus terre-à-terre je vais rester aussi proche que possible aux probabilités, la logique, et le peu que nous savons déjà, en posant quelques questions:

      C’est clair que ce que nous voulons dire par « l’âme », ainsi que le « moi », c’est toujours le ressenti, pas plus, pas moins.

      Et malgré le problème difficile d’expliquer le ressenti, c’est extrêmement probable que c’est le cerveau, organe matériel, qui le produit.

      Mais même deux jumeaux identiques ne sont pas identiques, en ce sens qu’ils ne sont pas le même être: Depuis la première fission cellulaire en embryogenèse ils divergent — en matériel ainsi qu'en expérience.

      Donc même si la spéculation sci-fi d’un « transfert » de toutes les propriétés pertinentes (disposition, personnalité, mémoires, ressenti) était cohérente et réalisables, il commencerait d’emblée la divergence dès le transfert: Si on faisait deux copies identiques, laquelle serait toi?

      C’est le ressenti (et le problème difficile) qui nous donnent la fausse impression que le ressenti pourrait être « immatériel », donc « immortel ».

      Du reste, la mortalité n’est pas une affaire de seuls les êtres sentients (ayant le ressenti) mais de tout être vivant. Il y des façons biologiques de prolonger la vie, en principe sans fin (certains arbres semblent capables d'aller très loin), mais un coup de chaleur ou de froid extreme ou une explosion nucléaire et voilà la fin d’un organisme biologique quand-même.

      On peut imaginer un autre univers ou ce n’est pas le cas, mais à un moment donné il faut laisser tomber les exercices de fantaisie arbitraire et revenir aux questions scientifiques dans le vrai monde (le problème facile, en l’occurrence)…

      Effacer
    2. comme réponse a la question posée antérieurement .
      "est-il alors possible qu’un jour on réussisse à recopier parfaitement ces éléments et ainsi « transférer ou recopier ces mécanismes et composantes dans un autre corps artificiel? "
      je pense la chose qui ressemble le plus a ça c'est le clonage des animaux, chez l'humant jamais fait.
      je pense qu'on est loin encore de pouvoir reproduire l'être humaine dans sa totalité dans une machine, on ne peut pas inférer ou doter de l'intentionnalité ou les principe de causalité-effet, le problème difficile de la cognition et d'autres capacités des notre cerveau et du corp, sont des exemples de ces difficultés.
      jai ou beaucoup de difficulté a comprendre cette paragraphe du deuxième article:
      il explique si on mets ensemble le computacionalisme (1) et les état mentaux (2)
      "Si nous combinons (1) et (2), nous obtenons: Les états mentaux ne sont que des implémentations indépendantes de l'implémentation de programmes informatiques. Ce n'est pas contradictoire. Le programme informatique doit être physiquement implémenté en tant que système dynamique afin de devenir l'état de calcul correspondant, mais les détails physiques de l'implémentation ne sont pas pertinents pour l'état de calcul qu'ils implémentent - sauf qu'il doit y avoir une certaine forme d'implémentation physique . Des systèmes physiques radicalement différents peuvent tous implémenter un seul et même système de calcul."
      je me perd un peu dans son explication.

      Effacer
    3. Pour une explication computationnel c'est le niveau du logiciel (l'algorithme) qui compte, pas le niveau du matériel. Il faut que le logiciel soit exécuté par un matériel, mais maints matériaux peuvent exécuter le même logiciel.

      Effacer
    4. S'il s'avérait possible de faire la rétroingénierie complète du cerveau, ce que Searle avance dans cet extrait, cela répondrait-t-il au problème difficile?

      Effacer
    5. T4 (c'est quoi?) n'est pas pénétrable par le périscope de Searle (c'est quoi?) parce que ne peut pas être purement computationnel (pourquoi?).

      Effacer
    6. T4 c'est un candidat au test de Turing qui a les capacités verbales de T2, les capacités sensorimotrices de T3 et une reproduction synthétique du système nerveux de l'humain (particularité de T4). C'est tout l'aspect bio-chimique du cerveau qui est reproduit dans T4. T3 et T4 ne sont plus purement de la computation (ce sont des modèles hybrides computation/matériel), ils ne sont donc pas pénétrables par la périscope de Searle, contrairement au T2 (purement computationnel). Si j'ai bien compris, le périscope de Searle ne peut que pénétrer les objets qui fonctionnent uniquement par computation, et donc confirmer qu'ils ne ressentent pas. Par contre, lorsqu'il est question de candidats ayant un système hybride, ceux-ci sont impénétrables par le périscope de Searle car les états mentaux et les états de calcul se chevauchent (je ne suis pas sur de ce que j'avance). On se bute donc aux problèmes des autres esprits avec T3 et T4.

      Effacer
    7. Bon résumé, Philippe. Quant à ta question originale: Puisque T4 inclut les capacités de T3 et T2, aurais-t-on besoin de T4 si on était rendu T3? D'abord, le cerveau (contrairement au coeur) ne porte pas ses fonctions sur ses manches (voir Fodor). Et il est probable qu'il y a des fonctions végétales du cerveau. Donc ( « Étienne dit » ) ce qu'il faut du T4 c'est juste les fonctions sans lesquelles on ne peut pas réussir T3. C'est T3, l'arbitre...

      Effacer
  2. Daccord, j'ai un peu de mal à rester dans le "vrai monde" comme mes ancêtres, quand je fais face à des choses encore inconnues. Je dois ajuster ça. Mais j'ai compris la notion que rien ne resterait identique lors d'un transfert, car transfert necessitant transformation en quelque sorte.

    RépondreEffacer
    Réponses
    1. Lis l'article de Turing puis l'article de Searle, puis dis ce que tu as compris (ou pas compris).

      Effacer
  3. Ciélographie 4

    Dans le texte « Esprits, cerveaux et programmes » de Searle (1987), il est dit que si l’on se fie aux suppositions de l’I.A. forte, l’esprit est au cerveau ce que le programme est au hardware, et qu’il est par ailleurs possible de comprendre l’esprit sans faire de neurophysiologie. Toutefois, je trouve cette dernière supposition bancale, car bien que l’esprit n’ait rien – ou du moins peu – à voir avec le domaine de la neurobiologie/neuroanatomie, il serait irréaliste de croire que la compréhension d’une entité aussi complexe que l’esprit soit à la portée de tous, d’autant plus que celui-ci existe en dehors de notre réalité physique. Par conséquent, sa présence semble définie différemment par tout un chacun. Ma question est la suivante : pour penser, une machine doit-elle obligatoirement être dotée d’un esprit ? Et à quelle définition doit-on nous fier pour caractériser ce dernier ?

    Hadjer Benchinoun

    RépondreEffacer
    Réponses
    1. mon opinion de lilliputien sur la question serai que oui, mais c'est quoi penser?
      Je répond oui parce que je pense que pour faire parti du monde du vivant nous faut un esprit, en résumé pour petit frère cadet pour vivre nous faut un esprit.
      penser selon moi je reste avec l'idée de science cognitif ne peux être qu'un forme de rétro-ingienerie avec ses deux types des donnes le structurel (côte conexionisme neuro...) et le fonctionnel (avec le computationalisme fonctionnel, les capacités des performance).
      selon moi les trois principes de la la loi de l'IA forte donnes dans les deuxième article, aussi bien on peu démontré sont fausses, ils décrivent bien le limites du computationalisme et défend ou accepte la théorie que la cognition est le calcul, que les état mentaux ne sont pas que de calcul et que les état mentaux sont des implémentation des programmes informatiques.

      Effacer
    2. Hadjer, en sciences cognitives l’esprit = le ressenti, donc le problème difficile.

      L’argument de Searle s’adresse à la question « est-ce vrai que que la cognition (penser) = la computation? (C’est l’hypothèse s’appelle « le computationalisme ».) Car, si oui, alors la cognition, comme la computation, est indépendante de sa réalisation matérielle — pas en se sens qu’elle ne nécessite pas une réalisation matérielle, mais en ce sens que la même computation peut être réalisée par maintes différentes implémentations matérielles, qui sont ainsi équivalentes en tant que computation. Donc les détails matériaux ne sont pas pertinents.

      Ainsi, si le computationalisme était vrai, alors le cerveau, en tant que le matériel qui produit la cognition, ne serait pas pertinent à l’explication de la cognition. Tout ce qui serait pertinent serait la computation: les règles de manipulation des symboles que réalise le cerveau.

      Mais Searle conteste le computationalisme, soulignant que si un ordinateur pouvait réussir le Test de Turing verbal (T2) il ne comprendrait pas (et ainsi ne cogniserait pas) parce que Searle (qui ne comprend pas le chinois) pourrait exécuter les mêmes computations que exécute l’ordinateur, ainsi lui aussi réussissant le T2, sans pour autant comprendre un seul mot du chinois qu’il produit.

      Cet argument dépend du fait que la computation est indépendante de sa réalisation matérielle. Searle n’est qu’une autre réalisation des mêmes computations qu’exécutatait l’ordinateur. Normalement on ne pourrait pas constater si l’ordinateur comprend, à cause du problème des autres esprits. Mais Searle sait qu’il ne comprend pas le chinois, car comprendre n’est pas juste une action verbale: c’est un ressenti.

      Ceci s'appelle la pénétration de la barrière des autres esprits par « le périscope de Searle ».

      Effacer
    3. Ochoa, l’esprit c’est le ressenti. C’est fort probable que tous les êtres humains (sauf si leurs cerveaux sont gravement dysfonctionnels) ressentent. Donc si la computation ne peut pas produire le ressenti, le computationalisme est faux. Il n’est même la solution au prblème facile.

      Mais est-ce que tu as compris l’argument de Searle? Car ce n’est pas une question d’opinion.

      De penser « que pour faire parti du monde du vivant [il] nous faut un esprit » n’est pas une question d’opinion non plus. Si tu peux expliquer pourquoi il faudrait un esprit, tu as résolu le problème difficile.

      Effacer
  4. Ciélographie 5

    Toujours selon le texte de Searle, si l’on tient compte de la réponse composite (Berkeley et Stanford), il est dit que si un robot se comporte comme un humain, on croira que ses états mentaux et que son mécanisme interne seraient semblables aux nôtres, mais puisqu’il n’est qu’un « mannequin mécanique ingénieux » ne possédant pas d’esprit, cela exclurait la possibilité qu’on lui attribue une intentionnalité. Enfin, j’ai trouvé cette lecture intéressante, mais quelque peu complexe puisque les points de vue étaient assez diversifiés. De ce fait, je n’ai pas saisi quel argument suffisamment logique permettrait d’exclure la possibilité qu’un robot ait un esprit, puisque ce dernier est défini différemment selon chaque perspective et que si l’on reprend le terme initial – « machine » à la place de « robot » -, il serait difficile de croire ces suppositions entièrement cohérentes.

    Hadjer Benchinoun

    RépondreEffacer
    Réponses
    1. Les sciences cognitives sont un sous-ensemble des sciences biologiques. On étudie les êtres vivants, humains et non humains. Les êtres vivants ont des capacités: ils marchent, ils volent, ils communiquent, ils pensent, ils ressentent. Ces capacités sont produites par leurs corps (leurs gènes et leurs systèmes nerveux). Le corps est un mécanisme causal, donc une machine. On cherche à rétroingénierier cette machine, pour expliquer comment il produit ces capacités.

      Une des hypothéses concernant ce qui serait le mécanisme qui produit la cognition est le computationalisme selon lequel la cognition se produit par la computation. Le computationalisme est la même chose que ce que Searle appelle « l’IA forte ».

      En sciences cognitives « l’esprit » veut dire la capacité à ressentir. Le ressenti consiste de toute sensation ou émotion qu’un être vivant et sentient a la capacité de ressentir.

      Mais les machines non vivantes ainsi que les machines vivantes mais pas sentientes sont beaucoup plus nombreux que les machines sentientes.

      Effacer
  5. Dans le texte de Searl, il nous explique comment il peut réussir à ‘’lire et répondre'' aux questions en chinois alors qu’il ne le comprend pas.
    De ce que j’ai compris, c’est exactement la même chose pour une machine.
    Si ici, nous parlons d’un ordinateur, celui-ci peut déchiffrer ce qu’on lui demande suite à plusieurs manipulations, mais il ne comprend pas car une machine ne peut pas comprendre, elle ne fait que réagir.
    Là où j’ai un questionnement, Searl dit que le cerveau est une machine.
    Je sais que nous en avions discuté au dernier cours de ce qu’est une machine et que le concept peut rester vague mais, à mon sens, le cerveau ne peut pas être une machine. Certes il est complexe, mais comme il est ce qui nous permet de réfléchir, bouger et agir, je le définirai plus comme étant une entité à part entière, puisque c’est lui qui détermine qui nous sommes comme être humain. Donc, si l’on va dans ce sens, je ne suis alors pas certaine de comprendre comment l’on pourrait croire qu’une machine peut réfléchir. Il a été prouvé qu’elle réagit aux données qu’elle reçoit, selon le pourquoi elle a été créée. Mais elle ne peut ni réfléchir ni comprendre par elle-même puisque c’est un atout qui nous est offert par le cerveau.

    RépondreEffacer
    Réponses
    1. Les machines ne sont que des mécanismes causaux, donc tout ce qui est vrai d’un être vivant est vrai d’une machine.

      Tout « interaction » est une interaction cause et effet, action et réaction, y compris les interactions verbales entre les locuteurs humains.

      Mais la compréhension verbale est aussi un ressenti. Ça resemble à quelque-chose de comprendre le chinois. Ça c’est peut-être une « réaction » aussi, mais une réaction très particulière, comme on verra, lorsqu’on sera rendu au « problème difficile ».

      Il faut que tu réfléchisse un peu davantage sur ce que c’est qu’une machine. Sans ça tu risque de définir une machine comme étant quelque-chose qui ne peut pas comprendre. Searle de légifère pas ça avec une définition: il le démontre dans le cas particulier d’un ordinateur qui réussit le test de Turing (T2). Il faut comprendre son argument. Il est simple.

      Effacer
    2. Oui, suite au dernier cour, je crois que je commence de plus en plus à comprendre.

      Comprendre le chinois et simplement y répondre est deux choses complètement différentes.
      Je crois que j'avais surtout de la difficulté à comprendre totalement le test de Turing puisque je croyais que le but était de créer l'intelligence artificielle parfaite. Je n'avais pas encore compris les T1,T2,T3 & T4.
      Cependant, je pense que j'ai réussi à comprendre.
      Dans ce cas, l'ordinateur réussit le test T2 mais ça ne veut pas dire qu'elle réussira les prochains tests ?

      Elle peut répondre au chinois mais ça ne veut pas dire qu'elle le comprend et encore là, il serait dur de dire si elle le comprend car la compréhension serait le T4 à ce que j'ai compris ?

      Cependant, le T4 est difficile à obtenir car on ne sait jamais si la machine nous bernes ou si elle éprouve réellement le ressenti et c'est ce qui forme le problème difficile.

      Pour ce qui est de ma vision d’une machine, je crois qu’il est temps que j’ouvre mon esprit et que j’essaye de mieux comprendre ce qu’est qu’une machine.
      De ce que j’ai compris le cerveau est la machine qui controle notre corps, donc nous sommes en quelques sortes une machine à pars entiere si je comprends bien ? seulement qu’aulieu d’être une machine créée par l’être humain, nous sommes une machine fonctionnel grâce à nos tissus épithélial, conjonctif, musculaire et nerveux.

      Effacer
    3. Réussir le T2 n'est pas juste de « répondre ». C'est de pouvoir interagir verbalement avec n'importe qui concernant n'importe quoi, comme nous le faisons maintenant.

      T4, n'étant pas purement computationnel (pourquoi?) est impénétrable par le périscope de Searle (c'est quoi?).

      Les T2 - T4 ne sont pas des tentatives de nous berner mais de rétroingénierier la cognition. Si les capacités de faire tout ce que nous sommes capables de faire sont produites par notre candidat, et rien ne distingue ce candidat de n'importe quelle autre personne ayant le ressenti, qu'est-ce qui justifierait le doute pour l'un et pas l'autre?

      Faut pas confondre le T4 avec « la réplique de la simulation computationnelle du cerveau ». (Comprends-tu la différence?)

      Effacer
  6. si selon Searl le cerveau est une machine, est-ce que cela impliquerait qu'on n'aurait pas de contrôle sur notre cerveau ? Je pense qu'on a le contrôle sur notre cerveau mais avec une certaine limite dans ce cas.

    RépondreEffacer
    Réponses
    1. « Nous » c'est notre cerveau. Tout ce que nous faisons (et que nous ressentons) est produit par nos cerveaux. Les sciences cognitives cherchent à expliquer comment et pourquoi. Lisez l'article de Searle pour apprendre si la réponse à la question « comment » est: par la computation.

      Effacer
  7. Dire que L’AI forte s’occupe de programmes me fais voir plus clair tout à coup. J’avais l’impression de mélanger ensemble machines et programme mais le premier opère selon des intentionnalité et le second selon des instructions. La différence d’intentionnalité est strictement biologique selon Searl (cela me semble approprié selon ce qu’il dit).

    Les programmes et la computation sont des sous ensemble de la cognition et la penser est en la machine si j’ai bien compris. Je trouve intéressant la réponse composite et l’effet d’illusion d’intentionnalité qui est le critère pour savoir à quoi on a affaire (programme et computation vs machine et cognition). J’ai pas d’idée autre en tête pour le moment, mais cela me semble la façon de distinguer.

    Les réponses et les questions dans l’article mon aidé a mieux saisir la situation entièrement dans ce quel implique. Mais je ne sais pas si j’ai dis une bêtise.

    RépondreEffacer
    Réponses
    1. La première phrase du deuxième paragraphe je voulais dire que la pensé est dans la programmation et donc machine ou non. Je me suis mal exprimé sur ce point, je voulais illustrer la connection de ces concepts de programme, de cognition et de penser.

      Effacer
    2. 1. Il y en a qui croyaient que la distinction entre le niveau du logiciel (programme) et du matériel (ordinateur) expliquait la différence entre l'esprit et le corps. Mais c'est incorrect. Pourquoi?

      2. « L'intentionnalité » est juste un autre mot pour le ressenti (et « l'esprit ») en autre un autre.

      3. Lis What's Wrong and Right About Searle's Chinese Room Argument? (à l'aide de Google Translate si nécessaire). Ça va expliquer les nuances importantes pour comprendre l'argument de Searle.

      Effacer
  8. Comme dans mes dernières ciélographies, je commence toujours (ou presque) en disant que j’ai quelques difficultés à les écrire au moment venu, car je tente toujours d’assimiler les nouvelles connaissances des derniers cours et dernières lectures... Tout cela pour dire que même en ayant eu aucun cours sur ce sujet auparavant, j’avais quand même des suppositions/croyances sur celui-ci.

    Par exemple, dans son texte, Searle mentionne, à un certain moment, « l’entendement ».

    « Par métaphore et par analogie, nous attribuons souvent « comprendre » et d’autres prédicats cognitifs à des voitures, des calculatrices et autres produits de la technique mais de telles attributions ne prouvent rien. […] La raison pour laquelle nous nous livrons à ces attributions est assez intéressante : elle se rapporte au fait que dans les produits de la technique nous prolongeons notre propre intentionnalité. Nos outils sont des extensions de nos buts et dès lors, nous trouvons naturel de leur attribuer métaphoriquement de l’intentionnalité […] » (Searle, Esprits, cerveaux et programmes, 1987, p.71 et 72)

    Je trouve ce passage très représentatif de ce que j’aurais pu penser auparavant. Je pense qu’il est facile de croire que ces outils peuvent « comprendre » au même degré que l’humain peut le faire. Non seulement par l’aide qu’ils nous apportent (comme la calculatrice), mais par tout le processus technique qui fait en sorte que nous pouvons penser que ceux-ci comprennent, d’une certaine façon.

    RépondreEffacer
    Réponses
    1. C'est sûr que pour des raisons biologiques et évolutives, nous percevons d'autres êtres humains, non-humains, et même des objets non vivants comme ayant le ressenti (conscience, compréhension, intentions, « esprit »).

      En partie c'est une projection, mais en partie c'est le produit d'une adaptation biologique (la lecture de l'esprit) peut-être liée aux neurones miroirs (Semaine 4) et au fait qu’il faut interagir avec d’autres organismes ayant le ressenti.

      Et c'est toujours sous la contrainte du problème des autres esprits (Je ne peux ressentir que mon propre ressenti).

      Effacer
    2. Ce passage m'a aussi marqué, de même que celui où Searle parle de l'intentionnalité que nous attribuons aux animaux. Ce sujet me fait penser à la question posée en cours la semaine dernière, à savoir si nous serions prêts à frapper notre camarde «robot» (dont j'oublie malheureusement le nom) si nous n'étions pas certain qu'il puisse ressentir la douleur…

      J’espère qu’il ne s’agit pas là d’une trop grande digression par rapport au sujet du cours mais je m’interroge par rapport au problème des autres esprits. Il me semble, à la lumière des lectures faites jusqu’à présent, que l’on ne pourra jamais réellement être convaincu du ressenti et de l'entendement des autres machines - qu'elles soient « fabriquées » ou vivantes mais non humaines - puisqu'on ne pourra jamais en faire l'expérience (sachant qu’on considère que le ressenti existe parce que, justement on ressent). Ai-je tort de penser que ce problème est difficile à contourner ? Et si oui comment est-il possible de l’exclure du vrai problème, d’en faire fi ou de dire qu’il n’est pas pertinent dans la réflexion qui nous intéresse au sujet de la cognition ?

      Effacer
    3. Oublie le terme « intentionnalité ». C'est un synonyme pour le ressenti (le ressenti de comprendre quelque-chose ou de vouloir dire quelque-chose). Demeure avec le ressenti; c'est déjà suffisamment difficile. C'est la possibilité du ressenti (de douleur) qui nous inhibe de frapper Arthur.

      Le problème des autres esprits touche non seulement les machines fabriquée par l'humain et les animaux non humain. Il touche aussi les humains (autre que soi-même).

      Et le test de Turing est basé sur le principe suivant: On n'a pas plus ou moins de cause pour le doute (concernant la présence du ressenti) dans le cas d'un (1) candidat qu'on ne peut pas distinguer (à part de tout ce qu'il fait) d'un autre humain que dans le cas (2) d'un autre humain.

      On n'a pas la certitude concernant le ressenti chez les autres humains non plus, mais si la probabilité suffit ici, elle doit suffire là aussi.

      Effacer
  9. Nous avons vu dans le dernier cours : Étienne dit que T2 ne peut être complet sans T3.
    À cela j'ai cru comprendre que T2 ne pourrait remplir parfaitement ses fonctions s'il ne disposait pas éventuellement d'un corps pour expérimenter son monde extérieur et ainsi pouvoir utiliser le language dans des circonstances adéquates.

    Peut-être que T2 finirait par être impertinent et serait ainsi démasquable, car ne sachant utiliser la symbolique des mot dans le contexte approprié, il deviendrait incohérent.

    Est-ce que c'est vraiment ce qu'Étienne voulait dire?

    RépondreEffacer
    Réponses
    1. Le langage humain (et ainsi aussi le T2) sont très puissants. On peut tout dire, tout décrire, verbalement (pour ceux qui comprennent les mots).

      Donc le défi de réussir T2 est très exigent: c'est d'avoir la capacité a communiquer verbalement à vie avec n'importe qui (comme l'a notre robot de M.I.T., Arthur).

      Mais pour comprendre les mots, il faut savoir ce qui sont leurs référents. (« zèbres » veut dire les zèbres.)

      Et il faut les capacités sensorimotrices (donc robotiques) pour faire les liens entre les mots et leurs référents (l'ancrage des symboles, Semaine 5 et 6).

      Effacer
  10. L’argument de Searle arrive à traverser le problème des autres esprits. Searle ne refuse pas l’idée que l’ordinateur comprend le chinois. Par contre, il contourne le problème en démontrant que peu importe si tel était le cas, cette compréhension n’est pas obtenue par la computation puisque Searle lui-même en utilisant l’algorithme de ce même ordinateur n’arrive pas à comprendre le chinois. Il y a un croisement entre le problème facile et le problème difficile puisque nous avons besoin de faire référence au ressenti de la compréhension pour savoir s’il y a cognition. Avec son périscope et l’argument de la chambre chinoise, Searle refuse non seulement l’idée que la computation est la cognition, mais aussi, qu’elle ne l’est même pas en partie. Est-ce possible que la computation explique une partie de la cognition? Selon moi, oui puisque le résultat (output) obtenu grâce à la computation est cohérent et est compris par autrui. La partie mécanique de la cognition qui consiste à transmettre notre compréhension par des symboles est donc en partie comprise.

    RépondreEffacer
    Réponses
    1. Tu résumes correctement l'argument de Searle et tu précises correctement là où sa portée dépasse sa prise: Il démontre que la cognition ne pourrait pas être toute de la computation mais il ne démontre pas que la cognition ne pourrait être de la computation du tout. Peux-tu expliquer pourquoi (sans lire What's Wrong and Right About Searle's Chinese Room Argument? -- mais ensuite lis ça...)

      Effacer
  11. Searle soulève à un moment une incohérence potentielle de la thèse de l’IA forte lorsque son article aborde la réponse de Berkeley et du MIT par rapport au simulateur de cerveau. Il pose le problème ainsi : l’IA est la rétro-ingénierie supposée nous faire comprendre le fonctionnement du cerveau. Or, si pour créer l’IA il faut déjà savoir comment fonctionne le cerveau, l’IA se rend d’elle-même inutile dans l’explication du fonctionnement.

    L’argument parle de lui-même mais il me permet justement d’exprimer des interrogations sur la rétro-ingénierie. Si je comprends bien, ce procédé ne peut être utilisé que pour simuler ce que nous pouvons faire, l’IA faible pourrait donc être une réponse au problème facile mais ne permet pas d’expliquer causalement la question du ressenti. Toutefois, si je comprends pourquoi la rétro-ingénierie permet de trouver une réponse au « comment », il me semble que ça ne permet pas de répondre au « pourquoi » nous pouvons faire telle ou telle chose. Que pourrions-nous utiliser pour répondre au « pourquoi » ? Ou bien est-ce la rétro-ingénierie également et quelque chose m’échappe ?

    RépondreEffacer
    Réponses
    1. Turing propose expliquer le mécanisme causal qui produit nos capacités cognitives en créant une machine qui produit ces capacités.

      Normalement si une machine produit des capacités on ne dit pas qu'elle simule les capacités mais qu'elle les produit.

      Donc s'il y avait une machine qui produisait toutes nos capacités verbales (T2), elle ne les simulerait pas, elle les produirait.

      Mais dans le cas particulier de nos capacités cognitives nous savons tous que ce qui accompagnent la production de nos capacités verbales c'est la compréhension de ce que nous disons, et ce que nous disent nos interlocuteurs. La compréhension n'est pas juste une action (problème facile) mais un ressenti (problème difficile).

      Donc dans le cas encore plus particulier d'une machine qui produirait (selon l'hypothèse du computationnalisme/IA-forte) nos capacités verbales purement en exécutant le bon algorithme (celui qui réussit le T2 en chinois), Searle démontre qu'on peut déjà dire qu'il n'y aurait pas la compréhension -- car lui-même pourrait exécuter le même algorithme sans rien comprendre. C'est le périscope de Searle.

      Ce n'est pas parce que la computation n'est qu'une « simulation » (qu'est-ce qu'une simulation?) mais parce qu'il manque quelque chose d'essentiel dans la computation. (On apprendra pourquoi et en quoi il manque quelque chose à la Semaine 5 et 6: c'est le lien entre les mots et leur référent: l'ancrage des symboles.)

      Est-ce que ça changerait quelque chose si l'algorithme qui réussissait le T2 -- « Étienne dit » qu'il ne peut pas exister un tel algorithme, à cause du problème de l'ancrage, qui nécessite les capacités sensorimotrices du T3, qui ne sont pas computationnelles mais dynamique, matérielle -- simulait aussi le système nerveux?

      Pas du tout. Ça reste purement computationnel. Un système nerveux simulé n'est que des manipulations de symboles, pas un cerveau matériel.

      Lis What's Wrong and Right About Searle's Chinese Room Argument?

      Effacer
    2. Si c'est la sémantique qui manque au T2, alors en quoi les capacités sensorimotrices du T3 permettent la sémantique des symboles?

      Effacer
    3. Philippe pour répondre à cette question il faudra lire l'article de la semaine 5 sur l'ancrage des symboles qu'Étienne a mentionné!

      Je donnerai une réponse courte d'ici là: puisque T3 a des capacités sensorimotrices, il peut ancrer dans des invariants sensorimoteurs les symboles, ce que T2 ne peut pas faire, n'étant qu'algorithmie (que manipulation de symboles).

      Effacer
    4. Les « invariants sensorimoteurs » sont les propriétés sensorimotrices qui distinguent les membres et les non membres d'une catégorie. Et « catégoriser » veut dire « faire la bonne chose avec la bonne sorte (catégorie) de chose: manger, pas manger; dénommer « vert », dénommer « pas vert »é

      Effacer
  12. Searle rejette l'IA forte, car il n'y a pas de preuves empiriques que l'esprit est indépendant de la matière et pour lui, si j'ai compris, il semble que ce serait peu probable du fait qu'alors tout pourrait être doté d'états mentaux. Ce ne serait pas ce que Descartes affirmait toutefois, car pour ce dernier, il y avait bien une substance mentale, mais non inhérentes aux propriétés effectives du cerveau (je ne suis pas certaine de comprendre ici les termes de propriétés effectives. Il me semble que ce soit elles qui soient les propriétés causales pourtant). Searle dit que nous sommes des instanciations de multiples programmes, puisque nous sommes des systèmes causaux, mais que ce n'est pas le programme qui cause la cognition, c'est le système lui-même. Aussi, un système autre qu'un "cerveau" pourrait très bien cogniser dans la mesure où les propriétés causales de la constitution de sa matière le lui permettent. Je comprends maintenant qu'il n'est pas question du "bon" algorithme, mais de la bonne matière, de la bonne substance physique comme il le dit. C'est elle qui traite "l'information" et la projette dans les inputs, transformations et outputs d'autres machines qui n'ont pas nos propriétés causales. Merci de me corriger si j'ai tord.

    RépondreEffacer
    Réponses
    1. ...me reste-t-il une chance de survivre après la mort? Sniff...

      Effacer
    2. Lire : "ce avec quoi Descartes serait possiblement en accord" dans mon ciélo ci-haut, vu qu'il est question de substance aussi pour lui.

      Effacer
    3. Je reprends ta phrase :

      "Aussi, un système autre qu'un "cerveau" pourrait très bien cogniser dans la mesure où les propriétés causales de la constitution de sa matière le lui permettent. Je comprends maintenant qu'il n'est pas question du "bon" algorithme, mais de la bonne matière, de la bonne substance physique comme il le dit. C'est elle qui traite "l'information" et la projette dans les inputs, transformations et outputs d'autres machines qui n'ont pas nos propriétés causales. Merci de me corriger si j'ai tord."

      Je crois que c'est un peu ce qu'Étienne dit quand il dit que selon lui T2 ne peut suffire sans T3.

      Effacer
    4. MélanieMalheureusement tu n'as pas saisi l'argument de Searle. Tu dis:

      « Searle rejette l'IA forte, car il n'y a pas de preuves empiriques que l'esprit est indépendant de la matière et pour lui, si j'ai compris, il semble que ce serait peu probable du fait qu'alors tout pourrait être doté d'états mentaux. »

      C'est quoi l'IA forte? Et c'est quoi l'argument des Searle contre l'IA forte?

      « Ce ne serait pas ce que Descartes affirmait toutefois, car pour ce dernier, il y avait bien une substance mentale, mais non inhérentes aux propriétés effectives du cerveau (je ne suis pas certaine de comprendre ici les termes de propriétés effectives. Il me semble que ce soit elles qui soient les propriétés causales pourtant). »

      Descartes était dualiste. Il soutenait qu'il y avait deux sorte de « substances »: matière et esprit, et que ce n'était que les humains qui avait l'esprit.

      En sciences cognitives il n'y a qu'une substance, la matière. Et le ressenti, tout autant que les actions et compétences, est produit (causé) par la matière biologique des espèces sentientes.

      « Searle dit que nous sommes des instanciations de multiples programmes, puisque nous sommes des systèmes causaux, mais que ce n'est pas le programme qui cause la cognition, c'est le système lui-même. »

      Ceci n'est pas Searle mais la « réplique du système contre l'argument de Searle. Que veut dire « système »?

      « Aussi, un système autre qu'un "cerveau" pourrait très bien cogniser dans la mesure où les propriétés causales de la constitution de sa matière le lui permettent. »

      Encore pas Searle, mais les tenants de l'Ia forte ( = le computationnalisme) qui soutiennent ça.

      « Je comprends maintenant qu'il n'est pas question du "bon" algorithme, mais de la bonne matière, de la bonne substance physique comme il le dit. »

      Searle dit que ce n'est pas un algorithme, exécuté par une Machine de Turing (ordinateur) qui produit la computation. C'est le cerveau, et le cerveau n'est pas une Machine de Turing (ordinateur) qui exécute un algorithme.

      « C'est elle qui traite "l'information" et la projette dans les inputs, transformations et outputs d'autres machines qui n'ont pas nos propriétés causales. Merci de me corriger si j'ai tord. »

      Il faut relire ce que c'est que la computation, le computationnalisme, et l'argument de Searle contre le computationnalisme. Kathleen, toi aussi!

      Svp, toutes les deux, svp soulever ces questions lors du cours mardi soir.

      Effacer
  13. « [...] à une exception très spéciale près, à savoir ce ventre mou du calcul : Car bien que nous ne puissions jamais devenir une autre entité physique que nous-mêmes, s'il existe effectivement des états mentaux qui se produisent uniquement parce que nous sommes dans le bon état de calcul, alors si nous pouvons nous mettre dans le même état de calcul que l'entité en question, nous pouvons vérifier si oui ou non les états mentaux lui sont imputés. C'est le Périscope de Searle, et un système ne peut s'en protéger qu'en ne prétendant pas être dans un état mental uniquement parce qu'il se trouve dans un état de calcul - ou en renonçant à la nature mentale de l'état de calcul, en admettant qu'il s'agit simplement d'un autre état inconscient (ou plutôt non conscient) - qui n'a rien à voir avec l'esprit.»

    J'ai du mal à comprendre cet extrait. Est-ce qu'on différencie les états mentaux des états de calcul (comme une sorte de dualité) ou sommes-nous en train de dire que les états mentaux émergent du calcul (donc que l'état mental ne serait qu'une propriété de calcul)? Lorsqu'on fait référence à un état de calcul, est-ce qu'on parle de computation? Sans «état de calcul», peut-il y avoir des états mentaux? Je comprends que le périscope de Searle nous permet de franchir la barrière normalement impénétrable des autres esprits, mais j'ai de la misère à comprendre le « comment », à me le visualiser.

    RépondreEffacer
    Réponses
    1. 1. « Le calcul » et « la computation » sont des synonymes. (Google Translate est magnifique mais pas infaillible!

      2. C'est le computationnalisme (l'Ia forte) qui soutient que les états mentaux ne sont que des états computationnels. (Ça veut dire quoi, « mental »?)

      3. Ensuite Searle dit: Bien beau, si les états mentaux ne sont que des états computationnels, alors, puisque la computation est indépendante du matériel qui l'exécute (tout matériel qui exécute le même logiciel est dans le même état computationnel), lui, Searle, pourrait jouer le rôle du matériel qui exécute le logiciel qui réussit T2 (chinois), pour ensuite introspecter si ça génère la compréhension du chinois.

      4. Mais Searle ne comprend pas le chinois en se faisant.

      5. Alors tout autre instantiation du même logiciel T2 ne comprend non plus. (Ça c'est le périscope de Searle: peux-tu expliquer ça?)

      6. Comment Searle sait-il qu'il ne comprend pas le chinois?

      7. Parce que ça ressemble à quelque chose de comprendre le chinois; la compréhension c'est un état ressenti.

      8. Et ça ressemble à autre chose de ne pas comprendre le chinois.

      9. Revenons à ce que veut dire un « état mental »:

      10. Soit ça veut dire un état ressenti -- et alors Searle a réfuté le computationnalisme: la cognition n'est pas juste de la computation parce que Searle ne comprendrait pas le chinois en exécutant le logiciel T2.

      11. Ou ça veut dire « état interne », pas nécessairement ressenti.

      12. Mais alors c'est quoi, cette la « cognition » non ressentie?

      13. Car si on lâche le critère du ressenti, la cognition pourrait se dire de la computation (ou n'importe quoi d'autre -- T3, T4) par définition.

      14. Non, malgré le fait que le problème d'expliquer le ressenti est difficile, il demeure la tâche des sciences cognitives de l'expliquer.

      15. Et ce qui n'a pas de ressenti n'a pas de cognition non plus.

      16. Le problème facile est facile, mais pas le seul défi des sciences cognitives.

      Effacer
  14. L'emploi du mot "symbole", comme étant forme et excluant le sens, dans la computation m'a beaucoup gênée autant dans l'IA forte que faible. Un symbole (re)présente à titre de substitut et exige une interprétation pour être compris. La relation au référent est totalement arbitraire et c'est pourquoi c'est un "symbole". L'argumentation de Searle est convaincante: "Aucun modèle purement formel ne suffira jamais à rendre compte de l'intentionnalité" et il remet en question l'emploi du terme symbole "Les manipulations de symboles formels n'ont par elles-mêmes aucune intentionnalité [...] elles ne sont pas des symboles, puisque ces symboles ne symbolisent rien". (p.87)

    RépondreEffacer
    Réponses
    1. « L'intentionnalité » c'est le ressenti. C'est quoi l'argument des Searle pour démontrer que la computation de suffit pas à générer le ressenti?

      Effacer
  15. Selon l’analogie de la chambre chinoise, si on peut déduire que le programme ne comprend rien aux symboles qui lui sont transmis, il comprend néanmoins les règles d'association formelles, c'est-à-dire l'algorithme, le programme, puisque Searle comprend les règles d’association qui lui sont rédigés en anglais. Cela veut-il dire que la machine a minimalement une compréhension de son programme, d'elle-même, ou cela remet-il en cause la validité de l'analogie?
    Par ailleurs, dans sa réponse aux réponses robotique et composite, Searle affirme qu’il n’y a toujours pas de compréhension dans chacun de ces exemples puisqu’on peut encore imaginer qu’il y a un homme à l’intérieur qui fasse agir le robot grâce à des symboles formels ininterprétés reçus par l’intermédiaire des récepteurs sensoriels du cerveau. Or, s'il ne reçoit que des symboles formels, c'est que les données extérieures reçues par les "organes sensoriels" du robot ne lui arrivent pas de manière brute, mais déjà transformées, interprétées en symboles. Il me semble donc qu’il y a de la compréhension, mais ailleurs.

    RépondreEffacer
    Réponses
    1. La machine n'interprète pas son programme, ne le comprend pas; elle ne fait qu'exécuter. L'algorithme réussissant T2 dans ce contexte n'est pas différent de ta calculatrice qui répond 4 lorsque tu entres 2 + 2. C'est juste qu'elle a un algorithme assez complexe pour pouvoir répondre correctement à plus de symboles!

      Dans les deux cas, ni la calculatrice ni T2 n'ont besoin de comprendre les symboles. Je dirai que la seule machine qui a minimalement une compréhension de son programme, c'est l'humain - et même là, ce n'est que de l'anasognosie, des confabulations que nous produisons pour expliquer comment nous faisons ce que nous faisons.

      Proposer qu'une machine puisse comprendre serait comme dire qu'un humain apprenant par coeur les définitions d'un dictionnaire chinois-chinois comprend le chinois (alors qu'il ne fait qu'associer la bonne chaîne de caractères à une autre).

      Par contre, où les choses me semblent moins clairs, c'est lorsque nous aurons des robots T3: à ce moment, les discussions sur la présence d'une ''compréhension minimale de son programme'' seront pertinentes.

      Effacer
    2. C'est plus clair pour la computation et T2(symboles en entrée, symboles en sortie) à cause du périscope de Searle. T3 et T4 (et T2 aussi, sauf dans le cas du computationnalisme) sont hybrides et ainsi impénétrable.

      Effacer
    3. La machine ne fait que calculer. Nous désirons tellement qu'elle nous comprennent que nous lui allouons un esprit imaginaire comme Pinocchio. Mais nous seuls humain et vivants non-humains possédons l'esprit, la sensibilité et l'humanité ou son équivalent animal.
      Bernard Mercier Cognition Mardi soir 2021

      Effacer
    4. L'argument de Searle (et le problème de l'ancrage des symboles) implique déjà que la computation seule n'est pas la cognition. Mais en principe il y a d'autres options (et possiblement pas juste biologiques).

      Effacer
  16. Ce que j’ai compris de l’article de Searle :

    L'hypothèse de l’IA forte et le computationalisme ont deux postulats : (1) les processus mentaux sont des processus de calcul et peuvent donc se rétro-ingénierier avec des programmes. Si un ordinateur programmé réussit un test tel qu’un humain le ferait, alors on peut conclure qu’il est doté d’intentionnalité. (2) “Le cerveau est à l’esprit ce qu’est le programme au hardware”, les processus cognitifs sont indépendants du cerveau.

    Searle réplique : (1) Les processus mentaux ne sont pas des processus de calcul, ils n’ont rien à voir avec de la manipulation de symboles formels, donc un programme d’ordinateur ne sera jamais suffisant pour conclure à l’intentionnalité : l’argument de la chambre chinoise nous montre en effet qu’un programme n’apporte aucune intentionnalité supplémentaire.
    (2) Les processus mentaux sont liés aux propriétés causales et biochimiques du cerveau, pour reproduire l’intentionnalité, il sera donc question de reproduire quelque chose de propre au cerveau et non de s’affranchir de cette condition ou de se limiter à reproduire les structures formelles du cerveau.

    RépondreEffacer
    Réponses
    1. 1. « L'intenionnalité » est un mot superflu. Il s'agit du ressenti. Un état non ressenti est végétatif, pas cognitif.

      2. C'est quoi l'argument de Searle pour démontrer que le computationnalisme est faux?

      3. Mais tout ce que démontre Searle c'est que même si un logiciel pouvait réussir T2, il ne cogniserait pas.

      4. Searle ne démontre pas que la cognition ne peut pas être en partie computationnelle.

      5. Et n'oublie pas T3, qui n'est pas biochimique, mais qui est immune à l'argument de Searle. (Pourquoi?)

      6. Donc le cerveau n'est pas la seule autre option.

      Effacer
    2. 1.
      J'utilisais le terme un peu de manière interchangeable avec “ressenti”, “états cognitifs”, “processus cognitifs”, “états mentaux”, comme j’ai eu l’impression que Searle le fait dans son article.
      Si “ressenti” est préféré en tout cas, je dirai “ressenti” maintenant.

      2.
      J’imagine que je l’avais mal résumé dans mon deuxième paragraphe.
      Pour démontrer que le computationnalisme est faux, Searle, avec sa chambre chinoise, parle d’un système T2 et il démontre que T2 ne cognise pas puisque si on simule T2, on a pas plus de ressentis par rapport au chinois.

      3, 4 et 5.
      Mais si j’ai bien compris, la seule chose que Searle démontre ici c’est que T2 ne cognise pas et que par ailleurs, Searle aborde la question de façon trop binaire, c’est-à-dire qu’il ne parle pas du fait qu'un système puisse être en partie computationnel et en partie cognitif.
      Donc T3 (les capacités sensorimotrices + les capacités verbales et computationnelles de T2 et T1) est immune à l’argument de Searle, parce que contrairement à T2, T3 n’est pas seulement computationnel. Searle démontre que les systèmes purement computationnels comme T2 ne cognisent pas, mais il ne dit rien à propos des systèmes qui ne sont pas seulement computationnels comme T3. Donc il ne démontre pas que T3 a ou non des ressentis : le problème des autres esprits revient avant T4 (qui est biochimique contrairement à T3, d'où le fait que le cerveau n'est pas la seule autre option j'imagine).

      Effacer
  17. Dans son article « Esprits, cerveau et programme », Searle présente l’argument de la chambre chinoise en soulevant à nouveau le problème difficile des sciences cognitives – celui du ressenti. Le fait même que Searle ne comprenne pas le chinois est expliqué par le ressenti de la compréhension. C’est par le biais de ses questions/réponses comme conclusion à son document que j’ai réussi à mieux comprendre son point principal : Oui, une machine peut penser. Oui, une machine créée par l’homme peut penser. Oui, un ordinateur digital peut penser. Or, l’instanciation d’un programme ne pourrait pas constituer par soi-même une condition suffisante de l’entendement. Voici ici toute la différence. Une machine peut penser, mais la manipulation de symboles reste limitée à ce qu’elle est : une manipulation – et rien d’autre. Les symboles que celle-ci manipule n’ont, pour elle, aucune signification –ils ne symbolisent rien du tout. « L’intentionnalité dont semble dotés les ordinateurs est seulement dans l’esprit de ceux qui les programment et les utilisent, de ceux qui font les entrées et interprètent les sorties. » C’est alors le cerveau humain qui interprète la sémantique des symboles et de la syntaxe des machines. Comment alors créer une instanciation de programmes, qui manipule des symboles tout en interprétant ses sorties ? Je crois que si j’ai bien compris l’article de Searle, tant que la question du ressenti du cerveau reste étrangère à ce dernier, nulle tentative de rétro-ingénierie ne pourrait créer des machines dotées d’intentionnalité.

    RépondreEffacer
    Réponses
    1. Penser, c'est au plus quelque chose que les humains ressentent, voir un symptome de notre anosognosie: si on s'intéresse au sens de ce qu'on pense, c'est souvent au plus des confabulations pour expliquer comment nous faisons ce que nous faisons.

      Dans ce sens, on ne peut dire qu'un algorithme passant T2 puisse penser; il faudrait qu'elle ressente pour pouvoir penser.

      Effectivement, coder l'interprétabilité par la machine n'est pas a priori possible - ce n'est qu'un incessant dictionnaire chinois-chinois duquel les machines ne peuvent se libérer.

      Il faut quelque chose de plus que manipuler des symboles pour faire la rétro-ingénierie de la cognition mais nous avons d'autres candidats avant d'en venir au problème difficile, au problème du ressenti, comme l'ancrage des symboles par exemple.

      Effacer
    2. Ne soyez pas si généreux avec le mot « penser ». Ce que Searle a démontré n'était pas qu'une machine peut penser mais elle n'a pas « l'intentionnalité ». Il a démontré que la computation seule ne génère pas le « penser » ( = la cognition ) parce qu'il y manque le ressenti.

      « Nicholas » si tu parles de l'anosognosie, il faut l''expliquer au frère cadet...

      Effacer
  18. Finalement, Searle en posant sa thèse sur l'humain comme "organisme doté d'une structure biologique qui a la capacité..." rejoint Chomsky et son concept de nature humaine/biologique et d'innéité des facultés cognitives.

    RépondreEffacer
  19. L'intentionnalité fait partie des problèmes difficiles et ne trouve pas de réponse par la simple explication causale et le calcul de la théorie computationnelle.

    RépondreEffacer
    Réponses
    1. « L'intentionnalité » n'est que le ressenti (qui, à son tour, pose le problème difficile).

      Effacer
  20. De mon point de vue, et à la suite de la lecture de l'article de Searle (en espérant que je l'ai bien compris...), il paraît tout à fait logique de distinguer computation et cognition, ce qui revient un peu (je pense) aux nuances qui existent entre le strict apprentissage et l'entendement. L'exemple tiré du jargon linguistique est pour moi très probant ; je pourrais très bien apprendre à construire quelques phrases en Swahili si on m'indiquait comment le faire (tel morphème va à tel endroit dans tel contexte, tels mots se placent dans tel ordre, etc.), mais cela ne voudra pas nécessairement dire que je comprends les phrases que je produis ; en effet, si je ne reçois aucune information sur le sens des mots, je produirai des phrases qui seront peut-être parfaitement comprises par les locuteurs de la langue mais, pour moi, ne voudront rien dire. Cela étant dit, je ne pense pas que l'on puisse exclure totalement la computation de la cognition, parce que j'ai l'impression que le « mécanisme » de la computation joue quand même un rôle majeur dans le fonctionnement de notre cerveau. Je ne suis qu’un nain (ou peut-être même un petit enfant, quand il est question de sciences cognitives), mais il me semble en effet que ce qui permet le ressenti, à la base, provient d'une « entrée » ; il me semble aussi que la machine que nous sommes produit une réponse à cette entrée. La cognition serait donc peut-être une espèce de combinaison de computation et d'un autre phénomène qui fait en sorte que l'on dégage du sens des informations que l'on reçoit. Cela dit, je reste encore vraiment perplexe pour tout ce qui concerne la question des émotions... À suivre, j'imagine !

    RépondreEffacer
    Réponses
    1. (Pardon pour la longueur de mon commentaire, je viens de voir qu'il était un peu long)

      Effacer
    2. Il y a beaucoup d'autres possibles traitements des entrées, des stimulis, des signaux, à part de la computation. C'est ce traitement qu'on cherche à rétroingénierier.

      L'exemple linguistique que tu donnes n'est que pour un fragment d'une langue. T2 c'est tout ce qu'on peut dire (à l'échelle d'Arthur). (Mais c'est un peu le même principe.)

      Effacer
  21. La chambre chinoise de Searle:
    L’homme de la pièce chinoise donne l'impression de ne pas comprendre le chinois, cependant il simule, et rien de plus.
    Mais une simulation faite par un programme beaucoup plus complexe pourrait-elle mener à un programme qui comprenne réellement quelque chose en simulant?
    Searle démontre que même si un programme pouvait réussir T2, cela ne peut pas générer la compréhension.
    Par exemple, lorsque je lis une histoire à mes enfants, je dois d’abord procéder à un décryptage des symboles se trouvant dans le livre, autrement dit analyser les regroupements de lettres qui forment des mots pour ensuite former des phrases.
    Puisque cet exercice ne se résume qu’à une manipulation de symboles, il s’agit de ce fait de la computation et c’est ce que nous devons tous faire lorsque nous souhaitons comprendre un propos.
    Ainsi, selon Searle, un ordinateur ne peut pas penser, car il ne comprend pas le sens de ce qu'il fait. L'ordinateur peut reproduire le comportement verbal de l'être humain, mais néanmoins il ne comprend pas pour autant ce qu'il raconte tout comme pourrait le faire un être humain.
    En supposant que l'on parle d'un ordinateur digital, et qu'il soit capable de de produire artificiellement, celle-ci doit être doté d'un système nerveux, de neurones, et out ce qui nous ressembles suffisamment, alors la réponse sera vraisemblablement positive.
    Mais là où il fait le discernement c'est qu'il ne comprend toujours rien au chinois, qu'il répond machinalement comme l'ordinateur en suivant des consignes et un programme soit de la computation, contrairement à l'anglais qu'il répond avec discernement.
    Donc il réussirait le test de Turing dans les deux cas, sans comprendre absolument rien du chinois.
    Pour que l'ordinateur, soit intelligence artificielle, approche des capacités cognitives de l'homme il devrait: Penser et comprendre.

    RépondreEffacer
    Réponses
    1. Comprendre, c'est cogniser. Peut importe ce qu'on fait avec les mots, si on ne les comprend pas, ce n'est pas la cognition.

      Effacer
  22. Searle affirme que le computationnalisme n'est pas la cognition. Il en est une partie seulement.
    Pour le volet matériel, il oriente son index vers l'étude du cerveau, soit les neurosciences.
    Toutefois, sur la hiérarchie des tests de Turing, je me posais la question sur les inputs possibles requis pour chaque niveau de test. Je vais essayer de répondre pour les premiers:
    Si pour le t1 (pourquoi est0il écrit en minuscule d'ailleurs ?), il faut des chiffres et des lettres. Pour le T2, il fait le t1 et des mots.
    Pour le T3, il faut les précédents, plus les composantes des sens humains (toucher, vue, ouïe, etc.)
    qu'en est-il du T4 et du T5 ?
    Merci

    RépondreEffacer
    Réponses
    1. Les niveaux s'englobent les uns les autres, c'est-à-dire que T3 a les capacités de T2 ou T1, pas qu'il ''les fait'' comme tu as écrit.

      Les inputs pour T3-T4-T5 sont les mêmes que pour toi et moi. Tu as vu Arthurau dernier cours et je ne pense pas que tu doutes qu'il utilise d'autres modalités sensorielles que toi, bien qu'il soit un T3 produit chez Boston Dynamics.

      t1: il s'agit d'un jouet, d'une capacité humaine choisie arbitrairement, dont on fait la rétro-ingénierie de sorte à la recréer dans une machine ou un algorithme. Par exemple, un robot qui peut marcher comme nous ou un algorithme qui peut jouer aux échecs.

      T2: Purement conversationnel. Les inputs/outputs seraient effectivement ''textuelles''.

      T3: Il s'agit d'Arthur.

      T4: La barrière entre T3 et T4 est floue: il sera question de la quantité de solution possible à T3. Par exemple, T4 pourrait avoir une efficacité énergétique similaire à la notre et employer la bio-électricité; mais ce sont des considérations sci-fi pour le moment puisqu'on ne sait pas à quel point est sous/sur-déterminé T3.

      T5: Il s'agit d'une re-création molécule par molécule, atome par atome. Ce n'est pas du clonage: cloner n'est pas rétro-ingénieuré. Il faut imaginer avoir rétro-ingénieurer l'humain au point de pouvoir le recréer atome par atome.

      Désolé du ton précipité de ma ciélo, elle n'a pas enregistré correctement la première fois donc j'ai du la ré-écrire rapidement de mémoire (ce pourquoi je vous conseille d'écrire vos ciélos dans un fichier texte PUIS de les post).

      Effacer
  23. En fait, j’étais en train de lire votre texte Étienne, et cette théorie du computationnalisme m’a fait réfléchir. Elle semble concevoir l’esprit, le mental, comme quelque chose d’éthéré, purement intellectuel et abstrait. L’idée d’être capable de rétro-ingéniérer l’esprit et de le reproduire lui et ses capacités de manière qu’il soit indistinguable d’un vrai humain me semble poser problème si on l’envisage comme la réussite de T2 ou de T3. L’esprit humain est forcément défini dans une large mesure et contraint par nos différents besoins : besoin de manger, de bouger, d’aimer, d’être aimé, d’avoir du plaisir, de la satisfaction, de comprendre son environnement, etc. Tant qu’on ne pourra pas inculquer tous ces besoins sous un mode de nécessité vitale à un robot, on ne pourra espérer produire un esprit semblable au nôtre.

    RépondreEffacer
    Réponses
    1. Ça se peut que certaines fonctions végétatives seront nécessaires pour générer la cognition, mais lesquelles? et pourquoi?

      Mais la compréhension des mots est déjà plus que juste la computation, comme démontre Searle.

      Effacer
  24. Si je comprends bien la thèse forte c’est qu’une machine qui est bien programmé serait en mesure de comprendre ce qu’elle fait. De l’autre côté, la thèse faible voudrait dire qu’un ordinateur pourrait stimuler la pensée sans toutefois avoir une compréhension de la chose tel la calculatrice. Ce qui m’emmène à me demandais, si un ordinateur qui serait bien programmé ne correspondrait pas un esprit en quelque sorte.

    RépondreEffacer
    Réponses
    1. Il y la thèse faible de Church/Turing
      puis la thèse faible de Church/Turing
      puis l'IA faible
      puis l'IA forte
      Explique les ou cherche dans mes répliques pour ces mots clé.
      Puis qu'est-ce que la computation? (le calcul)
      Et le computationnalisme?

      Effacer
  25. j'ai compris que d'après Searl, l'esprit est la convergence de processus immatériels mais peut être simulé si l'on s'intéresse à la cognition et qu'on considère que c'est un ensemble d'opérations mentales (dont la computation), régies par des processus cérébraux eux-mêmes orientés par une intentionnalité (même non humaine).
    Toutefois, il conclut que la question est plutôt d'envisager le cerveau comme une machine pour répondre à la question "est-ce qu'une machine peut penser?" plutôt que de chercher à simuler une cognition. L'I.A. forte n'est donc pas si intéressante dans cette optique.

    RépondreEffacer
    Réponses
    1. Peux-tu répondre aux questions que je viens de poser à Mélyna?

      Et dans cette optique, que dit l'argument de Searle?

      Effacer
    2. J'entends que la thèse faible de church/turing est que la cognition est de la computation. Les hommes, quand ils cognisent, font donc de la computation.
      -la thèse forte maintenant de church/turing est que tout se qui se trouve dans le monde matériel peut se modéliser/être simulé par la computation.
      L'IA faible, c'est le postulat que la cognition est du calcul; l'IA forte présuppose que la computation est de la cognition et que dès lors, on peut expliquer la cognition par la computation (uniquement).
      La computation est la manipulation de symbols suivant des règles régies par un système pouvant être capable de passer d'un état à un autre. L'algoritme est implanté dans le système mais indépendant de ce dernier/de cette matière. La computation ne se sert pas du sens, elle exécute les calculs sans compréhension, sans ressenti et sans intentionnalité propre, elle est purement syntaxique.
      Le computationnalisme est la mise en pratique de la computation pour tenter d'expliquer la cognition. Le computationnalisme part donc du principe que la cognition est de la computation et qu'il est possible de générer de la cognition par ce moyen.

      Dans le texte, l'argument de Searl s'oppose à cette idée du computationnalisme. Pour lui, le calcul/la computation ne peut expliquer à lui seul la cognition car le computationalisme n'engendre aucune compréhension sous-jacente ou extérieure à la manipulation des symbols, donc aucun sens intrinsèque aux symbols.

      Effacer
    3. C/T faible est: maths = computation = Machine de Turing

      C/T forte = Ia faible

      Ia forte = computationnalisme: cognition = computation

      Effacer
  26. So from the question you have posted we are exploring the area where Searle is right and wrong in regard to his CRA affirmations. So basically going back onto searle actual test he is testing the syntax and the semantics with the perspective of how the brain is computable. He is right on a few things such as:
    -executing a program cannot be all there is to being an understanding system. Which also shows that the CRA is not a proof, nor is the TT, but still the most and only plausible prediction so far. Therefore, an inert program alone cannot understand anything
    Searle is to blame for the creation of a confusion in regards to the wording use. His ' strong AI' argument that the mind is a computer program (1), that the brain is irrelevant(2) and that the TT is decisive could all be valid even if the CRA was valid, which is not entirely. The first strong AI argument is computalism, which is the theory that cognition is computation, therefore a mental state is a computational state. Searle should have worded as such instead a mental states is an implantation of the right or proper computer program. The use of those word would have ease the confusion. His second argument was also problematic and confusing, computational states are an implementation independent like a software is hardware independent. Plus, the first and second strong AI should have been implanted as a dynamical system to be a computation states. His third strong IA ended up being incomplete, decisive is a very strong word and is definitely irrevocable, simply saying the TT is the best that can be achieved/done, would have made it more precise. The example of the duck for the reverse engineering and the fact that the duck cannot be more or less structural and/or functional than a duck. Which shows the total functional distinguishability between the reverse-engineered candidate and the real one.
    The main issue that I see is the fact that its has multiple ways to explain it, in other words Searles' CRA is underdetermined.

    The most interesting thing about Searles CRA is the fact that it brought new questioning regarding embodied cognition and situated robotics.

    I will conclude by saying the Searle CRA if computation alone is taken into count will only pass T2, the pen-pal test.

    P.S: Thank you Etienne for the multiple English writings and videos. It is very much appreciated. Although, I don't necessarily get everything, it makes much more sense now.

    RépondreEffacer
    Réponses
    1. "how the brain is computable"

      Est-ce que le cerveau fait de la computation

      "an inert program alone cannot understand anything"

      Il faut qu'un logiciel soit exécuté

      "the mind is a computer program"

      la cognition = la computation

      "the brain is irrelevant"

      le logiciel est indépendant du matériel (mais est-ce que la cognition n'est que de la computation?

      "TT is decisive"

      Turing a proposé le critère

      "CRA is underdetermined"

      C'est le TT qui est sous-déterminé

      "embodied cognition and situated robotics"

      Le problème de l'ancrage des symboles

      Effacer
    2. Je me demandais ce que tu t'attend de moi, comme reponse. je dois repondre a tes questionnements? Nicolas m'avait parler de faire deux cielo comme il est difficile d'interagir en classe, encore la que sont tes attentes, une reexplication ?
      Merci

      Effacer
    3. Bianca, fais comme les autres: explique, questionne, élabore.

      Effacer
  27. • Suite à la lecture des deux articles ainsi ce qu’on a vu en cours, il m’est encore difficile de comprendre comment on peu supposer un traitement du langage naturel d’un point de vue strictement syntaxique, en excluant l’aspect dit sémantique, qui semble ici également inclure la pragmatique. Searle et son argument de la chambre chinoise ne répondent qu’à l’I.A. forte (le computationnalisme), mais semblent laisser intacte l’I.A. faible (ou la thèse Church/Turing forte) qui suppose qu’il est possible de modéliser avec la manipulation de symbole (la syntaxe) tout ce qu’il y a dans l’univers. Or, pour répondre à une question de compréhension pragmatique, comme de demander si l’homme au burger calciné a mangé ce burger, n’est-il pas fondamental d’avoir une réelle compréhension, un « entendement authentique », de l’histoire? Comment peut-on supposer qu’un algorithme soit en mesure de traiter une information, ou même un symbole, qui nulle part ne figure formellement dans l’histoire? Ce qui lie « hamburger » et « manger » n’est-il pas exclusivement sémantique, puisqu’il est syntaxiquement tout à fait correct de dire « il mange une vis » ou « il visse un burger » ? Peut-être est-ce moi qui cerne mal ce qu’implique la thèse forte de Church/Turing?

    RépondreEffacer
    Réponses
    1. Oui, la syntaxe ne suffit ni pour la sémantique ni pour la compréhension. (Pourquoi pas?)

      La thèse C/T forte n'est pas spécifique aux sciences cognitives. As-tu raison de croire qu'on ne peut pas modéliser (presque) tout par la computation? Est-ce qu'on ne peut pas décrire (presque) tout en mots?
      (C'est quoi la modélisation?)

      Qu'est-ce qu'un « entendement authentique » ("original intentionality")?

      Effacer
    2. Oui, je comprends bien comment l'argument de la chambre chinoise de Searle met justement en lumière que la manipulation de symbole seule n'est pas réellement de la compréhension, aussi convaincante soit-elle, donc que la cognition ne peut se réduire à la computation. Ce que je me demandais plutôt, c'est comment on peut supposer que par computation seule, sans réelle compréhension (sans le sens, sans la sémantique), la machine de Schank, par exemple, pourrait être en mesure de répondre à si l'homme à manger ou pas. Bien que le CRA soit théoriquement bien intéressant, il me semble relativement superflu de démontrer qu'une telle machine n'a pas réellement une compréhension s'il m'est tout à fait inconcevable qu'une telle machine puisse répondre correctement à une question qui semble de nature fondamentalement sémantique.

      La modélisation, de ce que j'ai compris, c'est, par ingénierie inverse d'un phénomène, pouvoir en faire une explication causale et un modèle reproductible. Ainsi, à la lumière de mon questionnement plus haut, je vois comment on pourrait imaginer une telle modélisation pour les sciences naturelles, mais moins pour des phénomènes qui sont propres à la cognition, comme le langage. Donc, non seulement, comme l'explique Searle, la computation ne serait pas de la cognition, mais je crois que la computation ne pourrait même pas feindre de reproduire le résultat de la cognition.

      L'entendement authentique, de ce que j'en ai compris, c'est l'entendement ou la compréhension propre à la cognition, qui serait un fait du ressenti. Searle aurait un entendement authentique de l'anglais, et dans une moindre mesure de l'allemand, mais "la compréhension" que l'on projette sur une calculatrice ne serait, en réalité, pas de l'entendement du tout.

      Effacer
    3. (« Étienne dit » que ce n'est que T3 ou T4 qui peuvent réussir T2, donc la computation seule ne suffit pas.)

      Je n'ai pas saisi pourquoi tu penses que le fait que la cognition ne pourrait pas être juste de la computation (computationnalisme) implique que la computation ne peut pas modéliser la cognition (Thèse forte de Church/Turing).

      Oui, « l'entendement » (« l'intentionalité ») n'est que le ressenti.

      Effacer
  28. En prenant compte de la complexité du texte Document: Esprits, cerveaux et programmes et qu’aucun ciélo (du moins pas explicitement) décrit ce qu’est l’expérience de la chambre chinoise de Searl, le texte qui suit tentera de s’adresser à un frère/soeur-cadet qui chercherait à comprendre. L’expérience proposée par Searl nous propose d’imaginer un être humain cloîtré dans une chambre avec seul contact de l’extérieur; une petite fenêtre. À partir de cette fenêtre il recevra des papiers de l’extérieur (input/entrée), qui seront composés essentiellement de symboles chinois et qu’il tentera de déchiffrer à l’aide d’un livre traitant des règles chinoises. Ce livre lui permettra de répondre adéquatement, comme le ferait un locuteur chinois, mais sans toutefois comprendre l’exactitude de ses réponses. Il y a donc dans cette manipulation des symboles une absence de compréhension et d’entendement. Un traitement de l’information, qui pour Searl, représente la réalité d’un ordinateur. Mais qu’est ce que tout ça signifie ? Eh bien, toujours selon Searl, dépourvus d’entendement un programme d’ordinateur ne peut équivaloir la complexité du mental : l’esprit est une machine sémantique (le sens et la signification des choses) tandis que l’ordinateur est une machine syntaxique (la forme et le support de la sémantique). Ainsi bien que l'ordinateur répondra correctement à la question 2 + 2 = 4, il ne saura comprendre ce que 4 représente. Même chose dans le cas de la chambre chinoise, bien que le sujet répond correctement aux entrées, il y a absence de compréhension dans ce qu’il répond.

    Je suis consciente de la simplicité de ce résumé et qu’il y aurait beaucoup plus à dire, mais étant donné qu’il faut respecter un certain nombre de mots j’y suis allez avec ce que je croyais essentiel.

    Maintenant, en laissant de côté le frère/soeur-cadet, en faisant des recherches sur le sujet, je suis tombé sur une question qui m’a semblé intéressante à soulever et dont je ne prends aucunement le crédit.
    En quoi des processus neuraux seraient-ils plus sensibles à la signification et au contenu représentationnel que des processus de computation ? Comment la compréhension, la signification, l’intentionnalité pourraient-elles émerger des molécules et des cellules plutôt que d’une suite binaire de 0 et de 1 ? (Récupéré de : https://www.francoisloth.com/la-chambre-chinoise-de-john-searle/)

    RépondreEffacer
    Réponses
    1. C'est une très bonne explication frère/soeur cadette (kid sib en anglais, sibling étant neutre) de ce qu'est l'argument de la chambre chinoise de Searle.

      Le seul hic je dirai, c'est lorsque tu parles d'une machine sémantique par opposition à une machine syntaxique.

      Le noeud de l'argument (comme Étienne l'a mieux expliqué que moi en réponse à d'autres ciélographies), c'est que ''it feels like something to understand a language'' et que Searle, implémentant physiquement T2, ne ressent pas qu'il comprend le chinois mais qu'il ne fait que manipuler les symboles selon les règles dans un livre comme tu as expliqué.

      Tu proposes donc que nous un possédons un esprit qui est une machine sémantique qui comprend le sens et la signification des choses.

      Une des question du cours, c'est pourquoi et comment nous comprennons le sens et la signification des choses, et en quoi cette chose est plus que de la computation. Donc d'après toi, que faisons-nous de plus que T2 pour y parvenir?

      Une piste c'est le problème de l'ancrage des symboles dont il sera sujet à la semaine 5. Pour ne pas trop s'éloigner de la Chambre Chinoise, s'il n'y avait pas de problème de l'ancrage des symboles, nous pourrions apprendre le chinois à l'aide d'un dictionnaire chinois-chinois ou d'un livre imaginaire contenant les règles du mandarins comme dans l'Argument de la Chambre Chinoise.

      Effacer
    2. Searle ne déchiffre pas. Il manipule les symboles d'après un algorithme.

      2 + 2 = 4 est résoluable purement syntaxiquement.

      Et si tel était le cas pour le T2?

      Searle ne dit pas comment le cerveau génère la compréhension. Mais il dit que ce n'est qu'en étudiant le cerveau qu'on va l'apprendre.

      A-t-il raison? (La semaine 4 va toucher cette question.

      Effacer
    3. Nicolas, ce que je voulais dire par « l'esprit est une machine sémantique », c'est que l'humain, contrairement au robot possède une capacité de compréhension. Donc il réussit, non seulement à répondre 4 (par exemple) mais il comprend pourquoi la réponse est 4.

      pour répondre à ta question : que faisons-nous de plus que T2 pour y parvenir?

      Je ne sais vraiment pas.. C'est encore très flou !

      Effacer
  29. Si on compare l'argument de la chambre chinoise à une discussion avec quelqu'un qui ne répond qu'avec du sarcasme ou des métaphore , on peut répondre dans son contexte mais pas nécessairement répondre correctement avec le problème difficile du ressentit ? ça s'applique pas juste au différence de symbole si je comprend bien ?

    RépondreEffacer
    Réponses
    1. Searle dans son argument de la Chambre Chinoise pourrait parfaitement répondre à des sarcasmes et à des métaphores en chinois, puisque T2 reproduit totalement la capacité des humains à communiquer verbalement.

      De plus, les humains ne saisissent pas les sarcasmes souvent eux-mêmes (sans parler des figures de style) mais on ne remet pas leur humanité en doute: ils passent le test de Turing.

      Que veux-tu dire par répondre avec le problème difficile?

      Effacer
  30. ciélo:

    i think that Searl's chinese room is a pertinent experiment. Anyone could do "coding", simply following a set of instructions. And this brings out great question as to; if the computer is simply following instructions it isn't really thinking is it? But then again what is our mind doing? Isn't it exactly the same thing; following a set of instructions.

    RépondreEffacer
    Réponses
    1. Est-ce que l'argument de Searle, pourrait-être le fait que lui n'a pas été en mesure de ressentir qu'il comprenait ce qu'il faisait, alors la machine elle non plus, ne peut pas comprendre ?

      Effacer
    2. l'argument de Searl est que la cognition n'est pas de la computation. Que c'est plus que cela et c'est pour cela qu'avec son expérience de la chambre chinoise, il croit l'avoir clarifier.

      Effacer
    3. Mélyna, oui c'est ça. Et c'est quoi, le périscope de Searle, et son rôle dans l'argument?

      Nora, ça c'est la conclusion de Searle, pas l'argment.

      Effacer
  31. Avec cet argument contre la thèse forte du computationalisme qui dit que la cognition n'est que du calcul, Searle démontre que cet thèse est erronée. Ceci est prouvé à l'aide de l'exemple de la chambre chinoise qui explique fondamentalement que le calcul ne nécessite pas la compréhension de la valeur des symboles du calcul. En d'autres mots, il est possible de savoir comment manipuler des symboles correctement sans comprendre le sens des symboles manipulés. C'est pourquoi l'on dit qu'une machine n'est pas intelligente, elle ne fait que répondre à nos commandements. Suite à cela, la question de la cognition reste sans réponse ; qu'est-ce que la cognition? La réponse à cette question sera nécessaire pour pouvoir faire la rétro-ingénierie de l'intelligence. Jusqu'alors nous n'aurons que des robots qui calculent et non qui pensent. Dans cette optique, le terme "intelligence artificielle" ne serait-il pas fautif si nous ne parlons que de calcul et non d'intelligence?

    RépondreEffacer
    Réponses
    1. c'est quoi l'argument de Searle?

      Effacer
    2. L'argument de Searle est que le calcul n'est que de la manipulation de symboles, et donc que la cognition n'est pas impliquée dans ce processus.

      Effacer
    3. Et comment est-ce qu'il démontre ça?

      Effacer
    4. Selon l'argument de Searle, les machines manipulent des symboles formels ininterprétés. L'expérience de la chambre chinoise représente une instanciation du programme d'un ordinateur par un humain. Lorsqu'une personne anglophone manipule des symboles en anglais, elle manipule avec compréhension et interprétation. Lorsqu'elle manipule des symboles en chinois, elle manipule sans comprendre et sans interpréter, de la même manière que le fait un ordinateur. L'expérience démontre que l'ordinateur de Schank, malgré ses bonnes réponses aux histoires, n'est pas censé comprendre quoi que ce soit d'aucune histoire, car pour l'exemple de la chambre chinoise, une personne ne comprenant rien aux Chinois pourrait, avec un bon programme, produire des phrases d'un mandarin impeccable. Alors, l'argument évoque que l'ordinateur ne comprend rien, mais également, que ses algorithmes n'expliquent aucunement quoi que se soit sur l'entendement humain. De la même manière qu'une personne peut suivre des principes formels qu'elle comprend, elle pourrait, comme un ordinateur, suivre des principes formels qu'elle ne comprend pas. L'expérience suggère ainsi qu'il n'y a peut être pas suffisamment d'interaction concrète entre l'entendement humain et la machine, dans ce cadre, pour expliquer quoi que se soit sur l'entendement même.

      Effacer
  32. selon searle il y a le script (quoi faire après une série de transtion sur le ruban de la machine de turing selon l'algoritme), l'histoire (l'ensemble des transition influencé par l'algorithme dans un ordre préçis) et la question (le choix que doit prendre la machine de turing pour donner une réponse faisant un rapport entre le script et l'histoire) mais ça implique une faille dans l'absence de connaissance du "script". Comme dans la référence au restaurant ?

    RépondreEffacer
    Réponses
    1. Les scripts c'est vieux jeu. Ce qui est pertinent c'est la capacité (totale) T2 et un logiciel qui réussit T2 (à vie).






      Effacer
  33. J'étudie le langage non-verbal depuis plus d'un an, et ça soulève des questions sur le T2 de Turing et la Chambre chinoise de Searl. Je crois que le ressenti devrait aussi exister dans l'output; dans une interaction, on peut avoir du sourire dans la voix, de la tristesse, différentes intonations qui révèlent notre état d'esprit (ressenti). Ces nuances dans la voix, influencent l'échange. Sans le ressenti, l'interaction avec une machine qui ne fait que la computation ne pourrait jamais réussir T2, selon moi. Ça sonnerait faux, non?

    RépondreEffacer
    Réponses
    1. Oui le cadre expressif du langage vocal (ainsi que gestuel) est important, mais on peut communiquer le long d'une view en écrit, et c'est déjà une cible suffisante pour le T2. (Je dirais que les modalités non verbales rentreraient plutôt dans le T3.)

      Effacer
    2. Zut! j'oubliais que T2 n'étais que par écrit. Je comprends donc, que même l'expression de nos états émotionnels par écrit ne permettent pas de disqualifier le T2.

      Effacer
  34. Dans le cours d'hier, vous avez utilisé la recette comme exemple, pour expliquer la thèse forte de Church/Turing (ou l'IA faible de Searl), qui stipule qu'on peut créer/modéliser presque tout dans l'univers avec la machine de Turing universelle. Par contre, je ne comprends pas pourquoi vous n'utilisiez pas les ingrédients. Pour modéliser la recette ne faut-il pas tous les ingrédients? Ou est-ce que les ingrédients représentent le ressenti, dans votre exemple?

    RépondreEffacer
    Réponses
    1. La computation c'est juste les symboles. Les ingrédients du gâteaux sont l'objet (et les actions) auxquels réfèrent les symboles. Si on parle français on peut interpreter les mots de la recette, si non, non. L'interprétation n'est pas de la computation, ni en maths, ni en modélisation/simulation.

      Effacer
    2. D'accord, oui... La forme (recette) et non le sens (ingrédients).

      Effacer
  35. La force de l'argument de Searle, c'est qu'il démontre que pour deux machines qui exécutent les mêmes instructions sur les mêmes symboles dans le même odre d'exécution, les deux computent, mais pour Searle, cela ne lui apporte rien de plus. Dès lors, la cognition ne peut pas n'être que de la computation et la computation peut être part de la cognition, car nul part il n'infime cela. Le "périscope de Searl" n'a de sens que dans le contexte du computationnalisme.

    RépondreEffacer
  36. "Le T2 est extrêmement puissant". Il n'y a pas d'ordre chronologique de "puissance de test" entre T2 et T4. Le test de Turing représente un échange verbal, conceptualisé alors comme un échange verbal écrit. Le T3, est toujours un échange verbal, mais alors il se fait depuis une machine qui compute ET qui interagit avec son environnement. Le T4 lui compute, interagit avec son environnement, et, en plus de fontionner à l'électricité, il intègre à son fonctionnement des éléments biochimiques supportés par un matériel fabriqué par l'homme, car ce que nous faisons ici, c'est de la rétroingénierie. T5 serait un être humain, mais fabriqué par l'homme sans processus de clonage.

    RépondreEffacer
    Réponses
    1. Ce que je comprends, c'est que le TT, aujourd'hui, peut être exécuté par écrit ou verbalement, "le long d'une vie", c'est-à-dire que la machine rétroingénierée se comporte verbalement comme un être humain. C'est ça pour moi le TT. Mais comme nous cherchons à fabriquer une machine qui fait tout ce que nous faisons grâce à la cognition, il faut qu'elle soit un robot de sorte à ce que le comportement vérifie aussi cette "cognition"

      Effacer
    2. Je met "cognition" entre parenthèses, car en chemin vers la rétroingénierie "complète", nous réduisons l'incertitude jusqu'à ce que les probabilités soient suffisante pour affirmer qu'il est question de cognition (dans le cadre du problème facile, ie que la machine fait tout ce que nous faisons et nous savons dès lors comment)

      Effacer
  37. ...pardon, je réalise que j'ai écrit que T3 et T4 computent. Je rectifie que l'interaction avec l'environnement, par un T3 et T4 suffisamment réussis en regard du TT pourraient ne pas que computer, car ils pourraient "comprendre", ie acquérir des attributs variés pour chacun des symboles ainsi que pour les règles de manipulations de ces symboles, ces attributs, tout dépendamment de comment ils seront manipulés au fur et à mesure de leur acquisition, pourraient donner un choix d'action au robot et un comportement qui le démontre. ...Étienne, j'ai lu votre invitation à intervenir lors du dernier cours. Je vous remercie. J'ai toutefois dû m'absenter, je n'ai pu y assister. Aussi, je viens d'écrire plusieurs ciélos, c'est long encore, j'en suis consciente, mais je cherche à comprendre clairement. Je relirai les textes et serai à jour au mieux de mes capacités. Je vous remercie et comprends ce que Nicoloas a partagé en début de session, à savoir que nous apprenons à expliquer notre pensée (et à la développer j'ajouterais).

    RépondreEffacer
    Réponses
    1. Mélanie, tu sembles saisir de plus en plus, et tu corriges tes propres erreurs. Semaines 5 et 6 on verra pourquoi « Étienne dit » que ce n'est qu'un T3 qui pourrait réussir T2.

      Effacer
  38. J’ai deux questions en ce qui concerne le texte Rizzolati. Je ne suis pas sûr de comprendre, est-ce que les neurones miroirs s’activent au même moment pour les deux agents (le singe et l’expérimentateur) qui exécutent le même geste ou comportement ? Ma deuxième question quitte à savoir si, comment peut-on savoir qu’une action a été apprise ? v

    RépondreEffacer
    Réponses
    1. Un neurone miroir se trouve dans le même cerveau d'un seul individu (soit un singe, soit un humain); il s'active lors de la production ainsi que la perception du même geste.

      La question concernant l'apprentissage est trop vague.

      Effacer
  39. Je suis probablement à côté de la plaque, si je fais un lien avec ce que nous avons vu lors du dernier cours. Si je prends l’exemple d’une émission de cuisine ou, le téléspectateur effectue les mouvements que le cuisinier pour prépare une recette. Dans mon exemple, est-ce possible de penser que les deux aspects de l’imitation sont sollicités ? Ce que je veux dire par là, c’est un duplicata d’une action qui est vue, et que par le fait même il y a une formation en processus.

    RépondreEffacer
  40. Ciélographie #1 :

    Question sur l'intention de transférer ou de recopier le corps et être identique.

    En soi, un corps ne pourra jamais être identique à celui qui est original, par rapport à toutes ses petites caractéristiques qui font de ce corps un corps particulier.

    On peut perfectionner le corps qu'on choisit, pour pouvoir le rendre plus performant mais chaque individu même de la même famille ou de la même espèce ne pourra jamais avoir des systèmes nerveux ( et toutes les caractéristiques scientifiques du corps ) puisque la création elle-même ne permet par cela.

    Alors, si un jour nous avons la possibilité de transférer son âme dans un corps artificiel, je pense que cela serait faisable puisqu'en soit, un corps n'est qu'une enveloppe. Alors que l'âme ( selon mon opinion ) n'est pas que le ressenti mais est notre personnalité. Le ressenti se créer par rapport aux regards des autres et à ce regard interne qu'on a sur notre corps ou sur le corps des autres. Ou encore sur la vision que les gens ont de nous en nous regardant ( notre corps ) et inversement.

    Donc si notre conscience/âme, étant donné que la conscience fait parti de l'âme mais l'âme en soit, peut s'adapter à n'importe quel corps mais à partir du moment ou on a créer sa personnalité, son identification dans le corps original, il sera un peu difficile de s'identifier à ce nouveau corps. Même si ce corps semblerait parfait, puisque ce sont ces petites caractéristiques qui font de nous de qu'on est.

    RépondreEffacer
    Réponses
    1. Ni Turing ni Searle ne parlait d'âme, ni de transfert d'âme.

      Et qu'est-ce que c'est que la computation et le test de Turing?

      Effacer
    2. Non je parlais pour l'article de l'esprit.

      Le test de Turing est un fonctionnement/mécanisme qui permet de s'assurer d'une validité cognitive et de valider une tentative de rétro-ingénérie. Il comprend différend niveau de T1 à T5.

      La computation j'ai un peu de mal car je me mélange avec computationnalisme

      Effacer
    3. C'est quoi la computation et c'est quoi le computationnalisme? Les les autres répliques.

      Effacer
  41. Ciélographie #2 :

    ( J'avais fait une assez longue ciélo 1 pour parler de la conscience, de l'âme et du corps et la possibilité de transférer notre âme dans un nouveau corps ).

    En fait, le ressenti qu'on a est par rapport à notre cerveau et non pas par rapport à notre âme, puisqu'en grandissant, notre âme évolue ( ou se retrouve ) tandis que notre personnalité se développe. Et on peut dire que dans notre corps "original" avec ses défauts/qualités et avec ses disfonctionnements, nos réflexes ont été habitués à ce système fonctionnel.

    Donc en ayant un corps (enveloppe) parfait(e), une nouvelle identité parfaite (identification corporelle) notre identification mentale (âme) aura toujours les mêmes ressentis comme si elle était dans notre autre corps (le premier).

    Alors, il aura toujours les mêmes mimiques, mêmes mouvements et ressentis comme s'il était dans l'ancien corps sauf qu'il l'est dans un nouveau artificiel.


    Je parle bien du problème difficile ici, même si on en est pas encore ici, je m'intéresse beaucoup à comment on pourrait potentiellement transférer son âme à l'extérieur de son corps dans une nouvelle enveloppe.

    RépondreEffacer
    Réponses
    1. Soizic, les ciélos ont deux objectifs: (1) de te faire interagir activement avec le contenu des lectures et des cours (« châton actif ») et (2) de me permettre d'évaluer si tu as bien compris et intégré les contenus.

      Ne fais pas multiples les ciélos sur la même lecture.

      Effacer
    2. Oui j'ai du mal avec ça parce que je n'arrive pas à continuer des lectures dans comprendre ce que je lis et du coup, j'ai besoin d'y voir plus clair

      Effacer
    3. Alors réfléchis, mais n'affiche pas. Il y a près de 60 étudiants inscrits au cours. Imagine si tous faisaient ça.

      Effacer
  42. Ciélographie #3 ( par rapport à ma ciélographie #2 ) :

    Aussi, on ne pourrait pas recopier exactement les mêmes mécanismes dont transférer ou recopier les mécanismes ( mimiques,etc ) et qu'on pose dans un corps artificiel, puisque comme je le disais plus haut, nos nerfs ont potentiellement créer un dysfonctionnement qui est dans notre cerveau et qui nous fait imaginer un tic ou une habitude qui n'existe pas dans notre corps.

    J'aimerais savoir ce qu'il en est, si cela devient facile ou difficile puisqu'on ne parle pas là de ressenti mais de pratiques habituelles et répétées.

    RépondreEffacer
    Réponses
    1. C'est quoi le problème facile et le problème difficile?

      Effacer
    2. Le problème facile permet d'expliquer comment et pourquoi nous sommes capables de faire ce que nous faisons ( comme parler, bouger ) et le problème difficile c'est essayer de savoir comment et pourquoi, donc une analyse de notre capacité à ressentir

      Effacer
    3. C'est ça. Et pourquoi est-ce que le problème facile est facile? Et c'est quoi son lien avec le test de Turing?

      Effacer
    4. J'ai du mal à répondre ... Vous pourriez me donner des suggestions pour le savoir ?

      Effacer
  43. Ciélographie #4 : p.65 de "Esprits, cerveaux et programmes"

    D'après un passage, il est dit que " I.A faible a pour but d'émettre des hypothèses, vigoureusement et précisément."

    Qu'en-t-à l'I.A forte en plus d'être un outil simple pour l'étude de l'esprit, il est carrément l'esprit. Est-ce qu'on peut dire qu'ils sont "eux mêmes les explications". Peut-on dire que l'I.A forte apporte et créer les explications mais ont aussi les effets qui leurs est apportés ? ( explications, développements, réponses, etc ... ) ?

    RépondreEffacer
    Réponses
    1. C'est quoi l'Ia forte et l'Ia faible?

      Effacer
    2. De ce que j'ai pu comprendre, l'IA faible est concrète et est "limité" tandis que l'IA forte comprend l'intelligence et peut comprendre davantage le fonctionnement de l'humain et peut avoir comme une "conscience" ?

      Effacer
    3. Relis Searle. Et lis les autres répliques dans la ciélo.

      Effacer
  44. Ciélographie #5 :

    Concernant le programme de Schank, qui explique que son but est de simuler l'aptitude humaine à comprendre les histoires. Est-ce que sans ( sans avoir lu à ce moment la suite du paragraphe ) mais qu'à l'aide de cette phrase, peut-on déclarer qu'en plus de comprendre les histoires, il peut s'imaginer l'univers et les émotions avec parce que, de ce que je comprends, ce programme dépend de l'I.A forte donc si l'I.A forte est mise en place, elle aurait la capacité cognitive d'un être humain donc de pouvoir ( je ne dirai pas ressentir, ni développer des émotions mais ) plus catégoriser les émotions et les rendre justes et concrète par rapport à une tournure d'histoire comme nous le faisons ?

    RépondreEffacer
    Réponses
    1. Lis la lecture du début jusqu'à la fin, note les passages qui t'intéressent, réfléchis, intègre ça dans ton esprit, puis écris une ciélo qui exprime ta compréhension, ton questionnement, tes critiques.

      Effacer
  45. Ciélographie #6 : p.70 de "Esprits, cerveaux et programmes"

    Il y a un paragraphe qui dit "quelque soit les principes formels que vous introduisez dans votre ordinateur, ils ne suffiront pas à expliquer l'entendement, puisqu'un homme serait capable de les suivre sans rien comprendre". Est-ce que, par ce qu'en soit c'est un mécanisme que nous avons mit en place sans même nous en apercevoir ( comme les mimiques ) pas par le principe causal mais plus par celui de "compréhension" et que cet intérêt soit si naturel qu'on en prenne pas la peine de réfléchir pour pouvoir réussir à comprendre ça.

    Du coup, ils disent que l'homme pourrait serait capable de les suivre sans ne rien comprendre mais est-ce que dans un contexte particulier et qui est presque impossible à comprendre dès le premier coup, puisque la formulation du contexte serait trop complexe et qu'un programme serait capable d'analyser le contexte tandis que l'homme, lui, devrait revenir un peu plus en détails pour bien comprendre et potentiellement se relire ou revoir plusieurs fois le même passage pour pouvoir bien identifier la chose.

    Ce que je voudrais savoir c'est si un ordinateur serait capable de comprendre quelque chose de complexe qu'un humain n'aurait pas la possibilité de faire dès le premier coup ?

    RépondreEffacer
    Réponses
    1. Relis Searle, lis les ciélos là-dessus (ainsi que me répliques), regarde la vidéo, réfléchis, et ensuite fais ta ciélo.

      Effacer
  46. Ce cours m'a beaucoup éclairée sur plusieurs choses que je saisissais moins depuis le début de la session. J'ai compris une bonne base pour la question difficile (même si nous nous attaquons plutôt au problème facile). J'ai lu le texte de Searl sur la chambre chinoise et je saisissais mal, mais avec le cours j'ai compris que sans le ressenti, nous serions un bon modèle vivant de computation. Et c'est ce ressenti que nous essayons de si bien comprendre. Avec la hiérarchie de Turing, on se rend compte que sans un T3 réussi (et on sait que nous sommes très loin encore de pouvoir l'atteindre), le problème difficile est encore très loin d'être compris. Turing a raison en disant que le computationalisme est un thèse faible, la computation donne peut-être un modèle plutôt simplifié de l'humain, mais n'en est pas proche.

    RépondreEffacer
  47. « The Chinese room argument » de Searle. D’après ce que j’ai compris il dit que peu-importe à quel point ils peuvent créer un ordinateur utile avec une unité très avancée et très compliquée, ça va être toujours loin d’être un vrai cerveau. Son argument réfute l’IA forte de Turing. Il pense que malgré que ce soit vrai que tout ce qu’on fait demande du calcul, il y a quelque chose qui manque dans la computation. En effet, Il prend comme exemple une chambre noire dans laquelle une personne apprend à exécuter des algorithmes complexes de la langue chinoise (qu’il ignore complètement et n’y comprend rien) mais qu’il réussit tout de même à le faire juste en suivant l’algorithme mécaniquement. Donc, même s’il y a une intelligence, ceci ne veut pas dire que c’est une intelligence cognitive car le facteur de compréhension n’existe pas.

    RépondreEffacer
  48. L’argument de Searl est le fait que si un être humain qui ne comprends pas le chinois et qu’il apprend toutes les répliques possibles d’un robot qui parle le chinois, démontre que le robot qui parle le chinois ne comprends pas ce qu’il fait autant que l’être humain. Cependant il serait possible d’amener comme argument que pour comprendre on doit être un système et non juste un logiciel tout seul. Searl amène le fait que seulement T4 serait assez avancer comme robot pour comprendre la conscience, puisqu’il dit que l’entité devrait avoir un état mental. Cependant il serait impossible de voir si l’entité a un état mental puisque on rentre dans le problème des autres esprits.

    RépondreEffacer
  49. Ciélo L’argument de la chambre chinoise de Searl

    Pour vérifier les limites de l’hypothèse qui veut que cognition=computation, Searl pense à une situation qui la met à l’épreuve. Supposons d’abord qu’une machine soit capable d’entretenir un échange de lettres avec un locuteur chinois de sorte à ce que ce-dernier ne sache pas qu’il communique à une machine.

    Si maintenant il était humainement possible d’apprendre l’ensemble des algorithmes présents dans le programme contenu dans cette machine et que Searl lui-même fasse cet apprentissage, se cache à l’intérieur de la machine et effectue la communication lui-même. Il réalise qu’il n’a aucunement besoin de comprendre le chinois pour soutenir le dialogue, que les règles qui composent le programme suffisent. Ainsi le programme est indépendant de la machine d’une part et de l’autre, la cognition ne s’explique pas du tout par la computation (selon Searl).

    RépondreEffacer
  50. ‘’Le problème des autres esprits’’ se sont ce que pensent les autres et surtout ce que ressentent les autres. On peut supposer que l’autre ressent tel sentiment, mais on ne peut pas le confirmer. C’est seulement une supposition, en me référant à mon ressentit et en me référant à ce que je vois et à ce que l’autre me communique sous forme de mots, d’attitudes, d’émotions supposées et réinterprétées par moi, souvent sans vérification par une demande de validation ou de confirmation.

    Le périscope de Searle c’est, voir dans l’autre esprit, ce qui est du calcul, de la computation. Or, il n’y a pas que du calcul dans un esprit, alors, Searle ne peut rien voir dans un humain ou un vivant, non-humain, mais, il peut voir dans un ordinateur comme celui du T2. Comme Searle le dit, il pourrait se cacher dans une salle ou un gros ordinateur. Prendre les fiches qu’on lui donne et nous les redonner selon des règles écrites au mur, sans aucun besoin de comprendre, mais, en suivant seulement la logique des règles qui régissant les symboles. Mais, il n’y a là aucune réelle compréhension ni intellectuelle, ni au niveau affectif. C’est déjà difficile de se comprendre entre humains, espérer cela d’une machine est une utopie qui tournerait vite en dystopie, en enfer électronique. C’est comme les films avec des maisons ou des androïdes qui tuent, par jalousie, la femme du propriétaire de la machine.

    RépondreEffacer

Remarque : Seuls les membres de ce blogue sont autorisés à publier des commentaires.

PLAN DU COURS

  ISC1000-20, hiver 2021:  Catégorisation, communication et conscience Heure:  mardi 18h00-21:00 Salle du cours: V-3430 Enseignant:  Stevan ...