Bienvenue, Invité
Merci de vous identifier ou de vous inscrire.    Mot de passe perdu?
signifie que ce forum est verrouillé; pas de nouveaux messages possibles.
Possibilité d'une intelligence artificielle de niveau humain signifie que ce forum est verrouillé; pas de nouveaux messages possibles.
(1 lecteur(s)) (1) Invité(s)
Aller en basPage: 1234
SUJET: Possibilité d'une intelligence artificielle de niveau humain
   04/09/13 à 04:14 #39827
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Possibilité d'une intelligence artificielle de niveau humain
Pandora écrit:
Si on ne comprends pas pourquoi alors oui elles ne pourront êtres que différentes des nôtres. J'ignore ce que cela pourrait donner, je ne sais pas si ça serais humain ou non. Différentes, certes, mais est ce que tu les considérerais authentiques ? Des personnes de cultures différentes peuvent avoir des réactions voire des émotions différentes.

Qu'appelles-tu le rationnel ? Une espèce animale qui se nourrit quand elle a faim et qui se défend lorsqu'elle est menacée n'est pas rationnelle ? Moi ça me paraît raisonnable. Raisonnable et rationnel sont deux choses différentes. Bon, d'accord, j'ai utilisé des termes vagues. Ce que je veux dire c'est que le développement de la civilisation humaine a été très rapide à l'échelle de l'évolution. À un moment de notre histoire évolutive, nous nous sommes trouvés en possession de tous les outils cognitifs permettant à la civilisation de décoller: raisonnement abstrait, empathie, communication. Mais le "but" de l'évolution n'est pas de nous permettre de créer cette civilisation, c'est de survivre en Afrique sub-saharienne de chasse et de cueillette pendant suffisamment d'années pour avoir le maximum d'enfants capables de se reproduire. Que ça permette à une civilisation de décoller est un coup de bol (ou de malchance si on est dans le genre "retour à la nature" extrême).

Je réponds là à ta remarque faite plus tôt : "On peut supposer que l'évolution nous a poussée a avoir des émotions au delà de décisions purement rationnelles (pourquoi si le rationnel est meilleur ?)." Il est vain de chercher des raisons à l'évolution à travers le prisme des valeurs de notre civilisation. Nous sommes bipèdes car nous avons évolué dans des plaines à herbe haute. C'est nul comme raison. La prééminence des sentiments pourrait avoir le même genre de raison. Vraisemblablement, elle vient du fait que la pensée rationelle et abstraite est, d'un point de vue de l'évolution, un "truc nouveau" et que ça provoque un tel avantage que même une créature très mauvaise de ce point de vue et handicapée par plein d'autres choses voit sa population et sa civilisation exploser.

Comme le faisait remarquer un auteur de science fiction (Charles Stross) nous somme vraisemblablement la créature la plus idiote possible capable de créer une civilisation. Tout comme la première créature qui se mit à arpenter la terre était probablement rampante et d'une lenteur extrême, mais tout de même la meilleure de la planète à ce sport.


Bon, et je suis par ailleurs quelqu'un qui pense que très peu de nos capacités cognitives sont uniques aux humains, donc pas la peine d'évoquer ce point :-) Je suis d'accord qu'il suffit sûrement de très peu aux cétacés, éléphants, grands singes ou même certains grands oiseaux pour acquérir une intelligence similaire. Il se trouve qu'on a eu de la chance et qu'on a été les premiers à rassembler tous les éléments au bon endroit.

Ce n'est pas ça que j'ai voulu dire. Tu omets l'histoire du vivant en disant cela. L'amour (l'attachement, la relation sociale) est née du fait de la survie (l'entraide) et de la reproduction au départ ou le vivant est soumis à la pression de sélection. Ces sentiments ont un sens pour nous parce qu'ils ont une "histoire". Aujourd'hui la société est déjà construite, il y a déjà des règles, il n y a plus besoin de reproduction pour ressentir l'amour (encore que l'acte physique reste tout de même). Une I.A n'aura à priori pas d'antécédent à ce niveau, pourrait-elle donc ressentir par elle même ce type de sentiments ?Donc, en gros, on a le sentiment brut "amour", et on y attache un sens grâce à nos valeurs culturelles, héritées d'une époque où il y avait un but reproducteur. Bon, ben si on arrive à créer un sentiment brut "amour" chez une IA, y attacher un sens est donc un acquis culturel qui me semble aisément transmissible à une IA. Quel est le problème ?

Peut-être pourrait-elle le comprendre, l'admettre, mais lui trouver une utilité ?Personellement je trouve que s'interroger sur l'utilité de l'amour, trouver ce sentiment absurde mais irrésistible, rapprocherait une IA du genre humain plutôt que de l'éloigner :)

Je ne sais pas ce que tu entends par "trouver une utilité" mais c'est assez facile de trouver une utilité sociale et économique (au sens large) à l'amour. Ça permet à des couples de fonder une cellule familiale où un enfant peut grandir, ça permet d'augmenter les relations d'entraide dans une société humaine, des utilités, y en a plein !

Pour moi ce que tu décris n'est pas la conscience, c'est l'égo.Héhé, essayer de décrire la conscience d'une façon un peu précise est ce qui m'a amené à réaliser que c'était une illusion, un artefact de nos processus cognitifs. Pas de problème pour essayer de trouver une définition qui te convienne :)
Pour moi la conscience c'est le fait que l'on est la mémoire de notre environnement.Je dois t'avouer que je trouve pas ça très précis. Une caméra de surveillance reliée à un magnéto est une mémoire de son environnement. Est-ce à dire que les endroits vidéo-surveillés ont une conscience (hé! ils ont un début de ce qui est nécessaire!).

Je pense que tu veux sûrement dire que l'on "est" la mémoire de notre environnement, d'un façon différente d'un enregistrement vidéo. Mon opinion est que la conscience n'est rien d'autre que la certitude qu'il y a une différence entre ces deux types d'enregistrement (outre la différence triviale sur la façon dont on range les données).

son origine physique est tout de même difficile à déterminer, ou alors je t'invite à immédiatement publier là dessus =)En fait, je ne connais pas grand chose à la neuro-biologie ou à l'anatomie du cerveau, mais mon intérêt pour l'IA m'a amené à connaître un ou deux trucs anecdotiques. L'origine de la conscience humaine m'a moins intéressé que les moyens nécessaires à reproduire ce phénomène de façon artificielle, et je crois réellement que d'écrire en dur dans le programme "tu es un être conscient! Y a un truc de spécial" est tout ce qui est nécessaire. J'ai eu beau cherché, je n'ai jamais trouvé un seul élément permettant de penser qu'il s'agisse d'autre chose que d'une conviction profondément enfouie (Et inexpugnable. J'ai beau penser, rationnellement, que libre-arbitre et conscience sont des illusions, je continue de vivre ma vie de tous les jours comme si ces choses là existaient. Accepter cette contradiction m'a pris un peu de temps, une petite crise existentielle pas si facile à gérer).

Au passage, mon explication comme quoi il s'agit sûrement d'une rationalisation de notre instinct de survie est purement une hypothèse d'ingé, faite entre la poire et le fromage. Si des éléments en neuro-psychologie ou en biologie évolutive l'infirme, je serais heureux de l'apprendre. C'est juste une hypothèse de travail pour dire qu'il existe des réponses raisonnables à "comment un truc pareil a-t-il pu évoluer ?"
 
Le sujet a été verrouillé.
   04/09/13 à 10:08 #39830
Jean Doute
«Pénétrons méthodiquement la raison des choses.»
Contributeur extraordinaire !
Messages: 885
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Sexe: Masculin Lieu:  de Pénétration méthodique de la raison des choses Date anniversaire: 21/12
 Re:Possibilité d'une intelligence artificielle de niveau humain
Salut !
Il te faut imaginer que ce programme sera capable de résoudre les tâches intellectuelles, y compris celles qui demandent à comprendre les sentiments et émotions humaines. Il pourra être avocat, thérapeute, médecin, chercheur... [b]Nulle besoin de ressentir des émotions pour tout ça, uniquement besoin de les comprendre.[/b] C'est quand même une forme d'intelligence d'exceller dans toutes les disciplines intellectuelles humaines, non ?

Désolé YQuemener, l'assertion souligné ci-dessus m'apparaît totalement fausse:

Bon, comprendre les sentiments et les émotions,demande une capacité formidable du cerveau humain, l'Empathie!
Pour être capable d'empathie,et comprendre ces émotions/sentiments, il faut une autre capacité formidable du cerveau l'humain, la décentration, c'est a dire être capable de se projeter à la place d'une personne (donc d'un humain) et pour que cela marche il faut déjà savoir qu'elles sont les expériences émotionnelles et les sentiments dont il a pu faire l'expérience dés l'enfance.
Donc il faut être Capable de ressentir des émotions,d'éprouver des sentiments, au sens même de les mettre à l'épreuve des situations dans les quelles elles surviennes,donc d'en avoir fait l'Expérience !! But de l'expérience: socialement et cognitivement les gérées ses émotions et savoirs faire part des ses sentiments...

Tout les humains n'y arrivent pas, les pires criminels sont souvent handicapé a ce niveau...

Jerem pourra développer sans problème...

HAL n'avait pas d'émotion...

L'IA émotionnelle n'existe pas de si tôt, j'en doute !!
 
Dernière édition: 04/09/13 à 10:10 Par Jean Doute.
Le sujet a été verrouillé.
   04/09/13 à 11:50 #39838
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Possibilité d'une intelligence artificielle de niveau humain
Différentes, certes, mais est ce que tu les considérerais authentiques ? Des personnes de cultures différentes peuvent avoir des réactions voire des émotions différentes.

Le postulat de départ n'était-il pas de créer une I.A humaine ? (esquive).
Plus sérieusement on parle peut-être d'un processus différent pour arriver à quelque chose de peut-être semblable. Peut-être que ça serait authentique, j'ai du mal à trancher. (voir là fin finalement)

Raisonnable et rationnel sont deux choses différentes. Bon, d'accord, j'ai utilisé des termes vagues. Ce que je veux dire c'est que le développement de la civilisation humaine a été très rapide à l'échelle de l'évolution. À un moment de notre histoire évolutive, nous nous sommes trouvés en possession de tous les outils cognitifs permettant à la civilisation de décoller: raisonnement abstrait, empathie, communication. Mais le "but" de l'évolution n'est pas de nous permettre de créer cette civilisation, c'est de survivre en Afrique sub-saharienne de chasse et de cueillette pendant suffisamment d'années pour avoir le maximum d'enfants capables de se reproduire. Que ça permette à une civilisation de décoller est un coup de bol (ou de malchance si on est dans le genre "retour à la nature" extrême).

Donc le rationnel comme l'émotionnel se sont montrés être tout les deux un moteur d'évolution à partir de l'apparition de la cognition, non ? Il n'apparaît pas vraiment un supérieur à l'autre ?

Je réponds là à ta remarque faite plus tôt : "On peut supposer que l'évolution nous a poussée a avoir des émotions au delà de décisions purement rationnelles (pourquoi si le rationnel est meilleur ?)." Il est vain de chercher des raisons à l'évolution à travers le prisme des valeurs de notre civilisation. Nous sommes bipèdes car nous avons évolué dans des plaines à herbe haute. C'est nul comme raison. La prééminence des sentiments pourrait avoir le même genre de raison. Vraisemblablement, elle vient du fait que la pensée rationelle et abstraite est, d'un point de vue de l'évolution, un "truc nouveau" et que ça provoque un tel avantage que même une créature très mauvaise de ce point de vue et handicapée par plein d'autres choses voit sa population et sa civilisation exploser.


Je ne suis pas sûre de tout suivre. Je ne cherche pas de raison à l'évolution, plutôt que la pensée rationnelle comme la pensée émotionnelle, sont des phénomènes (comment l'appeler ?) qui ont orientés l'évolution d'une espèce dans un cadre disons, non-biologique. Cela n'est pas un caractère biologique, c'est propre à la cognition, c'est en dehors de ça, c'est un phénomène très abstrait qui n'est même pas propre à la vie (les micro organismes n'ont pas de cognition). En réalité les pensées rationnelles et émotionnelles sont à la fois la conséquence de l'évolution et sa cause à un certain stade cognitif.

Nous sommes bipèdes car nous avons évolué dans des plaines à herbe haute. C'est nul comme raison.

C'est très "Gouldien", c'est nul j'en conviens et personnellement je n'y crois pas. Je fais parti de ceux qui pensent l'inverse. C'est à dire que nous sommes bipède et ça n'a rien à voir avec la plaine (d'ailleurs il y a des quadripèdes, et des rampants...), le fait est que l'évolution n'est pas la sélection du plus parfait, c'est une génération de mutations au hasard, et celles qui permettent à l'organisme de vivre sont conservées. C'est donc un jet de dé testé dans l'environnement, et non pas une contrainte environnementale/physique qui va forcer un jet de dé adapté. De quoi parlait-on au départ ? =D

Donc, en gros, on a le sentiment brut "amour", et on y attache un sens grâce à nos valeurs culturelles, héritées d'une époque où il y avait un but reproducteur. Bon, ben si on arrive à créer un sentiment brut "amour" chez une IA, y attacher un sens est donc un acquis culturel qui me semble aisément transmissible à une IA. Quel est le problème ?

On en revient un peu à tout à l'heure. Évidemment si on admet que l'on peut tout recréer, même l'héritage et l'histoire de milliers d'années biologiques alors c'est possible. Pour moi je trouve ça impossible car cela n'a pas de "substance" en quelque sorte. Mais c'est peut-être parce que je ne connais pas assez les algorithmes =)
Par ailleurs un autre phénomène comme la douleur (j'y reviendrais) ou le plaisir physique, me semble impossible à reproduire pour une I.A car ils n'ont de sens que pour des tissus biologiques, constituant au départ des séries de réactions physico-chimiques, électriques et de pression, aboutissant à des sécrétions hormonales ou de neuro-transmetteurs. Pour obtenir la même chose il faudrait une composante organique à mon avis.


Je ne sais pas ce que tu entends par "trouver une utilité" mais c'est assez facile de trouver une utilité sociale et économique (au sens large) à l'amour. Ça permet à des couples de fonder une cellule familiale où un enfant peut grandir, ça permet d'augmenter les relations d'entraide dans une société humaine, des utilités, y en a plein !


Une utilité sociale et économique pour une entité qui n'a ni besoin de se reproduire, ni besoin de se nourrir ? Une I.A n'est pas dépendante de l'argent pour survivre (payer la facture d'électricité ?), donc à partir de là elle pourrait très bien ne pas comprendre l’intérêt d'une telle chose : pourquoi fonder une famille si il n y a rien à mettre en commun ? Je ne vois même pas la notion de "confort" compréhensible pour une I.A, il faudrait qu'elle puisse ressentir la douleur physique, serait-ce utile pour une I.A ?.

Je dois t'avouer que je trouve pas ça très précis. Une caméra de surveillance reliée à un magnéto est une mémoire de son environnement. Est-ce à dire que les endroits vidéo-surveillés ont une conscience (hé! ils ont un début de ce qui est nécessaire!).

Je pense que tu veux sûrement dire que l'on "est" la mémoire de notre environnement, d'un façon différente d'un enregistrement vidéo. Mon opinion est que la conscience n'est rien d'autre que la certitude qu'il y a une différence entre ces deux types d'enregistrement (outre la différence triviale sur la façon dont on range les données).


J'aime quand tu réponds seul à tes questions, ça m'évite de réfléchir =)

Au passage, mon explication comme quoi il s'agit sûrement d'une rationalisation de notre instinct de survie est purement une hypothèse d'ingé, faite entre la poire et le fromage. Si des éléments en neuro-psychologie ou en biologie évolutive l'infirme, je serais heureux de l'apprendre. C'est juste une hypothèse de travail pour dire qu'il existe des réponses raisonnables à "comment un truc pareil a-t-il pu évoluer ?"

Si il existait des éléments dans un sens comme dans l'autre, ça serait une révolution sans précédent. Aujourd'hui c'est une question purement philosophique dans le domaine de la neurobiologie. Les phénomènes les plus étudiés à ce niveau doivent êtres la douleur (très complexe et je te le dis, à mon avis purement biologique) et la mémorisation (mon préféré). Et l'on ne comprend vraiment bien ni l'un ni l'autre, je pense que le jour ou ça sera le cas il y aura une meilleure idée de ce qu'est la cognition.

Donc il faut être Capable de ressentir des émotions,d'éprouver des sentiments, au sens même de les mettre à l'épreuve des situations dans les quelles elles surviennes,donc d'en avoir fait l'Expérience !! But de l'expérience: socialement et cognitivement les gérées ses émotions et savoirs faire part des ses sentiments...

C'est aussi ce que voulais dire en parlant "d'histoire des sentiments". Donc je suis plutôt d'accord avec Jean Doute. Si le seul précédent de l'I.A en terme d'émotion est un code qui copie notre histoire, j'ai du mal à dire que c'est "authentique", par rapport à la première question !
 
Le sujet a été verrouillé.
   04/09/13 à 16:08 #39854
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Possibilité d'une intelligence artificielle de niveau humain
Jean Doute écrit:
Tout les humains n'y arrivent pas, les pires criminels sont souvent handicapé a ce niveau...Si tu te renseignes sur les psychopathes, tu apprendras que bien qu'incapable de ressentir certaines émotions, il sont capable de les comprendre d'une façon rationnelle et d'exploiter cette émotion chez les autres. Ils sont donc la preuve que c'est tout à fait possible.
 
Le sujet a été verrouillé.
   04/09/13 à 16:49 #39857
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Possibilité d'une intelligence artificielle de niveau humain
Pandora écrit:
Donc le rationnel comme l'émotionnel se sont montrés être tout les deux un moteur d'évolution à partir de l'apparition de la cognition, non ? Il n'apparaît pas vraiment un supérieur à l'autre ?Ah, il me semblait implicite que l'émotionnel est apparu bien avant les facultés de raisonnement abstrait. La peur, l'attachement, l'amour (au moins maternel) sont présent dans le règne animal chez bien plus de créatures que le raisonnement abstrait, je pense donc ces émotions plus anciennes. Peut être que je vais un peu vite en besogne en mettant toutes les émotions humaines dans le même sac, mais si ce n'est pas le cas, je veux bien un élément pour me prouver le contraire.

On en revient un peu à tout à l'heure. Évidemment si on admet que l'on peut tout recréer, même l'héritage et l'histoire de milliers d'années biologiques alors c'est possible.On parlait de la possibilité pour une machine d'attribuer un sens à une émotion (donc en postulant que la machine est capable de ressentir quelque chose qui ressemble à une émotion) Ce que je veux dire, c'est que si une notion est culturelle, c'est à dire acquise par apprentissage via la famille ou la société après la naissance, on est d'accord que c'est a priori transmissible à une machine qui sait apprendre ?

L'amour, je ne pense pas que ce soit une émotion instinctive de base. C'est une interprétation culturelle de tout un ensemble d'émotion de plus bas niveau : empathie, attirance, volonté d'appartenance à un groupe, volonté d'enfanter, accoutumance à l'oxytocine, etc...

Pour moi je trouve ça impossible car cela n'a pas de "substance" en quelque sorte. Mais c'est peut-être parce que je ne connais pas assez les algorithmes =)En fait, le problème vient surtout des guillemets. Dés que l'on essaie de mettre le doigt sur la chose qui donne son corps à la spécificité de la psychée humaine, on n'a que des mauvais termes, des mauvais mots, impossibles à définir correctement. C'est comme attraper une anguille. Ou chasser un mirage.

Je peux te proposer quelques pistes : Connais tu le test de Turing ? C'est un test qu'il a proposé pour évaluer le coté humain d'une IA. C'est tout simplement un test en aveugle : une personne communiquant par texte doit deviner si il communique avec un humain ou une IA simplement en dialoguant (on suppose que l'humain coopère et est raisonnablement intelligent et équilibré). Qu'en penses tu ? Penses tu qu'une IA peut le réussir sans comprendre les émotions humaines ? Sans les ressentir ? Sans les ressentir "authentiquement" ? Sans les ressentir "authentiquement avec substance" ?

Est ce que tu as une idée d'un test qui permettrait de vérifier la présence de la "substance" d'une émotion chez une machine ?


Par ailleurs un autre phénomène comme la douleur (j'y reviendrais) ou le plaisir physique, me semble impossible à reproduire pour une I.A car ils n'ont de sens que pour des tissus biologiques, constituant au départ des séries de réactions physico-chimiques, électriques et de pression, aboutissant à des sécrétions hormonales ou de neuro-transmetteurs. Pour obtenir la même chose il faudrait une composante organique à mon avis.On revient sur les qualias. Les réactions chimiques donnant naissance à l'influx nerveux sont à mon avis sans intérêt dans la question : c'est globalement les mêmes qui peuvent amener à un sensation agréable ou désagréable. C'est le traitement que le cerveau en fait qui les transforme en douleur ou en plaisir, pas leur nature sous forme d'impulsion électrochimique dans un nerf ou purement électrique dans un câble de cuivre. Je pense que ce qui t'empêche d'attribuer du sérieux à cette proposition est le fait de ne jamais avoir vu de robot ou de machine réagir d'une façon directe et avec détresse à un stimulus.

Je n'arrive plus à trouver la vidéo, mais j'avais vu une démo algorithmique qui m'avait à ce sujet franchement mis mal à l'aise. C'était une technique qui devait être utilisée en jeux vidéo, sur les ennemis (typiquement dans un jeu de shoot). Le but était de créer des réactions réalistes et non-scriptées à des impacts de balle et d'objets. Et je dois avouer que même si je trouve parfois le gore avec les hectolitres de sang qui volent assez rigolo, là, après dix minutes à voir des pantins 3D se tordre de douleur suite à une fracture, une chute sur la tête, à les voir ramper sur un moignon, à se protéger la tête à l'approche d'une menace, j'ai ressenti une forte empathie et un franc malaise. Je n'ai pas vu cette techno implémentée dans beaucoup de jeux...



Une utilité sociale et économique pour une entité qui n'a ni besoin de se reproduire, ni besoin de se nourrir ?Je te parle d'une utilité pour la société. Je pensais qu'on parlait de ça, car il me semblait clair que y trouver une utilité, pour un individu humain, n'est pas vraiment nécessaire pour tomber amoureux. C'est souvent une complication plus qu'une évolution utile à l'individu !

Note également que là on parle de faire une IA qui soit le plus proche possible des humains, on ne parle plus du minimum requis pour les soulager de leur labeur. Donc, une telle IA, j'imagine bien qu'on lui donnera l'envie de se reproduire, le besoin et le gout de manger des choses, la capacité de ressentir la douleur et le bien-être physique, etc...

serait-ce utile pour une I.A ?.Clairement non. Je trouve personnellement que faire un humain artificiel plutôt que la machine dont on a besoin et qui aille au delà des défauts humains, serait un exercice assez futile, voire même cruel, utile uniquement pour trancher cette querelle philosophique sur la nature de la cognition humaine.

Si il existait des éléments dans un sens comme dans l'autre, ça serait une révolution sans précédent.Ah bon ? En quoi ? Concrètement, qu'est ce que ça changerait (à part donner un élément à charge contre une position philosophique qui aura tôt fait de se faire une explication ad-hoc)

Les phénomènes les plus étudiés à ce niveau doivent êtres la douleur (très complexe et je te le dis, à mon avis purement biologique)Mais qu'est ce qui, dans la cognition humaine, n'est pas purement biologique ?

C'est aussi ce que voulais dire en parlant "d'histoire des sentiments". Donc je suis plutôt d'accord avec Jean Doute. Si le seul précédent de l'I.A en terme d'émotion est un code qui copie notre histoire, j'ai du mal à dire que c'est "authentique", par rapport à la première question !Sauf que Jean Doute répond à la partie de la discussion où on évoque la possibilité d'une IA qui sache comprendre les être humains et leurs émotions sans les ressentir et sans prétendre à la moindre authenticité.

Si on suit ce raisonnement, impossible de parler de religion si on a pas eu la même révélation qu'un croyant et impossible d'étudier les effets d'une drogue sans l'avoir essayée.
 
Le sujet a été verrouillé.
   04/09/13 à 17:09 #39859
Jerem
Moderateur
Messages: 948
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Sexe: Masculin Observatoire Zététique jeremy.royaux@hotmail.be Lieu: Bruxlles - Belgique Date anniversaire: 24/02
 Re:Possibilité d'une intelligence artificielle de niveau humain
J'interviens peu sur les détails de ce débat parce que c'est vraiment pas mon domaine d'expertise
mais je lis avec grand intérêt :)

juste un truc :
Yquemener :
"Si tu te renseignes sur les psychopathes, tu apprendras que bien qu'incapable de ressentir certaines émotions, il sont capable de les comprendre d'une façon rationnelle et d'exploiter cette émotion chez les autres. Ils sont donc la preuve que c'est tout à fait possible."

Y a des études récentes qui montrent que c'est plus un "switch" on off qu'une incapacité réelle à vivre certaines émotions... mais la question restent en suspend.

Sinon, la compréhension des émotions parait vraiment problématique
il y a cette question d'empathie, qui est difficilement objectivable
puis il y a les notions culturelles (qui sont d'une complexité énorme)
Et le fait que une émotion X ne s'exprime pas par Y
mais une émotion X s'exprime par YZ ou YE ou YR ou Yx , il y a une variation très vaste
certains ne comprennent même pas ce qu'ils expriment eux même... Et on a souvent pas les données suffisantes, même en temps qu' être humain, pour interpréter correctement les émotions des autres... ça montre la complexité
 
Modérateur
Observatoire Zététique
Le sujet a été verrouillé.
   04/09/13 à 18:11 #39862
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Possibilité d'une intelligence artificielle de niveau humain
Ah, il me semblait implicite que l'émotionnel est apparu bien avant les facultés de raisonnement abstrait. La peur, l'attachement, l'amour (au moins maternel) sont présent dans le règne animal chez bien plus de créatures que le raisonnement abstrait, je pense donc ces émotions plus anciennes. Peut être que je vais un peu vite en besogne en mettant toutes les émotions humaines dans le même sac, mais si ce n'est pas le cas, je veux bien un élément pour me prouver le contraire.


Je dirais que la frontière entre les deux est extrêmement fine. Après qui est arrivé avant l'autre, je ne sais pas si c'est la bonne question, pour moi c'est que les deux coexistent sans que l'un ou l'autre ne paraisse obsolète, et c'est ça qui est important. A mon avis les deux apparaissent avec la cognition. Certes avoir peur est émotionnel. Construire son nid pour se protéger du temps est rationnel, même pour espèce peu évoluée.

On parlait de la possibilité pour une machine d'attribuer un sens à une émotion (donc en postulant que la machine est capable de ressentir quelque chose qui ressemble à une émotion) Ce que je veux dire, c'est que si une notion est culturelle, c'est à dire acquise par apprentissage via la famille ou la société après la naissance, on est d'accord que c'est a priori transmissible à une machine qui sait apprendre ?

Quand je parle "d'histoire" je ne veux pas forcément dire "acquise par l'apprentissage", mais plutôt que c'est amalgames de nombreux facteurs différents que tu résume :

L'amour, je ne pense pas que ce soit une émotion instinctive de base. C'est une interprétation culturelle de tout un ensemble d'émotion de plus bas niveau : empathie, attirance, volonté d'appartenance à un groupe, volonté d'enfanter, accoutumance à l'oxytocine, etc...

En fait on dit la même chose, sauf pour la faisabilité ultérieure de la chose.

En fait, le problème vient surtout des guillemets. Dés que l'on essaie de mettre le doigt sur la chose qui donne son corps à la spécificité de la psychée humaine, on n'a que des mauvais termes, des mauvais mots, impossibles à définir correctement. C'est comme attraper une anguille. Ou chasser un mirage.

Je peux te proposer quelques pistes : Connais tu le test de Turing ? C'est un test qu'il a proposé pour évaluer le coté humain d'une IA. C'est tout simplement un test en aveugle : une personne communiquant par texte doit deviner si il communique avec un humain ou une IA simplement en dialoguant (on suppose que l'humain coopère et est raisonnablement intelligent et équilibré). Qu'en penses tu ? Penses tu qu'une IA peut le réussir sans comprendre les émotions humaines ? Sans les ressentir ? Sans les ressentir "authentiquement" ? Sans les ressentir "authentiquement avec substance" ?


Oui je le connais, à mon avis ça reste assez peu fiable non ? Je pense bien sûr que c'est possible de réussir ce test sans ressentir d'émotion, à priori c'est un échange relativement court, entre deux personnes qui ne se connaissent pas du tout donc qui n'attendent rien l'une de l'autre. C'est comme parler de la pluie et du beau temps, les gens sont réservés en général. Çà ne me paraît pas adapté pour mesurer la présence d'émotion ou non.

Est ce que tu as une idée d'un test qui permettrait de vérifier la présence de la "substance" d'une émotion chez une machine ?

Aucune ! Il faudrait déjà que je sache comment évaluer la présence de ma substance à moi pour ça... Tu vas me dire : donc tu es comme une machine. Et je répondrais : je ne suis pas si frigide =)

On revient sur les qualias. Les réactions chimiques donnant naissance à l'influx nerveux sont à mon avis sans intérêt dans la question : c'est globalement les mêmes qui peuvent amener à un sensation agréable ou désagréable. C'est le traitement que le cerveau en fait qui les transforme en douleur ou en plaisir, pas leur nature sous forme d'impulsion électrochimique dans un nerf ou purement électrique dans un câble de cuivre. Je pense que ce qui t'empêche d'attribuer du sérieux à cette proposition est le fait de ne jamais avoir vu de robot ou de machine réagir d'une façon directe et avec détresse à un stimulus.

Cela me semble pertinent. Mais à la fois sans ces influx nerveux la douleur n'a plus de sens : elle n'est plus rattachée à une menace de son intégrité physique. C'est à ça qu'elle sert, à se protéger en cas de danger.

Je n'arrive plus à trouver la vidéo, mais j'avais vu une démo algorithmique qui m'avait à ce sujet franchement mis mal à l'aise. C'était une technique qui devait être utilisée en jeux vidéo, sur les ennemis (typiquement dans un jeu de shoot). Le but était de créer des réactions réalistes et non-scriptées à des impacts de balle et d'objets. Et je dois avouer que même si je trouve parfois le gore avec les hectolitres de sang qui volent assez rigolo, là, après dix minutes à voir des pantins 3D se tordre de douleur suite à une fracture, une chute sur la tête, à les voir ramper sur un moignon, à se protéger la tête à l'approche d'une menace, j'ai ressenti une forte empathie et un franc malaise. Je n'ai pas vu cette techno implémentée dans beaucoup de jeux...


Les joueurs de jeux video sont vraiment des psychopathes, ça ne m'étonne pas ()=D
La différence est que le bonhomme à l'écran ne ressent pas la douleur, il fait comme si il ressentait la douleur. Je vais être ennuyeuse, mais sa douleur n'a aucun sens physique. On peut considérer ça comme une simulation mais pas comme une entité qui ressent la douleur (elle n'a pas mal), elle simule parce que on lui a dit de le faire.

Clairement non. Je trouve personnellement que faire un humain artificiel plutôt que la machine dont on a besoin et qui aille au delà des défauts humains, serait un exercice assez futile, voire même cruel, utile uniquement pour trancher cette querelle philosophique sur la nature de la cognition humaine.


Là nous sommes d'accord !

Ah bon ? En quoi ? Concrètement, qu'est ce que ça changerait (à part donner un élément à charge contre une position philosophique qui aura tôt fait de se faire une explication ad-hoc)


Bien sûr pour la vie de tous les jours ça ne changerait rien =)
Par contre une explication scientifique à une théorie philosophique permet de s'approcher un peu plus de la connaissance de l'univers. De comprendre pourquoi il pourrait y avoir un esprit conscient en nous. Et ça c'est grand. Après ça n'emballe peut-être que moi.

Mais qu'est ce qui, dans la cognition humaine, n'est pas purement biologique ?

Je voulais dire que ça n'aurait aucun sens pour une machine de ressentir la douleur, car elle n'est pas biologique. La douleur (ou le stress associé à une échelle microscopique) est associée à la mort, c'est un puissant vecteur d'évolution dans la biologie, bien plus que n'importe quel autre ressentit.


Si on suit ce raisonnement, impossible de parler de religion si on a pas eu la même révélation qu'un croyant et impossible d'étudier les effets d'une drogue sans l'avoir essayée.


On peut l'étudier, mais à mon avis on ne pourra pas comprendre le côté émotionnel de ces paramètre, ce qu'est "l'illumination" ou un bon shoot. On pourra expliquer comment cela fonctionne en théorie, on pourra se montrer compréhensif, mais tu ne pourra pas exprimer la même emphase que quelqu'un "totalement high". C'est l'expérience du phénomène qui permet de le ressentir.
 
Le sujet a été verrouillé.
   04/09/13 à 19:33 #39868
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Possibilité d'une intelligence artificielle de niveau humain
Jerem écrit:
Sinon, la compréhension des émotions parait vraiment problématique
Je ne dis pas que c'est facile, je dis que c'est faisable. Là on est clairement dans de la discussion théorique. Mais vois tu une raison pour laquelle l'étude et la compréhension des émotions aurait besoin d'outils qui ne soient pas du domaine de la science "froide" pour aboutir à une compréhension suffisante pour établir un modèle relativement complet ?
 
Le sujet a été verrouillé.
   04/09/13 à 20:11 #39869
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Possibilité d'une intelligence artificielle de niveau humain
Pandora écrit:
Je dirais que la frontière entre les deux est extrêmement fine. Après qui est arrivé avant l'autre, je ne sais pas si c'est la bonne question, pour moi c'est que les deux coexistent sans que l'un ou l'autre ne paraisse obsolète, et c'est ça qui est important.Mais justement, c'est pour ça que l'ordre d'apparition a une importance. Le deuxième a apparaitre peut tout à fait rendre le premier obsolète. Notre instinct de ne pas toucher les choses qui ont une mauvaise odeur est obsolète devant la connaissance que nous avons bâtie grâce à la théorie des germes. Obsolète vis à vis de l'évolution, qui a des priorités qui souvent ne sont franchement pas les notres.

Mais je crois qu'on s'éloigne un peu du thème principal non ?

Oui je le connais, à mon avis ça reste assez peu fiable non ? Je pense bien sûr que c'est possible de réussir ce test sans ressentir d'émotion, à priori c'est un échange relativement court, entre deux personnes qui ne se connaissent pas du tout donc qui n'attendent rien l'une de l'autre. C'est comme parler de la pluie et du beau temps, les gens sont réservés en général. Çà ne me paraît pas adapté pour mesurer la présence d'émotion ou non.C'est un test théorique sans limite de temps et philosophiquement, on le généralise par des expérience par la pensée du genre "supposant un corps robotique réaliste, si une IA parvient à tromper la société pendant 20 ans, y compris en ayant des relations sentimentales et amicales et des inimités, qu'en penser ?" "Et si cette expérience est faite en présentant deux personnes, l'une un humain, l'autre un robot, sans dire laquelle est laquelle ?"

En gros, si ça ressemble à un canard, que ça fait "coin" comme un canard et que ça marche comme un canard, est ce que c'est un canard ?

Si non, qu'est ce qu'il manque ?

Aucune ! Il faudrait déjà que je sache comment évaluer la présence de ma substance à moi pour ça... Tu vas me dire : donc tu es comme une machine.Non, je suis honnêtement ouvert à l'existence d'une caractéristique objectivable qui m'a échappé. Mais en bon sceptique, je ne peux pas m'empêcher d'avoir des doutes sur cette notion mal définie, non objectivable, considérée pourtant évidente et centrale dans la conception du monde de beaucoup de gens. Ca me rappelle trop des concepts religieux :)

Et je répondrais : je ne suis pas si frigide =)Tu n'as pas idée de ce qu'on peut faire avec du latex, une imprimante 3D et des servo-moteurs :)

Cela me semble pertinent. Mais à la fois sans ces influx nerveux la douleur n'a plus de sens : elle n'est plus rattachée à une menace de son intégrité physique. C'est à ça qu'elle sert, à se protéger en cas de danger.Une voiture qui freine automatiquement quand la collision est inévitable, qui déclenche un airbag dés qu'il y a un choc, ce sont des menaces qui déclenchent des réactions immédiates qui ont un sens. Franchement, si on considère que les mollusque sont capables de ressentir ce qu'on nomme le stress, une voiture qui déclenche ses ABS ou son airbag en est proche!

La différence est que le bonhomme à l'écran ne ressent pas la douleur, il fait comme si il ressentait la douleur. Je vais être ennuyeuse, mais sa douleur n'a aucun sens physique. On peut considérer ça comme une simulation mais pas comme une entité qui ressent la douleur (elle n'a pas mal), elle simule parce que on lui a dit de le faire.Cette entité existe dans un monde simulé, avec une physique simulée. Sa douleur a un sens physique dans son monde : c'est la réaction à un impact localisé sur son corps. Je trouve le critère de "ce n'est pas authentique parce que ON lui a dit de le faire" un peu arbitraire. C'est qui/quoi ce 'on' ? Nous n'avons des réactions à la douleur que parce que "l'Evolution nous a dit" de le faire. Ce sont des réactions qui se sont développée au fur et à mesure que notre survie s'améliorait ou empirait face à certaines réactions. Et tu sais quoi ? Ca n'a aucun intérêt mais on pourrait tout à fait faire évoluer ces réactions par ce programme en utilisant un algo dit génétique : pendant des générations tu balances des bonhommes depuis une falaise et chaque fois tu sélectionnes automatiquement ceux qui ont réussi à minimiser leurs dommages, tu propages leurs gènes et tu itères. Rapidement tu auras des bonhommes qui tombent les bras en avant, prennent une position foetale et protègent leurs têtes sans que "on" leur ai dit de le faire. Ca changerait quelque chose ?


Bien sûr pour la vie de tous les jours ça ne changerait rien =)
Par contre une explication scientifique à une théorie philosophique permet de s'approcher un peu plus de la connaissance de l'univers. De comprendre pourquoi il pourrait y avoir un esprit conscient en nous. Et ça c'est grand. Après ça n'emballe peut-être que moi.
Ok, on est d'accord là dessus dans ce cas :)

Je voulais dire que ça n'aurait aucun sens pour une machine de ressentir la douleur, car elle n'est pas biologique. La douleur (ou le stress associé à une échelle microscopique) est associée à la mort, c'est un puissant vecteur d'évolution dans la biologie, bien plus que n'importe quel autre ressentit.Encore cette histoire de sens... La douleur semble être en effet le signal le plus dur à ignorer, en tous cas pour les humains, et alors ? Qu'est ce qui empêche une IA d'avoir le même signal prioritaire lui annonçant les événements pouvant causer sa destruction ? Pourquoi ça aurait moins de sens ?

On pourra expliquer comment cela fonctionne en théorie, on pourra se montrer compréhensif, mais tu ne pourra pas exprimer la même emphase que quelqu'un "totalement high". C'est l'expérience du phénomène qui permet de le ressentir.La remarque à laquelle je répondais étant sur les capacités comprendre et non à ressentir, je pense que sur ce morceau là en tous cas, on est d'accords.
 
Le sujet a été verrouillé.
   04/09/13 à 21:51 #39871
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Possibilité d'une intelligence artificielle de niveau humain
Mais justement, c'est pour ça que l'ordre d'apparition a une importance. Le deuxième a apparaitre peut tout à fait rendre le premier obsolète. Notre instinct de ne pas toucher les choses qui ont une mauvaise odeur est obsolète devant la connaissance que nous avons bâtie grâce à la théorie des germes. Obsolète vis à vis de l'évolution, qui a des priorités qui souvent ne sont franchement pas les notres.

L'ordre d'apparition est pour moi similaire, il va de paire avec la cognition. Je crois l'avoir répété assez de fois : Ils suivent l'évolution des espèces cognitives.

Mais je crois qu'on s'éloigne un peu du thème principal non ?

Totalement mais ça sonnait bien, et comme on tartine des pages que personne ne lira jamais autant en rajouter =)

C'est un test théorique sans limite de temps et philosophiquement, on le généralise par des expérience par la pensée du genre "supposant un corps robotique réaliste, si une IA parvient à tromper la société pendant 20 ans, y compris en ayant des relations sentimentales et amicales et des inimités, qu'en penser ?" "Et si cette expérience est faite en présentant deux personnes, l'une un humain, l'autre un robot, sans dire laquelle est laquelle ?"

En gros, si ça ressemble à un canard, que ça fait "coin" comme un canard et que ça marche comme un canard, est ce que c'est un canard ?

Si non, qu'est ce qu'il manque ?


A t-il vraiment déjà été réalisé pendant 20 années ?

Non, je suis honnêtement ouvert à l'existence d'une caractéristique objectivable qui m'a échappé. Mais en bon sceptique, je ne peux pas m'empêcher d'avoir des doutes sur cette notion mal définie, non objectivable, considérée pourtant évidente et centrale dans la conception du monde de beaucoup de gens. Ca me rappelle trop des concepts religieux :)


Ah mais je reçois tes objections, à vrai dire c'est plutôt toi qui reçoit les miennes d'ailleurs. A l'intérieur je dois avoir perçu l'illumination... Après plus sérieusement je serais bien incapable de trancher sur la question, je ne pose que des questions pour ennuyer les gens comme toi !

Tu n'as pas idée de ce qu'on peut faire avec du latex, une imprimante 3D et des servo-moteurs :)


Je crains de voir où peut mener ce délire de nerd malsain =)

Une voiture qui freine automatiquement quand la collision est inévitable, qui déclenche un airbag dés qu'il y a un choc, ce sont des menaces qui déclenchent des réactions immédiates qui ont un sens. Franchement, si on considère que les mollusque sont capables de ressentir ce qu'on nomme le stress, une voiture qui déclenche ses ABS ou son airbag en est proche!


Elle n'ont de sens que pour la personne protégée ! La voiture elle s'en moque bien, elle ne va pas "souffrir", au sens littéral, du choc. Mais je vois ce que tu veux dire au fond, qu'il est possible de recréer des signaux d'urgence. Cependant si il n y avait personne à bord ces signaux seraient inutiles.

Cette entité existe dans un monde simulé, avec une physique simulée. Sa douleur a un sens physique dans son monde : c'est la réaction à un impact localisé sur son corps. Je trouve le critère de "ce n'est pas authentique parce que ON lui a dit de le faire" un peu arbitraire. C'est qui/quoi ce 'on' ? Nous n'avons des réactions à la douleur que parce que "l'Evolution nous a dit" de le faire. Ce sont des réactions qui se sont développée au fur et à mesure que notre survie s'améliorait ou empirait face à certaines réactions. Et tu sais quoi ? Ca n'a aucun intérêt mais on pourrait tout à fait faire évoluer ces réactions par ce programme en utilisant un algo dit génétique : pendant des générations tu balances des bonhommes depuis une falaise et chaque fois tu sélectionnes automatiquement ceux qui ont réussi à minimiser leurs dommages, tu propages leurs gènes et tu itères. Rapidement tu auras des bonhommes qui tombent les bras en avant, prennent une position foetale et protègent leurs têtes sans que "on" leur ai dit de le faire. Ca changerait quelque chose ?


Quand je disais "on" j'entendais le type qui a codé le programme pour que ça soit "réaliste" bien entendu. Donc "on" a décrété que le pixel, en prenant un coup dans le genou, allait tomber par terre. Ça n'a pas plus de sens que ça, il n y a rien à protéger ou à sauver, c'est une vue de l'esprit. Ce n'est pas parce que si je vais perdre ma jambe, je ne pourrais plus marcher alors je risque de mourir. Il n y a pas de pression de sélection dans la matrice =D D'ailleurs en rebootant le programme le bonhomme sera intact.

Nous n'avons des réactions à la douleur que parce que "l'Evolution nous a dit" de le faire. Ce sont des réactions qui se sont développée au fur et à mesure que notre survie s'améliorait ou empirait face à certaines réactions.

Non nous avons des réactions face à la douleur parce que sinon nous disparaissons rapidement. La "douleur" n'est qu'une représentation à grande échelle de ce que représente le stress à une plus petite échelle. C'est l'apparition d'organismes pluricellulaires complexes qui naturellement à vu l'apparition de la douleur. Les réactions ont toujours été les mêmes, elles n'ont pas changées depuis le début (compensation puis sinon, mort). La seule chose qui a changée c'est qu'avec la cognition on évite ce qui peut faire mal. La douleur est une conséquence de la vie complexe, l'évolution n'a fait que moduler les différentes forme de vie existantes (une fois de plus, pour moi, ce n'est pas l'environnement qui détermine l'évolution, mais le hasard, donc la douleur, comme le reste n'est pas une contrainte).

Et tu sais quoi ? Ca n'a aucun intérêt mais on pourrait tout à fait faire évoluer ces réactions par ce programme en utilisant un algo dit génétique : pendant des générations tu balances des bonhommes depuis une falaise et chaque fois tu sélectionnes automatiquement ceux qui ont réussi à minimiser leurs dommages, tu propages leurs gènes et tu itères. Rapidement tu auras des bonhommes qui tombent les bras en avant, prennent une position foetale et protègent leurs têtes sans que "on" leur ai dit de le faire. Ca changerait quelque chose ?

Le comité d'éthique ne serait sûrement pas d'accord. Mais pour moi ça ne changerait rien au problème, tu obtiendra juste un algorithme moins réaliste, ou alors qu'avec des gros durs.

Mais dans le fond je suis assez d'accord avec toi dans l'ensemble, je crois qu'on commence à faire le tour de nos pensées et on se répète un peu =)
La seule chose qui diffère est que je pense que l'I.A ne pourra être totalement comme l'humain de fais de l'absence de processus biologiques qui font ce que l'homme est. Après ça n'engage que moi, je suis consciente que je ne peux absolument pas prouver cela, il faudrait attendre d'avoir une I.A sous la main pour le savoir !
Toi tu es plus pragmatique, ça doit être mon côté romantique (...)
 
Le sujet a été verrouillé.
Revenir en hautPage: 1234
Modérateur: Bobby, Jerem
Développé par KunenaObtenir les derniers messages directement sur votre PC - Version française:SFK