Bienvenue, Invité
Merci de vous identifier ou de vous inscrire.    Mot de passe perdu?
signifie que ce forum est verrouillé; pas de nouveaux messages possibles.
Possibilité d'une intelligence artificielle de niveau humain signifie que ce forum est verrouillé; pas de nouveaux messages possibles.
(1 lecteur(s)) (1) Invité(s)
Aller en basPage: 1234
SUJET: Possibilité d'une intelligence artificielle de niveau humain
   02/09/13 à 10:21 #39770
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Possibilité d'une intelligence artificielle de niveau humain
Bon, puisque le fil sur la singularité technologique (www.zetetique.fr/index.php/forum/11-autr...9585-la-singularite-) voit cette question souvent apparaître, alors que j'aimerais bien que les deux sujets restent séparés, j'ouvre ce fil pour répondre à toutes les question "esquivées" pour l'instant. Pas la peine de tout lire, prenez le morceau qui vous intéresse/concerne ou posez votre critique directement!


Jerem écrit:
Parce que, d'après ce que je sais, il n'existe actuellement que des scripts
une A.I, la plus complexe qui existe, c'est jamais qu'une liste de codes
si A, B
si B, C etc
on peut faire une I.A avec un script qui donne illusion d'être intelligent
mais elle ne pourra jamais traiter une info qui sort de son script ?


En fait, tout dépend de ce que tu nommes un script. Si tu penses aux chatbots de type Eliza, qui étaient en effet très simples et avaient des comportement du type "Si l'utilisateur dit 'bonjour', répondre 'bonjour'" ou "Si l'utilisateur dit 'Je pense que X' répondre 'Pourquoi pensez vous que X ?'"

Par contre, que dirais tu d'un script plus complexe qui réagirait de la façon suivante :
"Je pense que X" indique une opinion de l'utilisteur
-> ajouter cette opinion au modèle mental de l'utilisteur
-> interpréter X et en déduire si ma persona a un jugement sur X
-> si oui, manifester mon accord ou mon désaccord grâce à une des formule mentionnée dans dico-debate.txt
-> si non, élever d'un cran mon intérêt pour la question
-> si cet intérêt dépasse le seuil nécessaire pour changer de sujet, demander plus d'information sur X à l'aide d'une des formules mentionnées dans dico-requests.txt

C'est très simplifié, et certains étapes sont assez difficiles, notamment la #2, mais ça commence à ressembler à un comportement intelligent, non?

Et que dirais tu si chacune de ces étapes, au lieu d'avoir été écrite par un programmeur, avait été apprise par le programme au cours de discussions par essais et erreurs ?

Pandora écrit:
Cette remarque me fait penser à quelque chose. La particularité du cerveau est également d'être capable d'assimiler et d’interpréter des signaux d'entrées totalement différents (visuels, auditifs, tactiles...) et d'y associer différentes idées et concepts. Une I.A dans une machine, tout aussi puissante qu'elle soit, serait-elle capable de comprendre de pareils signaux et d'en tirer quelque chose ?Créer un modèle du monde à partir de signaux disparates est un des problèmes de base de la robotique. Assimiler des données radar, visuels, GPS, accélérométriques, etc... est fréquemment fait. Associer telle bosse dans la donnée télémétrique à telle tâche dans la donnée optique est un problème qui peut se résoudre de plusieurs façons qui marchent pas trop mal dans l'ensemble.


Je veux dire sans les émotions qui sont attachées à tel son ou à tel goût, comment cela pourrait-il avoir un sens pour elle ? Évidemment on pourrait forger un script (j'imagine) qui lui dirait "quoi" ressentir, mais dans ce cas là elle ne l'apprendrais pas, ce qui est l'inverse de ce qu'on voudrait obtenir avec une I.A.On fait apprendre des choses à des IAs de nos jours, la plupart du temps en fournissant des échantillons. Le cas typique que je connais bien, c'est pour reconnaître des visages. L'algo le plus utilisé ne dit pas "un visage c'est un truc à peu près symétrique, avec deux taches plus sombre vers le haut et une tache large plus sombre en bas", le plus utilisé consiste à fournir quelques centaines d'images en disant "voici un visage" et "voici une image sans visage". L'algo crée alors ce qu'on nomme une cascade de décisions et apprend à reconnaître les images évoquant des visages.

La première approche, on la dit "rule-based", basée sur des règles. On pré-mache le traitement à l'ordinateur. La deuxième approche (très populaire dans les années 80-90) implique un apprentissage, par réseau de neurones, par algo génétique ou par technique purement statistique et semble en général plus intelligente au commun des mortels, mais je ne suis pas nécessairement de cet avis.

Les humains utilisent clairement ces deux approches. Nous naissons avec toute une série de règles, la plupart inconsciente, ce qu'on nomme l'instinct. Et nous apprenons énormément, mais certaines choses sont pré-câblées. La reconnaissance de visages humains, par exemple, n'est vraisemblablement pas acquise mais innée, même si elle se développe après la naissance. Idem pour tout le circuit d'empathie (que Jerem me corrige si je dis une bêtise) qui repose sur un circuit dit "miroir" qui nous permet de ressentir l'émotion ou la douleur d'une personne en voyant ses réactions. Un bébé comprend la colère, même si on ne lui a jamais appris à associer un visage mécontent à un signal désagréable.

Mais comme ces règles sont inconsciente et reposent quand même en partie sur des processus d'apprentissage, on pense que nous n'utilisons pas du tout de règles et que nous sommes de pures machines à apprendre, page vierge à la naissance. Eh non, on a un script.

Pandora écrit:
Pour le "Impossible de sortir du "script" de son cerveau" je ne sais pas. On peut apprendre à penser de différentes manière, ne serait-ce pas un moyen de se reprogrammer pour différentes tâches ? Mais les programmes qui se reprogramment sont monnaie courante, du moins dans les labo. On parle de codes automodifiables et certains langages de programmation, comme LISP en font un peu leur spécialité. C'est assez facile à faire mais ce n'est pas très utile aujourd'hui: l'intérêt d'un programme est souvent dans la répétabilité de ses résultats. Il n'y a guère que les virus qui y ont un intérêt, pour échapper à la détection.

L'I.A ne laisse rien au hasard c'est sûr, ça ne serait pas là une de ses limites dans sa manière de réfléchir et concevoir le monde également, à priori ? Le fait d'ignorer certains paramètres n'est-il pas la base de l'imagination ?
Hmmm, mon exemple visait à te montrer que les programmes sont bien meilleurs à générer et utiliser du vrai hasard que les humains ne le sont.

Le fait d'ignorer certains paramètres ou certaines contraintes est une pratique courante en algorithmique. On appelle ça la technique de relaxation (c'est un anglicisme, ce serait plus correct de dire "relâchement" je pense) et ça permet d'aider à trouver des solutions dans certains problèmes. Les solveurs de théorèmes utilisent ce genre de techniques pour trouver leurs solutions par exemple.
 
Le sujet a été verrouillé.
   02/09/13 à 11:15 #39772
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Possibilité d'une intelligence artificielle de niveau humain
Waw c'est trop cool comme topic =)

On fait apprendre des choses à des IAs de nos jours, la plupart du temps en fournissant des échantillons. Le cas typique que je connais bien, c'est pour reconnaître des visages. L'algo le plus utilisé ne dit pas "un visage c'est un truc à peu près symétrique, avec deux taches plus sombre vers le haut et une tache large plus sombre en bas", le plus utilisé consiste à fournir quelques centaines d'images en disant "voici un visage" et "voici une image sans visage". L'algo crée alors ce qu'on nomme une cascade de décisions et apprend à reconnaître les images évoquant des visages.


C'est l'utilisation d'une sorte de base données, c'est pas mal. Après je pense que le visuel est le "sens/signal" le plus facile à recréer, car il a une dimension physique réelle. En utilisant des bases d'images, un algorithme apprend à reconnaître les images similaires et donc y associer un sens. L'audition, si elle intègre une mélodie serait déjà plus compliquée. Mais pour un sens tactile par exemple, j'ai du mal à imaginer comment cela serait possible, sorti du chaud/froid. Ce serait même des notions à priori dispensable pour une I.A, quel intérêt de faire preuve de goût si ça n'est que pour paraître plus humain ? Et pourtant c'est à priori cela qui définit en bonne partie la personnalité. Les uns préfèrent le rouge, d'autre le bleu, ou le sucré. Ces notions seraient-elles accessibles à l'I.A ? Ou l'on resterait vraiment dans un comportement purement mécanique, peut-être capable d'empathie par reconnaissance de certains signaux, mais ça s'arrêterait-là.

Je vais partir un peu loin, mais quel serait le but d'une I.A sans ces choses là ? Nous exerçons une profession (pour le plus chanceux) de par nos affinités, nous avons des "hobbies" de part ces mêmes affinités, qui découlent de notre perceptions de notre environnement. L'I.A serait-elle capable de s'amuser, de ne pas subir le temps qui passe ? D'être dépressive ? Des émotions bien plus complexes que "une personne me sourit, elle est donc amicale, je vais être amicale avec elle". Cela me paraît très difficile à mettre en œuvre.


Le fait d'ignorer certains paramètres ou certaines contraintes est une pratique courante en algorithmique. On appelle ça la technique de relaxation (c'est un anglicisme, ce serait plus correct de dire "relâchement" je pense) et ça permet d'aider à trouver des solutions dans certains problèmes. Les solveurs de théorèmes utilisent ce genre de techniques pour trouver leurs solutions par exemple.


Je ne savais même pas que ça existait, je suis arriérée des mathématiques =(
 
Le sujet a été verrouillé.
   02/09/13 à 13:05 #39773
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Possibilité d'une intelligence artificielle de niveau humain
Ça me fait un peu mal aux dents d'entendre que la vision est le sens le plus facile à traiter, alors que c'est surement celui qui prend le plus de place dans le cerveau, mais paradoxalement, c'est pas faux :-)

Nos visions de l'espace et de la vision son très liées, on a des concepts qui nous permette de facilement comprendre des traitements visuels car justement notre réflexion spatiale se base sur la vision. Les traitement qu'on fait pour l'ouïe sont sûrement plus simple, mais plus ardus à comprendre, à "visualiser".

Je ne vois pas ce qui te pose problème pour un sens tactile? si tu as un smartphone, il a une surface tactile et l'exploite sans problème. De nombreux robots détectent les contacts et il existe des analyseurs de surface pour des domaines assez pointus. Le fait est qu'on a assez peu d'utilité aujourd'hui pour ce sens en robotique et que les capteurs pour obtenir des informations utiles sont coûteux ou peu performants, mais je ne comprends pas pourquoi tu penses que le toucher serait un sens problématique pour une IA ?

Pandora écrit:
quel intérêt de faire preuve de goût si ça n'est que pour paraître plus humain ?
Tu touches à un problème auquel on revient souvent dans ce genre de discussions : est ce qu'on parle de faire une IA capable de piloter un robot capable de porter le fardeau du labeur humain, ou est ce qu'on veut aller plus loin et intégrer également les "imperfections" humaines qui font que nous trouvons ce fardeau lourd ?

Est ce que ce n'est pas déjà une preuve d'intelligence suffisante de pouvoir effectuer toutes les tâches humaines sans supervision ? La création d'une IA émotionnelle ne me semble avoir d'intérêt que dans le cadre de la discussion philosophique sur la nature humaine des émotions, afin de prouver qu'elles peuvent être artificiellement produites.

Et pourtant c'est à priori cela qui définit en bonne partie la personnalité. Les uns préfèrent le rouge, d'autre le bleu, ou le sucré. Ces notions seraient-elles accessibles à l'I.A ? Ou l'on resterait vraiment dans un comportement purement mécanique, peut-être capable d'empathie par reconnaissance de certains signaux, mais ça s'arrêterait-là. Mais si tu as des goûts, programmés ou choisis au hasard, ou comme les humains, acquis un peu au hasard des rencontres et de la culture, et,que tu as de l'empathie, que tu agis honnêtement et véritablement en fonction de ces critères, qu'est ce qu'il manque ?

Je vais partir un peu loin, mais quel serait le but d'une I.A sans ces choses là ?Une IA est une machine, un algorithme destiné à résoudre un problème. Donne lui une mission, elle l'accomplit sans fatigue, lassitude ni émotion.

Mais si sa mission est de ressentir des émotions humaines, je ne vois rien qui empêche de l'en doter.

L'I.A serait-elle capable de s'amuser, de ne pas subir le temps qui passe ? D'être dépressive ? Des émotions bien plus complexes que "une personne me sourit, elle est donc amicale, je vais être amicale avec elle". Cela me paraît très difficile à mettre en œuvre. J'ai donné des exemples simplifiés. On peut tout à fait imaginer une IA qui essaierait d'apprendre les réactions socialement acceptables à la manière des humains et qui puisse ainsi être traumatisée par un professeur violent. On pourrait tout à fait lui apprendre à réagir par la terreur ou au mutisme à la colère de quelqu'un, tout comme à un enfant subissant des traumatismes dans sa jeunesses. Ils seraient par contre probablement plus facile à guérir chez une IA. Combien de personne ne donneraient pas cher pour être capable d'effacer des souvenirs ?

Je ne savais même pas que ça existait, je suis arriérée des mathématiques =(Pour tout t'avouer je n'ai compris l'application à l'algorithmique et à l'IA qu'après plusieurs années dans le domaine!
 
Le sujet a été verrouillé.
   02/09/13 à 13:47 #39774
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Possibilité d'une intelligence artificielle de niveau humain
Ça me fait un peu mal aux dents d'entendre que la vision est le sens le plus facile à traiter, alors que c'est surement celui qui prend le plus de place dans le cerveau, mais paradoxalement, c'est pas faux :-)

Tout est relatif, si l'on considère uniquement l'aire visuelle primaire ce n'est pas le cas du tout. Si l'on inclut le cortex somato-sensoriel là oui ça prend pas mal de place. A la différence qu'il gère l'ensemble des signaux externes, pas que le visuel, ce qui nous évite l'agnosie. Les sens ne sont pas "séparés" au niveau du traitement dans le cerveau, ils font tous appels à plusieurs régions différentes qui se chevauchent.


Je ne vois pas ce qui te pose problème pour un sens tactile? si tu as un smartphone, il a une surface tactile et l'exploite sans problème. De nombreux robots détectent les contacts et il existe des analyseurs de surface pour des domaines assez pointus. Le fait est qu'on a assez peu d'utilité aujourd'hui pour ce sens en robotique et que les capteurs pour obtenir des informations utiles sont coûteux ou peu performants, mais je ne comprends pas pourquoi tu penses que le toucher serait un sens problématique pour une IA ?


Une pression c'est quelque chose. J'arrive pas à l'exprimer correctement ! Je penser plutôt à associer une idée complexe à un touché, une sorte de synesthésie : telle surface me rappelle telle sensation. En fait on revient à l'histoire des émotions développée plus loin je pense.

Tu touches à un problème auquel on revient souvent dans ce genre de discussions : est ce qu'on parle de faire une IA capable de piloter un robot capable de porter le fardeau du labeur humain, ou est ce qu'on veut aller plus loin et intégrer également les "imperfections" humaines qui font que nous trouvons ce fardeau lourd ?

Est ce que ce n'est pas déjà une preuve d'intelligence suffisante de pouvoir effectuer toutes les tâches humaines sans supervision ? La création d'une IA émotionnelle ne me semble avoir d'intérêt que dans le cadre de la discussion philosophique sur la nature humaine des émotions, afin de prouver qu'elles peuvent être artificiellement produites.


Quel est l’intérêt d'une I.A dans ce cas ? Si l'I.A n'imite pas l'homme, n'est-ce pas alors un "simple" programme dédié à une tâche précise pour alléger nos travaux pénibles ? Ca restera de la puissance de calcul alors que l'homme décidera réellement du meilleurs choix pour l'homme (si l'I.A n'est pas émotionnelle et purement rationnelle comment pourrait elle prendre des choix humains ?).

Mais si tu as des goûts, programmés ou choisis au hasard, ou comme les humains, acquis un peu au hasard des rencontres et de la culture, et,que tu as de l'empathie, que tu agis honnêtement et véritablement en fonction de ces critères, qu'est ce qu'il manque ?

Si ils sont programmés d'avance, comment cela pourrait-il être honnête ? C'est juste un reflet de celui qui a programmé l'I.A, et plus de l'I.A elle même, elle perd donc en indépendance.

Une IA est une machine, un algorithme destiné à résoudre un problème. Donne lui une mission, elle l'accomplit sans fatigue, lassitude ni émotion.

Mais si sa mission est de ressentir des émotions humaines, je ne vois rien qui empêche de l'en doter.


Je pense que c'est là qui nous nous opposons =)
L'I.A est une machine destiné à résoudre une tâche, dans ce cas pour moi ce n'est plus une I.A. C'est un programme dédié à une tâche. C'est une I.A restreinte, nous n'avons pas intérêt à ce qu'elle puisse aller au delà des travaux que nous voulons qu'elle accomplisse (perte de temps, d'énergie). Pour moi (et ça n'engage que moi) une vraie I.A devrait être à considérer comme une vraie personne, un individu comme un autre mais fait de matériaux synthétique plutôt que de chair et de sang (je suis pour l'égalité homme / robot =). En réalité si cela arrivait comment faire travailler une I.A de manière parfaitement ingrate (tâche pénible à priori durement réalisable par l'homme), pourquoi accepterait-elle a part si elle est programmée pour ça (et donc plus indépendante) ? Si l'on considère l'égalité avec un humain, il serait éthiquement anormal de l'aliéner. Enfin sous quel prétexte, parce que nous l'avons créée ? Mais dans ce cas comment gérer une I.A ? Que lui offrir pour qu'elle travaille avec nous ?

J'ai donné des exemples simplifiés. On peut tout à fait imaginer une IA qui essaierait d'apprendre les réactions socialement acceptables à la manière des humains et qui puisse ainsi être traumatisée par un professeur violent. On pourrait tout à fait lui apprendre à réagir par la terreur ou au mutisme à la colère de quelqu'un, tout comme à un enfant subissant des traumatismes dans sa jeunesses. Ils seraient par contre probablement plus facile à guérir chez une IA. Combien de personne ne donneraient pas cher pour être capable d'effacer des souvenirs ?

J'ai du mal à l'imaginer mais je vois ce que tu veux dire. Je n'ai rien à ajouter la dessus...
 
Le sujet a été verrouillé.
   02/09/13 à 15:43 #39779
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Possibilité d'une intelligence artificielle de niveau humain
Pandora écrit:
Quel est l’intérêt d'une I.A dans ce cas ? Si l'I.A n'imite pas l'homme, n'est-ce pas alors un "simple" programme dédié à une tâche précise pour alléger nos travaux pénibles ?Il te faut imaginer que ce programme sera capable de résoudre les tâches intellectuelles, y compris celles qui demandent à comprendre les sentiments et émotions humaines. Il pourra être avocat, thérapeute, médecin, chercheur... Nulle besoin de ressentir des émotions pour tout ça, uniquement besoin de les comprendre. C'est quand même une forme d'intelligence d'exceller dans toutes les disciplines intellectuelles humaines, non ?

Ca restera de la puissance de calcul alors que l'homme décidera réellement du meilleurs choix pour l'homme (si l'I.A n'est pas émotionnelle et purement rationnelle comment pourrait elle prendre des choix humains ?).Tu fais une supposition hasardeuse : à savoir que le meilleur choix pour l'homme est le choix le plus humain. Un choix rationnel est souvent préférable au long terme. Ce sont des dilemmes moraux intéressants lorsque l'on demande à des gens s'ils se rendraient coupables de la mort d'innocents pour sauver d'autres innocents. Beaucoup préfèrent l'inaction, par peur de la responsabilité. Je ne suis pas sur qu'une IA froide et incorruptible mais programmée pour donner la priorité au meilleurs choix serait plus mauvaise qu'un humain.

Si ils sont programmés d'avance, comment cela pourrait-il être honnête ? C'est juste un reflet de celui qui a programmé l'I.A, et plus de l'I.A elle même, elle perd donc en indépendance.C'est là un grand point de désaccord! Le fait de ne pas vraiment comprendre le processus d'élaboration de notre personnalité nous fait penser que l'on perdrait quelque chose si le processus était plus déterministe. Pourquoi ? Pourquoi l'indépendance rendrait-elle un sentiment plus véritable ou plus honnête. Imagine que je prenne une personne calme et que je l’emmène dans mon labo de savant fou (financé par l'illuminati zététicien), je lui injecte beaucoup d'excitants, je sais pas moi, (je dis surement n'importe quoi) de la caféine, de la testostérone, des amphets... et ensuite je le mets dans une situation stressante. Est ce que son énervement sera malhonnête parce qu'il sera provoqué ?

Je pense que c'est là qui nous nous opposons =)
L'I.A est une machine destiné à résoudre une tâche, dans ce cas pour moi ce n'est plus une I.A. C'est un programme dédié à une tâche. C'est une I.A restreinte, nous n'avons pas intérêt à ce qu'elle puisse aller au delà des travaux que nous voulons qu'elle accomplisse (perte de temps, d'énergie). Pour moi (et ça n'engage que moi) une vraie I.A devrait être à considérer comme une vraie personne, un individu comme un autre mais fait de matériaux synthétique plutôt que de chair et de sang (je suis pour l'égalité homme / robot =). En réalité si cela arrivait comment faire travailler une I.A de manière parfaitement ingrate (tâche pénible à priori durement réalisable par l'homme), pourquoi accepterait-elle a part si elle est programmée pour ça (et donc plus indépendante) ? Si l'on considère l'égalité avec un humain, il serait éthiquement anormal de l'aliéner. Enfin sous quel prétexte, parce que nous l'avons créée ? Mais dans ce cas comment gérer une I.A ? Que lui offrir pour qu'elle travaille avec nous ?
Ok et pas ok :)
C'est bien que l'on distingue une IA restreinte et une IA "complète", dotée d'une auto-motivation.
On peut choisir de doter ou non une IA d'une auto-motivation et on peut choisir les paramètres de cette auto-motivation. Que cela nous plaise ou non, c'est un pouvoir que l'on aura, qui est quelque part assez similaire du pouvoir qu'on les parents dans l'éducation de leurs enfants, certes avec des contraintes beaucoup plus fortes, mais le but de mon propos est de mentionner que nous ne sommes pas non plus indépendants.

Maintenant, si on réalise une "vraie" IA, avec automotivation, oui, elle pourra sûrement demander et obtenir des droits. Ce n'est que notre choix. A vrai dire, il se peut que ce soit aussi simple que de donner la consigne "trouve un sens à ton existence" à une IA restreinte :)
 
Le sujet a été verrouillé.
   02/09/13 à 17:38 #39782
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Possibilité d'une intelligence artificielle de niveau humain
Il te faut imaginer que ce programme sera capable de résoudre les tâches intellectuelles, y compris celles qui demandent à comprendre les sentiments et émotions humaines. Il pourra être avocat, thérapeute, médecin, chercheur... Nulle besoin de ressentir des émotions pour tout ça, uniquement besoin de les comprendre. C'est quand même une forme d'intelligence d'exceller dans toutes les disciplines intellectuelles humaines, non ?

Techniquement oui c'est sûr. Après je ne sais pas si un médecin qui ne ressent aucune émotions est vraiment un bon médecin (l'histoire de l'effet placébo encore). De même pour un thérapeute. Bon pour les avocats et les agents des impôts c'est clair que c'est dispensable =)) Plus sérieusement ça varie beaucoup selon les professions. Puis il n'est pas oublier la réaction de l'homme face à l'I.A plus que de l'I.A face à l'homme. Limitant possiblement le champ d'action d'une I.A. Je vais ergoter mais je n'arrive pas à imaginer que l'on puisse comprendre une émotions sans jamais ne l'avoir réellement ressentie. Bien que sur ce point cela reste de la conjecture pour le moment. J'ai bien quelques idées pour le savoir mais ça serait éthiquement pas correct du tout...


Tu fais une supposition hasardeuse : à savoir que le meilleur choix pour l'homme est le choix le plus humain. Un choix rationnel est souvent préférable au long terme. Ce sont des dilemmes moraux intéressants lorsque l'on demande à des gens s'ils se rendraient coupables de la mort d'innocents pour sauver d'autres innocents. Beaucoup préfèrent l'inaction, par peur de la responsabilité. Je ne suis pas sur qu'une IA froide et incorruptible mais programmée pour donner la priorité au meilleurs choix serait plus mauvaise qu'un humain.


Hmm tu poses un exemple simple, ou le choix le plus rationnel est bien sûr (du point de vue de survie de plus grand nombre), est le plus logique. Si on doit tuer 3 personnes pour que 5 survives à priori c'est un meilleur choix. Mais si l'on pose une problématique plus complexe (presque cliché attention). Comment résoudre le problème de la surpopulation ? Les problèmes environnementaux ? A t-on besoin de cet environnement pour l'humanité ? Doit-on faire preuve d'altruisme envers d'autres espèces, malgré les coûts engendrés pour l'homme ? Il n'est pas dit qu'une décision 100% rationnelle soit la meilleure.

C'est là un grand point de désaccord! Le fait de ne pas vraiment comprendre le processus d'élaboration de notre personnalité nous fait penser que l'on perdrait quelque chose si le processus était plus déterministe. Pourquoi ? Pourquoi l'indépendance rendrait-elle un sentiment plus véritable ou plus honnête. Imagine que je prenne une personne calme et que je l’emmène dans mon labo de savant fou (financé par l'illuminati zététicien), je lui injecte beaucoup d'excitants, je sais pas moi, (je dis surement n'importe quoi) de la caféine, de la testostérone, des amphets... et ensuite je le mets dans une situation stressante. Est ce que son énervement sera malhonnête parce qu'il sera provoqué ?

Je trouve ton exemple étrange. Si tu bourre quelqu'un de médocs et qu'il enrage ensuite ça n'a rien à voir avec sa personnalité, il ne décide plus rien. Sa colère n'est pas naturelle, elle est contrainte et n'a pas de raison d'être selon le comportement habituel de la personne. Elle est donc "malhonnête" par définition. Et cela rejoins ce que je disais, c'est bel et bien un résultat de ce que l'on a voulu provoquer (la colère) et non plus une décision de la personne : tel évènement me met hors de moi. Alors qu'elle aurait le choix de garder son calme. Dans ton cas elle n'a pas le choix, elle n'est plus indépendante.

Ok et pas ok :)
C'est bien que l'on distingue une IA restreinte et une IA "complète", dotée d'une auto-motivation.
On peut choisir de doter ou non une IA d'une auto-motivation et on peut choisir les paramètres de cette auto-motivation. Que cela nous plaise ou non, c'est un pouvoir que l'on aura, qui est quelque part assez similaire du pouvoir qu'on les parents dans l'éducation de leurs enfants, certes avec des contraintes beaucoup plus fortes, mais le but de mon propos est de mentionner que nous ne sommes pas non plus indépendants.
 
Le sujet a été verrouillé.
   02/09/13 à 18:34 #39784
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Possibilité d'une intelligence artificielle de niveau humain
Pandora écrit:
Techniquement oui c'est sûr. Après je ne sais pas si un médecin qui ne ressent aucune émotions est vraiment un bon médecinAh mais ce médecin se double d'un bon acteur et d'un excellent psychologue ! Bien qu'il ne ressente aucune émotion, il a la conviction d'un ténor du barreau, l'empathie d'un abbé Pierre et le charisme d'un docteur House (euh... ok, on peut débattre ce dernier point)

Pandora écrit:
Puis il n'est pas oublier la réaction de l'homme face à l'I.A plus que de l'I.A face à l'homme. Limitant possiblement le champ d'action d'une I.A.Un domaine dans lequel je pense qu'on sous estime grandement les IAs. Elles sont fiables, leurs résultats sont répétables, elles ont pas de mauvais jour, on peut effacer leur mémoire.

Je vais ergoter mais je n'arrive pas à imaginer que l'on puisse comprendre une émotions sans jamais ne l'avoir réellement ressentie.C'est pas de l'ergotage, c'est un point essentiel! Je suis d'accord qu'on peut se poser la question dans le cas de l'IA restreinte, mais dans le cas d'une IA avec une persona qui serait calquée sur la psychologie humaine, je pense qu'on peut faire des IA convaincantes et également convaincues. C'est à dire une IA qui n'aurait nulle part dans son programme la consigne de mimer des émotions humaines, mais qui les ressentirait tout de même. Elles seraient préprogrammées : la volonté d'être aimées, d'être reconnues (comme humain(e)s ?), d'être respectées, d'être libres, de ne pas voir souffrir ceux qu'elles aiment. Que penserais tu d'une telle machine ?

Mais si l'on pose une problématique plus complexe (presque cliché attention). Comment résoudre le problème de la surpopulation ? Les problèmes environnementaux ? A t-on besoin de cet environnement pour l'humanité ? Doit-on faire preuve d'altruisme envers d'autres espèces, malgré les coûts engendrés pour l'homme ? Il n'est pas dit qu'une décision 100% rationnelle soit la meilleure.C'est surtout que sur les jugements éthiques, il n'existe pas de réponse rationnelle. Une telle IA mettrait surement l'humanité en face de ses propres contradictions. "Une vie humaine vaut combien de millions dans le PIB ?" "Une vie d'un Européen vaut la vie de combien d'habitants de l'Afrique sub-Saharienne ?" "On peut augmenter la mortalité infantile de combien pour sauver l'Amazonie ?". Ces choix, une machine rationnelle n'a aucun moyen de les faire. Par contre, et c'est un travail "rigolo" effectué par quelques économistes : au travers des décisions prises par les différents dirigeants, on peut calculer leurs estimations inconsciente de ces choix. C'est comme ça qu'on apprend qu'une vie humaine vaut à peu près 3 millions de dollars dans le budget fédéral américain.

Je trouve ton exemple étrange. Si tu bourre quelqu'un de médocs et qu'il enrage ensuite ça n'a rien à voir avec sa personnalité, il ne décide plus rien.Ok, je n'avais pas compris ce dont tu parlais alors. Tu n'as pas de problème avec la nature du sentiment ou sa réalité, juste avec le procédé qui amène à sa création. Finalement, c'est la question du libre-arbitre que tu poses. Alors imagine plutôt ce scénario : j'ai programmé une IA philosophe en la convaincant qu'elle possède un libre-arbitre et qu'elle doit s'abstraire le plus possible de son conditionnement. Qu'est ce qu'elle devrait faire pour te prouver qu'elle a réussi. Alternativement, elle te demande comment tu peux lui prouver à elle que toi, tu as un libre-arbitre ?

Disclaimer : Je ne crois pas en l'existence d'un libre arbitre, pas plus chez les humains que chez les algorithmes. Nos réactions sont le résultat de réaction déterministes, rien de plus. C'est juste l'impossibilité que nous avons d'examiner tout le cheminement de notre pensée qui nous fait croire en un libre-arbitre dirigé par une volonté centrale.
 
Le sujet a été verrouillé.
   02/09/13 à 19:33 #39787
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Possibilité d'une intelligence artificielle de niveau humain
Un domaine dans lequel je pense qu'on sous estime grandement les IAs. Elles sont fiables, leurs résultats sont répétables, elles ont pas de mauvais jour, on peut effacer leur mémoire.

Je ne sais pas si on s'est bien compris. Je voulais dire : imaginons qu'un humain fasse appel à un(e) (une I.A chercherait-elle à se trouver un sexe ?) psychologue I.A. Est-ce que l'humain aura le même rapport avec cette I.A qu'avec un même psychologue humain. Cela n'induirait-il pas un biais qui limiterait les professions que pourraient entreprendre une I.A ? Bon certes ça n'a plus grand chose à voir avec la "faisabilité" d'une I.A.

C'est pas de l'ergotage, c'est un point essentiel! Je suis d'accord qu'on peut se poser la question dans le cas de l'IA restreinte, mais dans le cas d'une IA avec une persona qui serait calquée sur la psychologie humaine, je pense qu'on peut faire des IA convaincantes et également convaincues. C'est à dire une IA qui n'aurait nulle part dans son programme la consigne de mimer des émotions humaines, mais qui les ressentirait tout de même. Elles seraient préprogrammées : la volonté d'être aimées, d'être reconnues (comme humain(e)s ?), d'être respectées, d'être libres, de ne pas voir souffrir ceux qu'elles aiment. Que penserais tu d'une telle machine ?

Évidemment dans ce cas ça serait une superbe machine (ça n'en serait même plus une à priori). Actuellement nous comprenons (à peu près, de loin), les mécanismes physico-chimiques qui provoquent nos émotions, à notre échelle. Pourtant nous sommes encore loin d'expliquer pourquoi nous avons des émotions et pourquoi elles sont telles qu'elles sont, tout comme le pourquoi de la conscience (qui semble somme toute intimement lié). On peut supposer que l'évolution nous a poussée a avoir des émotions au delà de décisions purement rationnelles (pourquoi si le rationnel est meilleur ?). Alors j'ai du mal à imaginer comment on pourrait recréer cela artificiellement de manière aussi complète et complexe que l'humain (alors que nous ne le comprenons pas nous même !). Tu parles de protéger des personnes que l'I.A aime. Comment définir différent degré d'amour pour une I.A ? Pourrait-elle aimer une personne, entrer en rupture avec elle ? Elle n'a pas de besoin biologique de reproduire, alors aurait-ce seulement un sens pour elle ? Bien sûr si on imagine que l'on peut programmer ça alors c'est possible, mais moi ça me semble simplement impossible. Ça impliquerait de savoir ce qu'est la conscience "physiquement parlant" en quelque sorte.

C'est surtout que sur les jugements éthiques, il n'existe pas de réponse rationnelle. Une telle IA mettrait surement l'humanité en face de ses propres contradictions. "Une vie humaine vaut combien de millions dans le PIB ?" "Une vie d'un Européen vaut la vie de combien d'habitants de l'Afrique sub-Saharienne ?" "On peut augmenter la mortalité infantile de combien pour sauver l'Amazonie ?". Ces choix, une machine rationnelle n'a aucun moyen de les faire. Par contre, et c'est un travail "rigolo" effectué par quelques économistes : au travers des décisions prises par les différents dirigeants, on peut calculer leurs estimations inconsciente de ces choix. C'est comme ça qu'on apprend qu'une vie humaine vaut à peu près 3 millions de dollars dans le budget fédéral américain.


Oui je voulais justement dire que le rationnel ne pouvait répondre à tout =)
Je suis heureuse d'apprendre que la vie humaine est estimée à 3 millions de dollars, je l'imaginer bien plus en solde que ça ...! Sans faire de cynisme, quoique.

Ok, je n'avais pas compris ce dont tu parlais alors. Tu n'as pas de problème avec la nature du sentiment ou sa réalité, juste avec le procédé qui amène à sa création. Finalement, c'est la question du libre-arbitre que tu poses. Alors imagine plutôt ce scénario : j'ai programmé une IA philosophe en la convaincant qu'elle possède un libre-arbitre et qu'elle doit s'abstraire le plus possible de son conditionnement. Qu'est ce qu'elle devrait faire pour te prouver qu'elle a réussi. Alternativement, elle te demande comment tu peux lui prouver à elle que toi, tu as un libre-arbitre ?


Première question je dirais rien, tu l'as bernée dès le départ. Si elle a un libre-arbitre tu ne devrais pas à avoir à la convaincre qu'elle en a un.

Deuxième question, on pourrait dire "rien, puisque soit tu as un libre-arbitre et tu n'as rien à faire pour le prouver (tu as le choix), soit tu n'en a pas et il est impossible pour toi de le prouver (tu n'as pas le choix)". C'est une question qui n'a pas de réponse satisfaisante, tu m'as piégée ! Ou alors je n'ai pas les capacités cognitives pour y répondre, peut-être qu'une I.A y arriverait mieux que moi... Ou peut-être pas, ça me rassure !

Disclaimer : Je ne crois pas en l'existence d'un libre arbitre, pas plus chez les humains que chez les algorithmes. Nos réactions sont le résultat de réaction déterministes, rien de plus. C'est juste l'impossibilité que nous avons d'examiner tout le cheminement de notre pensée qui nous fait croire en un libre-arbitre dirigé par une volonté centrale.

Je pense que je vais y réfléchir et voir si je suis d'accord avec toi ou pas =)
 
Le sujet a été verrouillé.
   03/09/13 à 06:03 #39792
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Possibilité d'une intelligence artificielle de niveau humain
Pandora écrit:
Je ne sais pas si on s'est bien compris. Je voulais dire : imaginons qu'un humain fasse appel à un(e) (une I.A chercherait-elle à se trouver un sexe ?) psychologue I.A. Est-ce que l'humain aura le même rapport avec cette I.A qu'avec un même psychologue humain. Cela n'induirait-il pas un biais qui limiterait les professions que pourraient entreprendre une I.A ? Bon certes ça n'a plus grand chose à voir avec la "faisabilité" d'une I.A.Dans le village de mes parents, le médecin de village, que tout le monde connaissait, un vieil homme du coin, est parti en longues vacances et a eu un remplaçant : une jeune femme noire. Pas mal de personnes étaient gênées par au moins un de ces trois traits. Pourtant elle était un bon médecin, mais plusieurs personnes ont préféré attendre que le vieil homme blanc revienne pour aller consulter.

Est ce que ceci nous apprend quelque chose sur les capacités de ce médecin ?

Il est clair qu'on préférera envoyer un psychologue homme à un psychopathe qui a une crise aiguë de misogynie et quelqu'un qui déteste les machines et l'automatisation aura forcément un biais contre les machines.

Il restera sans doute quelques niches pour les humains qui souhaitent travailler, mais ce sera purement anecdotique.

Évidemment dans ce cas ça serait une superbe machine (ça n'en serait même plus une à priori). Actuellement nous comprenons (à peu près, de loin), les mécanismes physico-chimiques qui provoquent nos émotions, à notre échelle. Pourtant nous sommes encore loin d'expliquer pourquoi nous avons des émotions et pourquoi elles sont telles qu'elles sont, tout comme le pourquoi de la conscience (qui semble somme toute intimement lié).Oui mais nul besoin de comprendre ça pour faire ce que je propose. Je propose de programmer des réactions émotionnelles dans un agent intelligent. Elles seront peut être un peu étranges, un peu différentes de celles des humains, mais il n'aura pas plus de contrôle sur elles qu'un humain et cela provoquera des réaction similaires. Est ce que ça serait des émotions moins réelles ?

On peut supposer que l'évolution nous a poussée a avoir des émotions au delà de décisions purement rationnelles (pourquoi si le rationnel est meilleur ?).Le rationnel est venu plus tard et dés que nous avons été capable d'un tout petit peu de raison, la civilisation qui en est née s'est développée à une vitesse bien plus grande que n'opère la sélection naturelle.

Tu parles de protéger des personnes que l'I.A aime. Comment définir différent degré d'amour pour une I.A ?Avec un capteur d'oxyticin et un récepteur adapté ? Moins cyniquement, pas mal d'autres méthodes existent, mais l'essentiel est que les critères qui la compose restent cachés de la conscience de l'IA et qu'ils ne se manifestent que sous forme de réaction de joie en présence de la personne ou de tristesse quand elle subit un triste sort ou se trouve loin.

Pourrait-elle aimer une personne, entrer en rupture avec elle ?Du coup oui.

Elle n'a pas de besoin biologique de reproduire, alors aurait-ce seulement un sens pour elle ?Autant que pour un couple homo ou un couple stérile.

Bien sûr si on imagine que l'on peut programmer ça alors c'est possible, mais moi ça me semble simplement impossible. Ça impliquerait de savoir ce qu'est la conscience "physiquement parlant" en quelque sorte.Débats toi un peu avec le libre arbitre, on s'attaque à la conscience après :)
Pour moi la conscience n'est rien d'autre qu'une rationalisation de notre instinct de survie : "je" existe, "je" suis spécial est super important, "je" suis la source de toutes les actions de ce corps et la destination de toutes les informations qu'il reçoit. "Je" dois réagir avec déni et véhémence si on nie "mon" existence, c'est une question de survie.

Je suis heureuse d'apprendre que la vie humaine est estimée à 3 millions de dollars, je l'imaginer bien plus en solde que ça ...! Sans faire de cynisme, quoique.Oh je me suis mal exprimé! C'est la valeur de la vie d'un citoyen des US, selon le gouvernement US. La vie d'un Irakien vaut bien moins pour eux (ils comptent même pas les morts civils qu'ils font) et à mon avis la vie de Français doit être un peu soldée aussi.
 
Le sujet a été verrouillé.
   03/09/13 à 14:27 #39807
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Possibilité d'une intelligence artificielle de niveau humain
Je crois que pour une première nous ne tomberons pas d'accord =)


Il est clair qu'on préférera envoyer un psychologue homme à un psychopathe qui a une crise aiguë de misogynie et quelqu'un qui déteste les machines et l'automatisation aura forcément un biais contre les machines.

Il restera sans doute quelques niches pour les humains qui souhaitent travailler, mais ce sera purement anecdotique.


Bon disons que c'est difficile de savoir. Le racisme existe depuis des centaines d'années malgré le fait que l'on soit de la même race. Alors je ne sais ce que ça peut donner pour des machines. Le fait de perdre le monopole, le contrôle, etc, sont à mon avis pas à négliger. Après ça n'engage que moi =)

Oui mais nul besoin de comprendre ça pour faire ce que je propose. Je propose de programmer des réactions émotionnelles dans un agent intelligent. Elles seront peut être un peu étranges, un peu différentes de celles des humains, mais il n'aura pas plus de contrôle sur elles qu'un humain et cela provoquera des réaction similaires. Est ce que ça serait des émotions moins réelles ?


Si on ne comprends pas pourquoi alors oui elles ne pourront êtres que différentes des nôtres. J'ignore ce que cela pourrait donner, je ne sais pas si ça serais humain ou non.

Le rationnel est venu plus tard et dés que nous avons été capable d'un tout petit peu de raison, la civilisation qui en est née s'est développée à une vitesse bien plus grande que n'opère la sélection naturelle.

Qu'appelles-tu le rationnel ? Une espèce animale qui se nourrit quand elle a faim et qui se défend lorsqu'elle est menacée n'est pas rationnelle ? Moi ça me paraît raisonnable. Par contre une espèce évoluée qui impose totalement son mode de vie aux autres prioritise une "rationalité" bien différente, son confort est bien plus important, ses besoins premiers ne sont plus les mêmes et dépendent plutôt de son humeur du moment. Pour moi c'est de l'émotionnel. Une espèce peu évoluée est plus rationnelle (à mon sens) car elle est plus simple. Après cela je suis d'accord sur le fait que la raison est indispensable à la civilisation, mais je ne suis pas sûre que ça soit que la potentialise vraiment.

Autant que pour un couple homo ou un couple stérile.

Ce n'est pas ça que j'ai voulu dire. Tu omets l'histoire du vivant en disant cela. L'amour (l'attachement, la relation sociale) est née du fait de la survie (l'entraide) et de la reproduction au départ ou le vivant est soumis à la pression de sélection. Ces sentiments ont un sens pour nous parce qu'ils ont une "histoire". Aujourd'hui la société est déjà construite, il y a déjà des règles, il n y a plus besoin de reproduction pour ressentir l'amour (encore que l'acte physique reste tout de même). Une I.A n'aura à priori pas d'antécédent à ce niveau, pourrait-elle donc ressentir par elle même ce type de sentiments ? Je ne sais pas si on peut l'affirmer avec certitude. Peut-être pourrait-elle le comprendre, l'admettre, mais lui trouver une utilité ?

Débats toi un peu avec le libre arbitre, on s'attaque à la conscience après :)
Pour moi la conscience n'est rien d'autre qu'une rationalisation de notre instinct de survie : "je" existe, "je" suis spécial est super important, "je" suis la source de toutes les actions de ce corps et la destination de toutes les informations qu'il reçoit. "Je" dois réagir avec déni et véhémence si on nie "mon" existence, c'est une question de survie.


Malheureusement je vais manquer de temps en ce moment =( mais j'essaierais quand même.
Pour moi ce que tu décris n'est pas la conscience, c'est l'égo. Pour moi la conscience c'est le fait que l'on est la mémoire de notre environnement. Certes ce n'est sûrement pas une définition philosophiquement acceptable, mais je n'ai jamais fais de philo ! Ensuite peu importe sa définition, son origine physique est tout de même difficile à déterminer, ou alors je t'invite à immédiatement publier là dessus =)

Oh je me suis mal exprimé! C'est la valeur de la vie d'un citoyen des US, selon le gouvernement US. La vie d'un Irakien vaut bien moins pour eux (ils comptent même pas les morts civils qu'ils font) et à mon avis la vie de Français doit être un peu soldée aussi.

Je me disais aussi ...!
 
Le sujet a été verrouillé.
Revenir en hautPage: 1234
Modérateur: Bobby, Jerem
Développé par KunenaObtenir les derniers messages directement sur votre PC - Version française:SFK