Forum

Article : “IA forte”, quatre raisons de douter

Pour poster un commentaire, vous devez vous identifier

Remarquable !

Christian Feugnet

  17/09/2017

C'est une grande satisfaction pour moi de lire un tel article sur un sujet , à mon avis nouvelle arnaque intellectuelle qui semble les paralyser nos intellectuels , d'autant que Hawking y est allé de sa notoriété , quoique qu'à mon avis il en est pas à sa premiére ; mais bon on tire pas sur un fauteuil roulant .
Ecxellent le recours à Penrose . Bien sur déjà le pb avait été posé et résolu par la philosophie Allemande , qui ne prévaut pas , sauf adaptée en France et chez les Anglo Saxons .
Parce que cette maniére d'envisager l"intelligence" est typiquement Anglo Saxonne , c'est un matéralisme , oui , mais trés typé .
Justement sur leur terrain de conscience , il existe un pb , qui suffit sans avoir recours à Penrose , atypique comme Anglais  , le pb dit Np-complet qui énonce , grossiérement , qu'il est impossible de résoudre , calculer , toutes les combinaisons en un temps " humain " au delà d'un niveau de complexité , trés reduit . Méme avec un ordinateur quantique .
On se sait méme pas s'il est résoluble !
On pourrait imaginer qu'on trouve par hasard avec un gros coup de chance , ou encore qu'on puisse remettre en cause toute la physique depuis Einstein , en découvrant de la "matiére" allant plus vite que la lumiére , enfin bref à l'aide d'hypothéses abracadabrantes ( de abracadabra ) .

Biiip !

Laurent Caillette

  17/09/2017

J'aime bien l'article d'Alexis Toulet pour sa conclusion (la conscience artificielle n'est pas pour demain) mais je ne suis pas d'accord avec les arguments qu'il emploie.

La démonstration de Penrose ne vaut rien. Elle s'appuie sur l'idée qu'il faut comprendre quelque chose pour le produire. C'est faux. Le meilleur exemple c'est l'apprentissage par renforcement ("deep learning"). On soumet à un réseau de neurones artificiel des exemples, et on renforce les liaisons entre les neurones quand le résultat en sortie s'approche de ce qu'on veut. Le résultat c'est un tas de nombres dans la mémoire d'un ordinateur, sans aucune magie quantique. Mais le fonctionnement d'un réseau de ce type est inapréhendable par un humain.

J'adore l'exemple de Mar/IO. Un réseau avec seulement 8 neurones intermédiaires (entre les entrées et les sorties) est capable de jouer à un jeu vidéo. Les explications (en anglais) durent 5 minutes et sont compréhensibles par n'importe quel non-informaticien. Les explications portent sur la mécanique d'apprentissage, tout en constatant que le réseau lui-même est une boîte noire dont on peut juste dire qu'elle fonctionne dans certains cas (oui c'est cette approche qui est utilisée pour les véhicules autonomes et non ça ne se passe pas toujours très bien). L'exemple de Mar/IO aide à comprendre qu'on n'a pas besoin de comprendre quelque chose pour le créer, surtout quand il suffit de faire tourner le programme de génération assez longtemps.

Toutes ces histoires d'intelligence ou de conscience artificielle sont ravissantes car elle mettent en valeur des biais cognitifs hallucinants. 

Par exemple, dans toutes les discussions sur le sujet, la boucle de rétroaction avec le monde réel n'est quasiment jamais évoquée. Or, intuitivement, l'on perçoit bien que pour un humain la confrontation avec ses propres limites — d'ordre physique notamment — et la communication avec d'autres êtres humains sont absolument cruciales dans la fabrication de la conscience et de l'intelligence. Dans les discussions sur l'IA les mecs imaginent vraiment le machin qui sort de l'usine comme un poulet sous cellophane.

De plus il n'est jamais question de la conscience ou intelligence comme phénomène exogène. Là j'attaque une idée personnelle assez peu dégrossie : le cerveau humain est juste le réceptacle et l'environnement d'exécution de programmes plus ou moins formels diffusés sous forme d'idées, d'injonctions, de culture. La notion d'intelligence devient alors une vision extrêmement partielle du phénomène. Cette histoire d'intelligence artificielle est l'occasion de surtout ne pas s'élever au-dessus de quelques lieux communs débiles sur la séparation du corps et de l'esprit et la primauté de l'individu. 

Apparemment, le plus important c'est vraiment que le truc soit artificiel, c'est à dire que quelqu'un possède la machine pour produire des dieux en grande série. Si on prend un écosystème, on peut observer une capacité d'adaptation, de la créativité, donc ça devrait cocher quelques bonnes cases dans une classification intuitive de l'intelligence. Mais non. Et s'il y a des gens pour parler du droit de vote pour les ordinateurs bizarrement il y en a moins pour promouvoir les droits des écosystèmes. 

Un non-dit c'est que pour être reconnue comme telle, une intelligence artificielle ferait bien de ne pas être trop intelligente. Si elle n'a pas les bons biais cognitifs comment pourrait-on développer de la complicité ? Sûrement existe-t-il un roman de science-fiction où l'on construit un super-ordinateur qui doit trouver comment sauver l'humanité. "Biiip ! Réduisez la population mondiale et le niveau de consommation de 90 %" Et là on le débranche parce qu'il a fourni une réponse vraiment inadmissible. Ou alors, le super-ordinateur anticipe sur ce qui est inadmissible — il est très fort — et il s'éteint tout seul.

Nous sommes d'accord, ce qui est désigné aujourd'hui comme "intelligence artificielle" est juste une méthode d'automatisation un peu plus poussée. Il se trouve que ces discours sur l'éventuelle apparition d'une conscience ou intelligence artificielle tendent à détourner notre intérêt d'une question plus pratique : la responsabilité de ceux qui opèrent ces systèmes automatisés. 

Le danger est ailleurs

Crapaud Rouge

  21/09/2017

Désolé, mais je trouve cet article très faible, on dirait que l'auteur veut ridiculiser l'IA et le phénoménal développement qui l'attend. D'abord, citer de grands noms qui expriment des craintes "ridicules" n'apporte rien, l'histoire des techniques est jalonnée de craintes illusoires. Et pour cause : l'avenir d'une technique est impossible à décrire, donc les craintes impossibles à formuler. Des premiers trains qui roulaient péniblement à 30 km/h, on est passé aux TGV à 300 et l'avenir verra l'hyperloop à 1000 km/h et peut-être son concurrent chinois qui en promet… 4000 !

Ensuite, identifier "l'IA forte" à la conscience artificielle, c'est considérer cette dernière comme un summum alors que : 
- il n'est pas exclu que la conscience apparaisse un jour, quand on saura mieux ce que c'est, comme étant quelque chose de facile à reproduire ou imiter.
- un artefact qui imiterait suffisamment bien le comportement d'un être humain pourrait donner l'impression d'être doué de conscience, et cela pourrait suffire à faire croire que l'on a créé une conscience artificielle. Mais on est incapable de prouver qu'un animal est doué de conscience, comment le pourrait-on pour une machine ? Parce qu'une IA pourrait dire : "j'ai une conscience" ? Par imitation (intelligente), elle pourra dire ce qu'elle veut, personne ne pourra prouver qu'elle est "sincère". 

Enfin, cette manière de définir "l'IA forte" laisse entendre que l'IA ne pourrait pas être forte autrement, selon d'autres voies ou d'autres dimensions, de façon analogue aux avions qui font bien mieux que les oiseaux pour transporter des centaines de passagers. La leçon, c'est que même si la possibilité d'une conscience artificielle semble ridicule, celle d'une IA qui nous écraserait par son "intelligence" n'est pas une crainte "en l'air" : parce que les progrès vont se faire sur tous les fronts, (deep learning, raisonnements, compréhension du langage, volume des données…), par des centaines d'entreprises en compétition, et parce que les produits de cette "industrialisation de l'intelligence" se mettront facilement à la disposition du public via Internet.

Quelle sera la place des gens ordinaires quand cette "industrialisation de l'intelligence" sera effective, et que les machines auront de meilleures idées que les humains ? Il y a tout lieu de croire que leur "intelligence biologique" ne sera pas plus utile que leur force musculaire aujourd'hui. J'imagine qu'ils devront passer leur temps à discuter/corriger/valider/transmettre des informations quasi exclusivement produites par des machines : cela exige encore de l'intelligence, mais réduit la responsabilité.

Empathie

jc

  25/09/2017


Selon Thom "l'intelligence est la capacité de s'identifier à autre chose, à autrui" (et il parle à ce propos d'identification amoureuse). L'intelligence est donc pour lui exactement la capacité d'empathie*. Par suite l'intelligence naturelle selon Thom est essentiellement de nature affective.

(Ceci va, selon moi, dans le sens de ce qu'écrit PhG dans "La grâce de l'Histoire" (tome II, p.320): "la psychologie, aussi fonctionnelle qu'elle soit, exerce une fonction fondamentale et nécessaire en ceci qu'elle est le sas de la perception du monde à l'avantage de notre esprit.")

Un darwinien orthodoxe** pourra voir cette forme d'intelligence comme un facteur favorable à l'évolution des espèces puisque l'empathie permet au prédateur d'anticiper les mouvements de sa proie et d'en favoriser ainsi la capture (et à la proie d'anticiper les mouvements du prédateur et d'en favoriser ainsi l'évitement -cf. Tom et Jerry). Mais ce n'est pas, je crois, la position de Thom.

Selon Thom en effet c'est l'assertion de nature translogique "le prédateur affamé est sa propre proie" qui est à la base de l'embryologie animale (le chat affamé s'identifie à une souris virtuelle jusqu'au moment de la perception d'une souris réelle, moment à partir duquel il redevient chat). Et Thom associe cette assertion au lacet de prédation lié à la catastrophe "fronce". Aussi je verrais bien les "neurones miroirs***" comme étant liés à cette catastrophe, donc comme des "neurones fronce". Et pourquoi pas alors des "neurones papillon" ou des "neurones ombilicaux"?

Quid de l'état d'avancement de la simulation de cette sorte d'intelligence par des machines électroniques?

* L'empathie s'oppose à l'apathie (alors que la sympathie s'oppose à l'antipathie et l'altruisme à l'individualisme).

** Wikipédia: "Le livre de Geoffrey Miller The Mating Mind défend le point de vue selon lequel l'empathie se serait développée parce que se mettre à la place de l'autre pour savoir comment il pense et va peut-être réagir constitue un important facteur de survie dans un monde où l'homme est sans cesse en compétition avec l'homme.
L'auteur explique ensuite que le processus n'a pu que la renforcer du fait qu'il influait sur la survie, et qu'au fil du temps s'est dégagée une espèce humaine qui attribuait une personnalité à à peu près tout ce qui l'entourait."

*** Wikipédia "Empathie": "Les neurones miroirs sont des neurones activés indistinctement lors d'une action observée et d'une action effectuée. Ils envoient un message nerveux correspondant et permettent en quelque sorte de vivre ce qui est observé de l'autre comme si c'était soi même."