Expérience de lecture :
J’ai lu ce livre deux fois afin de m’assurer d’en restituer l’essentiel sans faire de confusions. C’est avant tout un livre sur les mécanismes d’apprentissage du cerveau. Il devrait être mis entre les mains de tous les parents et j’ai regretté de ne pas avoir eu l’occasion de le lire quand mes enfants étaient plus jeunes. La construction des réseaux de neurones artificiels y est abordée uniquement pour expliquer comment ils imitent l’intelligence humaine et faire l’état des écarts avec la puissance de l’apprentissage humain. Comme Laurent Alexandre dans la « Guerre des intelligences » l’auteur est convaincu que les progrès récents en neurosciences et psychologie cognitive devraient permettre de mieux exploiter les capacités du cerveau pour rendre cette « machine exceptionnelle » encore plus difficile à imiter. La comparaison s’arrête là. Stanislas Dehaene propose ici une description objective tandis que Laurent Alexandre projette déjà l’homme dans un avenir où le seul espoir de gagner la bataille est de fusionner ou d’être « augmenté » par les nouvelles technologies.
Mon avis :
J’ai trouvé ce livre très intéressant mais je trouve qu’il y a beaucoup de répétitions, l’auteur aurait pu faire beaucoup plus court. A ma connaissance c’est le seul livre « relativement accessible » qui compare les mécanismes d’apprentissages humains et les réseaux de neurones artificiels.
Résumé :
Notre espèce se caractérise et manifeste sa supériorité grâce à sa puissance et sa vitesse d’apprentissage. Le bébé vient au monde avec une « base de données », une logique intuitive et des microcircuits cérébraux très structurés. Mais certains paramètres restent libres pour permettre l’adaptation à l’environnement. Le cerveau « statisticien » sera ainsi dès la naissance en capacité de produire des hypothèses qui seront mises à l’épreuve par l’expérience. Mais certains paramètres restent libres et vont permettre l’adaptation à l’environnement.
Cette plasticité cérébrale va être décuplée par le « social » grâce à l’attention partagée mais aussi grâce à des astuces qui vont agir sur les « piliers de l’apprentissage » : développer l’attention, susciter un engagement actif, favoriser les retours sur erreur et la consolidation pendant le sommeil.
Les réseaux de neurones artificiels s’inspirent de notre cerveau en empilant des couches dont « chacune analyse les régularités de la couche précédente ». Ils semblent défier notre intelligence mais sont très loin de l’égaler malgré les progrès récents de l’apprentissage profond (Deep Learning).
Comparés aux mécanismes d’apprentissage humain, les réseaux de neurones artificiels ont encore de nombreuses limites :
- Ils ont besoin de données massives (big data) pour apprendre quand l’humain apprend vite et parfois au premier essai grâce à des noyaux de connaissances qui « se développent spontanément, par stimulation interne ».
- Ils ont une difficulté à se construire une représentation abstraite de monde et ne savent pas formuler des théories/hypothèses sur le monde extérieur.
- Il leur manque le pouvoir d’abstraction qui permet d’inférer des hypothèses à partir de données d’ordre général.
- Ils réduisent tout à une question de classification sans hiérarchisation et ne trient pas les informations selon leur pertinence.
- Ils ne font que corréler des données d’entrées avec des données de sorties et ne savent pas recombiner les connaissances pour résoudre un problème contrairement au cerveau humain qui est génératif et imaginatif.
- Il leur manque d’autres composantes qui amplifient les capacités d’apprentissage de l’humain : l’attention partagée, la curiosité, la métacognition…
La majorité des algorithmes se limitent aux « premières étapes du traitement sensoriel » sans intégrer de raisonnement. Des algorithmes plus puissants commencent à apparaître mais ils sont encore loin de la performance d’un bébé.
Pour se rapprocher de la puissance d’apprentissage du cerveau humain les réseaux de neurones artificiels continuent à copier le cerveau et ses « stratégies » : rétro propagation de l’erreur, alternance veille/sommeil, la supervision et l’apprentissage par récompense…
Les algorithmes bayésiens (qui calculent l’écart entre ce que le modèle prédit et ce qui est observé) commencent à construire des modèles abstraits. Ils vont révolutionner le machine Learning en copiant la flexibilité du cerveau « statisticien neuronal » de l’homme. La société (parents et enseignants) doit de son côté profiter des progrès des neurosciences et de la psychologie cognitive pour réconcilier éducation et science afin de démultiplier les capacités du cerveau humain.