Apprendre ! Les talents du cerveau, le défi des machines

Review Box 0
3.5 / 5 La note d'EDR
{{ reviewsOverall }} / 5 (0 votes) La note des lecteurs
Facile à lire
Intéressant

Même au sein de leur domaine de prédilection, la reconnaissance rapide des formes, les algorithmes actuels rencontrent un second problème : ils sont beaucoup moins efficaces que notre cerveau. L’état de l’art de la machine Learning consiste à faire tourner un ordinateur sur des millions, voire des milliards d’essais d’entrainement. Le moindre bébé fait beaucoup mieux- il n’a pas besoin de plus d’une ou deux répétitions pour apprendre un mot nouveau. Toute une économie de la donnée échappe encore aux ordinateurs. Pour eux, machine Learning est synonyme de big data : sans données massives, les algorithmes ont bien du mal à extraire des connaissances abstraites et qui généralisent à des situations nouvelles. En bref, ils ne font pas meilleur usage des données.  Notre cerveau, lui, s’approche de l’optimum : il parvient souvent à extraire la substantifique moelle de la moindre observation.


Les 3 idées clés

  • Notre cerveau possède dès la naissance une organisation très structurée du cortex et une plasticité cérébrale exceptionnelle qui caractérise notre espèce.
  • Les réseaux de neurones artificiels tentent de reproduire la puissance d’apprentissage de notre cerveau «  statisticien » mais malgré les progrès fulgurants du deep Learning ces algorithmes sont encore loin d’égaler le cerveau humain.
  • L’intelligence artificielle a encore besoin de millions ou de milliards de données pour apprendre. Il lui manque aussi le pouvoir d’abstraction, le raisonnement par inférences et les composantes caractéristiques des mécanismes d’apprentissage de l’être humain (attention partagée, curiosité, métacognition….).

Expérience de lecture :

J’ai lu ce livre deux fois afin de m’assurer d’en restituer l’essentiel sans faire de confusions. C’est avant tout un livre sur les mécanismes d’apprentissage du cerveau. Il devrait être mis entre les mains de tous les parents et j’ai regretté de ne pas avoir eu l’occasion de le lire quand mes enfants étaient plus jeunes. La construction des réseaux de neurones artificiels y est abordée uniquement pour expliquer comment ils imitent l’intelligence humaine et faire l’état des écarts avec la puissance de l’apprentissage humain. Comme Laurent Alexandre dans la « Guerre des intelligences » l’auteur est convaincu que les progrès récents en neurosciences et psychologie cognitive devraient permettre de mieux exploiter les capacités du cerveau pour rendre cette « machine exceptionnelle » encore plus difficile à imiter. La comparaison s’arrête là. Stanislas Dehaene propose ici une description objective tandis que Laurent Alexandre projette déjà l’homme dans un avenir où le seul espoir de gagner la bataille est de fusionner ou d’être « augmenté » par les nouvelles technologies.

Mon avis : 

J’ai trouvé ce livre très intéressant mais je trouve qu’il y a beaucoup de répétitions, l’auteur aurait pu faire beaucoup plus court. A ma connaissance c’est le seul livre « relativement accessible » qui compare les mécanismes d’apprentissages humains et les réseaux de neurones artificiels.

Résumé :

Notre espèce se caractérise et manifeste sa supériorité grâce à sa puissance et sa vitesse d’apprentissage. Le bébé vient au monde avec une « base de données », une logique intuitive et des microcircuits cérébraux très structurés.  Mais certains paramètres restent libres pour permettre l’adaptation à l’environnement. Le cerveau « statisticien »  sera ainsi dès la naissance en capacité de produire  des hypothèses qui seront mises à l’épreuve par l’expérience. Mais certains paramètres restent libres et vont permettre l’adaptation à l’environnement.

Cette plasticité cérébrale va être décuplée par le « social » grâce à l’attention partagée mais aussi grâce à des astuces qui vont agir sur les « piliers de l’apprentissage » : développer l’attention, susciter un engagement actif, favoriser les retours sur erreur et la consolidation pendant le sommeil.

Les réseaux de neurones artificiels s’inspirent de notre cerveau en empilant des couches dont «  chacune analyse les régularités de la couche précédente ».  Ils semblent défier notre intelligence mais sont très loin de l’égaler malgré les progrès récents de l’apprentissage profond (Deep Learning).

Comparés aux mécanismes d’apprentissage humain, les réseaux de neurones artificiels ont encore de nombreuses limites :

  • Ils ont besoin de données massives (big data) pour apprendre quand l’humain apprend vite et parfois au premier essai grâce à des noyaux de connaissances qui «  se développent spontanément, par stimulation interne ».
  • Ils ont une difficulté à se construire une représentation abstraite de monde et ne savent pas formuler des théories/hypothèses sur le monde extérieur.
  • Il leur manque le pouvoir d’abstraction qui permet d’inférer des hypothèses à partir de données d’ordre général.
  • Ils réduisent tout à une question de classification sans hiérarchisation et ne trient pas les informations selon leur pertinence.
  • Ils ne font que corréler des données d’entrées avec des données de sorties et ne savent pas recombiner les connaissances pour résoudre un problème contrairement au cerveau humain qui est génératif et imaginatif.
  • Il leur manque d’autres composantes qui amplifient les capacités d’apprentissage de l’humain : l’attention partagée, la curiosité, la métacognition…

La majorité des algorithmes se limitent aux « premières étapes du traitement sensoriel » sans intégrer de raisonnement. Des algorithmes plus puissants commencent à apparaître mais ils sont encore loin de la performance d’un bébé.

Pour se rapprocher de la puissance d’apprentissage du cerveau humain les réseaux de neurones artificiels continuent à copier le cerveau et ses « stratégies » : rétro propagation de l’erreur, alternance veille/sommeil, la supervision et l’apprentissage par récompense…

Les algorithmes bayésiens (qui calculent l’écart entre ce que le modèle prédit et ce qui est observé)  commencent à construire des modèles abstraits. Ils vont révolutionner le machine Learning en copiant la flexibilité du cerveau « statisticien neuronal » de l’homme. La société (parents et enseignants) doit de son côté profiter des progrès des neurosciences et de la psychologie cognitive pour réconcilier  éducation et science afin de démultiplier les capacités du cerveau humain.



A propos de l'auteur

Le neuroscientifique Stanislas Dehaene, titulaire de la chaire de psychologie cognitive expérimentale au Collège de France, est directeur de l’unité de neuro-imagerie cognitive à Neurospin, au centre du CEA de Saclay. Début 2018, il a été nommé par le ministre de l’Education nationale, Jean-Michel Blanquer, à la tête du Conseil scientifique de l’Education nationale (CSEN).


L'avis des lecteurs Vous avez vous aussi lu ce livre ! Notez-le !
Trier :

Soyez le premier à laisser une évaluation !

User Avatar User Avatar
Vérifié
/ 5
{{{ review.rating_title }}}
{{{review.rating_comment | nl2br}}}

This review has no replies yet.

Avatar
Afficher d'autres résultats
Afficher d'autres résultats
{{ pageNumber+1 }}
Vous avez vous aussi lu ce livre ! Notez-le !


You have Successfully Subscribed!

Partagez
Tweetez
Partagez