Les machines peuvent-elles apprendre ?

[Gérard Chazal]

Les machines apprennent. Déjà depuis un certain temps. De deux façons :

D' une façon – j'allais dire, première façon relativement bête qui est en eux depuis les années soixante sur certaines machines de jeu, qui consiste simplement à avoir en mémoire, à mémoriser un certain nombre de choses, mémoriser comme le font les ordinateurs, c'est-à-dire... on peut avoir une mémoire qui est gérée après de manière plus ou moins dynamique, avec des pointeurs ... enfin bon, on ne va pas entrer dans le détail technique du cambouis si vous voulez, mais bon on a su faire assez vite des machines qui pouvaient apprendre de cette façon-là. Aujourd'hui on a des machines qui apprennent de manière plus proche de notre façon d'apprendre à nous ; ce sont des machines neuro-mimétiques, c'est à dire ce sont des réseaux de neurones artificiels qui vont apprendre... en fait souvent, ce sont des apprentissages supervisés ; c'est à dire par exemple on utilisera ça pour faire de la reconnaissance de formes, c'est-à-dire on va présenter par exemple à la machine une image en lui demandant si c'est un chien, un chat ou un perroquet... un truc comme ça. La machine va se tromper parce que... et on va lui dire non tu te trompes et on va lui dire ça c'est un chien et donc il y a des algorithmes de rétro propagation de l'erreur qui vont modifier les poids synaptiques entre ses neurones artificiels de façon à ce que petit à petit la machine va apprendre à reconnaître des images ; donc là, il y a un apprentissage qui consiste en fin de compte à faire en sorte que la structure interne de la machine se modifie en fonction de l'apprentissage. Alors soit cet apprentissage est supervisé, donc vous allez me dire finalement c'est quand même l'homme qui intervient dans l'affaire...mais j'allais dire quand vous faites un apprentissage à des enfants, c'est aussi... il faut qu'il y ait un maître qu'ils leur apprennent, on est dans le même cas. Soit éventuellement ça peut être des apprentissages qui sont simplement des recherche d'optimisation par rapport à certaines questions et certaines réponses et les algorithmes de ce type, qui sont des algorithmes souvent de neuro-mimétique, aujourd'hui, sont en œuvre par exemple sur ce qu'on appelle les big data , c'est-à-dire ces accumulations absolument faramineuses de données où même nous, on ne serait pas capable d'en faire grand-chose, où les machines, elles, arrivent à repérer des irrégularités et cetera et finalement arrivent à apprendre. Donc les machines apprennent. Alors après, évidemment, on peut se poser la question qu'est-ce qu'elles apprennent ? Quelle est la pertinence ? Quelle est la réutilisation de ce qu'elles apprennent ? et cetera...On tombe dans d'autres questions. Mais l'apprentissage, oui, il sait faire.

[Baptiste Mélès]

Pour le parallèle avec les enfants, il y a une différence qui est essentielle quand même, c'est le fait que les enfants, on ne sache pas comment c'est fait à l'intérieur alors que la machine, on a tous les rouages qui sont donnés. Donc ce qu'on essaie de faire, c'est de retrouver rétrospectivement quelque chose d'analogue à la façon dont les enfants apprennent sauf que nous, l'enfant pour nous, c'est une boîte noire en gros.

[Gérard Chazal]

Le cerveau n'est plus complètement une boîte noire aujourd'hui. Alors c'est vrai qu'on est très loin de connaître le cerveau aussi bien qu'un réseau de neurones artificiels qu'on a construit ; même si, à partir d'un certain degré de complexité de ces réseaux, par moment, ça peut échapper un peu, ce qui s'y passe. La grande différence entre l'enfant à ce moment-là et la machine n'est pas de cet ordre-là, pour le moment. C'est que dans un cerveau organique, d'un enfant, d'un animal ou d'un homme... peu importe, il y a non seulement des poids synaptiques qui changent, c'est-à-dire des connexions qui deviennent plus ou moins inhibitrices ou plus ou moins excitatrices, mais certaines connexions disparaissent et de nouvelles apparaissent. De même que de nouveaux neurones peuvent apparaître et des neurones disparaître ; et en particulier dans l'apprentissage chez l'enfant, on sait qu'il y a beaucoup de pertes de neurones entre le moment de la naissance et l'âge adulte ; on perd énormément de neurones, mais en revanche les connexions se multiplient énormément. On sait ça depuis les travaux en particulier de Jean-Pierre Changeux. Or, à l'heure actuelle, les réseaux de neurones artificiels qu'on fabrique ne sont pas capables de faire ça ; c'est-à-dire les connexions existent, le nombre de neurones est fixé au départ, il ne changera pas et simplement ce qu'on peut faire, c'est jouer sur la valeur des connexions, c'est-à-dire le fait qu'elles soient plus ou moins inhibitrices ou plus ou moins excitatrices d'un neurone à l'autre. Mais on ne sait pas faire en sorte que de nouveaux neurones surgissent ou que des connexions nouvelles apparaissent ; pour le moment on ne sait pas faire. Cela ne veut pas dire qu'on ne saura pas faire un jour mais pour le moment, effectivement, la grande différence est plutôt là.

Les machines face aux différents types d'apprentissage

[Baptiste Mélès]

Les différents types d'apprentissage, on peut les distinguer aussi selon le rapport entre le général et le particulier. Parce que vous disiez tout à l'heure qu'on pouvait par exemple remplir une mémoire d'ordinateur, ça c'est facile. Donc c'est l'équivalent pour un être humain de l'apprentissage a posteriori ; toutes les connaissances historiques comme la date de la mort de César, des choses comme ça...

[Gérard Chazal]

Exactement, oui.

[Baptiste Mélès]

D'un autre côté, il y a toutes les connaissances que l'on peut acquérir, dans lesquelles on va du général au particulier ; donc ça c'est la déduction et les machines sont très bien faites pour ça. Par exemple dans un langage comme Prolog, on donne une règle générale et puis ensuite des cas particuliers, ensuite la déduction, c'est vraiment le travail standard de l'ordinateur.

Il y a le travail inverse dont vous parliez aussi, qui est le travail d'induction. C'est ce qui se passe par exemple dans les réseaux de neurones ou quand un ordinateur avait pu reconstituer le concept de chat en regardant des photos sur un moteur de recherche et là, on part de cas particuliers et on va vers le général.

Il y a aussi une autre qui est parallèle à la déduction mais qui au lieu d'être théorique est pratique, c'est le savoir-faire. Par exemple : pour les échecs. Il y a une chose qui est de savoir si Kasparov dans telle partie a joué tel coup ; ça c'est une question érudite, une question historique ; mais il y a une autre chose qui est de se dire ah, ce coup de Kasparov, il est bien, il faudrait que je le réutilise plus tard. Et là, il y a une sorte de savoir-faire que l'ordinateur peut acquérir en se disant ça, c'est un coup qui peut être gagnant et dans les méthodes qui sont utilisées comme méthode de Monte Carlo, c'est le genre de stratégies qui sont utilisés en se disant ce coup n'est pas un coup décisif dans le sens où une fois que j'ai fait ça, j'ai gagné, mais en tous cas c'est un coup qui engendre une famille intéressante de parties où je peux avoir l'avantage.

[Gérard Chazal]

Oui tout-à-fait.

Il y a des tas de méthodes...enfin vous parlez de la méthode de Monte Carlo ; il y a les chaines de Markov, on utilise des tas de choses comme ça. Oui bien sûr.

[Baptiste Mélès]

Et du coup, il y a quand même un trou dans cette classification. Ce serait les connaissances qu'on peut acquérir mais qui restent au niveau de la généralité ; donc celles qui ne sont pas dans le particulier ou bien dans les échanges entre le général et le particulier, mais qui sont directement dans le général. Et là ce serait... on peut appeler cela peut-être la réflexion ou... je ne sais pas... mais c'est ce qui peut se passer quand par exemple, nous, nous réfléchissons en se disant est-ce que telle maxime morale peut être suivie ou bien est-ce qu'elle ne présente pas des problèmes et tout... et ça, je ne sais pas si ça existe pour les ordinateurs ? Peut-être que oui ?... Enfin moi, je ne connais pas...

[Gérard Chazal]

A ma connaissance, non.

A ma connaissance, non mais je ne connais pas non plus... Surtout que les choses vont tellement vite. On a beau essayer de se tenir au courant de tout ce qui se passe... Bon, ça va très, très vite mais à ma connaissance, non. C'est-à-dire, j'allais dire en simplifiant : l'ordinateur philosophe, on ne l'a pas tout-à-fait encore. Ce qu'il faut comprendre aussi, si vous voulez - nous philosophes, on a parfois du mal à comprendre - c'est que la recherche, elle est bien sûr guidée par, j'allais dire, des questions, des grandes questions, etc. mais elle est aussi guidée par des questions économiques, des questions pragmatique. Ces questions j'allais dire très générales, du général en général, à l'intérieur du général ... c'est vrai que peut-être, on n'a pas d'intérêt économique ou pratique.

Ceci dit, je pense qu'on y va vers ces choses-là par le biais d'autre chose, qui est le biais des robots de compagnie. Vous savez, c'est le grand problème aujourd'hui - alors on pourra en discuter après - c'est de faire des robots qui pourraient jouer un rôle soit de nurse, de baby sitter qui s'occuperait des enfants pendant que les parents font autre chose ou qui s'occuperait des personnes âgées parce que on a de plus en plus de personnes âgées et de moins en moins de gens pour s'en occuper. Donc, pourquoi pas des robots qui s'en occuperaient ? Seulement il faut que ces robots, ils soient capables bien sûr d'une certaine empathie, de comprendre les émotions et les états d'âme des humains qui sont en face d'eux...

[Baptiste Mélès]

... y compris sur les visages !

[Gérard Chazal]

Y compris sur les visages, bien sûr ! Qu'ils soient capables de lire sur les visages. Ça oblige effectivement à ce moment-là à avoir des apprentissages qui se font, j'allais dire, du général au général, c'est-à-dire des catégorisations et des déductions à l'intérieur de choses assez générales. Donc de savoir que l'expression de la tristesse, ça va avec telle ou telle autre sensation, sentiment ou émotion. Qu'il y a des émotions qui ne sont pas compatibles, on ne peut pas être joyeux et triste en même temps par exemple, etc. Et là, on va vers des choses où finalement on n'est plus dans un mouvement du particulier au général, mais à l'intérieur de certaines généralités qu'il faut construire et qui après vont effectivement permettre certains apprentissages et après certaines reconnaissances ; comme être capable de voir sur la tête de quelqu'un que ça va bien ou que ça va pas bien...

[Baptiste Mélès]

Donc c'est une ré-écriture algorithmique du livre de l'ETHIQUE où il y a la classification des patients, de Spinoza...

[Gérard Chazal]

Eh oui ...il y a quelque chose de spinoziste dans ces approches... Moi, ça m'a frappé aussi ce genre de choses...

ImprimerImprimer