Article paru dans PSYCHIATRIES, 1989/2, N° 87/88

Psychanalyse, connexionisme et modèles neuronaux ou: si Freud avait connu la calculette

Alain MARUANI et Jean-Michel THURIN (Paris)

<

« La prédiction est difficile, surtout lorsqu'elle concerne le futur)) (Sagesse populaire)


Fantasme persistant enfoui dans le code génétique, nécessité issue des progrès des techniques et des technologies ou mise en acte du narcissisme, l'ambition de créer des objets à l'image et à la ressemblance de l'être humain insuffle à ce dernier une volonté dont l'origine va se perdre dans la nuit des temps. Depuis l'envol d'lcare au sortir du labyrinthe, bien des espoirs ont fondu comme cire au soleil l'intelligence du vol de l'alouette échappant jusqu'ici aux plus sagaces des aérodynamiciens, l'avion à réaction n'a gardé de l'ornithologie qu'une silhouette ou quelques mots et les robots anthropomorphes ne se rencontrent plus guère que dans les magazines de science-fiction au parfum de grenier. Bien après tous ces Golems exilés dans le puits de l'oubli, le projet dit d'intelligence artificielle, passée la période initiale d'exaltation, se trouve confronté actuellement à une large classe de problèmes, dont la solution semble suspendue à la mise en oeuvre d'un renouveau conceptuel. Et l'on se souvient de Dédale.,.

Comparons les progrès accomplis respectivement dans la technologie des ordinateurs d'une part, l'apprentissage et la reconnaissance des formes d'autre part. La puissance de traitement de la machine sur laquelle ce texte est composé témoigne assez bien du premier de ces progrès ; pour le reste, il suffira de constater que les facultés cognitives d'un enfant de deux ans décourageraient a priori une batterie de super-ordinateurs... Cette difficulté persistante est sans doute la manifestation d'une différence radicale entre les modes de fonctionnement de notre cerveau et ceux des circuits informatiques. Elucider partiellement ces différences, c'est faire progresser nos connaissances simultanément dans ces deux domaines.

Avec en filigrane ce projet au succès bien problématique, les auteurs de cet article un physicien et un psychanalyste ont souhaité confronter et approfondir leurs modèles. Après quelques années de navigation commune dans ces régions aux frontières floues, où la métaphore sert de cordon littoral entre le syncrétisme béat et l'isomorphisme, le connexionisme leur a paru être une référence commune suffisamment stable pour qu'il devienne le point d'ancrage de développements ultérieurs.

Dans un premier temps, nous discuterons brièvement la structure d'un ordinateur classique en nous appuyant principalement sur le modèle de Von Neumann; dans un deuxième temps, nous ferons de même pour le cerveau en nous appuyant principalement sur le modèle de l'appareil psychique développé par Freud. Nous présenterons enfin les neuromimes et discuterons leurs différences et analogies avec les modèles précédents.

De l'informatique

Très schématiquement, un ordinateur standard fonctionne de la façon suivante : les données sont stockées dans des boîtes numérotées appelées « mémoires »; une métonymie usuelle identifie la boîte avec son contenu ; le calcul consiste a prendre le contenu de la boîte numéro x puis celui de la boîte numéro y et à mettre le tout dans un objet p, d'où sort le résultat r ; ce résultat ira remplir la case mémoire numéro t. Et ainsi de suite ... L'unité de calcul p est constituée de circuits électriques où chaque transistor est relié typiquement à moins d'une dizaine de ses semblables, en amont et en aval ; le calcul consiste donc en la manipulation d'objets matériels, la modification de l'état éléctrique d'un certain nombre de transistors. Les fonctions de stockage et de manipulation de l'information sont, dans le processus, clairement séparées; d'autre part, chaque étape du calcul est extrêmement simple cela dit, l'ordinateur ne sait pas en général que trois fois quatre font douze : il le calcule à chaque opération.

L'information est codée dans un alphabet binaire ; en présence de parasites, l'ordinateur ne décide pas du caractère, insignifiant ou essentiel, de la perturbation ; enfin, il obéit aux règles rigoureuses de la programmation et il ne faut pas attendre de lui, a priori, les moindres facultés d'inférence ou de généralisation. Le développement des machines parallèles et des « systèmes experts » atténue plusieurs de ces assertions; dans ces derniers, on fournit à la machine des règles et des données et il revient au programme de se frayer un chemin pour traiter tel problème donné ; ce chemin n'est pas fixé à l'avance par le concepteur. S'il faut mettre au crédit des experts en intelligence artificielle la réalisation effective de "machines inférence", il faut reconnaître en même temps qu'une difficulté dans l'élaboration des algorithmes est d'arriver à faire dire aux experts d'un champ donné, travaillant donc avec leur intelligence naturelle, comment ils procèdent pour mener à bien leur problème : bien souvent, ils ne le savent pas eux-mêmes ; quel champion d'échecs a bien décrit sa méthode?

Une hypothèse sous-jacente aux considérations qui précèdent était que l'on avait affaire tout du long à des problèmes algorithmiques, c'est-à-dire dont la procédure de résolution peut être décrite en un nombre fini d'étapes. En fait, la plupart des questions que résoud le psychisme se prête mal à l'algorithmisation : il s'agit de problèmes complexes, réfractaires à la partition. Tel est le cas par exemple de l'observation d'une image : comment énoncer une méthode générale d'inspection (c'est-à-dire valable pour toutes les images), indiquant notamment le point de départ et la manière dont sont ensuite vus les différents éléments, cela sans mentionner le travail implicite d'extraction de primitives ou de contours et leur mise en relation avec des traits de référence déjà mémorisés? Remarquons dès à présent que la relation entre intelligence et complexité est déjà introduite par l'étymologie.

Du modèle freudien de l'appareil psychique

Le lien entre système neuronal, mémoires et langages, tant au niveau de l'inscription mnésique que celui de la régulation des processus psychiques est l'hypothèse fondamentale développée par Freud dans l'Esquisse, texte majeur où il présente son modèle de l'appareil psychique. La liaison entre matérialités biologique et symbolique s'acquiert au cours de et par la communication. L'introduction massive de la linguistique par Lacan pour décrire les formations de l'inconscient et du psychisme est issue de ce modèle. Nous postulerons, à la suite de Freud, que les objets matériels de l'appareil psychique (le système neuronal) et ceux de la pensée (les mots et les images) sont intimement liés, en particulier qu'il existe une relation directe entre la parole exprimée et l'organisation du système neuronal. Le passage de l'une à l'autre fait intervenir les paramètres qu'implique toute traduction, en particulier le lexique et le code, soit, en définitive, l'autre, porteur d'un autre langage. S'il en est ainsi, alors on peut considérer qu'une analyse rigoureuse de la pensée et de ses lois, par l'intermédiaire de la parole et du rêve, peut faire progresser les modèles issus de l'observation de son support organique.

Pour mettre en oeuvre son projet d'une description matérielle et scientifique des processus psychiques, Freud imagine, à partir de son expérience de psychanalyste (qui écoute), d'humain (qui pense et qui rêve) et de neurologue (qui observe) un système d'unités élémentaires (les neurones), plus ou moins chargées de ce qu'il dénomme, peut-être par référence aux catégories aristotéliciennes, «quantité» et au sein duquel se produit et circule un flux. La voie que celui-ci emprunte dépend pour une part des connexions établies lors des événements antérieurs, pour une autre du but poursuivi, par exemple reconnaître un objet ou obtenir la satisfaction d'un besoin. Ce dernier sera atteint par un mécanisme régulant les états de charge du système, avec pour effet une modification transitoire des connexions, le flux tendant à se diriger vers les neurones les plus chargés. Les deux facteurs peuvent être coopératifs, comme dans le cas de la reconnaissance d'un objet, ou antagonistes, pour éviter les associations pénibles, interdites ou celles qui seraient autrement automatiques. Comme tout système physique, la pensée résulte donc à la fois de l'état d'une structure et d'une dynamique qui peut être déterminée par le système lui-même. Nous avons ici affaire à un système auto-reconfigurable et ouvert: la source peut être aussi bien située à l'intérieur qu'à l'extérieur du corps propre (voir à l'intérieur même de l'appareil psychique dans le cas du rêve) ; enfin, le principe de plaisir stipule le maintien à un minimum des quantités introduites dans le système, afin d'éviter la répétition de situations douloureuses. Les machines en question dans cet article ne sont pas réputées, elles, jouir du principe de plaisir, mais elles obéissent à des principes variationnels qui stipulent le maintien à un minimum de certaines quantités thermodynamiques; le passage du principe variationnel au principe de plaisir est-il le même que celui qui ferait passer ces machines de l'état d'objet à celui de, sujet?

Les problèmes du filtrage et du codage des données issues du monde extérieur sont d'une très grande difficulté. Examinons les successivement:

° Filtrage : il en existe initialement pour Freud deux sortes, quantitatif et qualificatif; le premier est réalisé par les enveloppes organiques et un système de neurones qui fractionne les quantités élevées et n'accepte que celles qui ont atteint un certain seuil ; cette réduction se traduit par une complexification du système ; le second dépend de la réceptivité sensorielle et il n'est sensible qu'à certaines formes de signal, non clairement spécifiées par Freud et désignées, sans doute par attraction de la physique, par « périodes ». Enfin, l'organisation du système par le symbolique va, dans un deuxième temps, créer des scotomes ou des focalisations dans la perception de la réalité, laquelle cesse dès lors de se rapporter uniquement à des formes mémorisées. Ainsi, le passant affamé ne verra dans la rue que l'enseigne du pâtissier mais oubliera son besoin alimentaire dès qu'il croisera le regard brûlant de la pâtissière. Où encore, dans une situation de danger réel ou imaginaire, l'attention se portera sur tous les détails qui peuvent en être une manifestation indirecte le rideau le plus banal deviendra le lieu par excellence où se dissimule l'agresseur.

° Codage : Cette question est directement liée par Freud à celle de la mémoire : il considère en effet qu'une relation se constitue entre « traces» (leur nature exacte n'est pas précisée) et images acoustico-verbales qui proviennent du sujet, sujet qui parle et qui entend. Le codage est ainsi constitué par un double agencement : le premier niveau est formé de complexes d'empreintes laissées par la perception de la chose : ce sont les représentations d'objet ; le second niveau est formé d'images verbales qui leur sont associées lorsque le sujet nomme ou entend nommer la chose. Ainsi, images verbales et représentation d'objet, quoique liées, sont-elles distinctes. Freud précise par ailleurs que « si les images visuelles sont les parties les plus saillantes et les plus importantes de nos représentations d'objet », elles ne sont pas les seules. D'autres "représentations" se constituent à partir notamment des sensations sonores, tactiles et kinesthésiques ; l'ensemble des systèmes de représentation est donc redondant, ce qui permet, si nécessaire, de pallier les déficits fontionnels ou lésionnels. Précisons encore qu'il s'agit d'un système qui se complexifie d'abord et se simplifie ensuite grâce aux symboles qui permettent une condensation des informations dans un objet unique ; il gardera la possibilité, lorsqu'un niveau organisationnel « élévé » est perdu, de mettre en oeuvre un arrangement acquis antérieurement et plus « simple ». Il semble naturel de conjecturer qu'inversement, l'atteinte ou le défaut de constitution de ces structures fondamentales puisse être à l'origine de troubles graves (psychose, maladies psychosomatiques).

La question de la formation de représentations internes du monde extérieur est donc largement abordée par Freud, de même que celle du lien entre symbolique et matière vivante. Corollaire de cette nonséparabilité, l'information n'est pas localisée dans des entités désignables avec une topologie stricte, atomique pourrait-on dire, elle est plutôt répartie dans les connexions synaptiques, dont la plasticité conduit au phénomène de mémorisation. On retrouve les lignes générales de cette conjecture dans les travaux plus récents d'un neurophysiologue, D. Hebb.

Analogies et contrastes

Si nous rapportons le fonctionnement des ordinateurs au modèle dont nous venons de présenter une description sommaire, nous constatons que le premier contraste apparent est que dans le cerveau « freudien» les fonctions de mémoire et de traitement ne sont pas distinctes : ce sont les mêmes neurones qui en ont la charge. D'autre part, on remarquera que l'on retrouve au niveau du système neuronal et du système linguistique une structure et des propriétés communes légitimant la possiblilité de leur interaction ; en effet, que l'on se situe du côté de la matérialité neuronale ou de la matérialité langagière proprement dite, nous constatons que la signification est issue de la combinatoire d'unités élémentaires qui, prises isolément, n'ont aucune valeur propre ; en particulier, il n'existe pas d'identification codée entre le mot et la chose celle-ci peut être mémorisée et signifiée par toute une série de traces réorganisées par ses noms et attributs, ne révélant leur véritable signification qu'en fonction de leur contexte perceptif ou symbolique. Inversement un même mot ou une même sensation peuvent être les représentants de plusieurs objets. L'accès aux données mémorisées peut donc s'effectuer à partir d'un élément quelconque du système neurolinguistique. Ainsi se justifie que la parole puisse restructurer la mémoire, hypothèse fondamentale, largement vérifiée par l'expérience sur laquelle repose la pratique analytique.

Le rôle organisateur et unificateur de l'image est d'une description plus délicate ; un moment fort en est décrit par Freud au sujet de l'identification de l'enfant à l'image de son corps ; cette « opération de jugement» s'appuie sur le "principe d'identité", dont la traduction matérielle est le maintien de l'activité neuronale tant que dure la poursuite de l'image mémorisée par l'image perceptive. Le «stade du miroir » de Lacan décrit l'expérience psychologique accompagnant cette identification.

Ce qui précède suggère que le cerveau fonctionne de façon massivement parallèle ; le parallélisme total impliquerait qu'à un moment donné tous les neurones travaillent au même problème. On sait, que chez l'humain, il existe des sous-systèmes différenciés affectés à diverses fonctions ; cela ne contredit pas pour autant l'hypothèse précédente puisqu'il semblerait que ce soit dans l'interconnexion de ces sous-systèmes que réside la fonctionnalité et non dans une localisation particulière. Telle est la position fonctionnaliste défendue par Freud ; le fait que certains territoires du cerveau soient indispensables au déroulement de fonctions mentales spécifiques n'implique pas qu'ils soient héréditairement déterminés : par exemple, on a pu mettre en évidence, chez des patients atteints d'hydrocéphalie, un remodèlement général des aires cérébrales par rapport aux localisations habituelles et un maintien des performances malgré un nombre de neurones considérablement diminué.

Une dernière remarque, à propos du parallélisme, clôturera ce chapitre ; on peut en effet considérer deux types de connectivité ; la première est de nature topologique et concerne des entités individuelles ; c'est elle qui est mise en jeu pour le traitement de problèmes usuellement désignés par le terme de «bas niveau» en intelligence artificielle ; citons à ce sujet des mécanismes élémentaires de la vision tels que la détection de contours ou de discontinuités. La seconde est de nature sémantique et concerne une interrelation de type fonctionnel ; c'est probablement elle qui est mise enjeu pour le traitement de problèmes de haut niveau ; les aires cérébrales pourraient en constituer un exemple.

Quoi qu'il en soit, la parallélisme massif implique une grande résistance aux perturbations ; ne perdons nous pas nous-mêmes quotidiennement un nombre inquiétant de milliers de neurones?

Des neuromimes

Le but de ce jeu millénaire (voir Appendice) est, on l'aura compris, de reproduire certaines facultés cognitives, qu'il s'agisse de la promenade de la limace ou de l'apprentissage de la lecture. Les facultés demandées incluent l'analyse de scènes, la manipulation d'objets naturels, le déplacement dans un environnement inconnu ou la communication verbale. Le succès d'ensemble est plutôt modeste et limité en fait à un univers de problèmes partiellement codés ou formalisés. La source principale des difficultés réside dans les caractéristiques du monde extérieur (en technologie, ce concept est parfaitement défini) : énormité, ambiguïté, variabilité. Il faut d'abord extraire les renseignements utiles de la masse énorme du reste ; il faut ensuite lever les ambiguïtés des données particulières ; à cette fin, une base structurelle de données analyse le contexte de chaque point ; enfin, il faut faire face à une variété indéfinie de situations imprévisibles. Clairement, cela ne peut pas se faire via un programme qui explorerait l'une après l'autre les ramifications d'une sorte d'arbre de la connaissance aux branchages inextricables où toutes les situations possibles auraient été mémorisées... Le problème n'est envisageable qu'en terme de parallélisme massif, ce qui implique, outre le traitement, une présentation parallèle de données, c'est-à-dire l'attaque du problème par la considération simultanée de l'ensemble de ses éléments. Encore une fois, la structure même du système nerveux, ses facultés de restauration et d'auto-organisation, son extraordinaire habileté à insérer une situation particulière dans un cadre fonctionnel général, constituent autant d'indications, peut-être un peu autoréférentielles, incitant à l'optimisme sur les possibilités de ce modèle.

Revenons un instant à la structure d'un ordinateur classique ; le schéma esquissé plus haut décrit cette machine comme une « table rase », sur laquelle le programmeur vient déposer données ou règles. Par contraste, un « neurordinateur » comportera une structure, le plus souvent permanente, laquelle traitera non pas des nombres ou des suites de symboles, mais des formes, par exemple des graphes ; le traitement sera global. Les ingrédients du fonctionnement incluront, d'après C. von Marlsburg, une scène généralisée constituée d'objets décrits en termes de rôle, de signification, de matériau, et ainsi de suite ; tout ce qui relève de la communication entre ces objets fait partie de la scène, telle qu'elle est définie dans ce paradigme. La pierre angulaire du fonctionnement de la machine est dans ses représentations internes, en d'autres termes dans la manière dont elle traite les données externes (perceptives). Un problème d'importance est l'articulation entre la mémoire à long terme et la mémoire à court terme. Par la première, on entend l'ensemble des scènes mémorisées lors d'expériences antérieures, éléments et procédures. C'est à partir de cette base de données qu'il s'agira d'élaborer la seconde, c'est-à-dire la scène courante. A cet effet, de nouvelles procédures sont forgées permettant l'extraction d'une nouvelle information de type structurel. Le passage de l'une à l'autre se fait de manière continue, sans disjonction.

Alors que la dynamique globale d'un ordinateur est gouvernée par des instructions de portée tout à fait générale, l'ordre global d'un « neurordinateur» est déterminé par des règles locales entre entités fortement interconnectées ; ce sont ces entités que l'on appelle neurones ou, plus prudemment, neurones formels. Dans ces conditions, les neurones peuvent êtres vus comme des propositions relatives à la scène et le degré d'excitation de ces neurones comme proportionnel au degré de vérité de la proposition considérée. On a souvent affaire dans la pratique à des neurones binaires, c'est à dire à deux états, actif ou inactif, positif ou négatif et ainsi de suite ; les neurones sont reliés entre eux par des connexions appelées métaphoriquement synaptiques ; chaque connexion est affectée d'un poids, positif, négatif ou nul, appelé poids synaptique ; enfin, l'état d'activité de chaque neurone ou le poids de chaque connexion évolue selon un ensemble de règles appelé dynamique du système.

Fig.1 : Schema d'un reseau neuronal Fig. 1 : Schéma d'un réseau neuronal

La figure 1 donne l'exemple d'un tel objet. Le système ainsi constitué s'appelle aussi bien réseau d'automates binaires. Une forme est alors décrite par l'ensemble des états d'activité des neurones. L'ensemble des connaissances du système n'est pas localisé dans des entités topologiquement désignables - les neurones - mais réparti dans le tableau des poids synaptiques.

Le réseau fonctionne en modes reconnaissance ou apprentissage ; ce dernier peut être supervisé (= avec professeur) ou non (auto-organisation) ; on dispose aujourd'hui de résultats honorables dans les deux premiers de ces modes, l'état de l'art concernant le troisième est plutôt préliminaire.

Mode reconnaissance : un modèle dû au physicien américain J.J Hopfield se laisse partiellement décrire de la façon suivante : les deux états possibles d'un neurone sont représentés par les nombres respectivement ± 1 : appelons-les spins ; soit maintenant un neurone donné : ce neurone est globalement informé de l'état d'activité de tous les autres neurones via une somme pondérée de leurs spins. Les coefficients de pondération étant aussi bien positifs que négatifs, on rend compte des phénomènes d'activation aussi bien que d'inhibition. Ainsi informé, le neurone prend le signe de cette somme ; l'opération se poursuit ainsi pour tous les neurones du réseau. Sous des hypothèses assez générales, ce dernier converge rapidement vers des états stables, appelés attracteurs. En d'autres termes, chaque unité neuronale finira par se stabiliser dans un état qu'elle ne quittera plus.

Il est possible de configurer les éléments de telle sorte que les états stables soient des états donnés a priori que l'on appelle prototypes. Ces prototypes vont attirer les formes présentées à la machine : chaque forme ira poursuivre (mathématiquement parlant : converger vers) le prototype qui lui est le plus semblable (mathématiquement parlant : le plus proche). Une autre formulation de cette propriété est que le réseau corrige l'information fautive qui lui serait fournie : c'est une forme faible de généralisation. La différence avec les mémoires localisées par leur numéro est évidente : que l'on change par exemple le premier chiffre de son numéro de Sécurité Sociale, et l'adorable patissière sera convoquée pour désertion... En fait, les choses ne sont pas si simples : il se trouve en effet qu'il est impossible d'enregistrer plusieurs prototypes sans créer dans le même temps des attracteurs parasites. Il existe cependant des méthodes de désapprentissage permettant d'affaiblir la convergence vers les attracteurs non intentionnels sans trop dégrader ce qui concerne les prototypes : oubli sélectif des idées fausses, en quelque sorte (mais on peut aussi bien favoriser ces attracteurs qui résultent de l'association des attracteurs explicites...). Un autre problème est celui de la saturation : à trop vouloir gaver le système d'informations, on le détériore. Notons que si le nombre de configurations différentes d'un réseau de N neurones croit exponentiellement avec N (pour N=10, il vaut 1024 et pour N 100, il comporte trente chiffres), seule une très faible proportion de ce total sera efficacement mémorisable, typiquement une fraction de N.

Cela n'est pas sans supporter une analogie avec les systèmes biologiques ou symboliques de type linguistique : un nombre très faible d'atomes (neurones, lettres, acides aminés), et une loi de composition (neurodynamique, grammaire, chimie), suffisent à engendrer une véritable explosion combinatoire de sens nouveaux ; le sens émerge de la topologie, c'est-à-dire des corrélations de portées croissantes entre les atomes ; en fait, on retrouve ici les traits saillants du modèle freudien.

° Mode apprentissage : Ce mode met en jeu plusieurs stratégies, essentiellement différentes, mais dont le point commun est l'auto-reconfiguration du système, qu'il s'agisse des poids synaptiques ou, plus radicalement, de la structure même du réseau ; encore une fois, la similitude avec le modèle freudien est ici très claire, à la différence substantielle près que l'on n'invoque plus des mécanismes flous, ad-hoc et en q.s.q. pour rendre compte d'un ensemble complexe de comportements mais au contraire que l'on décrit très précisément un nombre limité de procédures avec des ambitions limitées pour les performances associées. Une première stratégie dérive de la conjecture dite de Hebb sur la relation entre plasticité synaptique et mémorisation ; elle consiste à renforcer en valeur absolue les connexions correspondant à des afférences pré et post synaptiques de même signe. Elle semble biologiquement fondée et son statut mathématique est élucidé. La seconde consiste à comparer la sortie désirée à la sortie effective d'un neuromime ; un signal d'erreur est alors retro-propagé dans le réseau et son effet y est de modifier les poids synaptiques de façon à favoriser une bonne restitution des prototypes (fig. 2).

Fig.2 : Apprentissage par rétropropagation du signal d'erreur

Fig. 2: Apprentissage par rétropropagation du signal d'erreur

Une particularité de ce fontionnement est qu'entre les neurones d'entrée, souvent appelés rétine, et les neurones de sortie sont intercalées entre une ou plusieurs couches des neurones intermédiaires, sans contact avec le monde extérieur ; on les appelle «couches cachées » et leur état désiré n'est évidemment pas connu ; ces neurones cachés élaborent un codage de l'information d'entrée et informent les parties accessibles du réseau de la présence ou de l'absence de telle ou telle structure ou régularité. Cette stratégie semble biologiquement moins fondée et son statut mathématique est obscur. Elle semble cependant plus performante que la première ; mais c'est un sujet délicat. Il faut insister ici sur le fait que la communauté scientifique pose ces questions de manière positive et matérialiste et que son incompréhension provisoire devant certains résultats ne laisse guère de place à la sidération mystique devant l'émergence de propriétés collectives réfractaires à une approche réductionniste.

Conclusion

En dépit dun engouement quelquefois entachable d'une suspicion légitime et dont l'analyse ferait les délices du sociologue comme elle fera celles du chroniqueur, en dépit des percées spectaculaires dans des domaines très divers, les neuromimes sont encore dans l'enfance, au moins pour ce qui est de leurs réalisations matérielles, au-delà de la simulation de leur fonctionnement. Une des difficultés qui balisent le chemin du chercheur est liée à la rigidité actuelle de leur structure syntaxique, limitant leur faculté de généralisation. Cela est à la source d'une intense activité de recherche.

En dépit d'un engouement quelquefois entachable d'une suspicion légitime et dont l'analyse ferait les délices du sociologue comme elle fera celles du chroniqueur, en dépit des percées spectaculaires dans le traitement de certaines souffrances, la psychanalyse manque en partie d'un substrat théorique fiable et aspire au passage de l'état de technique à celui de technologie, au sens de technique s'appuyant sur une science.

Quelques difficultés internes à chaque champ ayant été indiquées, comment se situe l'articulation?

Résumons d'abord, à travers quelques mots clés utilisés sans glissement sémantique par les deux auteurs, ce qui s'extrait comme structure commune : alphabet, auto-organisation, codage, complexité, complexification, connexionisme, filtrage, mémoires associatives, redondance, représentation interne et structure syntaxique. Cependant, il ne faut pas éluder certaines difficultés majeures du dialogue qui tiennent au fait que la différence de complexité des registres respectifs de départ les fait apparaître disjoints. En particulier, nous sommes convenus que la question du désir, exclue du modèle de l'activité intellectuelle pour l'un, était le symptôme dont et à partir duquel l'autre constitue ses concepts. Un axe de recherche qui nous paraît donc devoir être privilégié est l'interconnexion des mémoires associative et syntaxique.

Cet article s'inscrit dans la tentative des auteurs de relier par un travail commun deux rives séparées de l'activité cognitive. A défaut d'unité globale, voici une unité de volonté. Cet article n'est ni une réalisation, ni nécessairement un programme; c'est une esquisse. Dans un prochain article, nous discuterons de manière plus fouillée quelques implications des arguments présentés ici.

Remerciements

Fruit d'une suite incessante de mutations, le présent article doit sa forme actuelle à la date inexorable de sa remise à l'éditeur. Il a bénéficié de la collaboration involontaire des auteurs d'une ou deux centaines d'articles que nous avons abondamment pillés, trahis et que nous sommes dans l'impossibilité de citer tous. En se reconnaissant, qu'ils reçoivent nos excuses et nos remerciements ; les références pourraient constituer un fil d'Ariane dans le dédale de la littérature associée.

Références

Pour la pensée Freudienne, on se réfèrera à l'Esquisse et la « Lettre 52>) W. Fliess (in: La naissance de la Psychanalyse, P.U.F., 1973), la Contribution à l'étude des aphasies (ibid., 1983) ; on consultera par ailleurs avec profit le Projet de psychologie scientifique de Freud : un nouveau regard de K.H. Pribram et M.M. Gill (P.U.F., 1986; abondantes références incluses).

Le développement de ces idées par Lacan est exposé en particulier dans les Séminaires 2, 5 et 7, ainsi que dans es Ecrits, le tout publié aux éditions du Seuil.

On trouvera l'état des développements récents sur les réseaux de neurones formels par exemple dans les actes, à paraître, du congrès « Neuro 88 » qui s'est tenu à Paris en juin 88 (renseignements complémentaires auprès d'A.M.). Une introduction qualitative à ces réseaux sera publiée prochainement dans L'Echo des Recherches sous la signature d'A.M. et Gabriel Y. Sirat; Enfin, le cadre général de travail des auteurs est exposé dans « Science et Psychanalyse : l'Esquisse et le modèle freudien du psychisme» in Cahiers d'Ecole en vente à l'ELPs et librairies spécialisées.

° Appendice 1: une note historique

Philosophes, physiciens, psychiatres, mathématiciens, neurophysiologistes ou autres experts sont autant de schismatiques au regard de l'histoire complexe dont ils sont tous issus ; comme il est fréquent, le schisme, initialement nécessaire, s'est rigidifié par le jeu des imcompréhensions mutuelles où le sarcasme protecteur a tenu lieu d'argument. Les recherches théoriques sur le mécanisme de la pensée remontent au moins à Platon et Aristote pour le premier, l'esprit était initialement comme un bloc de cire vierge sur lequel viennent se graver ultérieurement les perceptions ; pour le second, la sensation, au contraire d'être un élément perturbateur du savoir, participe de et à la connaissance; les principes organisateurs de cette connaissance sont décrits par un ensemble de lois telles que contraste, contiguité ou similitude.

Les premiers automates remontent au moins à Héron d'Alexandrie, un siècle avant l'ère vulgaire. Descartes et les empiristes du dix-huitième siècle ont défendu des visions plus ou moins mécaniques des mécanismes de la pensée. C'est peut être au dix-neuvième siècle que l'interdisciplinarité a culminé. Il est assez peu connu des physiciens que Maxwell (et plus tard Mach) ont apporté des contributions séminales à la psychologie et à la neurobiologie, par exemple en ce qui concerne la vision ; dans le même ordre d'idées, on doit à Helmholtz, entre autres travaux scientifiques, la formulation définitive de la conservation de l'énergie, fondamentale en physique, mais aussi quoique de manière plus allusive des idées de Freud. On peut légitimement se demander comment, du spatio-temporel physique et du spatio-temporel psychologique on peut se passionner pour l'un et se désintéresser de l'autre et réciproquement comme il va sans dire. Donnons, pour une réponse, la parole à Einstein : "La plupart d'entre nous préfèrent regarder à l'extérieur plutôt qu'à l'intérieur de soi ; c'est que dans ce dernier cas nous ne voyons qu'un trou noir, qui ne signifie rien du tout". L'histoire des travaux de Helmholtz est éclairante sur le schisme. Après avoir établi que la vision d'une scène ne se réduit pas à une succession de mesures locales, Helmholtz s'intéressa au phénomène d'inférence inconsciente et posa que les données brutes de la perception étaient modifiées par l'expérience antérieure via un acquis imaginaire appris avant de devenir de vraies perceptions. En somme, ce que nous percevons et mémorisons est en partie constitué de ce que nous nous attendons à percevoir, s'appuyant sur un apprentissage antérieur. Traduite en langage contemporain, cette théorie ferait intervenir des concepts mathématiques qui n'étaient pas encore élaborés à une époque où il y avait juste de quoi formaliser la Relativité Générale et la Mécanique Quantique...

C'est ainsi que l'on renonça à la formalisation en psychologie et que de l'autre côté on se pénétra de l'intime conviction que non seulement il n'y a pas de théorie de l'esprit (ce qui est vrai !) mais encore qu'il ne peut pas y en avoir. Psychologues et physiciens s'accordant sur leur ignorance mutuelle, la terreur sarcastique des uns s'accorda au terrorisme sarcastique des autres. L'échange se fit au travers de métaphores où l'on appela cyniquement mémoire le fonctionnement de quelques atomes de Silicium finement saupoudrés de Bore ou d'Arsenic et programme tout ce qui s'élabore dans le corps. Les savoirs plus ou moins structurés s'accumulèrent et s'empilèrent. C'est en 1978 que la Tour de Babel s'écroula : le rapport SOAP y définissait les sciences et techniques cognitives comme l'étude des "capacités représentationnelles et calculatoires du mental (mind) et de leur représentation structurelle et fonctionnelle dans le cerveau (brain)". Il les situait à l'intersection des six domaines suivants: philosophie, psychologie, linguistique, intelligence artificielle, neurosciences et anthropologie. En raison de dissensions diverses, ce rapport ne vit jamais le jour.

Il se trouve que depuis quelques années un vigoureux effort de regroupement s'opère, un peu à la manière dont l'androgyne des origines retrouve son identité fracturée. Différentes communautés scientifiques communient dans l'allégresse des retrouvailles, lourdes de promesses de contrats partagés; les voici qui ébauchent un dialogue où au départ le savoir de l'un est bruit pour l'autre.

Le premier modèle de neurone formel est peut être celui de Mc Cullough et Pitts (1949), en termes de réseau fini d'automates. La formalisation de ce processus est à la base de la théorie des automates à seuil. Le Perceptron (machine à apprendre, 1958) de Rosenblatt est le plus grand succès des années 50 en ce qui concerne les relations adaptatives stimulus-réponse. Widrow et Hoff proposent en 1960 la machine linéaire Adaline qui en fait équipe aujourd'hui chaque modem. C'est l'âge d'or des systèmes auto-organisateurs. Mais bientôt quelques réserves commencent à se manifester ; çà et là le vocabulaire change, les mêmes objets changeant de désignation. On reconnaît la limitation de ces machines aux problèmes dits linéairement séparables (voir Appendice bis). En 1968, Minsky et Pappert établissent d'une manière que l'on croit définitive les limitations du Perceptron et de ses variantes, sonnant le glas des recherches associées ; reconversions, désillusions, gel des crédits.. Seuls quelques pionniers persévèrent. En 1982, coup de tonnerre : le physicien Hopfield va publier une communication reprenant quelques concepts du calcul neuronal en insistant sur leurs traits structurels saillants et en les éclairant de modèles robustes et performants issus directement de la physique. Le modèle non linéaire d'Hopfield ne levait pas les limitations attribuées du Perceptron, mais son élégance et sa nouveauté, son interprétation physique lumineuse allaient déchaîner l'enthousiasme de beaucoup et l'amertume de quelques autres. Par la suite, les limitations du Perceptron seront levées par l'introduction de processus non déterministes (Hinton, Sejnowski et Ackley Le Cun) et de cellules dites cachées dans le réseau neuromimétique. Les modèles de reconnaissance voient aussi leurs performances accrues cependant qu'au-delà de la simulation, les réalisations de machines neuronales commencent à progresser.

° Appendice 1 bis: problèmes lineairement séparables

Considérons la fonction «ET» pour des objets binaires O et 1 et appliquée à deux entrées x et y que nous représenterons par le couple (x,y). Les différentes entrées possibles sont donc (0,0), (0,1), (1,0) et (1,1). Plaçons chacun de ces couples aux sommets d'un carré ABCD la fonction «ET s fait correspondre à chacun des sommets les valeurs respectives 0,0,0 et 1 (la sortie est le produit des entrées). On voit immédiatement qu'il existe au moins une droite séparant en deux classes dans le plan les valeurs de sortie d'un côté les « 1 s et de l'autre les ii o» (voir figure 3a). La fonction booléenne ET est dite linéairement séparable ; on peut généraliser au cas de N variables d'entrée pour une variable de sortie.

Soit maintenant la fonction qui ferait correspondre aux points ABCD précédents les valeurs respectives 0,1,0 et 1 : deux points sur la même diagonale portent la même valeur, différente de celle qui affecte les deux autres points cette fonction, qui s'appelle XOR, n'est pas linéairement séparable (voir figure 3b). Le nombre de fonctions booléennes è N entrées est 2 m avec m = 2 N. Cependant, la proportion des fonctions séparables dans ce nombre décroît exponentiellement avec N en d'autres termes, pour N assez grand, aucune fonction booléenne à N entrées n'est linéairement séparable. Les déboires du Perceptron viennent de là,

Fig.3 : Problemes lineairement separables

Fig. 3: Problèmes linéairement séparables


Dernière mise à jour :
Dr Jean-Michel Thurin