Si le fonctionnement du psychisme n'était que du traitement de l'information, si seul son niveau de complexité empêchait l'élaboration d'une description fondée sur des états de neurones et des lois de l'évolution, alors bien plus que nécessaire, la confluence serait devenue évidente. Ce principe posé par Francis Jutand au début de son intervention le conduit à discuter trois points :
les éléments de description des lois et principes physiques qui régissent le traitement matériel de l'information ;
l'évaluation et comparaison des performances du cerveau et des machines électroniques ;
les fécondations à attendre d'une coopération entre l'étude du psychisme et le traitement matériel de l'information.
Francis Jutand
Comme tout titre bâti par apposition de deux éléments liés par un «et», «traitement de l'information et modèle du psychisme» est un titre porteur d'ambiguïtés. S'intéresse-t-on au fonctionnement du psychisme qui peut servir de modèle au traitement de l'information, ou au contraire aux méthodes du traitement de l'information qui pourraient aider à la compréhension du fonctionnement psychique ? Ou encore, prend-on position sur le fait que le fonctionnement du psychisme obéit aux lois du traitement de l'information ? Ou enfin, suggère-t-on que c'est grâce au fonctionnement du psychisme que pourront être élaborées des machines de traitement de l'information de plus en plus performantes ? Toutes ces approches sont possibles. Elles ne constituent, en fait, que les différentes facettes du rapport en miroir entre le fonctionnement du psychisme humain et celui des machines (ou artefacts) qu'il construit. La matière du miroir est fournie par le monde physique qui nous entoure ; l'homme s'ingénie, par le développement de son savoir technologique, à en tirer des moyens toujours plus puissants d'action mais aussi d'introspection. Chacun de ces points de vue a déjà fait l'objet de beaucoup de réflexions et d'arguments passionnés ; aussi, allons nous nous intéresser plutôt à leurs rencontres et à leurs interactions. Pour cela, il est bon d'exposer en préliminaire les implicites ou présupposés, c'est-à-dire son point de départ, (il pourrait y en avoir mille), à partir desquels on peut frayer son chemin.
Le premier est un présupposé matérialiste. Le fonctionnement du cerveau et de l'ensemble du système nerveux s'appuie sur des processus physico-chimiques qui, par les transformations d'états qu'ils réalisent, implémentent des opérations de traitement de l'information. Ils sont le support de l'évolution des informations sur lesquelles travaille notre cerveau et dont certaines bulles atteignent notre conscient. Cette position apparaît souvent, pour qui ne veut pas la comprendre, comme choquante ou réductrice. Il faut d'emblée essayer, sinon d'éteindre ou d'étouffer, au moins de canaliser ces braises de discordes. Au premier ordre, ce n'est pas parce que l'on a formulé (et dans un certain domaine validé) la loi E= mc2 que l'on a compris le fonctionnement du monde ; mais cela n'empêche pas cette loi d'être un bon modèle. Plus précisément, l'on dira que les sciences physiques et de la nature ont depuis longtemps abandonné le rêve positiviste de pouvoir modéliser la globalité du fonctionnement du monde par une série de lois qui, partant d'un état initial, permettrait dans le détail de prédire le futur et «postdire» le passé. Ce renoncement n'a pas empêché pour autant de rechercher de nouvelles lois de modélisation des comportements physiques et d'utiliser pour cela une démarche rationnelle. Les sciences de la nature, mais aussi de la physique et du traitement de l'information, ont rencontré le mur de la complexité. Le fonctionnement du psychisme implique le traitement de l'information ; mais sa complexité en empêche une description à base d'états de neurones et de lois d'évolutions. Le fonctionnement du psychisme est soumis au grandes lois thermodynamiques de la physique, portant sur l'énergie et l'entropie ; mais ces lois ne peuvent se traduire que par des propriétés macroscopiques, dans lesquelles vont s'inscrire de grands principes constructeurs qu'il nous appartient de découvrir. Il ne s'agit donc pas de parvenir à une description microscopique fine des états psychiques traduits en Volt et Ampère. Ce point mérite d'être lourdement souligné car il semble, hélas, souvent in fine l'objet de beaucoup de malentendus ou le point d'appui pour le refus de coopérations.
Pour, plutôt qu'équilibrer, prendre la première image dans le miroir, nous allons nous intéresser maintenant aux artefacts que sont les machines de traitements de l'information. Nous pouvons constater que l'homme les conçoit principalement comme des machines capables de reproduire les opérations qui sont à la base de sa pensée et de ses processus mentaux ; il les souhaite performantes, permanentes et capables d'évoluer dans des milieux pour lui impossibles ou hostiles. C'est l'homme qui crée les artefacts ; le fonctionnement des machines renvoie donc inévitablement à ses créateurs. On peut noter qu'il en est ainsi de tous les outils physiques ou conceptuels. Ce point peut être vu comme une relation directe de cause à effet : les traitements réalisés par les machines ont été imaginés ou programmés par l'esprit humain ; ou encore, comme une communauté d'objet : le traitement de l'information est la traduction commune des activités psychiques et artefactuelles. Dans ce cas, les procédures mises au point consciemment par l'homme pour faire fonctionner les machines, de façon inductive, peuvent renseigner sur les procédures basiques inconscientes utilisées par le psychisme humain. "Inconscient" est, dans cet exposé, à prendre au sens commun du terme et non au sens psychanalytique. Ce point sera détaillé ultérieurement.
Mon exposé est structuré en trois points :
le premier ,de nature épistémologique, apporte des fragments sur les relations entre la physique et le traitement de l'information, sur les opérations de base du traitement et les processus principaux des chaînes et réseaux de traitement artificiel de l'information. Il se termine par une tentative de représentation des phases de développement du traitement artificiel de l'information et de leur dynamique.
le second procède tout d'abord à une évaluation comparée de la puissance de traitement brute du cerveau humain et de l'état de l'art du traitement électronique. Une projection est faite pour la comparer aux limites de la technologie microélectronique que l'on atteindra vers l'an 2005-2010. Puis, sont abordés les mécanismes générateurs et ce que pourraient être les traits moteurs de machines de traitement de l'information capables de mettre en uvre un tel potentiel technologique, en puisant aux sources du vivant.
la troisième partie introduit des fécondations mutuelles qui pourraient naître d'une coopération non frileuse.
La physique, au cours de son histoire, a tenté de modéliser les relations entre les éléments de la matière que l'humain pouvait appréhender, la description mécanique des particules et leurs transformations. Elle avait, comme support, les diverses forces et énergies à laquelle elles étaient soumises. De l'approfondissement de l'infiniment petit à l'infiniment grand, le temps (vu comme une mesure ou une succession d'événements), les lieux (de rencontre et de transformation) et les états (qui mesurent le degré d'évolution ou d'organisation) apparaissent toujours comme variables, éléments de description.
L'objet de ce paragraphe n'est pas de réaliser un méli-mélo à vocation poétique de toute une création de la physique qui progresse sans cesse dans ses compréhensions et interrogations ; il s'agit d'extraire des entités ou catégories que l'on va retrouver à chaque niveau de progression de la compréhension de la nature et qui doivent trouver un écho profond dans une recherche de description du psychisme.
De quelques millénaires de progrès, les physiciens ont tiré des enseignements dont j'extrais une liste personnelle :
le point de vue mécaniste n'a pas été vaincu (il n'avait pas d'ailleurs à l'être), mais transformé ;
le tout n'est pas la somme des parties. Il y a dans ce jeu de mots une première limite à la résolution d'un problème par l'analyse de ses composantes ; une limite insidieuse d'ailleurs, tant souvent la découpe en parties semble aller de soi. Il y a de l'information dans l'assemblage et donc toute action de désassemblage oblige à perdre de l'information ;
avec le temps, le nombre d'états possibles s'accroit ; ceci signifie que la quantité d'information nécessaire à les décrire s'accroit également. A quantité d'information limitée, il devra donc y avoir des renoncements à décrire, prédire ou remonter les états d'un système. Le temps présent ou de mesure de l'état, sera considéré comme le point de jonction de deux cônes de connaissance (du passé et du futur), dont la section grandit au fur et à mesure que l'on s'éloigne. Il y a donc double incertitude entre description et connaissance d'une part, description et prédiction d'autre part. Si l'on rejoint ces deux constatations de complexité et d'incertitude, on obtient le centre problématique de toute science de la physique, incluant celle du vivant.
Ce constat n'implique pas l'impuissance mais pose les conditions de l'avancée.
L'étude de la relation d'incertitude d'Heisenberg fut pour moi non pas le premier moment d'incertitude, mais le premier hiatus réalisé entre ma perception intuitive du monde physique et la connaissance que l'on essayait de m'en faire acquérir. La connaissance précise de la position d'un objet se fait au détriment de la connaissance de sa vitesse. Si cette loi de la physique ne suffit pas à ce qu'une détermination de la vitesse de votre véhicule par la gendarmerie n'empêche sa localisation, elle indique cependant clairement qu'il y a une limite à la précision de la connaissance de l'état d'un objet.
La physique et son artisanat ont permis de doter l'homme d'éléments technologiques dont l'assemblage réalisait des artefacts toujours plus puissants. En même temps, l'humain s'organisait en sociétés dont les aires s'agrandissaient sans cesse et dont les interactions se densifiaient. On trouve là, matière à dériver d'autres versions du principe d'incertitude qu'il me semblerait d'ailleurs préférable de qualifier de renoncement acquisitif : la connaissance précise de l'état d'une partie d'un système se fait au détriment de la connaissance précise des autres parties de ce système. Cette imprécision est limitée, soit par les capacités de l'observant, soit par la dynamique des variables de description. Cette remarque n'est pas sans importance, veut indiquer que, de toute façon, une barrière existe et que la meilleure stratégie n'est pas toujours d'essayer de s'en approcher. Il y a forcément, dans les systèmes qui nous intéressent, une autre formulation quasi ergodique du principe d'incertitude : le niveau de précision possible de description d'un système décroît quand sa complexité croit.
On trouve donc là un cocktail d'implications redoutables : il faut à la fois tordre le cou aux idées du type «tout influe sur tout», classiquement illustrées par le battement d'aile du papillon d'Australie qui pourrait provoquer l'orage en France ; accepter l'idée de modifier ou d'imposer l'état de certaines parties d'un système pour avoir accès à une partie déterminée; et enfin, accepter de travailler sur des propriétés de plus en plus générales au fur à mesure que l'on veut accroître le champ de description du comportement d'un sous ensemble de système.
Dans ce contexte d'incertitudes, examinons maintenant comment s'organise le traitement artefactuel de l'information.
Temps, espace et information sont les trois ingrédients de la physique que l'on retrouve à l'uvre dans le traitement matériel de l'information.
Le temps, succession d'événements, peut être vu comme le chemin le plus long entre le début d'un traitement d'informations et sa fin, ou comme le vieillissement d'une information en terme d'étapes de rencontre et de mélanges à subir.
La variable d'espace correspond au chemin à parcourir pour qu'un ensemble de données rencontre un autre ensemble de données avec les coïncidences requises par le traitement. Le terme d'espace est utilisé puisqu'une des difficultés à vaincre, pour réaliser cette rencontre, est de faire franchir aux informations les distances virtuelles, selon l'organisation symbolique de leur stockage, mais toujours in fine physique, qui les séparent. Espace signifie aussi la difficulté d'enchevêtrement à réaliser pour que les bonnes informations se rencontrent ; cet aspect, traduit dans un espace technologique donné, contribue significativement à la complexité du traitement.
Entropie, enfin, est un mot passerelle qui marque symboliquement les liaisons entre les lois de la physique à la rencontre de la complexité et de l'évolution, et l'abstraction d'événements et de leurs sens relatifs que l'on qualifie d'information. L'entropie, qui mesure le degré de mélange et de contraction des informations qui se rencontrent, est la troisième composante ou variable d'état que l'on peut suivre au cours d'un traitement d'information.
Traduites en termes d'implantation d'une opération de traitement, les trois variables d'état peuvent être projetées sur les trois opérations de base du traitement matériel d'information : le mélange, le stockage et l'échange.
Trois grandes fonctions de bases du traitement de l'information peuvent bien incarner bien ces trois opérations : les fonctions de compression et de décision, les bases de données, et les réseaux d'interconnexion.
Les chaînes de compression, partant de signaux fournis par des capteurs, réalisent une série de fonctions élémentaires dont le but est de réduire la quantité d'information jusqu'à une classification qui permette une décision d'action, d'effacement ou de classement. Ceci s'obtient en général par une succession d'opérations du type :
échantillonnage ; c'est à dire prélèvement et mise en forme de l'information ;
modélisation ; par transposition de l'information dans un repère apte à la classification, cette opération pouvant être, selon les cas, réductrice ou non de la quantité d'information ;
classification ; c'est à dire réduction de la quantité d'information par identification à une ou plusieurs classes représentatives du «paquet d'informations» ;
décision ; prenant en compte une base de connaissances et le contexte des autres évènements ou paquets d'informations.
Ces chaînes de compression se caractérisent le plus souvent par une réduction du débit, corrélative de l'augmentation de la portée des interactions entre les informationn ; elles sont, dans cette étape élémentaire, le plus souvent monodirectionnelles du point de vue du sens de circulation des informations.
Les fonctions des bases de connaissances sont des fonctions de mémorisation de données, informations ou modèles et de structuration passive ou active des connaissances entre-elles. Elles offrent donc un ensemble de niveaux de mémorisation symbolique, par un stockage physique des informations, une structure d'interconnexions et des schémas fonctionnels d'activation et de sélection des connaissances, de façon à fournir les éléments de réponses à une requête ou l'intégration d'une nouvelle donnée de connaissance.
Les réseaux d'interconnexions réalisent une opération de mise en connexion physique simultanée d'émetteurs et de récepteurs, de synchronisation fonctionnelle des diverses entités (ce qui permet d'assurer la syntaxe des informations transmises), ainsi que de gestion et d'arbitrage en cas de conflit entre différentes communications.
En fait, chacune des trois grandes fonctions de base met en uvre, au niveau élémentaire, les opérations essentielles du traitement de l'information : mélange, stockage et échange. Les opérations de traitement plus complexes impliquent les trois types de «grandes fonctions» : les chaînes de compression interagissent avec des bases de connaissances pour réaliser leurs opérations de classification et de décision ; elles coopèrent entre elles, c'est à dire travaillent en parallèle, en séquence ou de façon rebouclée, par l'intermédiaire de réseaux d'interconnexions. Il y là les éléments d'illustration d'un grand principe d'autosimilarité, c'est-à-dire de reproduction de schémas identiques à différents niveaux, piste vers le dégagement de mécanismes constructeurs.
Le traitement neuronal d'information, objet de confluence de notre sujet, est un vaste domaine dont le degré de connaissance va du plus fin à l'ignorance totale. C'est, bien sûr, aux «extrémités», que ce domaine est le plus exploré : celles du fonctionnement observable du psychisme et du fonctionnement élémentaire du neurone. Nous nous retrouvons là devant une situation que l'on peut comparer au problème qu'auraient des hommes appartenant à une société qui n'aurait pas connu le développement de la microélectronique et de l'informatique si ses scientifiques se retrouvaient confrontés à la compréhension d'ordinateurs venus d'ailleurs. Ils s'attaqueraient au problème, à la fois par une tentative de compréhension comportementale de haut niveau de la machine (en étudiant ses réponses à leurs questions), et par une tentative de compréhension du fonctionnement physique des éléments qui le constituent (transistors et interconnexions). Des psychologues se spécialiseraient dans la compréhension et l'interprétation du comportement des ordinateurs ; quant aux physiciens, ils s'atteleraient à l'étude des semi-conducteurs et des composants. En admettant que leurs actions ne rencontreraient pas les obstacles ou tabous inhérents à l'étude de ce sujet, il est probable que les clivages se feraient entre comportementalistes et réductionnistes ; ces oppositions viendraient freiner l'étude des niveaux intermédiaires de compréhension. Laissons là l'image sur une dernière analogie : les ordinateurs microélectroniques actuels sont basés sur l'assemblage de composants élémentaires (les transistors) ; le traitement cérébral s'appuie sur l'assemblage d'opérateurs élémentaires (les neurones).
Au premier ordre, on peut définir le fonctionnement du système nerveux humain comme un système obtenu par assemblage d'éléments, les neurones, qui présentent une grande variabilité de comportements mais cependant une unité fonctionnelle. Ces opérateurs matériels de traitement de l'information sont, en effet, dans l'état des connaissances de l'auteur, tous bâtis sur un modèle unique : ils collectent un grand nombre d'informations provenant d'autres neurones et les mélangent avec celles stockées dans le neurone ; ces opérations conduisent à compression et décision, en produisant une seule information qui est codée puis distribuée par un réseau d'échange à un grand nombre d'autres neurones. On retrouve donc, à ce niveau élémentaire, les trois fonctions de base du traitement de l'information : chaîne de décision, base de connaissance et réseaux d'interconnexions.
Si la variabilité des neurones est grande, à la fois par leur nombre d'entrées, leur fonctionnalité, leur vitesse de traitement, le type de codage employé et leur nombre de sortie, les études fournies par les physiologistes et neuro-biologistes permettent de donner les paramètres moyens suivants : le cerveau humain contient de l'ordre de mille à dix mille milliards de neurones et de l'ordre de mille fois plus de synapses ou interconnexions. La rapidité de traitement ne dépasse jamais la milli-seconde et peut atteindre la seconde ; la consommation moyenne de l'ensemble est de quelques dizaines de watts. De nombreuses études et publications décrivent de façon approfondie l'état des connaissances actuelles sur le sujet et les progrès qui s'accomplissent. Aussi, le but de cette description sommaire est simplement de fournir des bases de comparaison avec les capacités du traitement artificiel de l'information, telles qu'elles sont utilisées pour l'implantation de traitements neuronaux, en fonction des technologies actuelles et de ce que l'on peut prévoir pour l'an 2010, généralement retenu comme achèvement des progrès de la microélectronique.
Des hypothèses moyennes sur la vitesse de fonctionnement des neurones, le nombre moyen de neurones et leur degré d'interconnexion, conduisent, pour l'esprit humain, à une puissance moyenne évaluée de dix à la puissance quinze, soit un million de milliards de neurones équivalents par seconde. Avec les technologies actuelles, qui permettent des vitesses de traitement supérieur mais des densités volumiques de traitement moins fortes dans un volume équivalent à celui du cerveau, c'est seulement de l'ordre de quelques dizaines de milliards de neurones équivalents par seconde qui pourraient être implantés ; ceci, avec une consommation de cent à mille fois plus forte. Si, par contre, on se projette à l'an 2010, c'est à dire vers des technologies dont la finesse de gravure serait de quelques centièmes de micron, on atteint des puissances de traitement du même ordre que celle du cerveau humain, avec toutefois des puissances consommées plus de mille fois plus importantes. De cette comparaison grossière, on peut tirer deux premières conclusions. La complexité du cerveau humain, évaluée en puissance brute de traitement, est grande ; mais elle est de l'ordre de grandeur de ce que la technologie permettra d'implanter dans un avenir pas si lointain. La complexité des machines que l'humain va pouvoir concevoir dans un volume du même ordre, en utilisant le potentiel de la technologie, est de l'ordre de grandeur de celle du cerveau humain. Cette double conclusion, qui sémantiquement n'en fait qu'une, a pour but de montrer la nécessaire confluence et les efforts à réaliser pour s'imprégner de cet avenir et remettre en cause les tabous.
Le problème, ici posé, est justement celui du passage de la compréhension du fonctionnement des opérateurs élémentaires à la conception ou à la construction matérielle ou artefactuelle de machines ou de systèmes nerveux, de la complexité et de la performance que l'on vise ou que l'on constate. Si l'on s'intéresse au fonctionnement du cerveau et si l'on y ajoute un présupposé matérialiste, c'est à dire qu'aucune intervention externe, autre que celle des lois de la physique n'a guidé l'élaboration d'un tel système, il est nécessaire de rechercher les mécanismes constructeurs qui ont permis l'élaboration et le raffinement du système cortical. Si l'on s'intéresse à la création de machines artificielles, il n'est bien sûr, pas question de reproduire l'évolution et ses longs tâtonnements, mais de comprendre les mécanismes simples qui permettent d'élaborer et de maîtriser le fonctionnement de machines si complexes.
Le point de départ, et il en faut bien un, est la disposition de matériaux de base constitués d'opérateurs de traitement dont la fonctionnalité, les interconnexions et la connaissance sont en partie adaptables par un processus d'apprentissage. Nous avons identifié cinq mécanismes constructeurs, sans prétendre, à ce point de maturation de la réflexion ni à l'exhaustivité ni à la pertinence de base de ce jeu de mécanismes ni à leur identité d'actions et d'intervention chronologique dans le processus.
Le premier mécanisme est un mécanisme générateur ou classifieur. Il va permettre d'organiser une série d'opérateurs de base, en fonctions discriminantes de l'ensemble des données soumises à apprentissage. Ce mécanisme d'auto-organisation doit être indépendant des données qu'il manipule et de leur sémantique. Il n'est, en fait, qu'une réplique (à des niveaux de complexité supérieurs) du mécanisme qui a conduit à la création des opérateurs élémentaires.
Le second mécanisme est un mécanisme réparateur. Sa nécessité provient à la fois de l'environnement énergétique dans lequel doit baigner toute machine (avec ses aspects interférents) et de fiabilité limitée des composants). Il doit donc à la fois avoir une fonction de robustesse pour garantir l'intégrité des données et des fonctions de reconfiguration pour pallier les déficiences définitives ou passagères de certains composants ou de leurs fonctions.
Le troisième est un mécanisme réplicateur. Son objet est la mise en uvre et en coopération des fonctions élémentaires de classification. Ce mécanisme peut être mû par un «moteur d'analogie» dont le résultat peut-être aussi bien une contagion transversale des classifieurs élémentaires qu'une contagion verticale montante ou descendante.
Le quatrième est un mécanisme régulateur. Il doit agir au niveau local ou global pour maintenir des micro et macro rythmes et réguler la consommation d'énergie. Il doit permettre les mises en phase et garantir l'action des autres mécanismes de génération, réparation et réplication.
Le cinquième, enfin, est un mécanisme contrôleur. Il doit garantir le sens du temps et l'unité de fonctionnement de l'ensemble. Ce mécanisme, que l'on peut associer en partie au phénomène de conscience chez l'humain, doit assurer l'unité d'évolution et être le niveau le plus haut de l'arbitrage. Il va déterminer l'évolution et la garantie de convergence ou stabilité de fonctionnement de l'ensemble des processus parallèles coopérant dans la machine.
Pour que ces principes existent et soient à l'uvre, il doivent résulter et obéir à certaines lois simples, issues directement ou dérivées de la physique. Avec les mêmes attendus que pour les mécanismes constructeurs, nous proposons trois principes moteurs : le principe de réduction d'information, le principe d'intégrité et le principe de performance. Ces principes opèrent à la fois aux niveau local ou microscopique et au niveau macroscopique ou systémique ; mais aussi, dans le principe d'assemblage ou de structure.
La réduction d'information est une contrainte pour tout système à mémoire, doté de récepteurs qui assurent un flux continu d'informations. Les capacités de stockage, de toute façon limitées, impliquent un processus de réduction et de réarrangement de l'information. La réduction d'information est, elle aussi, une contrainte locale à l' uvre dans les neurones. On peut la considérer comme une conséquence du principe d'incertitude étendu qui a été formulé. La prise en compte d'informations, venant de plusieurs sources, dans un mécanisme constructeur, implique une compression ou symbolisation d'information. C'est cette même nécessité, à l'uvre dans la structure, qui force à la décision et est productrice de symboles entrant dans la chaîne aval de traitement.
Le principe d'intégrité peut être considéré comme le point zéro du troisième principe de performance. L'intégrité doit être prise ici au sens de robustesse et de cohérence. Robustesse au niveau de l'opérateur dans le principe de quantification et d'apprentissage. Cohérence pour le système lui-même, par rapport à son environnement et ses finalités, pour assurer un traitement cohérent et des actions conformes. Intégrité enfin, au niveau de l'assemblage qui doit réaliser une structure adaptative qui garantisse une cohérence multi-niveaux entre le flux montant événementiel et le flux descendant de vérification et de stabilisation.
Le principe de performance, enfin, vient garder les diverses optimisations et la génération ou l'innovation.
Si l'on en revient maintenant à notre sujet et à l'intitulé de l'exposé : «Traitement de l'information et modèle du psychisme», nous pouvons explorer les déclinaisons citées en introduction : le psychisme, moteur du traitement de l'information.
Le fonctionnement du psychisme peut être vu comme un modèle ou plutôt un démonstrateur à la fois qualitatif, on peut le faire, et quantitatif, quelques dizaines de couches de traitement, c'est-à-dire de traversée de neurones, sont nécessaires pour exécuter une opération de reconnaissance et choisir une réponse. Cela démontre qu'il existe des algorithmes pour le faire et que ceux-ci sont suffisamment parallèles dans leur exécution pour que le temps de réponse soit très court, malgré une technologie infiniment plus lente que celle des technologies artificielles.
Aux nombreuses questions architecturales que l'on se pose, et dont les réponses ne peuvent être directement transposées, les technologies artificielles étant pour l'instant très différentes des technologies biologiques, nous pouvons cependant essayer de puiser des sources d'inspiration sur : la taille des opérateurs de traitement, les rapports de compression d'information, les structures des réseaux d'interconnexions et les modalités d'apprentissage. L'étude du fonctionnement psychique et les données fournies à tous les niveaux par les neuro-biologistes, cogniticiens, psychiatres et psychanalystes peuvent apporter des solutions ou des pistes par analogies transposables à nos technologies.
Le fonctionnement du psychisme est un outil merveilleux de simulation, de symbolisation et d'analyse intuitive. Par une utilisation attentive, il peut conduire sur des pistes que des outils exogènes permettront de valider. Une reconstitution chronologique de la peinture de Paul Klee, peut permettre, à posteriori de reconstituer toute une chaîne de traitement d'image, de la reproduction de l'image naturelle jusqu'à la production de symboles totalement non figuratifs mais représentant une version comprimée et structurée de l'information de départ.
De façon symétrique, l'étude du traitement artificiel de l'information et les acquis de formalisme et de structuration réalisés pour comprendre la nature physique ou construire des machines de traitement automatique, peuvent être une aide inductive ou analogique précieuse pour la compréhension du fonctionnement du psychisme. Elles peuvent être utiles notamment, pour combler le gouffre entre la compréhension comportementale de haut niveau et la compréhension du fonctionnement des opérateurs élémentaires. La théorie de l'information et du traitement du signal associé, fournit un corpus de savoir et un savoir faire sur les bons alphabets de description des opérations élémentaires, les lois de comportement statistique, les techniques de modélisation et de compression de l'information, ainsi que les limites physiques et thermodynamiques des capacités de traitements implantables.
Le développement de moyens technologiques puissants pour le traitement automatique de l'information et les efforts méthodologiques qu'il a fallu et qu'il faut continuer de déployer pour maîtriser les quantités croissantes d'information correspondant à l'implantation de tels systèmes, fournissent des outils de simulation et de validation. Ceux-ci permettent d'accroître considérablement la taille et la complexité des modèles du psychisme que l'on peut artificiellement tester et valider. On peut alors disposer d'outils d'analyse du fonctionnement qui peuvent dépasser la limitation de l'analogie et compléter les approches d'interprétation des fonctionnalités humaines.
Pour ce faire, des techniques d'analyses, (du type analyse de données, analyse de la parole, etc ...) pourraient être mises en uvre.
Le traitement de l'information et les disciplines sur lesquelles il s'appuie (physique, technologie et mathématique), constituent un ensemble de formalisme et d'évolution épistémologique très riche pour aborder les problèmes de complexité.
Les deux disciplines, traitement artificiel de l'information et étude du psychisme, présentent nombre de convergences mais aussi des différences : différences de méthodes, d'objet et de technologie.
Différences de méthodes, car l'une essaye de construire des machines par assemblage de pièces issues des technologies maîtrisables, alors que l'autre essaye de comprendre, par opération de désassemblage, le fonctionnement d'une machine complexe. Les points d'accès de cette dernière sont, soit comportementaux de très haut niveau pour les objets en fonctionnement, soit de bas niveau pour les observations expérimentales. Différences d'objet aussi, car l'une essaye de construire des machines reproductibles, fiables et à bas coût, alors que l'autre s'essaye le plus souvent à aider son objet à se reconstruire partiellement pour arriver à un fonctionnement acceptable. Différence de technologie enfin, entre une technologie moléculaire et ionique se développant par copie, croissance et adaptation progressive en milieu naturel, et une technologie électronique bidimentionnelle, se créant par des procédés extrêmes mais rapides.
Le premier point commun réside dans la nature physique des supports utilisés et l'obéissance aux lois de la physique et du traitement de l'information qui en sont dérivées. Mais il y a aussi une forte convergence d'objet autour de l'homme et de ses relations aux mondes extérieurs (qui incluent les relations aux autres humains, mais aussi aux objets et symboles) et les machines de traitement de l'information qui deviennent non seulement des vecteurs dominants de la communication, mais aussi de relais symboliques externes qui sont à la base du développement de l'intelligence et de la densification des relations sociales.
Les signes, relais symboliques et l'intelligence qui permet de les imaginer sont les deux projections de la nature et de la culture humaine. L'accroissement du potentiel des machines de traitement de l'information peut et va provoquer des évolutions importantes d'ordre politique, sociologique et psychologique. Il n'est besoin pour affirmer ce propos que de prendre l'exemple de l'irruption massive de l'image dans notre société et les modifications de comportement social et de structuration psychologique qui en sont la conséquence.
Il est nécessaire que les parties prenantes de la relation homme-machine confluent pour être à la hauteur des enjeux et implications des développements technologique et sociologique. Il y a intérêt réciproque, pour le progrès des différentes disciplines, pour que le tout soit plus que les parties, que les avancées dans chaque domaine profitent aux autres. Il peut y avoir cependant peur ou frilosité que des rapprochements du type de ce colloque peuvent mettre à jour et aider à dépasser. «L'homme est au miroir ce que le sel est à l'eau.
Dernière mise à jour : mercredi 8 octobre 2003
Dr Jean-Michel Thurin