Après une définition du concept de modèle en sciences exactes et la description de la démarche pour l'établir, Claude Gueguen présente les dangers et les intérêts de la modélisation.
Claude Gueguen
L'utilisation des modèles dans un très grand nombre de disciplines a beaucoup proliféré ces dernières années : depuis l'automatique, le traitement du signal, le traitement de l'information, jusqu'à l'économie et la biologie par exemple. Je propose d'esquisser un bilan de la pratique actuelle des modèles dans le domaine des sciences exactes.
Dans un premier temps, j'aimerais montrer l'importance de la notion de modèle en utilisant le renfort de deux exemples : la parole et l'encéphalogramme. Après avoir établi une typologie des modèles, j'indiquerai quelques techniques efficaces pour représenter un phénomène dynamique en créant un modèle mathématique. Puis, j'attirerai l'attention sur les dangers et avantages de la modélisation. En conclusion, je tracerai quelques perspectives d'évolution.
Un modèle est un être mathématique qui permet d'expliquer un certain nombre de données expérimentales qui ont été acquises préalablement. Nous sommes supposés disposer d'un corpus :
d'actions qui ont été suivies par des réponses ;
de causes qui ont été suivies par des effets ;
d'entrées qui ont engendré des sorties.
L'établissement d'un modèle combine alors plusieurs caractères fondamentaux : la réduction de l'information, la prévision et la généralisation.
Tout le problème est de trouver un dénominateur commun à un ensemble des données expérimentales afin d'en établir une synthèse.
La démarche est ambitieuse, elle a pour prétention d'établir les lois et de mettre en relief les régularités qui se cachent derrière les phénomènes observés. Cela revient à mettre au panier le monceau des catalogues d'expériences et à n'en garder que la quintessence : cette loi sous-jacente que l'on a établie.
Il est bien évident que dans ce travail de réduction, nous assumons le risque de perdre de l'information. Ce n'est d'ailleurs qu'à ce prix que l'on peut espérer l'émergence d'un modèle. Dans un ensemble d'expériences, seules certaines mesures ou certains aspects de chacune seront déclarés plus intéressants ou plus pertinents que d'autres qui seront laissés de côté. Il y a donc, à la fois, parti pris et pari : l'information qui sera considérée comme pertinente pour un observateur, dans un objectif donné, ne sera que du bruit pour un autre.
Prenons l'exemple de la parole. Si c'est le sens d'une même phrase, prononcée par différents locuteurs qui nous intéresse, c'est au contenu sémantique que nous nous attacherons, laissant de côté la personnalité de chaque locuteur. Si à l'inverse nous voulons authentifier le locuteur, ce sont les traits caractéristiques de la voix que nous retiendrons, en oubliant l'information sémantique.
Le concept de modèle ne peut aller sans celui de bruit. Pour trouver le dénominateur commun à plusieurs expériences, il est nécessaire «d'arrondir les angles». Deux expériences ne sont jamais identiques, même si elles sont régies par des lois communes. Pour pouvoir les placer dans le même modèle, il faut accepter un certain flou, dans les mesures qui permette de les considérer comme identiques, «au bruit près».
La deuxième notion à aborder, pour comprendre ce qu'est un modèle, est celle de simulation, donc de prévision et de généralisation.
Le but d'une loi de la physique, le but d'un modèle, est de pouvoir prédire le comportement d'un système en réponse à une entrée (stimulation) donnée, entrée qui n'a jamais été expérimentalement appliquée. Grâce au modèle, il est possible de calculer une sortie (réponse), et d'affirmer que ce résultat a toutes chances de coïncider avec celui qu'aurait fourni le système si l'expérience avait été faite. Le but de cette «simulation» est bien de généraliser l'information en sortant du champ des expériences acquises. Ici encore, il y a risque et il y a pari.
Les modèles que je souhaiterais présenter avec plus de détail sont les modèles dits «dynamiques». Ils associent à une entrée, phénomène qui se déroule dans le temps, une sortie qui est également un phénomène qui se déroule dans le temps. La mesure de cette entrée et de cette sortie constitue ce que nous appelons un signal.
Le modèle dit de «connaissance» est celui qu'utilise naturellement le scientifique. C'est un modèle dont la vocation est éphémère. A peine sa construction achevée, il est soumis à une inlassable remise en question, à une recherche impitoyable de ses failles.
Il se veut réaliste : il cherche à comprendre le phénomène de manière intime ; il joue la transparence, fouille le moindre détail.
La conséquence en est qu'il est le plus souvent très complexe ; les équations sont nombreuses, imbriquées et difficiles à résoudre. C'est également un modèle spécifique ; il a été «taillé à patron» pour représenter, un instant, une réalité particulière, répondre à une interrogation.
Le modèle de «représentation» est celui que préfère l'ingénieur. Il se contente d'affirmer : «tout se passe comme si...». L'équation représente, avec une acuité suffisante dans l'application visée mais sans prétention au réalisme, la relation constatée entre l'entrée et la sortie. C'est un modèle fonctionnel qui se veut donc délibérément simple pour être efficace et bien compris ; une approche qui traite le système étudié comme une boîte noire et qui, masquant le détail, possède de ce fait une portée générale.
Les deux écoles s'affrontent ; mais en réalité, le pur modèle de connaissance n'existe pas plus que le pur modèle de représentation. En effet, le scientifique est bien obligé, aussi aigu que soit son regard, de laisser dans l'ombre un certain nombre de phénomènes qu'il ne pourra pas réellement prendre en compte à une certaine étape de sa recherche. Quant à l'ingénieur, il serait bien dommage qu'il se prive de connaissances qu'il possède sur le système à modéliser, connaissances qui ne rendront son modèle que plus performant.
La démarche visant à établir un modèle procède en trois étapes :
dans le première étape, on caractérise la forme du modèle et des équations qui le régissent en utilisant l'ensemble des connaissances sur les phénomènes en présence. La question de la valeur des paramètres internes qu'il contient reste ouverte ;
la deuxième étape (qui sera exposée ici en détails sous le nom d'identification) consiste à ajuster les paramètres à leur valeur optimale. La robustesse du modèle obtenu restera à valider sur un plus large champ de données ;
la troisième étape, nous y reviendrons, est celle de la validation.
Un système réel est présenté dont nous voulons trouver le modèle mathématique. Pour cela, nous le soumettons à un certain nombre d'entrées auquel il va répondre par autant de sorties dont nous effectuons la mesure physique au cours du temps.
En parallèle, nous installons un modèle mathématique dont les paramètres sont encore à ajuster et nous soumettons le système et le modèle aux mêmes entrées. Nous enregistrons, entre la sortie du système que nous avons mesurée et la sortie du modèle que nous avons calculée, une certaine variable d'erreur. Cette variable est instantanée puisque à chaque moment nous constatons qu'il n'y a pas coïncidence entre la sortie du système et la sortie du modèle.
Pour prendre du recul par rapport à cette série de variables instantanées, nous faisons passer l'ensemble de ces valeurs à travers ce que nous appelons un «critère», qui va en quelque sorte globaliser la comparaison sur une certaine durée. Nous connaissons ainsi la valeur moyenne de l'erreur pour des valeurs hypothétiques des paramètres. Par un algorithme d'optimisation, nous pouvons venir ajuster les paramètres du modèle, de sorte que la sortie du système et la sortie du modèle se ressemblent le plus possible.
Tout un arsenal de techniques mathématiques permet ainsi, avec l'aide des calculateurs, d'optimiser les paramètres du modèle.
La démarche que nous venons de décrire, si elle paraît raisonnable, est aussi pleine d'écueils ; en fait le danger est partout.
Le premier danger serait d'oublier la troisième étape, celle de la validation du modèle. En effet, après avoir déployé tout un arsenal de techniques mathématiques sophistiquées, après avoir pris beaucoup de temps pour en ciseler les paramètres, bien souvent le sculpteur tombe amoureux de son modèle. Il oublie de le remettre en question, de le soumettre à la torture, pour savoir si réellement celui-ci résiste à l'épreuve ; si quand on change de type d'entrées, les paramètres restent encore optimaux.
Le danger se situe également de manière insidieuse plus en amont, au moment où nous avons décidé de la forme du modèle : de quel type, assorti de quels paramètres ? Pendant tout le processus où nous manuvrons les paramètres du modèle, nous ne remettons jamais en question ce choix à priori...
Le danger est ailleurs encore : nous avons décidé de mesurer la différence entre la sortie du système et la sortie du modèle. D'autres choix étaient possibles. Au lieu de mettre le système et le modèle en parallèle et de fabriquer ainsi une erreur qui compare les sorties, il était possible de mettre en série le système et l'inverse du modèle, de fabriquer alors une erreur (réelle et reconstituée) qui compare les entrées.
Le danger est aussi dans le choix du critère. Dans le cas de l'analyse de la parole, c'est un critère statistique connu, les moindres carrés de l'erreur, qui est le plus souvent retenu. Il est bien évident que ce critère est extrêmement pauvre, à côté de celui qui aurait fait merveille et serait doté d'une autorité peu contestable, c'est-à-dire une oreille humaine. De même, le type d'action, le type d'entrée à laquelle vous avez décidé de soumettre le système, relèvent aussi comme tout le reste, de la procédure d'identification, d'un choix à priori. C'est donc à beaucoup de choix que doit résister le modèle. Si ces choix sont fondés, il n'en sera que meilleur ; mais avons-nous pris le soin de nous en assurer ?
Les dangers précédents étant supposés bien circonscrits, la disponibilité d'un modèle ouvre de larges perspectives qui poussent leurs prolongements dans les domaines du diagnostic, du pronostic et de la thérapeutique appliqués au système à l'étude.
On a trop décrit les dangers de l'information, à priori mise en jeu dans la modélisation, pour ne pas en citer les avantages déterminants quand elle se révèle judicieuse. C'est cette information qui distingue l'expert du néophyte, qui prévient l'utilisation d'une approche banale dans un domaine où la connaissance est déjà riche, qui permet de travailler à patron sur l'objet de l'analyse. Bénéficiant d'un modèle du comportement du système, les performances sont aisément évaluées mais aussi corrigées, si elles ne donnent pas satisfaction, par les techniques classiques de l'asservissement utilisant rétroaction et compensation.
La modélisation effectue une analyse par synthèse très profitable. Pour analyser un signal, on engendre un signal synthétique qui lui ressemble le plus possible au sens du critère retenu. Cette synthèse peut trouver son utilité en elle-même : synthèse de parole ou d'image artificielle par ordinateur. Mais, par sa réversibilité, c'est aussi une garantie de la qualité de l'analyse : même si le critère d'identification était critiquable dans le cas de la parole, si la synthèse est intelligible, c'est que les éléments essentiels ont été préservés.
Identifier, c'est aussi classer, diagnostiquer, reconnaître. La procédure même consiste à désigner, par la valeur de ses paramètres, le système précis observé parmi les systèmes du même type. Des systèmes proches auront des paramètres voisins, et il sera possible de sélectionner par le biais d'une moyenne celui qui constitue l'archétype de la classe.
Reprenant l'exemple de la parole. Une approche qui ignorerait la spécificité du signal conduirait à un débit d'information à transmettre, de quelques 64 kbits/s (bit : élément linéaire d'information tel qu'il est utilisé en informatique). Se rappelant que ce signal est engendré par un appareil de phonation comportant une source d'entrée, la vibration des cordes vocales et un système, le conduit vocal dont les organes de phonation sont manuvrés par le locuteur, on aboutit à des «vocodeurs» dont les débits binaires s'étalent de 16 kbits/s à 4,8 kbits sans trop de perte d'intelligibilité. Mais suivant encore plus avant cette démarche, que penser d'un système qui à l'analyse reconnaîtrait les sons de la langue, transmettrait leur numéro sur la ligne et au récepteur synthétiserait à nouveau un signal ? A ce traitement, à raison de 5 sons élémentaires par seconde, de 36 phonèmes en français, c'est à un débit de 100 kbits/s environ que l'on aboutirait.
La représentation du système et des signaux qu'il est capable d'engendrer est en général parcimonieuse puisqu'elle est résumée dans un petit nombre de paramètres. Le dispositif se prêtera donc particulièrement bien à la transmission de l'information : il suffira pour cela, à l'analyse, de reconnaître la classe du signal par son modèle, de transmettre son nom ou la valeur de ses paramètres sur le canal et, au récepteur, d'effectuer la synthèse correspondante selon les principes précédents.
Une application importante de l'analyse EEG (électro-encéphalogramme) dans le domaine du test de produits pharmaceutiques nouveaux est la reconnaissance automatique des stades du sommeil. Pour effectuer des évaluations statistiques d'ampleur suffisante, ce sont des quantités considérables de données qui sont prélevées dans les laboratoires du sommeil sur un nombre important de patients, dont le dépouillement requiert des heures de travail d'un praticien expérimenté. Faisant l'hypothèse, avec un peu de hardiesse, que le signal EEG n'est que la manifestation des décharges synaptiques au travers du filtre du cortex, une technique de modélisation peut être essayée. Les résultats de la reconnaissance automatique se comparent favorablement à l'analyse visuelle, laissant seulement au praticien la discrimination de quelques cas de tracés ambigus.
Finalement, il convient de citer un trait important de ce type d'approche qui consiste à combiner dans l'analyse les inconciliables que sont le temps et la fréquence. En effet, dans les paramètres du modèle sont emmagasinées les habitudes statistiques du signal selon une longue échelle de temps. Cependant, l'observation quasi-instantanée de l'erreur permet de donner l'alerte si le signal prédit par le modèle tend à s'éloigner pour une raison quelconque de la réalité des mesures. Ainsi peuvent être détectées des zones de stabilité ou de brusques variations dans l'organisation du phénomène étudié.
Dans le même domaine de l'EEG, se rencontre le problème particulier de la découverte de complexes pointe-onde considérés comme un préambule à une manifestation épileptique et de leur détection précoce dans le tracé. Un modèle prédictif, cherchant à prévoir l'échantillon de signal présent à partir des échantillons passés récents, permet ainsi de calculer à chaque instant une erreur de prédiction. Des erreurs importantes manifestent l'apparition de phénomènes exogènes n'appartenant pas à la logique d'évolution du signal. Les événements détectés par ce procédé mettent en évidence la présence de complexes, corroborés par des électrodes internes, qui auraient échappé à une première analyse visuelle.
Toutes ces potentialités sont maintenant largement utilisées dans de nombreux domaines techniques. Avec toutes les précautions évoquées sur le bon usage des modèles, ces bénéfices devraient s'étendre à des domaines aujourd'hui moins formalisés.
Le développement des techniques de modélisation a connu déjà plusieurs stades. Tout au début, on a su modéliser des systèmes relativement simples, isolés, qui répondaient bien aux lois classiques de la physique. On les a utilisés avec profit, notamment dans le domaine de l'aéronautique et de l'astronautique. Puis on s'est affronté à des phénomènes composites plus complexes, comme la modélisation d'un processus industriel ou le fonctionnement d'une centrale thermique.
Dans sa quête vers la complexité croissante des objets de son étude, la modélisation a connu un certain succès en s'attaquant à des systèmes très complexes. Ceux-ci avaient l'avantage de n'être composés que de multiples systèmes élémentaires se ressemblant entre eux, où les lois statistiques ont un sens, comme la cinétique des gaz par exemple. On peut espérer des succès de ce type dans des problèmes de grand intérêt comme les modèles connexionnistes et réseaux de neurones, à supposer que ces neurones aient tous un comportement identique.
Ce qui me semble constituer l'enjeu majeur, c'est qu'aujourd'hui, nous sommes confrontés à des «méso-systèmes», de taille intermédiaire, eux-mêmes composés de systèmes relativement importants imbriqués les uns dans les autres. Les notions de structure et d'architecture se révèlent alors fondamentales. C'est non plus dans la valeur des paramètres mais dans le jeu des interconnexions des divers sous-systèmes que réside l'élément essentiel d'information. Des exemples de tels modèles existent : automates, codeurs, chaînes de Markov, réseaux sémantiques, règles, langages... ; mais les résultats sont connus sur leurs capacités de représentation et sur les algorithmes d'apprentissage convenables sont insuffisants. Sur quels squelettes s'attachera la chair de nos futurs modèles et quel burin sera à même de les sculpter ?
Dernière mise à jour : mercredi 8 octobre 2003
Dr Jean-Michel Thurin