18

De NSE
Version du 5 juillet 2019 à 15:40 par Sysops (discuter | contributions)

(diff) ← Version précédente | Voir la version courante (diff) | Version suivante → (diff)
Aller à : navigation, rechercher


FORME

Écrit par Jean PETITOT  : ancien élève de l'Ecole polytechnique, docteur es lettres et sciences humaines, vice président de l'International Association for Semiotic Studies, directeur d'études à l'Ecole des hautes études en sciences sociales.

L'histoire du concept de forme et des théories de la forme est des plus singulières. Nous vivons dans un monde constitué de formes naturelles. Celles-ci sont omniprésentes dans notre environnement et dans les représentations que nous nous en faisons. Et pourtant, jusqu'à une époque récente, on ne disposait d'aucune science morphologique à proprement parler. Ce n'est que vers la fin des années 1960 qu'on a commencé à comprendre de quel concept de naturalité et d'objectivité l'on fait usage lorsqu'on parle de formes naturelles objectives. Jusque-là, un insurmontable obstacle épistémologique (au sens de Bachelard) faisait obstruction à une telle compréhension. La raison en est d'ailleurs assez simple. Tenter de développer une théorie objective (donc compatible, sinon réductible, à des contenus physiques) des formes, c'est chercher à généraliser l'objectivité physique en direction d'une « ontologie qualitative ». Or, d'une façon ou d'une autre, toute ontologie qualitative est néo-aristotélicienne. Mais, précisément, le concept moderne d'objectivité physique s'est édifié à partir d'un concept mécaniste (galiléen-newtonien) qui rompait avec la tradition aristotélicienne (ce que l'on a appelé la « coupure épistémologique »). Le développement physico-mathématique d'une mécanique des forces a, pendant environ trois siècles, totalement fait écran à toute dynamique des formes. La conséquence en a été que le concept de forme a été pensé de façon alternative. L'impossibilité où l'on croyait être d'en théoriser les aspects objectifs a conduit à en théoriser les aspects subjectifs. Tel a été le cas dans les approches psychologiques (de la Gestalt-théorie aux sciences cognitives contemporaines), dans les approches phénoménologiques (de Husserl à Merleau-Ponty et aux reprises actuelles de certains thèmes husserliens) ou dans les approches sémantiques et sémio-linguistiques. Ainsi s'est installée l'évidence (fallacieuse) d'un conflit irréductible entre une phénoménologie des formes et une physique de la matière. Ce n'est qu'à une époque récente qu'on a commencé à comprendre les processus permettant à la matière de s'organiser et de se structurer qualitativement en formes.

Forme et phénomène

Nous ne traiterons de façon systématique ni de l'histoire métaphysique du concept de forme depuis Aristote, ni de ses innombrables usages disciplinaires en logique, en linguistique, en sémiotique structurale, en esthétique et dans les sciences humaines en général. Nous nous restreindrons au problème de la compréhension théorique des formes naturelles. Ces formes sont innombrables, physico-chimiques (cristaux, flammes, turbulences, nuages, réactions chimiques oscillantes, ondes chimiques, transitions de phases, défauts dans les cristaux liquides, etc.) ou biologiques (plantes, animaux, etc.). Avant de chercher à en penser le statut objectif, il est bon de les décrire comme de purs phénomènes.

Description phénoménologique

Les formes naturelles se manifestent. Elles sont des constituants fondamentaux de la façon dont le monde externe nous apparaît. Pour en donner une description phénoménologique en tant que données originaires, on peut préciser des descriptions déjà proposées par Husserl et les premiers gestalt-théoriciens (Stumpf, Meinong, von Ehrenfels...). Une forme sensible F donnée dans l'espace extérieur E occupe une certaine portion W de E (nous prenons des notations qui nous seront utiles plus bas). Ce domaine d'occupation – que Husserl appelait le « corps spatial » de la forme – est limité par un bord B = ∂W. Il est en outre rempli par des qualités sensibles q1, ..., qn, les biens connues « qualités secondes » de la tradition philosophique, qualités s'opposant à la « qualité première » qu'est l'extension spatiale. Mais il doit l'être d'une façon telle que l'extension ainsi qualifiée manifeste une certaine saillance phénoménologique permettant à la forme d'être appréhendée et saisie perceptivement, c'est-à-dire au phénomène de se détacher comme phénomène. Ici, c'est le concept de discontinuité qualitative qui est fondamental. Il a été très bien exposé par Husserl dans la troisième Recherche logique, texte qu'on peut à bon droit considérer, avec K. Mulligan et B. Smith, comme « la plus importante contribution à une ontologie réaliste [aristotélicienne] à l'époque moderne ». L'opposition fondamentale est celle entre, d'un côté, les qualités sensibles localement « fusionnées » intuitivement (le concept de fusionnement, Verschmelzung, est dû à Carl Stumpf), c'est-à-dire « fondues » avec les qualités locales voisines, et, d'un autre côté, les qualités sensibles localement « séparées » intuitivement, c'est-à-dire « se détachant », « se scindant », « se séparant » des qualités locales voisines par une « délimitation ». Si l'on traite les qualités sensibles comme des grandeurs intensives possédant un degré, alors l'opposition entre fusionnement et détachement devient celle entre continuité et discontinuité : le fusionnement correspond à une variation continue du degré de la qualité considérée, tandis que le détachement correspond au contraire à une variation discontinue. L'idée est donc que l'extension spatiale W de la forme F contrôle la variation des qualités sensibles qi qui la remplissent. Il y a toujours variation continue dans W mais, à la traversée de limites (de discontinuités), certaines qualités peuvent varier discontinûment. Ainsi que l'affirme Husserl : « C'est à partir d'une limite de l'espace [...] que l'on saute d'une qualité à une autre. Dans ce passage continu d'une partie d'espace à une autre partie d'espace, nous ne progressons pas d'une manière également continue dans la qualité qui les recouvre, mais [...] à un endroit de l'espace les qualités limitrophes ont un écart fini (et pas trop petit) » (Husserl, p. 29 [1969]). Notons K l'ensemble des discontinuités qualitatives ainsi définies dans W. Avec le bord B = ∂W, K est la caractéristique morphologique essentielle de la forme F : ce qui fait que le substrat matériel occupant l'extension W est une forme est qu'il est qualitativement structuré et organisé par les « accidents » morphologiques (B, K). On remarquera que cette morphologie est constituée de bords : bords délimitant W de l'extérieur, bords délimitant des catégories différentes de qualités.

Nous avons jusqu'ici supposé que W était un domaine spatial et F une forme statique. Si on introduit le temps, W devient un domaine de l'espace-temps et on peut alors considérer des formes évoluant dynamiquement et soumises à des processus de morphogenèse. Au cours de tels processus, les bords B et K peuvent évoluer et subir des événements les transformant qualitativement (cf., par exemple, l'embryogenèse).

De façon plus générale, on peut considérer que W n'est pas l'extension spatio-temporelle d'un objet mais un espace de paramètres de contrôle wi permettant d'agir sur un système S. À la traversée de certaines valeurs – dites critiques – des wi, le système S peut subir des transformations brusques d'état interne. Tel est le cas des phénomènes critiques comme les phénomènes thermodynamiques de transitions de phase. Nous y reviendrons.

Description « catastrophiste »

Ainsi, qu'il s'agisse de formes sensibles, spatio-temporelles ou de formes plus abstraites dans des espaces de contrôle, une forme se trouve phénoménologiquement décrite comme un ensemble de discontinuités qualitatives sur un espace substrat. Cette idée a été formalisée par René Thom. Soit W un espace substrat rempli de qualités sensibles (de grandeurs intensives) qi(w). Thom distingue phénoménologiquement deux types de points w ∈ W. On dit que w est régulier s'il existe un voisinage de w où les qi varient continûment. Par définition, les w réguliers engendrent un ouvert U de W. Si w ∈ U, le substrat est qualitativement homogène localement en w. Les points non réguliers w ∉ U sont dits singuliers ou « catastrophiques ». Ils engendrent le fermé K de W complémentaire de U dans W. Si w ∈ K, le substrat est qualitativement hétérogène localement en w. K définit le substrat comme forme et comme phénomène. Toute la question est alors d'en comprendre la genèse physique. Telle est l'ambition de la « théorie des catastrophes ». Nous y reviendrons.

La disjonction transcendantale entre phénoménologie et physique

Le concept général de forme que nous venons de définir peut évidemment être considérablement complexifié. Les morphologies K ne possèdent pas nécessairement de géométrie simple. Elles peuvent être chaotiques, et même fractales. Elles peuvent être structurées à plusieurs niveaux – à plusieurs échelles – différents. Mais, aussi compliquées soient-elles, elles ne sont pour l'instant définies que de façon purement phénoménologique. C'est dire qu'elles constituent une interface entre le sujet percevant et le monde extérieur et que la question de leur nature n'est pas encore posée. Si on les pense « côté sujet », on cherchera à les théoriser comme des constructions psychologiques. Si on les pense « côté objet », on cherchera au contraire à les théoriser comme des structures qualitatives émergeant de l'intériorité substantielle de la matière.

Or c'est précisément cette dernière voie qui a été barrée par le triomphe du mécanisme aux xviie et xviiie siècles. Si la physique de la matière se réduit à une mécanique de points matériels en interaction, alors le concept de forme perd tout contenu ontologique. Cela est déjà manifeste chez un philosophe classique comme Hobbes. Cela se trouve thématisé sur un plan transcendantal par Kant.

Logique transcendantale et mécanique rationnelle

Dans les Premiers Principes métaphysiques de la science de la nature, Kant explique fort bien pourquoi et comment l'idée d'une dynamique de l'intériorité substantielle de la matière doit être abandonnée. La mécanique doit décrire le mouvement comme manifestation spatio-temporelle de la matière. Comme nature et existence, la matière possède certes une intériorité substantielle. Mais celle-ci est inaccessible en tant que telle. Elle est nouménale. Elle s'extériorise, s'externalise, dans le mouvement qui en est le phénomène. La mécanique doit se restreindre à la légalisation catégoriale et à la détermination mathématique de ce phénomène. Kant développe alors une lecture transcendantale d'abord de la cinématique (le groupe de la relativité galiléenne) et ensuite de la mécanique (lois de Newton). Mais, entre la cinématique (qui spécifie physiquement les catégories de la quantité et le principe des grandeurs extensives dit des « axiomes de l'intuition ») et la mécanique (qui spécifie physiquement les catégories de la relation et le principe dit des « analogies de l'expérience »), il y a la « dynamique » (qui spécifie physiquement les catégories de la qualité et le principe des grandeurs intensives dit des « anticipations de la perception »). C'est au niveau de la « dynamique » que se trouve consommée la forclusion du concept de forme.

Pour comprendre ce point, il est bon d'en revenir au concept de dynamique qui intervient ici, celui, d'origine aristotélicienne, qu'on trouve chez Leibniz. Chez Leibniz coexistent encore l'ontologie qualitative aristotélicienne et l'objectivité physique de la mécanique rationnelle. Parmi les très nombreuses citations qu'on pourrait faire à ce sujet, bornons-nous à un passage particulièrement net d'une lettre au R.P des Bosses du 2 février 1706 : « Si l'on pose la plénitude des choses (comme font les cartésiens) et l'uniformité de la matière, et si l'on ajoute seulement le mouvement, on obtient toujours une succession de choses équivalentes ; [...] ainsi, nul ne peut distinguer l'état d'un moment de l'état de l'autre, pas même un ange ; et donc, on ne pourrait trouver aucune variété dans les phénomènes ; partant, outre la figure, la grandeur et le mouvement, il faut admettre des formes au moyen desquelles la différence des apparences surgisse dans la matière, formes qu'on ne peut intelligiblement chercher, me semble-t-il, qu'à partir des entéléchies. »

Dans son ouvrage fondamental, Architectonique disjonctive, automates systémiques et idéalité transcendantale dans l'œuvre de G. W. Leibniz, André Robinet a montré que la majeure partie de l'œuvre de Leibniz peut être lue comme une suite ininterrompue de tentatives pour synthétiser l'atomisme mécaniste moderne et le concept aristotélicien de forme substantielle. Selon l'atomisme mécaniste, les substances corporelles ne sont que des phénomènes, c'est-à-dire des assemblages de points matériels sans unité propre. Leur individuation est nominale et mentale. Elle provient de la façon dont la perception et le langage découpent des formes dans la réalité. Les corps ne sont donc pas de véritables substances composées et leur matière n'est qu'une matière seconde spatio-temporelle. Ils ne sont que des substantiata (des agrégats). Les seules substances véritables sont les monades, c'est-à-dire des unités intelligibles. La substance n'est que sémantique, étrangère à la matière. Entre l'intelligible (le sémantique) et le physique, le divorce est total. Le concept de forme s'en trouve aboli. Il n'est qu'apparence subjective-relative. Selon l'ontologie qualitative, au contraire, il existe des substances composées différentes d'agrégats nominalement unifiés. Pour comprendre substantiellement les corps, il faut par conséquent admettre autre chose que le mouvement, à savoir des formes substantielles qui, au-delà du physique, sont des principes intelligibles d'individuation informant une materia prima. L'essence des corps ne peut pas être exclusivement spatio-temporelle, c'est-à-dire phénoménale. Les formes ne sont pas que des apparences. Elles possèdent une réalité ontologique. Elles régulent une intériorité substantielle extra spatio-temporelle.

Dans sa « dynamique », Kant rompt avec toute métaphysique monadologique. Pour lui, l'intériorité substantielle de la matière est d'ordre nouménal. Elle subsiste à titre de fondement, mais ne peut pas faire partie de l'objectivité (qui chez Kant est, on le sait, d'ordre strictement phénoménal). Seule son extériorisation doit être soumise à la légalisation transcendantale de l'expérience. C'est en ce point précis que les catégories de la qualité se disjoignent irréversiblement des concepts métaphysiques de substance et de forme substantielle. Le qualitatif se trouve drastiquement réduit à des grandeurs intensives dynamiques (comme la vitesse et l'accélération), données différentielles variant de façon covariante relativement au groupe de la relativité galiléenne. Par ce geste se trouve transcendantalement fondée l'idée que la physique est une physique de la pure extériorité, qui doit se « construire » mathématiquement en termes de géométrie différentielle. On voit que ce qui se trouve expulsé de l'objectivité est précisément le concept morphologique fondateur de discontinuité qualitative exposé plus haut.

Le concept de forme dans la « Critique de la faculté de juger »

Chez Kant, le concept de forme fait retour dans la Critique de la faculté de juger, et cela d'une façon particulièrement profonde. Étant donné les contraintes imposées par la légalisation transcendantale de l'expérience, les concepts de forme, d'organisation, de structuration qualitative d'un substrat ne peuvent pas posséder de réalité objective. Et pourtant, c'est un fait d'observation qu'il existe dans la nature des êtres organisés (les êtres vivants, par exemple) – ce que Kant appelle des « fins naturelles ». Or, de façon aiguë, Kant remarque que, même si on peut raisonnablement penser que les progrès de la physique et de la chimie permettront d'expliquer un jour de façon mécaniste certains aspects de l'organisation, il restera toujours une énigme, celle de la forme et de la contingence de la forme des êtres organisés. La nature (natura naturans) est productrice de formes, mais cette production n'est pas mécaniquement explicable, car on ne voit pas comment la mécanique pourrait être à même de déboucher sur une géométrie morphologique. L'organisation morphologique (la « finalité interne objective ») dépend donc d'une « force formatrice » (bildende Kraft) non objectivable. C'est pourquoi elle demeure une « qualité insondable », un « abîme incommensurable » où les concepts de l'objectivité physique doivent composer avec le concept holistique, seulement régulateur (« réfléchissant » et non pas « déterminant » selon le lexique kantien), d'unification systématique de parties dans un tout.

Cela dit, bien que sans réalité objective et sans portée explicative, le concept de forme organisée est, selon Kant, nécessaire à la compréhension de la nature. Il est certes descriptif, mais « il vaut avec autant de nécessité pour notre faculté de juger humaine que s'il était un principe objectif » (Kant, p. 218 [1979]).

Sur cette base, Kant explique ensuite que le défaut d'objectivité des formes naturelles, comme les cristaux, les flammes, les tourbillons, les fleurs, les organismes, etc., est solidaire de ce supplément de subjectivité qu'est le sentiment esthétique. C'est parce que les formes naturelles ne sont pas explicables mécaniquement qu'elles peuvent être significatives. L'absence de valeur objective se vicarie en valeur signifiante. L'énigmatique « finalité interne objective » devient « finalité subjective formelle » et la forme revient donc au sujet. Un manque physique se trouve comblé par un supplément sémiotique. Tout le romantisme post-kantien s'engouffrera dans ce passage de la phusis à la poiesis et ralliera à l'Art la Nature productrice de formes.

Dans son ouvrage sur L'Esthétique de Kant, Olivier Chédin a montré que, sous le titre d'esthétique, Kant traite en fait des rapports entre la légalisation transcendantale de l'objectivité et la structure morphologique qualitative de l'apparaître phénoménologique. C'est bien l'ontologie qualitative aristotélicienne qui, forclose par la déconstruction critique de la métaphysique, fait retour. Kant reconquiert « esthétiquement » une présentation de la présence dans son apparaître que l'esthétique transcendantale et la légalisation d'objet avaient expulsée. Le « beau » kantien présente morphologiquement (pré-discursivement et pré-objectivement) le réel. Il concerne l'Erscheinung, qui n'est ni apparence (Schein) ni phénomène (Phœnomenon). Il est le produit d'une liberté créatrice de formes, d'une « auto-animation esthétique de la matière, qui opère enfin la création d'une forme » (Chédin, p. 206 [1982]). Sa réflexion conduit à « saisir l'auto-figuration (Gestalt) de la Form, lors d'une apparition originelle de l'Erscheinung, où Form et Gestalt font encore une même et seule apparition, sans figure d'objet » (ibid., p. 234).

La subjectivisation du concept de forme

L'ambivalence « physique / phénoménologique / sémiotique » du concept de forme a constitué depuis Kant un véritable nœud gordien de l'épistémologie. Celui-ci a en général été tranché en faisant dépendre le concept de forme d'une instance subjective (individuelle ou sociale) : perception, langage, concept, sens. Autrement dit, la phénoménalisation de l'objectivité physique en formes manifestées a été conçue comme un processus sans réel contenu objectif.

Le vitalisme structuraliste et sémiotique

Avant d'exposer brièvement divers aspects de ces entreprises de subjectivation, il est bon de dire quelques mots sur le vitalisme du xixe siècle. Après Kant, et en particulier en rapport avec la Naturphilosophie schellingienne, un certain nombre de penseurs en sont revenus à une position aristotélicienne-leibnizienne en tentant d'élargir le concept objectif de Nature. Un cas exemplaire est celui des travaux sur la morphogenèse végétale que Goethe poursuivit de 1770 jusqu'à sa mort en 1832. Goethe ne cherchait pas tant à comprendre les bases physico-chimiques de la biologie végétale que le principe organisateur interne responsable de la manifestation morphologique des plantes. Comme Geoffroy Saint-Hilaire, il pensait que le problème théorique central de la biologie était de clarifier l'origine des connexions spatiales reliant les parties dans un tout organique. Transgressant le verdict de la Critique de la faculté de juger, il a admis un principe entéléchique a priori présidant à la formation des « fins naturelles ». Selon ce principe, des forces organisatrices internes idéelles (des formes substantielles dynamiques) se déploient spatio-temporellement lors des processus de morphogenèse et engendrent l'unité concrète, réelle et perceptible des organismes. L'entéléchie goethéenne est un concept intuitif et viole par conséquent la séparation transcendantale entre concept et intuition.

La réponse goethéenne à l'aporie de la forme est en partie spéculative (« romantique »). Elle nie que la connaissance exige de nier l'intériorité substantielle de la Nature. Ainsi que l'a remarqué Ernst Cassirer, les post-kantiens, tel Schelling, ont pensé la forme et l'organisation en tant que liberté (objectivement inconditionnée) devenue immanente au phénomène, en tant qu'autonomie incarnée dans l'être-là sensible. Appliqué à la biologie, ce réalisme sémiotique a conduit au vitalisme. Mais, très vite, ce dernier est devenu le terrain privilégié de réactivations « métaphysiques » spiritualistes et idéologiques qui l'ont discrédité. C'est pourquoi il fut condamné publiquement à Berlin, en 1899, au soixante-douzième Naturforschertag. Mais le fatras dialectique ou théosophiste qu'il a charrié ne doit pas faire oublier l'importance cruciale de la problématique de la forme chez des esprits aussi éminents que Brentano (le père fondateur de la phénoménologie et de la gestalt-théorie), Friedrichs (le fondateur de l'écologie) ou des biologistes comme Driesch, Spemann, d'Arcy Thompson ou Waddington.

D'ailleurs, Goethe reste moins spéculatif que Schelling. Il s'en tient à une description phénoménologique et sémiotique de l'apparaître morphologique. Il restreint le principe entéléchique à l'Erscheinung. Son idée centrale est que l'apparaître morphologique manifeste une expressivité qui affecte sémiotiquement le sujet et doit être décrite dans un langage symbolique approprié. Les formes ne sont pas seulement des phénomènes, c'est-à-dire des représentations à objectiver en objets d'expérience conformément à une légalité transcendantale. Ce sont également des signes, des présences traductibles en symboles. Dans un jeu subtil entre Bildung et Gestaltung, la visibilité de l'apparaître exprime le principe entéléchique interne de formation des formes. Contrairement à ce qu'il en est chez Schelling, le principe entéléchique n'est pas chez Goethe téléologique. Il est sémiotique. Le fondement organisateur n'est pas « derrière » ou « avant » l'apparaître. Il se donne dans l'apparaître même dans la mesure où, pour celui-ci, la monstration équivaut à une auto-interprétation.

Après Goethe, il faudra attendre des philosophes comme Peirce et Husserl pour retrouver une interprétation objective de la forme comme sens. Peirce a été fasciné par l'énigme de la structuration, de la diversification et de la complexification des formes naturelles. Il a repris à sa façon tous les thèmes majeurs de la troisième critique kantienne. Acceptant à son tour « l'évidence » que les sciences physiques (y compris la thermodynamique) n'avaient rien à dire sur les formes, il en est également arrivé à une conception sémiotique des entéléchies comme signes s'auto-interprétant (le signe étant ici une matière déterminée par une forme, c'est-à-dire une « finalité interne » au sens kantien).

Au cours de ce siècle, le vitalisme sémiotique sera transféré (en particulier à travers la phénoménologie et la gestalt-théorie) des sciences naturelles aux sciences humaines et jouera un rôle fondamental dans la constitution du structuralisme. Claude Lévi-Strauss en a récemment témoigné dans son ouvrage De près et de loin : « [La notion de transformation n'a été empruntée] ni aux logiciens ni aux linguistes. Elle me vient d'un ouvrage qui a joué pour moi un rôle décisif [...] : On Growth and Form de d'Arcy Wentworth Thompson. L'auteur [...] interprétait comme des transformations les différences visibles entre les espèces ou organes animaux ou végétaux au sein d'un même genre. Ce fut une illumination, d'autant que j'allais vite m'apercevoir que cette façon de voir s'inscrivait dans une longue tradition : derrière Thompson, il y avait la botanique de Goethe et, derrière Goethe, Albert Dürer avec son Traité de la proportion du corps humain. Or la notion de transformation est inhérente à l'analyse structurale » (Lévi-Strauss, pp. 158-159, 1988).

Formes et perception visuelle

À partir du moment où l'on évacue tout contenu ontologique du concept de forme, c'est évidemment à la perception visuelle que revient la production des formes comme phénomènes. Il ne serait pas de propos ici de s'engager véritablement dans une telle problématique. On se bornera donc à quelques brèves indications sur le traitement actuel de cette question dans le cadre des sciences cognitives.

Le paradigme classique des sciences cognitives est le paradigme computo-représentationnel, mentaliste, symbolique, fonctionnaliste. On suppose que le monde réel de l'objectivité physique envoie des informations (par exemple, des ondes lumineuses, des ondes sonores, etc.). Cette information externe, a priori non significative pour le système cognitif, est convertie par des transducteurs périphériques (rétine, cochlée, etc.) en information cognitivement significative, c'est-à-dire exploitable par le système nerveux. On postule alors que, sur le modèle d'un ordinateur, l'information est traitée « computationnellement » à travers différents niveaux de représentations mentales symboliques et différents processus calculatoires. Ces représentations mentales sont neurologiquement implémentées mais, selon la thèse fonctionnaliste, on peut découpler le problème du « hardware » neuronal de celui de la structure formelle du « software » représentationnel.

On fait donc l'hypothèse que les systèmes cognitifs sont des systèmes de traitement de l'information physique externe à travers des langages formels internes constitués de symboles, d'expressions, de règles d'inférence et de transformation (cf., par exemple, Pylyshyn [1986] ou Andler [1987]). À travers la construction cognitive qu'effectuent ces niveaux de représentation et à travers une opération de projection, le monde réel objectif se trouve converti en ce que Ray Jackendoff appelle un « monde projeté », c'est-à-dire en ce monde sensible structuré qualitativement qu'est le monde de l'expérience phénoménologique. Ainsi que l'indique le titre évocateur de Jackendoff Consciousness and the computational Mind, on peut reprendre dans ce cadre tous les problèmes fondamentaux de la phénoménologie. La conscience phénoménologique est le corrélat du monde projeté. En tant que telle, elle ne se confond pas avec la computation mentale. L'expérience phénoménologique ne manifeste pas sa structure interne. Avec ses compilations et ses automatismes computationnels, celle-ci demeure essentiellement non projetable, cognitivement impénétrable.

On retrouve de cette façon le thème d'une « ontologie » qualitative. Mais cette « ontologie » n'en est pas une à proprement parler. Elle est le résultat d'une construction cognitive. La conception est « projectiviste » et non pas « émergentielle ». À aucun moment on ne fait l'hypothèse que la structuration qualitative du monde de l'expérience en places, chemins, états, événements, processus, formes, choses, états de choses, etc., puisse en partie émerger, par un processus naturel de phénoménalisation, d'une organisation morphologique spontanée des substrats.

Cela dit, on peut dans un tel cadre développer de profondes théories de la construction perceptive des formes. C'est ce qu'ont fait, par exemple, David Marr et ses collègues (T. Poggio...) dans leurs travaux désormais classiques sur la vision. Le problème central de la vision est ce qu'on appelle un problème inverse. Il s'agit de reconstruire la forme, l'organisation qualitative et la position des objets dans l'espace continu tridimensionnel à partir d'images rétiniennes bidimensionnelles et digitales. Pour comprendre le système perceptif visuel, il faut au préalable savoir quelle est sa fonction, sa finalité computationnelle. Après transduction, l'image rétinienne se trouve traitée – c'est-à-dire représentée – à différents niveaux de représentation, et ceux-ci doivent aboutir à l'expérience phénoménologique des objets dans l'espace.

Marr distingue trois niveaux fondamentaux de traitement. Le premier niveau, dit celui de l'esquisse primaire 2-D (bidimensionnelle), concerne le traitement du signal rétinien, par exemple l'analyse de la fonction intensité I(x, y) (x et y sont des coordonnées rétiniennes). Il s'agit d'en expliciter la morphologie de façon à pouvoir opérer des segmentations qui serviront de support aux phases finales, proprement cognitives et inférentielles, d'interprétation, de reconnaissance et de compréhension. Un des processus essentiels intervenant à ce niveau est celui de la détection locale de discontinuités qualitatives : segments de bords d'objets, terminaisons de bords, discontinuités de l'orientation des bords et des surfaces, discontinuités de qualités, mouvements de discontinuités, etc. Neurophysiologiquement, le système visuel périphérique (sensoriel) est spécialisé dans de telles détections. Parmi les cellules ganglionnaires de la rétine, il en existe – dites de classe X – dont les champs récepteurs sont régis par un antagonisme centre / périphérie. Pour certaines – dites « on-center » en jargon –, l'antagonisme est celui excitation / inhibition. Pour d'autres – dites « off-center » –, il est au contraire celui inhibition / excitation. Le profil de tels champs récepteurs (pour les cellules ON, par exemple) est la digitalisation du laplacien Δ G d'une gaussienne G. On remarque alors que ces cellules agissent par convolution sur I. Mais, comme Δ G * I = Δ (G * I), elles agissent comme un opérateur laplacien sur G * I, c'est-à-dire sur I « lissé » à une certaine échelle, échelle définie précisément par G. Marr qui a remarqué que, si deux cellules X, respectivement ON et OFF et de même G, sont activées ensemble, cela détecte deux pics, respectivement positif et négatif, de Δ (G * I), pics encadrant une discontinuité de G * I (critère dit de zero crossing, car les discontinuités correspondent à l'annulation, ou passage par zéro, des dérivées secondes). Des discontinuités locales détectées à plusieurs échelles différentes seront interprétées comme les indices de discontinuités externes objectives, d'origine géométrique et physique. Ensuite, par agrégation en niveaux hiérarchisés d'organisation, elles seront globalisées et on obtiendra ainsi l'organisation morphologique de l'image I(x, y).

Une des principales originalités de Marr est d'avoir introduit, entre l'esquisse primaire 2-D et le traitement proprement tridimensionnel 3-D, un niveau intermédiaire appelé joliment celui de l'esquisse 2 ½-D. Ce niveau est essentiel. Il constitue la pierre angulaire du problème de la vision. C'est « une représentation interne de la réalité physique objective qui précède la décomposition de la scène visuelle en objets » (p. 269 [1982]).

En ce qui concerne la forme des objets, une composante fondamentale de l'esquisse 2 ½-D est celle des contours apparents. Considérons une surface régulière S plongée dans R3. Soient Δ un plan de projection, δ une direction de projection et Π : R3 → Δ la projection sur Δ parallèlement à δ. Le contour apparent de S relativement à Π est la projection C = Π(Σ) du lieu critique Σ de la restriction de Π à S, c'est-à-dire de l'ensemble Σ des points de S où la direction δ est tangente à S. En situation perceptive, C est un ensemble de discontinuités sur le plan de la rétine et appartient donc à l'esquisse 2-D. Une des difficultés centrales du problème de la vision comme problème inverse est alors de comprendre comment il peut contenir une information tridimensionnelle : « quand on y réfléchit, cela est vraiment un fait stupéfiant » (Marr, p. 215, 1982). Pour le comprendre, il faut d'abord remonter du contour apparent C à son générateur Σ et ensuite reconstruire la forme S à partir de la famille de ses contours.

Ici, la théorie de la perception devient dépendante de profondes théories mathématiques, physiques et computationnelles. Il y a d'abord la géométrie différentielle et la théorie des singularités. Le générateur Σ d'un contour apparent C est un lieu critique d'application projection. C'est donc un ensemble de singularités (qui engendre un ensemble de discontinuités). On connaît les singularités qui peuvent y apparaître génériquement (théorème de Whitney-Thom) : il s'agit uniquement de plis, de fronces et de croisements normaux. Génériquement, C est donc composé de lignes de points plis pouvant admettre comme singularités isolées des points cusps et des croisements. Localement, on peut décrire la géométrie de Π : S → Δ à partir de données différentielles possédant un contenu géométrique intrinsèque (théorie des jets). La structure de S (son homologie par exemple) impose de fortes contraintes sur la structure globale de C (nombre de cusps, etc.). D'autre part, lorsque S bouge dans l'espace ambiant R3, son contour apparent C se déforme et, en général, change de type qualitatif. Des accidents morphologiques typiques peuvent se produire (déploiement ou reploiement de deux cusps à partir d'une queue d'aronde, croisements ou décroisements de lignes plis, etc.). La question est alors : jusqu'à quel niveau de structure la donnée de la famille T des contours apparents C au niveau différentiable permet-elle de reconstruire S ? Elle permet de reconstruire S non seulement topologiquement, non seulement différentiablement mais encore, par exemple, au niveau de ses propriétés de convexité (du signe de sa courbure). Si l'on introduit une « bosse » sur S, celle-ci se manifestera par une composante supplémentaire dans certains des contours. D'autre part encore, le nombre de types qualitatifs de contours intervenant dans T est un indice fondamental sur la complexité morphologique de S (une surface simple comme une sphère n'a qu'un seul type de contours apparents : des cercles).

Sur le plan physique, il s'agit de comprendre comment l'information géométrique critique que constituent les contours apparents peut être encodée dans le signal lumineux. Pour cela, il faut de façon plus générale comprendre comment les singularités décrites en termes d'optique géométrique (caustiques, singularités des fronts d'ondes, etc.) peuvent être également décrites en termes d'optique ondulatoire (pour les caustiques, il s'agit par exemple de la théorie des intégrales oscillantes). Nous allons y revenir.

Enfin, sur le plan computationnel, il s'agit de construire des algorithmes à implémentation neurophysiologique plausible capables de calculer les jets suffisants pour la reconstruction de la géométrie des projections Π | S. Le critère de zero-crossing en fournit un exemple élémentaire, qu'il s'agit de généraliser.

Au niveau de l'esquisse 2 ½-D convergent et s'intègrent des traitements de l'esquisse primaire qui sont indépendants et modulaires (computationnellement automatiques, insensibles aux connaissances, croyances ou attentes du sujet). En plus des contours apparents, il faut mentionner en particulier la stéréopsie (vision binoculaire), la texture des surfaces, le rapport géométrie-ombres. C'est à partir de là qu'on passe à un niveau de représentation 3-D qui est volumétrique et centré sur les objets. À ce niveau, les formes sont hiérarchiquement décomposées en parties, désambiguïsées, interprétées, lexicalement identifiées, catégorisées, etc. De façon plus générale, on peut penser que c'est à ce niveau que le langage et sa sémantique se branchent sur la perception visuelle.

Des formes à la sémantique conceptuelle

La psychologie de la perception montre comment les données sensorielles peuvent être traitées de façon à produire des formes-phénomènes au sens du paragraphe 1. Pour passer de ces formes au langage, les processus fondamentaux sont ceux de la généralisation et de l'abstraction.

Les formes semblables sont regroupées en catégories (en classes d'équivalence) correspondant à des concepts empiriques ou à des lexèmes (arbre, chien, etc.). On peut traiter ces catégories extensionnellement comme de simples ensembles. Mais on peut aussi les traiter comme des regroupements de formes concrètes spécifiant des formes génériques, typiques, prototypiques. Cette dialectique générique/spécial (type/token en jargon) est cognitivement essentielle. Elle est très ancienne en mathématiques et intervient dès qu'on se propose de classer des formes.

De façon générale, une forme f pourra toujours être décrite mathématiquement comme une structure géométrique d'un certain type (par exemple, dans le cas des contours apparents, comme une application différentiable entre variétés différentiables). Cette structure présentera un certain nombre (en général infini) de degrés de liberté permettant de déformer la forme. Les formes d'un certain genre constituent donc un espace (fonctionnel) F. L'analyse de f peut, par conséquent, se faire de façon interne ou externe. Dans le premier cas, il s'agit d'investiguer la structure effective de f, alors que, dans le second cas, il s'agit d'investiguer la structure locale de F au voisinage de f. On peut facilement définir cette dernière lorsqu'on dispose de deux concepts. D'abord de celui de topologie sur F : il permet de parler de déformations de formes et de formes voisines. Ensuite de celui de type qualitatif d'une forme f ∈ F (il est en général défini à partir de l'action d'un groupe de transformations sur F). « Avoir le même type qualitatif » est une relation d'équivalence sur F. On dira alors que f ∈ F est structurellement stable si toute forme g assez voisine de f lui est équivalente, autrement dit si la classe d'équivalence f̃ de f est topologiquement ouverte localement en f. Par définition, les formes stables engendrent un ouvert U de F. Si f est stable, son analyse externe est triviale (F est localement homogène en f). Il n'en va plus de même si f est instable. Soit KF le fermé des formes instables, complémentaire de U dans F. La géométrie locale de KF en f ∈ K fournit de précieux renseignements sur la structure de f. KF est une morphologie discriminante qui catégorise F, c'est-à-dire le décompose en « espèces » de formes (les classes d'équivalence stables pour le type qualitatif). Souvent, on peut se ramener en dimension finie (en ne considérant que certains degrés de liberté particulièrement importants) et définir sur le nouvel espace W issu de F une métrique. W est catégorisé par la morphologie discriminante K issue de KF. Si la géométrie de K est suffisamment régulière, on se trouve alors dans une situation « géographique » : W est partitionné en un nombre fini de domaines Di séparés par des frontières, et les prototypes Pi sont des « capitales », c'est-à-dire des valeurs centrales. On peut alors définir sur W un potentiel V dont le gradient est un gradient de typicalité : les attracteurs (minima) de V donnent les prototypes Pi, les domaines Di correspondent aux bassins d'attraction des Pi, et K correspond à l'ensemble des séparatrices (des seuils) entre bassins. Les travaux de plus en plus nombreux qui se poursuivent sur la catégorisation et la typicalité retrouvent dans les domaines perceptif et sémantique un phénomène coextensif au concept même de forme.

Les notions de contour apparent et de discontinuité qualitative fournissent des exemples privilégiés de ce que Husserl et les premiers gestalt-théoriciens (Stumpf, Meinong et von Ehrenfels, déjà cités) appelaient des moments dépendants (parties d'objets non détachables). Un autre exemple est celui des qualités sensibles (couleurs, intensité, timbre, etc.), c'est-à-dire les qualités « secondes » de la tradition aristotélicienne. En général, on adopte à propos de ces moments une perspective nominaliste qui en fait des abstracta de nature psychologique. On refuse de les considérer comme des accidents, des qualités et des relations individuels (ce qui est, en revanche, le cas dans une authentique ontologie qualitative). On se restreint à l'expression linguistique (prédicative) des formes-phénomènes et des états de choses, et on remarque que celle-ci ne met en jeu que des concepts généraux et abstraits (les concepts de couleur par exemple). On en déduit que les moments ne sont que des contenus psychologiques sans corrélats objectifs. La forme qualitative du monde n'est qu'une forme de langage. Toute la sémantique moderne s'est engagée dans cette voie.

Les apories de l'objectivité morphologique

Les approches perceptives et sémantiques du concept de forme que nous venons d'évoquer relèvent pour la plupart d'un mentalisme représentationaliste. Nominalistes et solipsistes, elles admettent la réalité psychologique des représentations mentales mais refusent toute valeur ontologique aux contenus de ces représentations. Elles se heurtent donc au problème du dépassement du solipsisme. De nombreux auteurs (Putnam, Searle, Dreyfus...) ont dénoncé dans la conception du cognitivisme dont elles s'inspirent une impuissance à résoudre « le problème des problèmes », à savoir celui de l'orientation de la conscience phénoménologique vers le monde extérieur, celui de l'intentionnalité.

Représentationalisme et intentionnalité

Le problème n'est pas nouveau. À partir du moment où l'on adopte une conception représentionnaliste faisant de la perception un processus s'édifiant à partir de la transduction sensorielle, on se condamne à faire de l'apparaître phénoménal une apparence subjective-relative n'ayant d'autre contenu objectif que celui d'une information physique conçue au sens physicaliste du terme. Il devient par conséquent impossible de définir une objectivité de la structuration qualitative du monde. Mais alors, comment la conscience peut-elle rejoindre le monde ? Elle ne rejoint qu'un monde projeté, c'est-à-dire elle-même (solipsisme). Si on considère que le solipsisme n'est pas philosophiquement acceptable, on devra donc résoudre le problème suivant : comment la conscience peut-elle rejoindre des transcendances objectives ? Or, comme l'a remarqué Roger Chambon, il est impossible de penser une ouverture constitutionnelle de la conscience vers la transcendance du monde à partir de l'exercice de la réceptivité sensorielle. Il faut une transcendance de l'apparaître lui-même, de l'apparaître comme présence, qui soit préalable au processus de perception proprement dit. « Le problème posé est extraordinaire et, à la vérité, sans égal » (Chambon, p. 38, 1974). Si on disqualifie tout réalisme perceptif pour faire du phénomène une représentation, alors le monde « préalable » devient inaccessible et indémontrable (solipsisme). Son objectivité devient de pure extériorité. Elle se réduit à la légalisation physique de la phénoménalité. Or, précisément, cette légalisation elle-même forclôt le principe d'organisation morphologique de l'apparaître. D'où un dualisme opposant une subjectivité constituante autarcique à une objectivité légalisée mais privée de toute structuration interne (de toute bildende Kraft). La légalisation et la détermination physique des phénomènes entrent dès lors en conflit avec l'idée d'une phénoménalisation objective. L'idée d'un monisme naturaliste conduit à remettre en question ces conséquences inéluctables de toute approche représentationaliste.

Étant donné la façon même dont la question est posée, il n'existe que deux grandes possibilités de solutions à cette aporie du dualisme. Soit on dépsychologise l'apparaître et on transforme corrélativement le concept d'objectivité de façon à pouvoir le lui attribuer. C'est la voie de la phénoménologie husserlienne. Soit on adopte une conception « émergentielle » de l'apparaître. C'est la voie « phéno-physique » et morphodynamique dont il sera question plus bas.

Phénoménologie et éidétique descriptive

Un des apports essentiels de Husserl a été d'avoir réussi à dépsychologiser le concept brentanien d'intentionnalité et à le coupler à la thèse que l'être se phénoménalise.

Dans la corrélation noético-noématique, les corrélats intentionnels (les contenus objectaux) des actes noétiques (des synthèses aperceptives) constituent autant de modes d'apparaître, autant de types de manifestation phénoménale. L'apparaître n'y est plus représentation mais intuition éidétique d'une position phénoménale. Pour conquérir ainsi une objectivité propre de l'apparaître, Husserl a dû s'appuyer sur l'épochè (la réduction phénoménologique) neutralisant la réalité externe. La conséquence en a été que, chez lui, la transcendance objective s'est disjointe de la réalité physique. Chez Husserl, ce n'est pas l'objectivité qui se phénoménalise elle-même à travers un processus naturel de phénoménalisation. C'est une structure idéelle de sens (noématique) qui constitue le phénomène dans son mode objectif de manifestation. Autrement dit, l'objectivité de l'apparaître est celle de l'idéalité, celle d'un réalisme des essences. Les essences sont abstraites par abstraction idéatrice et nomologiquement régies par des lois d'essence. La légalité éidétique norme les phénomènes. Elle anticipe sur leur observation, leur description et leur explication.

Les analyses noético-noématiques de la perception chez Husserl peuvent être considérées comme les précurseurs de nombreuses analyses cognitivistes contemporaines (cf. Dreyfus, 1982). Le noème est la structure abstraite (l'ensemble des règles normatives) permettant à la conscience d'être intentionnelle, c'est-à-dire à chaque type d'acte de référer à son type d'objet. Par exemple, en ce qui concerne les contours apparents d'une forme S (cf. supra), Husserl anticipe étonnamment avec sa théorie des esquisses (Abschattungslehre) sur les travaux d'un Marr. Les seules composantes réelles de la perception sont les contours C (esquisse primaire 2-D ; ce n'est peut-être pas un hasard si le terme d'esquisse a été choisi par deux auteurs aussi lointains et différents que Husserl [Abschattung] et Marr [sketch]). Mais elles sont interprétées comme projections de bords d'objets, bords qui sont des composantes non réelles de la perception (passage de l'esquisse 2-D à l'esquisse intermédiaire 2½-D). Quant à l'intentionnalité perceptive (la directionnalité, la référence), elle correspond au fait que l'objet est un invariant, un principe formel de cohérence de ses contours apparents (qui constituent quant à eux un flux de vécus morphologiques). L'objet exprime la loi d'essence (synthétique a priori) selon laquelle les contours se déformant dans un mouvement sont les contours d'un même objet (passage de l'esquisse 2½-D au niveau 3-D).

Mais, aussi profond soit-il, le point de vue husserlien se heurte à des difficultés insurmontables. La corrélation noético-noématique entre vécus et sens idéel y demeure étrangère aux cadres spatio-temporels de l'objectivité. Par exemple, en ce qui concerne les esquisses perceptives, elle ne permet pas de rejoindre leur caractère proprement morphologique (spatio-temporel). C'est essentiellement à ce fait qu'est dû « l'idéalisme » néo-scholastique husserlien. « À partir du moment où l'esquisse sensible est entendue comme une donnée immanente inétendue, l'esquissé (la propriété soi-disant objective et transcendante) ne peut plus être qu'un “sens” produit intuitivement par la noèse » (Chambon, p. 99, 1974). Il s'agit là d'un point névralgique.

En effet, pour Husserl, il existait une opposition irréductible entre d'un côté les « essences morphologiques vagues » (les formes-phénomènes objets naturels d'une ontologie qualitative aristotélicienne), le « flux héraclitéen » des formes protogéométriques « anexactes » perceptivement appréhendables et linguistiquement descriptibles et d'un autre côté la géométrie et la physique. Il est revenu souvent sur ce thème. Dans la Krisis, il affirme par exemple que la caractéristique de la physique moderne (dans sa rupture avec l'aristotélisme) est de faire des morphologies et des qualités secondes des indices d'objectivité, indices mathématisables indirectement au moyen de structures mathématiques dérivées de la géométrie de l'espace-temps. Selon lui, cela interdit de faire de l'objectivité physique la cause de l'apparaître sensible et exige de constituer (transcendantalement) l'objectivité propre de ce dernier.

Dès les Recherches logiques, Husserl abordait ce problème. Il y explique que les discontinuités qualitatives permettant de définir le concept de forme-phénomène (cf. supra) ne peuvent pas être mathématisées. Selon lui, les concepts mathématiques sont des concepts exacts issus d'une abstraction formalisante (opposée à l'abstraction idéatrice) qui ne peuvent pas être appliqués aux essences morphologiques anexactes appréhendées dans les données intuitives. Il existe donc, par principe, une différence irréductible entre description qualitative (en particulier morphologique) et mathématisation. Il faut bien une éidétique descriptive morphologique, mais celle-ci ne saurait en aucun cas être une géométrie morphologique. C'est pourquoi « la géométrie la plus parfaite et sa maîtrise pratique la plus parfaite ne peuvent aucunement aider le savant qui veut décrire la nature à exprimer dans des concepts de géométrie exacte cela même qu'il exprime d'une façon si simple, si compréhensible, si pleinement appropriée, par des mots comme dentelé, entaillé, en forme de lentille, d'ombelle, etc. ; ces simples concepts sont anexacts par essence et non par hasard ; pour cette raison également ils sont non mathématiques ». « Le géomètre ne s'intéresse pas aux formes de fait qui tombent sous l'intuition sensible, comme le fait le savant dans une étude descriptive de la nature. Il ne construit pas comme lui des concepts morphologiques portant sur des types vagues de formes qui seraient directement saisis en se fondant sur l'intuition sensible et qui seraient, quant aux concepts et à la terminologie, fixés de façon aussi vague que le sont eux-même ces types » (Husserl, p. 226, 1950).

L'effort obstiné de Husserl pour redonner droit de cité à une ontologie qualitative aboutit ainsi en définitive à une régression scholastique. Car rien ne peut être dit phénoménologiquement des formes singulières et concrètes. Leur connaissance ne commence qu'après que l'abstraction idéatrice eut porté leurs essences anexactes et fluentes à la généricité et à la fixité d'essences abstraites conceptuellement exprimables. La phénoménologie devient ici une sémantique, une sémantique certes réaliste (au sens d'un réalisme des essences) et non pas nominaliste, mais une sémantique tout de même qui partage avec les autres sémantiques de ce siècle sa régression scholastique.

Phénoménologie, gestalt-théorie et écologisme

Nombre d'auteurs ont remarqué que la déréalisation du phénomène par réduction phénoménologique soulève d'inextricables difficultés lorsqu'il s'agit pour Husserl d'en revenir à la réalité physique. La reprise de l'ontologie aristotélicienne dans un cadre post-galiléen aboutit à une incompréhension radicale des sciences naturelles objectives. Entre les deux constitutions transcendantales, l'une d'une réalité sans apparaître (Kant), l'autre d'un apparaître sans réalité (Husserl), le conflit demeure insoluble. Pour le dépasser, il faut impérativement penser le morphologique aussi du côté du monde et non plus seulement du côté du sujet. Cela est évidemment bien difficile étant donné la conception physicaliste dominante de l'objectivité. Certains penseurs s'y sont pourtant essayés. Citons-en trois, fort différents, Daubert, Merleau-Ponty et Gibson.

Grâce aux recherches de Karl Schuhmann, on dispose désormais d'une connaissance des travaux de Johannes Daubert (1877-1947). Pour Daubert, le primat de la perception est absolu. Son évidence est immédiate, certaine, précognitive, antéprédicative, préréflexive. Il va donc critiquer chez Husserl le réalisme des essences comme un idéalisme. Il va refuser la distinction entre noème et objet (entre intention et intuition). La conscience n'est pas indépendante. Elle n'est autonome que par réflexion. Comme fonction, elle présuppose en fait une réalité externe subsistante qualitativement structurée. L'apparaître est donc contraint par la réalité. Il est objectif non seulement au sens noématique de l'idéalité des essences, mais également au sens naturaliste du terme. Il émerge de la réalité physique. Chez Husserl, la réflexion élimine la réalité. Elle en fait une pure position thétique et identifie l'existence à un moment noématique. Pour Daubert, au contraire, la structure qualitative du monde est une permanence ontique et une stabilité ontologique. Ce n'est pas un être de conscience mais un être dont le sujet est conscient. La conscience ne peut pas en être constitutive. Certes, la réduction éidétique abstrait bien des essences (dont cette réalité est le substrat). Mais la réduction transcendantale est inacceptable.

Merleau-Ponty a également cherché à déconstruire l'autarcie de l'égologie transcendantale husserlienne afin de réorienter la phénoménologie dans une direction naturaliste. Chez lui, la transcendance de l'apparaître se trouve progressivement naturalisée. Elle ouvre à une nouvelle « physique ». Elle s'inscrit dans l'horizon du monde (le « rapt du visible » et le « chiasme » de la parution). Elle n'est plus constituée sur la base de la transcendance d'acte de l'intentionnalité. Elle n'est plus un corrélat noématique mais plutôt une « force formatrice », une puissance dynamique animant des structures morphologiques spatio-temporelles. Son idéalité n'est plus celle, logico-formelle, d'une essence mais bien celle d'une idéalité « phusique », d'une « potentialité active » interne à l'objet et non pas immanente au sujet. L'intériorité dynamique se trouve par conséquent retransférée dans le monde, la présence devenant une intentionnalité interne à l'être même. C'est ainsi que Merleau-Ponty a réactivé de nombreux thèmes tabous de la Naturphilosophie et du vitalisme.

Quant à Gibson, il a cherché, dans sa conception « écologique » de la perception visuelle, à réfuter les conceptions mentalistes, représentationalistes, solipsistes et projectivistes. Son idée centrale est que la perception extrait de l'information qui est effectivement présente dans l'environnement et véhiculée par la lumière : le monde est objectivement structuré morphologiquement et qualitativement, mais cette objectivité est « écologique » et non pas physique. Elle concerne les propriétés de forme, de texture ou de réflectance des surfaces visibles, les structures topologiques de l'environnement comme les bords et les frontières, le fait d'être ouvert ou fermé, le fait d'être troué, etc. À ce titre, Gibson peut être considéré comme l'un des premiers spécialistes de la perception à avoir tenté de penser le concept d'objectivité morphologique. Il a en particulier compris que les structures morphologiques étaient véhiculées comme des flux et des discontinuités par la lumière et devaient, à ce titre, faire l'objet d'une optique écologique.

Dans un article important, J. Fodor et Z. Pylyshyn ont expliqué pourquoi la théorie de Gibson n'était pas acceptable. Gibson cherche à substituer aux actes mentaux et aux processus computationnels perceptifs (en particulier aux inférences effectuées à partir de représentations mentales) une extraction perceptive directe d'informations « écologiques ». Mais il n'arrive pas à définir la nature de cette information supposée être véhiculée par le signal lumineux. Il n'échappe donc pas au cercle vicieux consistant à interdéfinir circulairement « directement perçu » et « écologique ». L'optique écologique est chez lui le nom d'une extension nomologique de la physique qui demeure introuvable. Pour Fodor et Pylyshyn, le concept d'information (la lumière contient de l'information sur l'environnement) est un concept relationnel (corrélation lumière-environnement). Cela implique que son traitement cognitif soit nécessairement inférentiel (inférer la structure de l'environnement à partir de la lumière sur la base de la connaissance des corrélations lumière-environnement). Selon eux, Gibson aurait hypostasié ce concept relationnel en un concept substantiel. Il aurait subrepticement transformé « contenir de l'information sur » en « information contenue dans ». Mais l'information est une corrélation – une relation sémantique – et il est impossible qu'elle puisse être, en tant que telle, extraite d'un signal. Pour exister, elle doit être mentalement représentée.

L'argument est solide. Toutefois, il manque un point décisif. Quand on dit, par exemple, que la fréquence lumineuse est une information sur la couleur (corrélation), on pense le renvoi « Fréquence » → « Impression de couleur » comme une sorte de renvoi Signifiant → Signifié. Autrement dit, l'information fonctionne sémiotiquement comme un signe. Mais les discontinuités qualitatives fonctionnent sémiotiquement plutôt comme des icônes. Or une information iconique peut être intrinsèquement significative et, à ce titre, être directement perçue. Le fond du débat est le suivant. Pour Fodor et Pylyshyn, comme pour tous les représentationalistes, le morphologique s'abstrait en définitive en sémantique. En quelque sorte, tout ce qui est significatif ne peut être significatif que relativement à un interprétant (au sens de Peirce) et la signification est donc nécessairement produite par une intentionnalité (la façon dont des représentations mentales dénotent). Il est impossible qu'il existe dans la nature des structures intrinsèquement significatives. Les structures « écologiques » gibsoniennes ne sont et ne peuvent être que des modes particuliers de représentation des objets physiques.

Les travaux cognitivistes récents sur la perception comme ceux, évoqués plus haut, de David Marr et de ses collègues permettent de notablement préciser le débat. D'abord, outre le niveau initial de la transduction rétinienne, il existe des niveaux postérieurs de traitement de l'information qui sont strictement « ascendants » (bottom-up dans le jargon cognitiviste) et « modulaires », c'est-à-dire cognitivement impénétrables, insensibles aux mémoires, besoins, croyances ou connaissances du sujet ainsi qu'aux contextes pragmatiques. Ces modules sont des automatismes computationnels compilés, et on peut considérer que c'est à eux que doit s'appliquer le concept gibsonien de perception directe (immédiate, non inférentielle). Chez Marr, les canaux menant de l'esquisse primaire 2-D à l'esquisse intermédiaire 2½-D sont ascendants et modulaires. C'est sur cette base que Marr a reformulé l'écologisme gibsonien. L'idée centrale de sa théorie computationnelle est que les niveaux fondamentaux de représentation explicitent de l'information objectivement contenue dans l'environnement. On peut la radicaliser de la façon suivante. Ces niveaux admettent pour corrélats objectifs des niveaux objectifs de réalité. Par exemple, pour le niveau 2-D, l'optique physique du signal lumineux, ou, pour le niveau 3-D, la géométrie, la mécanique du mouvement des corps. Les théories objectives de ces niveaux de réalité sont évidemment non computationnelles. Mais elles définissent des types d'information. Le principe méthodologique consiste alors à finaliser les théories computationnelles par les théories objectives : lorsqu'un niveau d'explicitation (de représentation de l'information) possède un corrélat objectif, c'est la théorie objective du niveau objectif qui doit commander la théorie computationnelle du niveau informationnel corrélatif. On peut alors définir l'écologisme de Gibson comme l'application de ce principe au niveau de réalité corrélatif du niveau 2½-D de Marr.

Éléments de phénophysique

Nous voyons donc que, quelles que soient l'époque et la perspective (métaphysique, psychologique, phénoménologique, objectiviste), la pensée du concept de forme a toujours été fondamentalement limitée par un obstacle épistémologique majeur : l'impossibilité de penser physiquement la phénoménalisation de la matière comme un processus naturel. Le niveau de réalité « écologique », qualitatif, structural et dynamique qu'est le niveau morphologique n'a, répétons-le, jamais réussi à être pensé jusqu'ici comme un niveau de réalité émergent. Pour fixer la terminologie, nous utiliserons le néologisme de « phénophysique » pour ce concept de niveau morphologique émergent du niveau physique. Un peu comme en biologie, le génotype s'exprime dans le phénotype, la physique au sens physicaliste peut être conçue comme une « génophysique » s'exprimant phénoménologiquement – se phénoménalisant – en une phénophysique, en une « phusis phénoménologique ». L'évidence, qui est à l'origine de toutes les apories que nous avons évoquées, est par conséquent qu'il n'existe pas de niveau phénophysique.

Cette évidence a été radicalement remise en cause depuis la fin des années soixante et les physiciens ont élaboré de nombreux éléments de phénophysique.

Caustiques et optique écologique

D'abord, on peut donner raison à Gibson en ce qui concerne l'idée que des discontinuités constitutives de morphologies peuvent être véhiculées par la lumière. Nous considérerons le cas le plus simple, celui des caustiques.

Dans l'approximation de l'optique géométrique dans un milieu homogène et isotrope, les caustiques sont faciles à décrire. Soit S0 une surface émettrice de rayons lumineux, c'est-à-dire un front d'onde initial dans R3 . S0 évolue au cours du temps t parallèlement à lui-même et les rayons sont les droites normales à la famille de ces fronts d'onde St. Ce qui peut rendre la propagation non triviale en introduisant des singularités sur les St est l'existence d'une enveloppe C des rayons. Si elle existe, elle est dite caustique de la propagation. Sur C, l'intensité lumineuse devient « infinie ». Elle diverge dans l'approximation de l'optique géométrique. C'est pourquoi, dans un médium lumineux où l'on a interposé un écran, seules les caustiques sont observables.

L'intérêt des caustiques manifestées est qu'elles sont de pures morphologies. Contrairement aux contours apparents, elles ne sont pas liées à des objets matériels distaux. Et, pourtant, elles fournissent un exemple typique de composantes de l'esquisse 2½-D de Marr. D'origine physique, elles sont également de pures saillances perceptives. Comme l'a remarqué Michael Berry, elles dominent les images optiques et sont phénoménologiquement structurantes. Elles sont donc particulièrement aptes à permettre de tester l'hypothèse d'une optique « écologique ». Or, contrairement à ce qu'on pourrait croire, la physique actuelle donne raison à Gibson.

Toute propagation d'ondes lumineuses dans R3 (coordonnées q) est une solution v(q, t) de l'équation des ondes Dv = 0, où D est l'opérateur différentiel hyperbolique :

(Δ est le laplacien et la vitesse de la lumière est c = 1). Les solutions stationnaires de fréquence τ sont de la forme v(q, t) = eiτt u(q) (séparation des variables spatiales et temporelles) où u(q) est une amplitude satisfaisant Dτ(u) = 0 avec, comme condition initiale, une fonction donnée u0(q) sur la surface source S0. Dτ est l'opérateur différentiel τ2 + Δ.

L'approximation de l'optique géométrique correspond à une longueur d'onde λ = 0, c'est-à-dire à une fréquence τ = ∞. Mais, pour τ = ∞, l'opérateur Dτ n'est plus défini. D'où l'idée de chercher des solutions asymptotiques (relativement à τ), c'est-à-dire des solutions uτ paramétrées par τ, égales à u0 sur S0 et solutions de la famille d'équations perturbées Dτ uτ = ετ, où ετ est une fonction à décroissance rapide en τ. À la limite τ → ∞, u∞ sera alors solution de D∞u∞ = 0. Pour pouvoir retrouver les fronts d'onde St, on les considère comme les surfaces de niveau d'une phase spatiale Φ(q). Φ s'identifie à une longueur de chemin optique régie par un principe variationnel (principe de Fermat). C'est l'analogue d'une action. On cherche en fait des solutions asymptotiques de la forme uτ(q) = aτ(q)eiθ, où θ = τΦ(q) et où l'amplitude aτ(q) admet un développement asymptotique en τ de la forme :

avec a0 ≡/ 0. On calcule alors Dτ uτ comme un développement en puissances décroissantes de τ et, comme on a par hypothèse Dτ uτ = ετ ∼ 0, les coefficients de ce développement doivent tous être identiquement nuls. Cela implique d'abord que la phase spatiale Φ satisfasse l'équation caractéristique d'Hamilton-Jacobi (dite équation eikonale) : 1 − | ∇Φ |2 ≡ 0 (∇Φ est le vecteur gradient de Φ et | ∇Φ | sa norme) avec la condition initiale Φ | S0 ≡ 0. Les surfaces de niveau de Φ sont les fronts d'ondes St et les rayons lumineux sont les lignes de gradient de Φ (les courbes intégrales du champ de vecteurs ∇Φ), c'est-à-dire les caractéristiques de l'équation des ondes. Cela implique ensuite que les coefficients ak soient solutions d'équations différentielles ordinaires (dites équations de transport) sur les rayons lumineux. On peut ainsi, par intégrations successives, construire une solution asymptotique définie localement au voisinage de la source S0. Ce qui fait obstruction à la construction d'une solution globale est, si elle existe, l'enveloppe C des caractéristiques, c'est-à-dire précisément la caustique du processus. Sur C, l'amplitude principale a0 diverge.

On voit ainsi bien apparaître le lien entre optique géométrique et optique ondulatoire. C'est celui qu'on trouve en général dans les équations aux dérivées partielles hyperboliques ; l'existence d'une infrastructure hamiltonienne (bicaractéristiques, caractéristiques, etc.). À l'opérateur D est associé l'hamiltonien H(q, p) = 1 − | p |2, dit symbole principal de D, sur l'espace de phase T*R3 (fibré cotangent de R3, de coordonnées (q, p)). L'équation caractéristique (eikonale) s'écrit H(q, dΦ) = 0. La métrique euclidienne de R3 établit un isomorphisme canonique entre T*R3 et TR3 (fibré tangent) qui transforme la 1-forme différentielle dΦ dans le champ de vecteurs ∇Φ (d'où la forme 1 − | ∇Φ |2 de l'équation eikonale). Considérons alors le graphe ΛΦ de la 1-forme dΦ (qui comme toutes les 1-formes sur R3 est une section du fibré cotangent T*R3) dans le voisinage U de S0 où Φ est définie. Il est facile de vérifier que pour la structure symplectique canonique de T*R3, définie par la 2-forme fondamentale w = dq ∧ dp (cf. mécanique symplectique) ΛΦ satisfait les trois propriétés suivantes : (1) ΛΦ est une sous-variété lagrangienne de T*U (c'est-à-dire une sous-variété de dimension égale à celle de U et sur laquelle w ≡ 0) ; (2) l'hamiltonien (symbole principal) H s'annule sur ΛΦ ; (3) ΛΦ étant un graphe, il est transverse en tout point aux fibres de la projection canonique π : T*U → U.

Le champ hamiltonien XH défini par H sur T*R3 est donné par les équations canoniques :

Comme H est constant sur les courbes de XH et comme H | ΛΦ ≡ 0, ΛΦ est réunion de telles courbes, dites courbes bicaractéristiques. Le champ ∇Φ sur R3 (dont les courbes intégrales sont les rayons lumineux) est donné par :

Ces rayons sont la projection sur R3 des courbes bicaractéristiques. On les appelle les courbes caractéristiques.

L'existence d'une caustique C fait obstruction à la globalisation de Φ car, au-dessus de C, la condition (3) de transversalité n'est plus remplie. D'où l'idée suivante. On appellera solution lagrangienne du problème hamiltonien défini par le symbole principal H une variété lagrangienne Λ sur laquelle H s'annule (conditions (1) et (2)). La caustique C est le contour apparent de Λ. En dehors de C, la condition (3) est remplie et on peut représenter localement Λ comme le graphe d'une solution fonctionnelle Φ. Sur C, ce n'est plus possible.

On peut cependant construire des représentations fonctionnelles locales d'une solution lagrangienne Λ même sur C, au moyen de ce qu'on appelle des intégrales oscillantes. L'idée fondamentale est due à Maslov. On ajoute des variables supplémentaires α = (α1, ... , αp) et, au lieu de chercher des solutions de la forme aτ(q)eiτΦ(q), on cherche des solutions de la forme :

où aτ(q, α) admet comme aτ(q) un développement asymptotique en τ (dont les coefficients ak(q, α) dépendent maintenant de α) et où (τ/2 π)p/2 est un facteur de renormalisation. Le raccord entre ces représentations fonctionnelles et les solutions lagrangiennes se fait à travers le principe fondamental dit de la phase stationnaire : pour l'équivalence à une fonction à décroissance rapide près, une intégrale oscillante I(q, τ) se concentre lorsque τ → ∞ sur le lieu critique VΦ, où la phase Φ(q, α) = Φq(α) est stationnaire, c'est-à-dire où :

Considérons l'application σ : VΦ → T* R3, qui à (α, q) ∈ VΦ associe (q, dΦ). Comme :

on a :

On montre (théorème d'Hörmander) que σ(VΦ) est une sous-variété lagrangienne de T*R3 et qu'on peut représenter ainsi toute solution lagrangienne.

Soient alors Λ une solution lagrangienne de projection π(Λ), Σ le lieu critique de π | ∧ : Λ → R3 et C = π(Σ) la caustique. Si q ∈ π(Λ), les intégrales oscillantes sont à décroissance rapide en τ : R3 − π(Λ) est la zone d'ombre. Si q ∈ π(Λ) − C, les points critiques (α1, ..., αr) de Φq(α) sont non dégénérés. L'intégrale oscillante I(q, τ) est alors approximée par :

où Hj est le hessien de Φq en αj et σ sa signature. Étant donné le facteur de renormalisation (τ/(2 π))p/2, on peut éliminer α et représenter localement Λ par une phase Φ purement spatiale (cf. supra) : π(Λ) − C est la zone lumière. Si maintenant q ∈ C et si α est un point de Σ au-dessus de q (c'està-dire si α est un point critique dégénéré de Φq(α)), alors I(q, τ) décroît comme τβ-p/2, où β est le degré de la singularité (α, q).

On peut montrer que les singularités génériques des caustiques sont identiques aux catastrophes élémentaires. Pour chacune d'elle, il existe une forme normale de leur déploiement universel. On est donc conduit à étudier des intégrales oscillantes particulières : J(y, α) = ∫ f(α) eiτΨ(y, α) dα, où les Ψ(y, α) sont les catastrophes élémentaires. On obtient ainsi des catastrophes de diffraction standard. La photo, due à M. Berry, présente la catastrophe « ombilic elliptique ». On y voit parfaitement la façon dont la géométrie des caustiques – le niveau phéno-physique – émerge de la physique (optique ondulatoire) sous-jacente : l'optique « catastrophiste » fournit un exemple fondateur d'optique « écologique ».

Si l'on analyse soigneusement cet exemple, on remarque qu'il est bien paradigmatique pour une bonne épistémologie de l'émergence.

  • On y voit un système naturel organisé à deux niveaux de réalité : un niveau « micro », « fin », « complexe » correspondant à la physique fondamentale du système (géno-physique) et un niveau « macro », « grossier », finiment descriptible et de nature morphologique (phéno-physique).
  • Le niveau morphologique « macro » est organisé autour des singularités de la physique sous-jacente. Ces singularités supportent l'information. Elles sont phénoménologiquement dominantes. C'est « l'infrastructure catastrophique » qu'elles constituent qui est prise en charge par la perception.
  • On peut lire dans la modélisation mathématique du niveau fin les principes du passage « micro » → « macro », c'est-à-dire du changement de niveau, de l'émergence du phéno-physique (principe de la phase stationnaire et système dynamique hamiltonien associé à l'équation des ondes).
  • Il existe des contraintes abstraites et formelles (« platoniciennes »), mathématiquement formulables, imposées au niveau phéno-physique (existence d'un nombre restreint de singularités génériques des caustiques, etc.). Bien qu'émergent, celui-ci possède donc une certaine autonomie et une certaine universalité.

Phénomènes critiques

Lorsqu'on passe de l'optique à la physique des substrats matériels, ces quatre types de considérations peuvent être considérablement généralisés et confirmés. Ils constituent une part essentielle de la physique actuelle.

Considérons par exemple un phénomène critique comme un phénomène de transition de phase. C'est un cas élémentaire d'auto-organisation de la matière puisque, à la traversée d'une valeur critique d'un paramètre de contrôle (la température par exemple), un système physique change brusquement d'état thermodynamique. Ce qui est phénoménologiquement dominant est ici le changement brusque de qualités macroscopiques, c'est-à-dire une discontinuité qualitative. Comment peut-on décrire mathématiquement son émergence à partir de la physique « fine » du système ? Les idées directrices sont les suivantes.

Prenons le cas standard d'une transition du deuxième ordre gouvernée par un phénomène de brisure spontanée de symétrie, à savoir une transition magnétique. On sait qu'au-delà d'une température critique Tc caractéristique (dite point de Curie) un corps ferromagnétique perd son aimantation spontanée et devient paramagnétique. Landau a introduit l'idée qu'on peut décrire en première approximation une telle transition à partir d'un paramètre d'ordre η qui est une variable extensive nulle dans la phase désordonnée (paramagnétique) et non nulle dans la phase ordonnée (ferromagnétique). Cette approximation est l'analogue de celle de l'optique géométrique en optique. Supposons que η soit une densité scalaire η(x) dépendant du point x du substrat W considéré. Thermodynamiquement, le substrat est décrit par la fonction de partition :

(k est la constante de Boltzmann et F l'énergie libre).

F(η) = ∫Wϕ(η) dx est calculée à partir de la densité d'énergie libre ϕ et l'intégrale Z est une intégrale fonctionnelle calculée sur l'espace fonctionnel des η(x). Lorsque le volume V de W tend vers l'infini (ce qu'on appelle la « limite thermodynamique »), les minima ηi de F(η) correspondent à des pics de plus en plus aigus de e-βF(η) et l'intégrale Z = ∫e-βF(η) dη se concentre autour d'eux (principe analogue à celui de la phase stationnaire évoqué plus haut).

L'approximation de Landau consiste alors à négliger les fluctuations autour du point critique T = Tc, à discrétiser et à poser Z = Σie-βF(ηi). Landau suppose en fait d'abord que :

  • la densité d'énergie libre ϕ(η) ne dépend des dérivés de η qu'à travers | ∇η |2 (variation quadratique isotrope en les dérivées partielles premières) et Δη (variation linéaire isotrope en les dérivées partielles secondes),
  • ϕ dépend de la variable intensive H conjuguée de η (le champ magnétique extérieur) à travers le terme linéaire − Hη.

Si H = 0, la minimisation de F(η) implique ∇η ≡ 0, c'est-à-dire η = constante sur W. Négligeant les fluctuations, Landau suppose alors que l'on peut développer F en série de Taylor au voisinage du point critique T = Tc, η = 0 et écrire F(η) = F0 + αη + Aη2 + Bη3 + Cη4 + ... Des considérations élémentaires sur le comportement phénoménologique de la transition le conduisent alors au modèle standard F = F0 + a (T − Tc)η2 + Cη4 (a > 0, C > 0). C'est le célèbre modèle du cusp en η4 pour le point critique T = Tc, modèle retrouvé sur des bases aprioriques par la théorie des catastrophes (le modèle d'un point tricritique est le modèle en η6 dit du « papillon »).

La théorie de Landau néglige les fluctuations alors que celles-ci sont pourtant dominantes au voisinage du point critique. En ce point, l'énergie libre est singulière et ne peut plus être développée en série de Taylor. Cette limite intrinsèque se manifeste par un grave désaccord entre les prévisions théoriques et les observations expérimentales. Au point critique, le comportement critique du système est caractérisé par les exposants critiques qui expriment la variation des grandeurs thermodynamiques caractéristiques du système comme fonctions de puissances de ΔT = T − Tc ou de η. Les principaux exposants critiques sont :

  • ceux du paramètre d'ordre η ∼ ΔTβ, H ∼ ηδ,
  • ceux, thermodynamiques, associés à la chaleur spécifique à H constant cH ∼ (ΔT)- α et à la susceptibilité isotherme χT ∼ (ΔT)- γ,
  • ceux des fluctuations associés à la longueur de corrélation ξ ∼ (ΔT)- v et à la fonction de corrélation Γ(r) ∼ r2 - d - η (où d est la dimensionnalité du système, r la distance à l'origine et η l'exposant caractéristique et non pas le paramètre d'ordre). Il est facile de voir que l'approximation de Landau implique les valeurs, dites « classiques », β = ½, δ = 3, α = 0, γ = 1, v = ½, η = 0. Or celles-ci ne sont exactes que pour d >− 4 et sont essentiellement inexactes pour d = 2 et d = 3, comme le montrent à la fois les mesures expérimentales et les modèles théoriques résolus mathématiquement ou numériquement.

Mais ces mêmes mesures expérimentales et modèles théoriques ont montré que les phénomènes critiques manifestent pourtant de grandes propriétés d'universalité. Il existe des comportements critiques typiques, très largement indépendants de la physique « fine » des substrats et ne dépendant en fait que de propriétés de symétrie aussi générales et aussi peu « physiques » que, par exemple, la dimension d du système ou celle de η (que nous avons supposé être scalaire par simplicité). Ces comportements critiques typiques et universels appartiennent au niveau phéno-physique. Ils émergent de la physique. Il faut donc développer des méthodes d'approximation qui, tout en n'étant pas aussi dramatiquement grossières que celle de Landau, soient à même de rendre compte de la hiérarchie de degrés d'universalité menant de la température critique (très spécifique du système étudié) aux exposants critiques (très généraux). Le problème est théoriquement et épistémologiquement crucial, car il s'agit de comprendre comment la valeur numérique, quantitativement très précise, des exposants critiques est reliée à des types qualitatifs très généraux de comportements critiques.

Dotés de fortes propriétés d'universalité, les exposants critiques sont, qui plus est, reliés entre eux par un certain nombre d'équations simples, dites lois d'échelle. Les quatre principales lois d'échelles sont :

  • la loi de Rushbrooke : α + 2β + γ = 2 ;
  • la loi de Widom : γ = β(δ − 1) ;
  • la loi de Fisher : γ = (2 − η)v ;
  • la loi de Josephson dv = 2 − α.

Une remarque fondamentale à leur sujet est due à Widom : on peut facilement en rendre compte à partir d'hypothèses d'homogénéité affirmant que la partie singulière de l'énergie libre est de la forme :

et la fonction de corrélation de la forme :

les fonctions f(x) = F(1, x) et g(x) étant des fonctions homogènes.

C'est pour justifier théoriquement la remarque de Widom que Kadanoff introduisit en 1966 l'idée fondamentale du groupe de renormalisation (GR) et de l'invariance d'échelle, idée directrice développée depuis par de nombreux physiciens, en particulier Kenneth Wilson. Le fait physique fondamental manifesté par une transition de phases est celui de l'existence de fluctuations géantes qui, au point critique, deviennent macroscopiques. Au point critique, la longueur caractéristique du système qu'est la longueur de corrélation diverge et le système ne possède donc plus de longueur caractéristique. C'est dire qu'il est invariant par changement d'échelle. D'où l'idée de considérer le point critique comme un point fixe pour des transformations d'échelles.

Plus précisément, on va considérer des modèles discrets ou des modèles continus pour les systèmes envisagés. Les modèles discrets sont le plus souvent des modèles où l'on se donne des spins σiα à n composantes (indexées par α) pouvant prendre un ensemble discret {1, 2, ..., q} ou continu de valeurs, spins distribués aux nœuds d'un réseau de N sites, de symétrie donnée, dans un espace ambiant de dimension d. Si on suppose alors que chaque spin n'interagit qu'avec les spins d'un certain de ses voisinages (interactions à courte portée) et si Jijαβ est la constante de couplage des composantes α et β des spins de deux sites voisins i et j, alors, pour une distribution σ = {σiα} donnée, toute la physique du système en présence d'un champ magnétique extérieur H est contenue dans l'hamiltonien :

Connaissant H, le problème (monumental) est de calculer la fonction de partition Z = Σe-βH(σ), où la somme est prise sur {σ}toutes les configurations de spins {σ} possibles.

À partir de Z, on peut (mécanique statistique standard) retrouver toutes les grandeurs thermodynamiques et toutes les moyennes, corrélations, etc. Dans les modèles continus – qui sont analogues à ceux qu'on trouve en théorie quantique des champs –, on considère des hamiltoniens comme ceux que nous avons déjà rencontrés chez Landau (mais avant l'approximation). Par exemple, η(x) étant la densité de spins :

(la notation des coefficients est conventionnelle mais standard ; on a u > 0). La fonction de partition est alors donnée par l'intégrale fonctionnelle Z = ∫ e-βH(η)dη, qui est l'analogue d'une intégrale de Feynman en théorie quantique des champs.

C'est à ce type de modèle qu'on va chercher à appliquer la stratégie suivante. On va utiliser la propriété d'invariance d'échelle et d'absence de longueur caractéristique au point critique pour réduire drastiquement le nombre de degrés de liberté du système. Considérons, par exemple, un réseau de spins de maille a. Près de la température critique Tc, la longueur de corrélation ξ devient macroscopique par rapport à la maille a : ξ ⪢ a. Ce sont donc les fluctuations à « longue » longueur d'onde qui sont massivement dominantes, et on peut, par conséquent, chercher à éliminer les fluctuations à « courte » longueur d'onde. Pour cela, selon l'idée de Kadanoff, on remplace les spins par des blocs de spins de longueur l avec ξ ⪢ l ⪢ a, chaque bloc ayant pour spin la moyenne des spins (fortement intercorrélés) qui y appartiennent. On renormalise alors la maille du nouveau réseau de façon à la rendre égale à la maille initiale. Le moyennage réduit le nombre de degrés de liberté, ce qui transforme le problème donné en un problème de longueur de corrélation réduite ξ′ < ξ.

Soit alors s le changement d'échelle des longueurs nécessaire pour renormaliser la maille du réseau. Les opérations décrites intuitivement ci-dessus sont a priori exprimables par un opérateur Rs, dit opérateur de renormalisation, agissant sur la fonction F décrivant le système : son hamiltonien, son énergie libre ou sa fonction de partition. Il est clair que ces opérateurs constituent un semi-groupe : Rt ∘ Rs = Rs+t, et on obtient ainsi un (semi)-groupe de transformations sur l'espace fonctionnel F des fonctions F.

Au point critique, la longueur ξ diverge, et cela signifie (puisque ξ/s = ξ) que F est un point fixe des Rs. On est donc conduit à un schéma général tout à fait analogue à celui des systèmes dynamiques (mais d'une difficulté redoutable à mettre effectivement en pratique à cause de très nombreux points techniques d'analyse fonctionnelle). Supposons qu'on prenne, par exemple, pour F l'hamiltonien H du système. Soit H l'espace fonctionnel des hamiltoniens. La première approximation (exacte dans certains cas pas trop complexes) consiste à supposer que tous les hamiltoniens obtenus par renormalisation à partir de l'hamiltonien initial Ho appartiennent à une même classe de H ne dépendant que d'un nombre fini de paramètre (p1, ..., pl) (température T, champ extérieur H, constantes de couplage, etc.) parcourant une sous-variété P de H. Cela permet, en se situant dans P, de ramener le problème à un problème de dimension finie.

Pour un système donné, l'hamiltonien H(T) va décrire, lorsque T décroît à partir des valeurs T > Tc, une courbe de P appelée ligne physique. Comme ξ croît lorsque T décroît vers Tc et diverge pour T = Tc, cette ligne physique est transverse aux hypersurfaces iso-ξ (où ξ = constante) Sξ de P et traverse S∞ en Hc = H(Tc). Appliquons alors le GR. Si H appartient à la ligne physique mais H ≠ Hc(H ∉ S∞), alors la trajectoire de H, sous l'action de GR, s'écarte de S∞ (car GR contracte ξ). Mais, en revanche, la trajectoire de Hc demeure dans S∞.

On est ainsi conduit à analyser la « dynamique » induite par le GR dans S∞. Si la situation est simple, S∞ sera décomposée en bassins d'attraction de différents points fixes et Hc sera « capturé » en général par un tel point fixe H* (à moins qu'il ne se situe sur une séparatrice). L'idée de base est que tous les systèmes dont le Hc appartient à un même bassin B(H*) ont même comportement critique. La position de Hc dans B(H*), Hc pouvant être plus ou moins proche de H*, exprime l'extension du domaine des paramètres sur lequel le système possède le comportement H*. Mais le comportement au point critique (et non plus à son voisinage) ne dépend que de H*. On trouve là une interprétation dynamique remarquablement élégante de ce mixte de quantitatif et de qualitatif que devait a priori présenter la méthode du GR pour pouvoir rendre compte de l'universalité des phénomènes critiques : l'universalité correspond à H* et la spécificité à la position de Hc dans B(H*).

Soit donc H* un point fixe du GR dans S∞ et supposons que les Rs soient linéarisables au voisinage de H*. On a donc Rs(H* + δH) = H* + Ls(δH), où Ls est un opérateur linéaire. Soient Ai les vecteurs propres de Ls et λi(s) les valeurs propres associées. D'après la loi de semi-groupe Rt ∘ Rs = Rs+t, on a λi(s)λi(t) = λi(st) et donc λi = sαi. Si l'on écrit alors que, au voisinage de H*, la fonction F décrivant le système (par exemple l'énergie libre) est une fonction des coordonnées μi associées aux Ai, on en déduit les lois d'homogénéité de F et donc les lois d'échelle. Par exemple, on a F′ = sdF, et donc F(sαiμi) = sdF(μi). On a de même :

Les exposants critiques apparaissent ainsi comme des cas particuliers des exposants caractéristiques bien connus qu'on trouve dans tous les systèmes dynamiques en un point fixe linéarisable. Les vecteurs propres Ai s'appellent champs d'échelles. Le GR y agit comme l'homothétie λi = sαi. Si αi > 0, il s'agit d'une dilatation et on dit que Ai est pertinent. Si αi < 0, il s'agit d'une contraction et on dit que Ai est non pertinent. Si αi = 0, on dit que Ai est marginal. Un point fixe H* du GR n'est stable que si tous les champs pertinents y sont nuls.

Cette image dynamique permet de penser très élégamment un grand nombre de phénomènes. Donnons quelques exemples :

  • Si le point Hc où la ligne physique traverse l'hypersurface S∞ appartient à un bassin B(H*), alors on est en présence d'un point critique (de type H*).
  • Si Hc traverse S∞ sur une séparatrice, alors on est en présence d'un point tricritique où s'effectue la transition entre deux régimes critiques différents.
  • Les trajectoires s'éloignant à l'infini dans S∞ correspondent aux transitions du premier ordre.
  • Dans les phénomènes dits de cross-over, un système présente une succession de deux régimes critiques, l'un transitoire et l'autre effectif.
  • Les valeurs classiques des exposants critiques correspondent à un point fixe G, dit point gaussien. Ce point est le plus stable pour d > 4. S'il existe des valeurs non classiques, c'est « tout simplement » parce que, à la traversée de la valeur d = 4 de la dimensionnalité du système, le point gaussien G devient instable et se trouve « supplanté » par un point fixe non gaussien NG. Pour d = 4, G et NG coïncident, il y a coalescence de deux régimes critiques, et le champ pertinent assurant l'échange de stabilité entre N et NG devient marginal.
  • Mais la théorie qualitative des systèmes dynamiques montre que même des systèmes simples peuvent avoir, s'ils sont non linéaires, des trajectoires très complexes, voire chaotiques. Il semble que cela soit le cas pour certains phénomènes de transition de phases.

Évidemment, toute l'affaire est d'arriver à des formules (approchées) pour le GR. Mais, quoi qu'il en soit, il est crucial de noter que la méthode du GR « conduit à une description géométrique, topologique, des phénomènes critiques », ce qui permet « la transformation d'un problème singulier en un problème régulier dans un espace abstrait » (Toulouse-Pfeuty, 1975). Les difficultés rencontrées sont vraiment considérables (pour une introduction rudimentaire, cf. Petitot, 1986 ; pour des précisions, cf. Toulouse-Pfeuty, 1975, Domb-Green, 1972, Le Bellac, 1988). Mais, malgré elles, on voit bien comment la physique fondamentale permet de comprendre l'apparition de singularités structurant morphologiquement la matière.

Le programme de recherche d'une morphodynamique

À partir de résultats physiques aussi fondamentaux que ceux que nous venons d'évoquer, René Thom a proposé, dès les années soixante-dix, le vaste programme de recherche d'une morphodynamique visant à comprendre physico-mathématiquement l'origine des formes naturelles et à refonder à partir de là l'ensemble des approches perceptives, cognitives, sémantiques, phénoménologiques, sémiolinguistiques du concept de forme.

Les modèles morphodynamiques

Revenons à la description phénoménologique des formes-phénomènes proposée plus haut. L'idée directrice est de faire l'hypothèse que, en chaque point w du substrat matériel W, il existe un processus physique déterminant un régime local (analogue à une phase thermodynamique). Ces régimes locaux se manifestent phénoménologiquement (comme les phases) par des qualités sensibles. Les morphologies engendrées par les discontinuités qualitatives sont alors traitées comme l'analogue de transitions de phases. Émergeant de « l'intériorité » physique des substrats, elles sont véhiculées comme information « écologique » par les médias lumineux, sonores, etc., et sont appréhendées par le système perceptif et cognitif. C'est sur cette base qu'on peut développer une phéno-physique se transformant d'elle-même en une phénoménologie réaliste (écologique).

De façon générale, soit S un système quelconque conçu comme une « boîte noire » (black box). Supposons que les hypothèses suivantes, toutes très générales, soient satisfaites. a) À l'intérieur de la boîte noire, il existe un processus interne (en général inobservable) X qui définit les états internes que le système S est susceptible d'occuper de façon stable. Pour des raisons de simplicité, on peut supposer que ceux-ci sont en nombre fini. b) Le processus interne X définit globalement l'ensemble des états internes de S. Cette hypothèse est essentielle. Elle signifie que les états internes sont en compétition et donc que le choix de l'un d'eux comme état actuel virtualise les autres. Autrement dit, ces états n'existent pas en tant qu'entités isolées. Ils s'entre-déterminent par des rapports de détermination réciproque. c) Il existe donc une instance de sélection I qui, sur la base de certains critères (spécifiques au système et pouvant varier considérablement), sélectionne l'état actuel parmi les états internes possibles. d) Enfin, autre hypothèse essentielle, le système S est contrôlé continûment par un certain nombre de paramètres de contrôle, paramètres variant dans un espace W que, pour l'opposer au processus interne X, on appelle l'espace externe (ou espace de contrôle, ou encore espace substrat) de S.

Soit alors X « l'espace » des processus internes X possibles. Si les hypothèses ci-dessus sont vérifiées, le système S sera décrit d'abord par le champ σ : W → X associant à w ∈ W le processus XW et ensuite par l'instance de sélection I. Phénoménologiquement, un tel système S = (W, X, σ, I) se manifeste par des qualités observables q1 ... qn. Autrement dit, le processus interne XW « s'extériorise » en « qualités sensibles » qiw.

On retrouve ainsi la description phénoménologique du chapitre 1. Mais quelle peut être la cause des catastrophes observées ? Supposons que le contrôle w parcoure un chemin γ dans W. Soit Aw l'état interne actuel initial sélectionné par I. Au cours de la déformation de XW le long de γ, et donc, d'après l'hypothèse (d), de la structure de Aw et des relations de détermination réciproque qu'il entretient avec les états virtuels Bw, Cw, etc., d'après l'hypothèse (b), il peut fort bien se produire que, à la traversée d'une valeur (critique), Aw ne satisfasse plus aux critères de sélection imposés par I conformément à l'hypothèse (c). Le système bifurque donc spontanément de Aw vers un autre état actuel (jusque-là virtuel) Bw. Cette transition catastrophique d'état interne se manifeste par une discontinuité de certaines des qualités observables qiw. Autrement dit, c'est la déstabilisation (relative à l'instance I) des états internes actuels sous la variation du contrôle qui induit dans l'espace externe W un ensemble de catastrophes KW. Il y a là une dialectique interne/externe constitutive du modèle général, une dialectique de l'expression des conflits internes par les morphologies externes.

Mathématiquement parlant, la théorie des catastrophes (TC) repose sur la possibilité de spécifier le modèle général et sur les théories hautement raffinées qui en découlent. La première spécification consiste d'abord à supposer que, eu égard à leur nature, les processus internes Xw constituent un espace X muni d'une topologie T « naturelle » : cela signifie qu'on sait définir rigoureusement la continuité du champ σ : W → X. Elle consiste ensuite à supposer qu'on sait définir le type qualitatif des processus X. La partition de X en classes d'équivalence X̃ suivant le type qualitatif est une classification des éléments X ∈ X au sens que nous avons déjà rencontré. Elle permet de définir le concept de stabilité structurelle et donc l'ensemble KX des X ∈ X structurellement instables. On développe alors l'idée directrice suivante. Soit Wσ → X le champ caractéristique d'un système S = (W, X, σ, I). Soit K′W = σ-1(KX ∩ σ(W)) la trace de KX sur W par l'intermédiaire de σ. L'hypothèse de la modélisation est que l'ensemble catastrophique KW de S est déductible de K′W à partir de l'instance de sélection I. Elle signifie qu'une valeur w du contrôle appartient à KW (i.e. est une valeur critique) si et seulement si la situation en w est corrélée de la façon réglée par I à une situation appartenant à K′W.

C'est donc l'analyse (à la fois locale et globale) des ensembles de bifurcations « intrinsèques » KX qui sera au centre de la théorie. Si on introduit de plus l'hypothèse – évidente a priori – qu'un champ σ ne peut exister concrètement que s'il est lui-même structurellement stable, on est conduit à constater qu'une telle contrainte borne drastiquement la complexité susceptible d'être présentée par les K′W. Dans les cas les plus simples, on peut même accéder à une classification des structures locales des K′W et donc des morphologies externes locales. La théorie fait ainsi apparaître des contraintes purement mathématiques (platoniciennes) contraignant le domaine des phénomènes morphologiques et structuraux. Elle y révèle de la nécessité.

La spécification mathématique majeure du modèle général consiste à postuler que le processus interne X est un système dynamique différentiable sur une variété différentiable M de paramètres internes x1, x2, ..., xn caractéristiques du système S considéré. Pour le distinguer de l'espace externe W, on appelle M l'espace interne. On suppose donc que chaque état instantané de S est descriptible par un point x de M. Comment définir alors les états internes ? L'idée de base est d'introduire une différence entre dynamique rapide et dynamique lente, c'est-à-dire entre deux échelles de temps, l'une interne rapide, l'autre externe lente. « L'idée philosophique essentielle sous-jacente à la TC est que tout phénomène, toute forme spatio-temporelle, doit son origine à une distinction qualitative des modes d'action du temps dans les choses. Toute distinction d'apparence qualitative dans un espace W (le substrat) peut être attribuée à deux modes d'action du temps : un mode « rapide » qui crée dans un espace interne des « attracteurs » qui spécifient la qualité phénoménologique locale du substrat ; et un mode « lent » agissant dans l'espace substrat W lui-même » (Thom, p. 2, 1984). Autrement dit, on suppose que la dynamique interne d'évolution des états instantanés est « infiniment » rapide par rapport aux dynamiques externes d'évolution dans les espaces externes W. Seuls comptent donc les états asymptotiques (pour t → + ∞) définis par les Xw, c'est-à-dire les régimes limites.

Or l'analyse de ces états asymptotiques s'est révélée être d'une difficulté inattendue et redoutable. En effet, la complexité d'un système dynamique est en général prodigieuse. D'abord, le déterminisme idéal qu'est le déterminisme mathématique n'implique en rien un déterminisme au sens concret du terme (le déterminisme comme prédictibilité). Concrètement, une condition initiale ne peut en effet être définie qu'approximativement. Elle n'est pas représentée par un point x0 de M mais par un petit domaine U « épaississant » x0. Pour que le déterminisme soit concret, il faut donc que les trajectoires issues de U forment un petit tube « épaississant » la trajectoire γ issue de x0. Techniquement parlant, cela signifie que la trajectoire γ est stable relativement à de petites perturbations de sa condition initiale. Un système dynamique concrètement déterministe est donc un système dynamique (par définition idéalement déterministe) dont les trajectoires sont stables. Cela n'a aucune raison d'être le cas. Il existe même des systèmes dynamiques (par exemple les systèmes géodésiques sur les variétés riemanniennes de courbure négative) qui présentent la propriété que toutes leurs trajectoires sont instables, et qui la présentent de façon structurellement stable. Ainsi que l'a noté Arnold, « l'éventualité de systèmes structurellement stables à mouvements compliqués dont chacun est exponentiellement instable en soi est à mettre au rang des plus importantes découvertes faites ces dernières années en théorie des équations différentielles. [...] Jadis, on supposait que, dans les systèmes d'équations différentielles génériques, ne pouvaient exister que des régimes limites stables simples : des positions d'équilibre et des cycles. Si le système était plus compliqué (conservatif par exemple), on admettait que, sous l'effet d'une faible modification des équations (par exemple si on tenait compte des petites perturbations non conservatives), les mouvements compliqués se “décomposaient” en mouvements simples. Maintenant, nous savons qu'il en va autrement et que, dans l'espace fonctionnel des champs de vecteurs, il existe des domaines composés de champs où les courbes de phase (les trajectoires) sont plus complexes. Les conclusions qui en découlent couvrent un grand nombre de phénomènes dans lesquels les objets déterministes ont un comportement “stochastique” » (Arnold, pp. 314-315, 1976). L'indéterminisme concret (le chaos, le hasard, l'aléatoire, etc.) est donc parfaitement compatible au déterminisme mathématique.

Revenons à la spécification du modèle général. En termes de systèmes dynamiques, les états internes de S sont les attracteurs de Xw. La notion très délicate d'attracteur généralise celle de point d'équilibre stable (i.e. attractif). Intuitivement, un attracteur A de X est un régime asymptotique stable. C'est un ensemble fermé, X-invariant et indécomposable pour ces deux propriétés (i.e. minimal) qui attire (i.e. qui « capture » asympotiquement) toutes les trajectoires issues des points d'un de ses voisinages. Le plus grand voisinage de A, B(A), ayant cette propriété s'appelle le bassin de A. Dans les cas simples, les attracteurs auront une structure topologique simple (point attractif ou cycle attractif), seront en nombre fini et leurs bassins seront de « bons » domaines (de forme simple) séparés par des séparatrices. Mais cette image est par trop optimiste car :

  • les attracteurs peuvent être en nombre infini ;
  • les bassins peuvent être intriqués les uns dans les autres de façon inextricable ;
  • les attracteurs peuvent avoir une topologie très compliquée (attracteurs dits « étranges »).

Sur un attracteur, les trajectoires d'un système dynamique présentent de la récurrence. Intuitivement, la récurrence d'une trajectoire γ signifie que si x ∈ γ, γ repasse aussi près qu'on veut de x après un délai aussi grand qu'on veut et que γ revient donc indéfiniment sur elle-même. Les cas triviaux de récurrence sont les points fixes de X (les points où X s'annule, i.e. les trajectoires réduites à un point) et les cycles de X (les trajectoires fermées). Mais il existe en général de la récurrence non triviale. Si γ est une trajectoire récurrente « compliquée » et si A est sa fermeture topologique, A est un domaine entier de M (un fermé d'intérieur non vide) où γ se répand de façon dense.

Quoi qu'il en soit de ces difficultés, on peut supposer que, pour presque toute condition initiale x0 ∈ M (seulement presque toute, car il faut tenir compte des séparatrices entre bassins), la trajectoire issue de x0 est « capturée » asymptotiquement par un attracteur Aw de la dynamique interne Xw. Cela correspond à une hypothèse d'équilibre local : la dynamique interne « rapide » entraîne le système vers un régime asymptotique stable correspondant à un état interne.

Une fois admises ces diverses hypothèses qui, si on fait le choix du cadre différentiel, ne sont aucunement restrictives et s'imposent d'elles-mêmes, le modèle général se convertit de lui-même en programme mathématique. Il s'agit en effet d'analyser en détail des problèmes du type suivant :

  • structure générale des systèmes dynamiques ;
  • caractérisation géométrique des systèmes dynamiques structurellement stables et de leurs attracteurs ;
  • analyse des propriétés ergodiques sur les attracteurs « étranges » ;
  • analyse des causes possibles d'instabilité ;
  • analyse des déformations (des perturbations) des systèmes structurellement instables ;
  • étude de la géométrie (qui peut être d'une extrême complexité) des ensembles de bifurcation KX ; etc.

Ce programme, qu'on pourrait appeler le programme de Thom-Smale-Arnold, prolonge celui de Poincaré et de Birkhoff. C'est, en fait, celui de la dynamique qualitative moderne. À travers lui, la théorie de la forme devient solidaire d'un domaine et d'une tradition mathématique d'une importance éminente tant sur le plan technique que sur le plan historique.

Cela dit, ce programme, s'il est d'une immense portée, est également d'une immense difficulté. C'est pourquoi on peut, dans un premier temps, le simplifier drastiquement. La complexité des systèmes dynamiques généraux étant trop grande pour être maîtrisée, on peut en faire une étude « grossière », de type thermodynamique. Celle-ci consiste à ne pas tenir compte de la structure fine (de la topologie compliquée) des attracteurs. Elle est d'autant plus nécessaire que les ensembles catastrophiques empiriques KW sont en général beaucoup plus simples que ceux qui sont induits par les bifurcations de systèmes dynamiques généraux. Il faut donc comprendre dans ce contexte l'origine du phénophysique, à savoir comment des systèmes peuvent être « intérieurement » chaotiques (stochasticité des attracteurs définissant les états internes) et « extérieurement » ordonnés (simplicité des morphologies observables), autrement dit ce que Thom appelle « l'émergence du descriptible à partir de l'indescriptible ».

L'idée est de tenter de généraliser aux systèmes généraux ce qui se passe dans le cas des systèmes de gradient, à savoir l'existence de lignes de pente et de lignes de niveau. Pour cela, on utilise le fait que, si A est un attracteur d'un système dynamique X sur une variété M, on peut construire sur le bassin B(A) de A une fonction positive f (dite fonction de Liapounov) qui décroît strictement sur les trajectoires dans B(A) – A et qui s'annule sur A. Cette fonction est une sorte d'entropie locale exprimant que, au cours du temps, B(A) se « contracte » sur A de façon analogue à un système de gradient. Mais elle ne permet de rien dire sur la structure interne de l'attracteur. L'idée est alors de ne retenir des bifurcations d'attracteurs que les bifurcations associées de leurs fonctions de Liapounov. Cette réduction ressemble à un moyennage thermodynamique. Elle correspond à un changement de niveau d'observation faisant passer du niveau « fin » décrit par les Xw au niveau « grossier » décrit par les fw. Elle est analogue à celle qu'on trouve dans la théorie de Landau en théorie des transitions de phases. Thom en donne la justification suivante : « Personnellement, j'aime à penser que ce qui joue un rôle, ce n'est pas la notion – trop fine – d'attracteur, mais une classe d'équivalence d'attracteurs « équivalents » parce qu'encapsulés dans la variété de niveau d'une fonction de Liapounov (un quasi-potentiel) pourvu que l'attracteur échappe à des implosions de caractère exceptionnel. Telle serait, selon nous, la voie par où trouver une définition mathématiquement satisfaisante de la notion de régime asymptotique stationnaire d'une dynamique. Dans une telle optique, la structure fine interne de l'attracteur n'a que peu d'importance : seule importe la fonction de Liapounov qui l'enserre dans une de ses variétés de niveau. Mais on peut concevoir que seule la structure du tube enfermant l'attracteur a phénoménologiquement de l'importance, et on retrouve ainsi une problématique proche de la TC élémentaire » (Thom, p. 5, 1984).

On passe ainsi des quasi-potentiels que sont les fonctions de Liapounov aux systèmes de gradient dérivés d'un potentiel. On suppose que la dynamique interne Xw est en fait la dynamique de gradient associée à une fonction potentiel différentiable fw : M → R. Les états internes déterminés par fw sont alors ses minima (si f est assimilée à une « énergie », ce principe est celui de la minimisation de l'énergie du système).

Mathématiquement, la modélisation morphodynamique fait donc partie intégrante de la théorie des bifurcations des fonctions potentiel. Or, pour les potentiels, il existe une caractérisation simple de la stabilité structurelle, le théorème de Morse. Sous l'hypothèse que la variété M soit compacte, f : M → R est structurellement stable si et seulement si :

  • ses points critiques, c'est-à-dire ses minima, ses maxima et ses cols (dans le produit cartésien M × R, le graphe de f constitué de l'ensemble des couples (x, f(x)) est comme un « relief » au-dessus de M) sont non dégénérés, c'est-à-dire ne sont pas des fusions de plusieurs minima, maxima ou cols ; et si :
  • ses valeurs critiques (i.e. les valeurs f(x) pour x critique) sont distinctes. Il y a donc deux causes d'instabilité structurelle :
  • la dégénérescence de points critiques, correspondant aux catastrophes dites de bifurcation ;
  • l'égalité de deux valeurs critiques, correspondant aux catastrophes dites de conflit. À ces deux types bien distincts de catastrophes correspondent respectivement deux types d'instances de sélection I, deux conventions :
  • la convention du retard parfait selon laquelle le système S demeure dans un état interne (un minima de fw) tant que celui-ci existe : il n'y a donc catastrophe que lorsqu'un minimum disparaît par fusion avec un autre point critique (bifurcation) ;
  • la convention de Maxwell selon laquelle le système S occupe toujours le minimum absolu de fw : il n'y a donc catastrophe que lorsqu'un autre minimum devient à son tour le minimum absolu (conflit).

Considérons maintenant l'espace fonctionnel F (de dimension infinie) des fonctions potentiel f sur M. Supposons M compacte pour simplifier. La topologie T sur F, qui est « naturelle » pour les problèmes traités, est celle de la convergence uniforme des fonctions et de toutes leurs dérivées partielles. L'équivalence qualitative sur F est définie par l'action sur F du groupe G = Diff M × Diff R des difféomorphismes de la source M et du but R des f ∈ F. Autrement dit, f : M → R et g : M → R sont équivalentes s'il existe Φ ∈ Diff M et Ψ ∈ Diff R rendant commutatif le diagramme suivant :

Soit KF l'ensemble de bifurcation (global et intrinsèque) de F. KF est constitué des f structurellement instables et il s'agit de démontrer des théorèmes de structure concernant sa géométrie à la fois locale et globale. En ce qui concerne la géométrie locale, la situation « idéale » serait la suivante.

  • La classe d'équivalence f̃ = G(f) de f est une sous-variété de codimension finie c de F.
  • Il existe localement des supplémentaires W de f dans F, c'est-à-dire des sous-variétés W de F de dimension c transverses à f̃ en f. Un tel supplémentaire est appelé modèle transverse. Si on identifie (W, f) à un ouvert (W, 0) voisinage de 0 dans Rc, il définit clairement une famille paramétrée fw, appelée déploiement de f.
  • Tous les modèles transverses sont qualitativement équivalents (au sens d'une notion « naturelle » d'équivalence entre déploiements) et la géométrie de la trace de KF sur W, c'est-à-dire la géométrie de (W ≃ W, KW ≃ W ∩ KF), est donc invariante. Les déploiements associés sont dits universels.
  • Localement en f, KF est le produit direct KW × f̃ (et donc la géométrie de KF se réduit localement à celle de KW).

Le résultat mathématique central est que :

  • Pour des codimensions assez petites (c <− 7), la situation réelle correspond à la situation idéale.
  • Il existe une liste exhaustive de formes normales polynômiales simples pour les représentants des classes d'équivalence f ainsi que pour leurs déploiements universels. Ce sont ces formes normales qui ont été popularisées sous le nom de catastrophes élémentaires (CE). À une catastrophe élémentaire fw : M → R est associée une application catastrophique χ : Σ → W. χ est la restriction de la projection canonique :

au lieu critique Σ ⊂ M × W constitué des points critiques (x, w) des fw. L'ensemble catastrophique KW dans W est alors le contour apparent de cette application χ (cf. supra l'exemple des variétés lagrangiennes et des caustiques).

Applications physiques des modèles morphodynamiques

Étant donné l'univers mathématique auquel ils appartiennent, les modèles morphodynamiques possèdent d'innombrables applications physiques. Dans la mesure où ce sont par construction des modèles morphologiques, le phénophysique est, à travers eux, en train de devenir coextensif au physique. Évoquons très brièvement quelques-unes de ces applications.

Flambage élastique

Toutes les CE ont été trouvées (indépendamment des travaux de Thom) par les mécaniciens J. M. T. Thompson et G. W. Hunt dans l'analyse des bifurcations de structures élastiques. Si l'on exerce des contraintes w sur une telle structure S, celle-ci emmagasine de l'énergie et, à la traversée de valeurs critiques de w, peut la relaxer brutalement en changeant de configuration. Là, comme ailleurs, la difficulté vient du fait que :

  • l'espace T des configurations (des « formes » de S) est un espace fonctionnel, l'énergie élastique étant une fonctionnelle sur T (et sa minimisation étant donc un principe variationnel) ;
  • l'espace de contrôle W est lui-même un espace fonctionnel (les contraintes dépendant en général de la position spatiale).

D'où la nécessité de développer les modèles morphodynamiques de la TC en dimension infinie. Mais, dans les espaces fonctionnels qui ne sont ni des Hilbert ni des Banach, des théorèmes aussi fondamentaux que le théorème des fonctions implicites ou le théorème de Morse ne sont plus valables. D'où une foule de difficultés. Lorsque T est un Hilbert et lorsque la fonction d'énergie f ∈ T admet un point critique qui n'est dégénéré que dans un nombre fini de dimensions, alors on peut faire de la TCE. Sinon, il faut trouver de « bonnes » méthodes d'approximations permettant de « redescendre » en dimension finie.

Défauts des milieux ordonnés

Un thème intimement lié aux modèles morphodynamiques et aux transitions de phases est celui des défauts que peuvent présenter les milieux ordonnés. Ceux-ci proviennent du fait que les symétries locales prescrites par le principe de minimisation de l'énergie ne sont pas compatibles avec les contraintes topologiques imposées par les conditions de bord (par exemple lorsqu'on passe d'une phase liquide à une phase solide cristalline, la nucléation initiale se développe en domaines ordonnés locaux et indépendants dont les ordres sont incohérents et qui ne peuvent se recoller en une structure globale qu'à travers des parois de défauts).

Sans entrer dans aucun détail, on peut présenter intuitivement l'introduction des concepts de topologie algébrique dans la théorie des défauts de la façon suivante. Un milieu ordonné (comme un cristal liquide) est caractérisé par un certain type de symétrie (plus compliqué que celui des réseaux). Qui plus est, ce type de symétrie peut être présenté dans l'espace avec une position et une orientation données. On définit ainsi une variété d'états internes V. Soit alors U un ouvert de l'extension spatiale W du milieu considéré. Aux points réguliers de U, la structure du milieu est localement triviale. Soit K le fermé complémentaire de l'ouvert des points réguliers. K est le fermé des défauts. Dans les bon cas, K possède une structure stratifiée. Soit Z sa strate de dimension maximale. Soient z ∈ Z et Nz le plan normal à Z en z. Soit S une petite sphère de Nz centrée sur z. Elle est enchaînée à Z (cf. figure). Soit θ : S → V l'application associant à s ∈ S la structure locale du milieu en s. Le principe de Kléman-Toulouse dit que le défaut K est structurellement stable si et seulement si θ n'est pas homotopiquement triviale. Si on l'applique au cas des smectiques, on voit qu'il ne peut pas y avoir de strates stables de codimension 1 de K. En effet, dans ce cas, Nz serait de dimension 1 et donc S = S0 (la sphère de dimension 0). Mais, comme V est connexe, toute application θ : S0 → V est homotopiquement triviale. Les surfaces des smectiques sont, par conséquent, telles que leur lieu focal dégénère en courbes de dimension 1. Ce sont donc des cyclides de Dupin, fait déjà connu de Granjean et Friedel. Si θ : S → V n'est pas homotopiquement triviale, les groupes d'homotopie Πk(V) classifient les types des défauts (stables). On a ainsi développé une théorie topologique des défauts et de leurs « interactions » (coalescence, croisement, etc.) qui est de toute beauté. Celle-ci est liée aux modèles exposés plus haut, car l'espace interne est interprétable comme celui des minima d'une fonction potentiel W : M → R sur l'espace interne des configurations moléculaires locales. V est invariante sous l'action du groupe d'invariance de R3 et ses minima sont des orbites sous cette action.

Perturbations singulières

De nombreux travaux ont également été effectués sur les équations différentielles contraintes, c'est-à-dire sur les systèmes dynamiques pour lesquels il existe deux échelles de temps, une dynamique « rapide » amenant le point représentatif de l'espace de phase M × W sur une variété « lente » Σ ⊂ M × W (surface des états) et une dynamique « lente » faisant évoluer l'état sur Σ (cf. supra.). Les singularités de l'application catastrophique χ : Σ → W déterminent alors des évolutions catastrophiques par franchissement de seuils. Il s'agit donc, dans ces modèles, d'adjoindre à la dynamique interne une dynamique « externe » lente. Depuis l'usage fait par Christopher Zeeman d'un tel système dynamique contraint pour la modélisation – désormais classique – de l'influx nerveux, de nombreux modèles de ce genre ont été analysés (théorie des perturbations singulières). Ils peuvent présenter des phénomènes « d'engouffrement » (toutes les trajectoires issues d'un ouvert U de Σ rejoignent un même point en un temps fini), par exemple lorsqu'une trajectoire sur Σ est tangente à une ligne pli (et lorsqu'une certaine condition d'hyperbolicité est satisfaite). Il existe des modèles locaux pour les diverses configurations typiques présentées par les trajectoires relativement aux singularités de χ. Dans le cas où dim W = 2, il existe un théorème de classification des configurations génériques. Les modèles peuvent aussi manifester des comportements chaotiques, car les sauts catastrophiques peuvent « réinjecter » les trajectoires sur les diverses nappes stables de Σ de façon complexe. Ils peuvent enfin présenter également des « phénomènes canard », c'est-à-dire des bifurcations de Hopf occultées par une décroissance en catastrophe de l'amplitude de la solution périodique. Ces phénomènes ont été abondamment analysés ces dernières années par les méthodes de l'analyse non standard.

Ondes de choc

On peut également signaler les phénomènes critiques de formation et de propagation d'ondes de choc en acoustique. En effet, dans le cadre de l'approximation géométrique, une onde de choc est une enveloppe de fronts d'ondes et, étant donné l'inhomogénéité naturelle du milieu de propagation (de l'air), ces fronts d'ondes peuvent présenter des singularités lorsque les « rayons » associés enveloppent des caustiques. Mais l'analyse du passage géométrique → ondulatoire est plus délicate que dans le cas de l'optique, car le principe de superposition linéaire sous-jacent à la méthode des intégrales oscillantes n'est plus valable.

Si l'on considère une loi de conservation du type :

avec la condition initiale u(x, 0) = Φ(x) [loi dont un cas particulier est l'équation de Riemann :

décrivant l'évolution u(x, t) du profil des vitesses d'une onde], au bout d'un certain temps, les solutions initialement C∞ deviennent singulières le long de lignes de discontinuité (ondes de choc). Par exemple, dans le cas de l'équation de Riemann, les trajectoires (i.e. les caractéristiques) satisfont à :

Comme on a :

on a :

et u est constante sur les caractéristiques (qui sont des droites). Lorsque des caractéristiques se rencontrent, u doit prendre deux valeurs distinctes et doit donc présenter une discontinuité. Si on interprète u comme un hamiltonien, on peut trouver u comme solution d'un problème variationnel (théorème de Lax), u(x, t) minimisant une fonctionnelle F(u, t, x). L'approche morphodynamique appliquée à Ft, x(u) permet alors d'étudier la dynamique des discontinuités de u ainsi que leurs propriétés de stabilité. En particulier, les points cusp de Ft, x(u) sont les points de formation des ondes de choc.

Problèmes variationnels

L'approche morphodynamique repose en grande partie sur la théorie des singularités sous-jacente aux problèmes variationnels. À ce titre, elle est bien universelle. En théorie hamiltonienne, lorsque l'hypothèse classique de convexité (qui est l'hypothèse essentielle de régularité dans la transformation de Legendre faisant passer du formalisme lagrangien au formalisme hamiltonien) n'est plus valable, les équations de Hamilton deviennent des équations contraintes et on doit faire appel aux techniques des perturbations singulières. Si on veut minimiser une fonctionnelle :

on peut ramener, on le sait, ce problème de calcul des variations à un problème hamiltonien par une transformation de Legendre. On obtient :

où l'hamiltonien H est donné par : H(q, p) = minv {< p, v > + f(q, v)} et où u est la valeur minimale de v qui donne H. Comme p = − f′v(q, v), on a l'équation d'Euleur :

Si H(q, p, v) = < p, v > + f(q, v), on voit que le problème dépend essentiellement de la méthode générale appliquée à H avec u comme variable interne. Minimiser H en v pour p et q donnés, c'est considérer dans l'espace (v, f) les points de tangence du graphe de f avec la direction de plan − < p, v >. On va ainsi retrouver toutes les possibilités de CE (catastrophes de bifurcation lorsqu'il y a des minima dégénérés et catastrophes de conflit lorsqu'il y a plusieurs minima en compétition). L'ensemble catastrophique stratifié K dans l'espace de phases (q, p) [qui joue ici le rôle d'espace de contrôle] impose des comportements singuliers aux trajectoires de H. Par exemple, à la traversée de la strate de Maxwell K1 de K, les trajectoires se « réfractent ». Ivar Ekeland a donné des modèles locaux au voisinage des strates plus singulières de K, en particulier les strates de cusps et de points triples, ainsi qu'au voisinage d'un point de tangence d'une trajectoire et de K1.

Hydrodynamique

On doit citer également l'analyse des bifurcations en hydrodynamique. Un bon exemple en est donné par le « six roll mill » analysé par Michael Berry. On considère le système dynamique constitué par le champ u(x, y) des vitesses d'un fluide planaire entraîné par six rouleaux disposés en hexagone. Si on suppose le fluide incompressible et son domaine simplement connexe, il existe une fonction Φ telle que :

(équations de Hamilton) et dont les lignes de niveau sont les trajectoires du champ u. Dans la situation parfaitement symétrique (égalité des vitesses des rouleaux), si l'écoulement est irrotationnel (i.e. si ▵ Φ = 0), alors on doit avoir Φ ∼ x3 − 3 xy2. En variant les vitesses et en brisant la symétrie, on peut alors déployer cet ombilic elliptique dans l'espace des paramètres W et, pour chaque w ∈ W, observer le champ stabilisé uw ainsi que les transformations qualitatives qu'il subit à la traversée de l'ensemble catastrophique K.

Dynamique qualitative et TCG

Cela conduit à la TC généralisée où l'on déploie dans les espaces externes W non plus des singularités de potentiels, mais des instabilités de systèmes dynamiques généraux. Ce modèle, dont nous avons évoqué l'extrême complexité mathématique, possède évidemment des applications innombrables dont il est exclu de faire ici le bilan. En effet, il inclut toutes les bifurcations de systèmes dynamiques et donc, par exemple, toutes les dites « structures dissipatives » : phénomène de Bénard, écoulements de Taylor et de Couette en hydrodynamique, réactions chimiques oscillantes (i.e. structurées temporellement) et présentant des ondes (i.e. structurées spatialement), etc. Mais il inclut également les travaux profonds et extensifs effectués sur la turbulence à partir de l'hypothèse de Ruelle-Takens. On commence à bien connaître la structure « chaotique » des « attracteurs étranges » que peuvent présenter génériquement les systèmes dynamiques généraux, et on peut les utiliser comme modèles de la turbulence. Il s'agit là d'un domaine hautement technique. Pierre Bergé, Yves Pomeau et Christian Vidal en ont publié une excellente présentation : L'Ordre dans le chaos.

Toutes ces applications exemplifient pleinement et profondément un certain nombre d'idées forces.

  • Le rapport entre ruptures spontanées de symétrie et instabilités dynamiques. Il relève du rapport, co-extensif à toute la physique, entre géométrie et énergétique.
  • Le rapport entre singularités et information. Les singularités « créent » le phénomène par brisures de symétries et ruptures d'homogénéité. C'est à ce titre qu'elles sont intrinsèquement significatives.
  • Le fait que l'apparaître du phénomène est bien un processus naturel de phénoménalisation. C'est même un cas typique de processus irréversible.
  • Le fait que, pour qu'il y ait forme (i.e. structuration qualitative et morphologique), il faut des systèmes à (au moins) deux niveaux de réalité. En ce qui concerne les causes matérielles et efficientes, le niveau supérieur est bien causalement réductible au niveau inférieur (justesse du réductionnisme). Mais le niveau émergent supérieur possède néanmoins une organisation et une causalité structurales propres et autonomes (insuffisance du réductionnisme).

Ontologie qualitative et physique du sens

Les remarques qui précèdent indiquent qu'il est légitime de penser qu'on dispose à l'heure actuelle d'éléments de phénophysique aussi bien sur le plan technique que sur le plan épistémologique. Sur cette base, il est justifié de reprendre de fond en comble le problème phénoménologique et ontologique de la forme. Ce programme de recherche dépasse la physico-chimie et la thermodynamique en tant que telles, même dans ce qu'elles ont de plus nouveau. En effet, il consiste à mettre ces nouveautés mêmes au service des sciences biologiques et humaines de façon à conférer un contenu physico-mathématique précis aux concepts fondamentaux – aux catégories régionales – d'(auto)-organisation et de structure.

Morphogenèse biologique et structuralisme

Le problème de la forme est évidemment particulièrement critique en biologie. C'est même l'écart apparemment irréductible entre la physique classique et les énigmes de l'embryogenèse qui ont conduit nombre d'éminents biologistes du xixe siècle au vitalisme spéculatif. Il est donc nécessaire de faire quelques brèves remarques épistémologiques à ce sujet.

Actuellement, on considère que le néo-darwinisme – c'est-à-dire la synthèse de la théorie darwinienne de l'évolution et de la génétique moléculaire – fournit un cadre approprié pour la pensée de la forme en biologie. Le code génétique code pour la structure primaire des protéines, et, à partir de là, des phénomènes physico-chimiques et thermodynamiques d'auto-assemblage supramoléculaire et de cinétique métabolique conduisent aux divers composants (ribosomes, cellules, tissus, etc.) et aux subtiles et complexes propriétés structurales et fonctionnelles de l'organisme. Mais il faut bien voir que de tels phénomènes sont prototypiques de ceux qu'étudient les approches morphodynamiques, et que donc, sans un usage massif de ces dernières, il est impossible de comprendre correctement l'expression phénotypique (macroscopique, morphologique et non pas microscopique, physico-chimique) du génotype. Par exemple, dans une série de travaux remarquables, Yves Bouligand a montré que de nombreuses textures biologiques possédaient les mêmes symétries que les cristaux liquides. Certaines « phases » biologiques sont formellement des phases mésomorphes. On y retrouve donc la même topologie des défauts. Ces défauts – qui sont des brisures locales de symétrie – jouent sans doute un rôle capital dans les processus de morphogenèse. Le réductionnisme de la biologie moléculaire doit donc naturellement se compléter d'un structuralisme morphologique approprié.

Ce point a été bien vu par les biologistes B. Goodwin et G. Webster à la suite du grand embryologiste Waddington. Le structuralisme s'oppose à l'empirisme historiciste néo-darwinien non pas au niveau des faits, mais comme un point de vue rationaliste selon lequel ce sont des concepts a priori (des catégories et des principes) qui commandent l'explication théorique des données empiriques. Le problème central est de savoir quel est le type de catégorialité dont il faut disposer pour faire accéder le concept de forme à l'intelligibilité. Or le paradigme néo-darwinien est un système conceptuel dont l'apparente « évidence » rend précisément inintelligibles les phénomènes morphologiques. Il ne peut que les attribuer à un hasard évolutif en niant toute nécessité dans l'ordre des formes, toutes « lois » de la forme.

Cela est essentiellement dû au fait que, dans ce paradigme, on identifie subrepticement le concept de contrôle à la catégorie de cause. Le génome contrôle la forme et le développement. Son contrôle permet donc de maîtriser ses effets. Mais cela ne signifie pas pour autant qu'il n'existe pas de contraintes autonomes et spécifiques auxquelles doivent satisfaire les formes. En faisant équivaloir le contrôle génétique à une cause déterminante, on postule sans plus d'enquête qu'il n'y a rien à expliquer du côté de ce qui est contrôlé. Conception historiciste et dualiste, le néo-darwinisme postule l'existence d'une instance organisatrice de la matière. C'est un réductionnisme matérialiste qui admet le primat du fonctionnel, réduit la connexion structurale et l'organisation positionnelle des parties à une simple contiguïté spatiale, et subordonne la « finalité interne » à la « finalité externe », c'est-à-dire à l'adaptation et à la sélection. Pour lui, la structure se réduit à l'hérédité. Elle est donnée historiquement, et sa seule nécessité est celle de son évolution. Elle n'est donc que l'artefact de son contrôle, l'expression épigénétique de son programme génétique.

Le rationalisme structural souligne dans ce point de vue la difficulté qu'il y a à faire de l'histoire non seulement la cause de l'évolution, mais également celle de la stabilité et de l'invariance des espèces. Pour lui, l'organisme n'est pas seulement un système physico-chimique complexe génétiquement contrôlé, mais aussi une structure, c'est-à-dire une totalité organisée par un système de relations internes satisfaisant à des « lois » formelles. Son hypothèse est que l'expression du génotype par le phénotype demeure incompréhensible tant qu'on n'introduit pas une information positionnelle contrôlant la différenciation cellulaire. Il y aurait dans les êtres organisés une efficacité de la position, la position sélectionnant certains régimes métaboliques en déclenchant certains gènes. Et c'est la compréhension d'une telle information positionnelle qui constitue le problème théorique central. Les caractères principaux des structures organisationnelles sont : la genèse dynamique, l'autorégulation et la stabilité structurelle ; l'équipotentialité, à savoir le fait que les structures ne se réduisent pas à des interactions de composants mais incluent une détermination réciproque de places, de valeurs positionnelles ; l'équifinalité et l'homéorhèse (l'épigénotype chez Waddington), à savoir le fait que le développement est lui-même structurellement stable comme processus, son état final étant dans une large mesure indépendant de son état initial ; la clôture des structures élémentaires et l'existence de contraintes, de « lois » de la forme ; la « générativité » des formes, l'ouverture de l'ensemble clos des structures élémentaires vers la complexité.

C'est pour de telles raisons que René Thom n'a pas hésité à la fin des années 1960 à proposer une approche proprement morphodynamique et structurale des processus de morphogenèse biologique. Cela a suscité une violente controverse car, ce faisant, il a réactivé de nombreux thèmes tabous du vitalisme. Mais il faut bien voir que son néo-vitalisme est géométrique et méthodologique, et non plus spéculatif et métaphysique. Le défi est d'arriver à intégrer les mécanismes métaboliques cellulaires locaux en un tableau cohérent de la dynamique globale de l'organisme. Il est d'arriver à traduire en contraintes pour une générativité des formes les principes a priori de localité (la structure comme système de connexions spatiales) et de finalité (le contrôle des corrélations par la synergie fonctionnelle globale). Dans le schématisme morphodynamique, l'a priori de localité se trouve traduit par la contrainte de stabilité structurelle impliquant la généricité des bifurcations des régimes locaux (des « transitions de phases » métaboliques) et l'a priori de finalité par l'attribution d'une signification fonctionnelle à la différenciation cellulaire, autrement dit par une interprétation fonctionnelle de la topologie des attracteurs des dynamiques métaboliques locales. Ce dernier principe semble faire problème. Il devient pourtant assez naturel si l'on remarque qu'il est impossible, pour des raisons de principe, d'accéder en biochimie à des descriptions fondamentales explicites et exactes, et cela pour deux raisons : parce que les systèmes différentiels de la cinétique chimique métabolique sont des systèmes non linéaires énormes présentant certainement tous les subtils phénomènes de complexité et de chaos déterministe que présentent déjà les systèmes non linéaires simples (attracteurs étranges, sensitivité aux conditions initiales, ensembles de bifurcation non stratifiés, etc.) ; et parce que la catalyse enzymatique dépend de la configuration tertiaire des protéines.

Cette impossibilité impose d'en revenir à une description structurale du métabolisme, par exemple, comme l'admettent tous les biologistes, en termes de « cybernétique » et de théorie des systèmes. Mais on rencontre là un obstacle épistémologique incontournable. Car on ne saurait se borner à postuler que, par une sorte d'harmonie préétablie, la matière vivante est toute prête à « incarner » une cybernétique formelle. Au contraire, tout le problème est d'arriver à comprendre comment peuvent « émerger » du substrat biochimique et de ses dynamiques métaboliques locales des structures qui, une fois stabilisées dans leur activité fonctionnelle, deviennent susceptibles de la description schématique qu'est la modélisation systémique. Thom a toujours été catégorique sur ce point : « L'approche purement technologique de la cybernétique laisse intact [...] le mystère de la genèse de l'être vivant et de son développement au stade embryonnaire et juvénile. » Ce genre de théories « soulève de très graves difficultés dès qu'on veut passer du schématisme abstrait à une réalisation matérielle dans l'espace-temps » (Thom, p. 178 [1980]). Il n'est valable « que pour des mécanismes partiels, tout montés, et en pleine activité fonctionnelle ». « [Il] ne saurait en aucun cas s'appliquer à la structure globale des êtres vivants, à leur épigenèse et à leur maturation physiologique » (Thom, p. 207 [1972]). Il faut donc arriver à engendrer les cinématiques formelles des descriptions systémiques à partir des dynamiques métaboliques sous-jacentes et, pour cela, comprendre de façon générale comment des descriptions structurales et systémiques peuvent être associées à des bifurcations de systèmes dynamiques, à des singularités de processus, à des phénomènes critiques.

Le « vitalisme » géométrique et méthodologique n'a donc rien d'un holisme métaphysique. Son propos est de ramener à une racine morphologique commune le biochimique et le cybernétique. « Écartelée entre ces deux modèles, le modèle atomique ou réductionniste d'un côté, le modèle cybernétique de l'autre, tous deux visiblement insuffisants, la biologie théorique pourra-t-elle sortir de l'impasse ? Le seul espoir d'en sortir est de reconnaître qu'il n'y a pas de hiatus entre les deux types de systèmes, et qu'on peut les plonger dans une famille continue qui les relie tous les deux. Cela obligera à renoncer – au moins provisoirement – à ce qui fait l'attrait des deux modèles : l'aspect quantitatif et calculable du premier, l'aspect diagramme-cybernétique du second. Il faut revenir à cela seul qui reste commun aux deux types de systèmes, c'est-à-dire leur extension spatiale, leur morphologie » (Thom, p. 145 [1980]). Il faut pouvoir interpréter en termes de théorie qualitative des systèmes dynamiques et de leurs bifurcations les concepts fondamentaux de la théorie des systèmes. L'enjeu est clair, et clairement fondamental. Il s'agit de dépasser le conflit entre le physicalisme (primat de la physico-chimie des substrats) et le fonctionnalisme structural (primat des schèmes abstraits d'organisation). L'idée directrice en est que cela est possible à partir de la mathématisation, en termes de dynamique générale, du niveau morphologique conçu à la fois comme tiers terme et comme niveau autonome. Des phénomènes comme ceux d'induction embryologique ou de régulation, des problèmes comme ceux des rapports entre structure et fonction ou de la classification des plans d'organisation, des concepts comme ceux de champ morphogénétique ou d'épigénotype exigent une conception à la fois biochimique et topologique du formalisme structural qui régit les mécanismes de l'embryogenèse. C'est l'exigence d'un tel « mixte » de biochimie et de topologie qui explique que le prolongement du rationalisme physique à la biologie ne puisse pas être direct et passe par la schématisation morphodynamique des catégories structuralistes.

Morphodynamique cognitive et sémiophysique

À partir du moment où l'on dispose de modèles morphodynamiques appropriés pour une phénophysique, on peut, sur des bases originales et radicalement nouvelles, reposer le problème d'une ontologie qualitative. On peut défendre une conception partiellement réaliste de la perception et du langage en évitant toutes les apories exposées plus haut.

Relativement à un tel programme de recherche, le néo-aristotélisme de René Thom paraît en droit justifié. L'idée centrale en est que les descriptions qualitatives effectuées en langue naturelle (cf. l'éidétique descriptive husserlienne évoquée plus haut) doivent être fondées dans l'objectivité des phénomènes. Dès l'envoi de Stabilité structurelle et morphogenèse, Thom affirme par exemple : « Un des problèmes centraux posé à l'esprit humain est le problème de la succession des formes [naissance, développement et destruction, stabilité et transformation]. Quelle que soit la nature ultime de la réalité, il est indéniable que notre univers n'est pas un chaos ; nous y discernons [perception] des êtres, des objets, des choses, [des processus] que nous désignons par des mots [langage] » (Thom, p. 17 [1972]). La stabilité et la transformation des formes sont les conditions de possibilité de la structuration et de l'organisation du monde par le complexe perception-langage. Comprendre la dynamique des formes, c'est donc comprendre, du côté de l'objet, la valeur objective des descriptions linguistiques, situées apparemment du côté du sujet. De même, dans Formalisme et scientificité, Thom remarque que « dès qu'on aborde des objets de la réalité macroscopique associés aux noms communs de la langue naturelle », on doit avoir recours à des classes d'équivalence conceptuelles permettant « une systématisation considérable du réel observé ». Avec leur aide, « on pourra souvent constituer une combinatoire spatiale qui présente tous les aspects d'une syntaxe. Ces processus locaux pourront souvent être décrits linguistiquement par des propositions acceptables grammaticalement et sémantiquement » (Thom, p. 175 [1978]). Comme il est dit dans Morphologie du sémiotique : « On peut penser que c'est par une analyse fondamentalement introspective des contraintes sémiotiques de l'organisation perceptive du réel qu'on pourra tout à la fois sauver l'intelligibilité du monde, et accéder à un “réalisme” qui demeure, malgré tout, le but ultime de la science » (Thom, p. 309 [1981]).

Il est impossible d'évacuer les descriptions linguistiques qualitatives dans les sciences. Fondées dans les choses mêmes, elles interviennent à tous les niveaux d'observation et conditionnent l'intelligibilité des phénomènes. « Il est clair qu'on ne saurait bannir du savoir scientifique ces “explications” tirées du langage usuel ; et cela d'autant moins que ces formulations langagières [...] sont l'une des racines les plus sûres du sentiment de la réalité que peut ressentir l'observateur en face d'un phénomène. » D'ailleurs, « de nombreuses sciences (même parmi les sciences dites “exactes”) n'admettent aucune modélisation quantitative, aucune loi précise du style des lois physiques. Dans ces sciences, les phénomènes sont décrits en langage ordinaire, et les évolutions temporelles nécessaires y sont décrites qualitativement en langue usuelle » (Thom [1983 (b)]). Il faut donc bien, comme nous l'avons affirmé, distinguer dans un phénomène, d'un côté, les discontinuités observables à travers lesquelles il se manifeste dans son apparaître et, d'un autre côté, son objectivation physique. Thom est clair sur ce point. Citons encore Formalisme et scientificité : « Les phénomènes physiques sont ceux qui, bien que caractérisés par des discontinuités observables [le phénomène comme apparaître], n'en admettent pas moins pour groupe de symétrie sous-jacent l'un des grands groupes d'automorphismes de l'espace-temps [le phénomène comme objet d'expérience]. » Certes, ils brisent la symétrie totale de l'espace-temps mais cette brisure est formalisable par l'emploi de concepts de nature non spatiale (comme la masse ou la charge électrique) « dont le comportement spatial fait l'objet précisément des lois physiques ». Thom va très loin dans cette critique phénoménologique de la physique puisque, dans sa John von Neumann Lecture, il va jusqu'à dire de façon assez provocante que la physique « ne décrit pas les phénomènes eux-mêmes ». C'est que, pour en être un, un phénomène doit apparaître et sa manifestation représente un cas par excellence de processus irréversible. Réversibles, les lois physiques ne décrivent donc pas une phénoménologie à proprement parler, mais plutôt, « si l'on peut dire, comment le même phénomène local irréversible peut être perçu par différents observateurs ». « De façon plus abrupte, j'oserai dire que la réversibilité des lois physiques n'est probablement rien de plus que l'expression d'une contrainte sociologique, à savoir celle de la communication entre observateurs. »

Mais comment accéder à une doctrine réaliste et à une conception ontologique « des contraintes sémiotiques de l'organisation perceptive du réel » ? Tout simplement, insistons-y, en identifiant manifestation et morphologie. « L'analyse proprement géométrico-topologique [...] permet d'associer à tout processus spatio-temporel certains invariants de nature combinatoire [...] dont on peut raisonnablement penser qu'ils jouent un rôle essentiel, de par leur caractère fondamental, dans la description verbale du processus. Telle est l'origine, selon nous, du schématisme originel qui régit l'organisation linguistique de notre vision du monde » (Thom, p. 24 [1980 (b)]). « Ne peut-on admettre [...] que les facteurs d'invariance phénoménologique qui créent chez l'observateur le sentiment de la signification proviennent de propriétés réelles des objets du monde extérieur, et manifestent la présence objective d'entités formelles liées à ces objets, et dont on dira qu'elles sont “porteuses de signification” (Thom, p. 170 [1980]). D'où le principe : « Le message porteur d'une signification autonome hérite de la structure de la catastrophe extérieure qu'il prétend signifier » (Thom, p. 329 [1972]).

Les facteurs d'invariance phénoménologique, les infrastructures catastrophiques des phénomènes, constituent ainsi un tiers terme – jusqu'ici absolument manquant – entre description et explication, entre apparaître et objectivité. Étant donné la corrélation entre la manifestation et le sens, la synthèse entre phénoménologie et objectivité permet de fonder les structures du sens dans l'objectivité phénoménologique de la forme.

On trouvera dans les ouvrages de René Thom et de nous-même de nombreuses analyses techniques relevant de l'ontologie qualitative. Bornons-nous à citer quelques exemples.

  • La constitution d'une théorie écologique de la perception visuelle. En ce qui concerne la forme des objets, un point de vue à la Gibson-Marr se trouve étayé d'abord par l'analyse et par la résolution du « problème inverse » de la vision (reconstruction des objets à partir de leurs contours apparents) dans le cadre de la théorie des singularités d'applications différentiables (cf. supra). Il se trouve étayé ensuite par la possibilité qu'a la lumière de véhiculer des singularités génératrices de discontinuités perceptivement saillantes. En ce qui concerne le débat sur l'écologisme, il faut bien voir que les discontinuités qualitatives constituent, entre le physique et les représentations symboliques des sujets cognitifs, un intermédiaire formel intrinsèquement significatif. Elles sont perceptivement primitives : « L'expérience première, en toute réception des phénomènes, est la discontinuité » (Thom, p. 17 [1988]).
  • Une théorie de la catégorisation des espaces perceptifs et sémantiques. On peut, par exemple, modéliser adéquatement les paradigmes phonologiques des langues et les phénomènes dits de perception catégorielle en phonétique. La catégorisation des espaces sémantiques (genres / espèces) peut également se modéliser. Une fois qu'on dispose d'une théorie des formes visuelles et d'une théorie de la catégorisation des espaces sémantiques, on peut développer une théorie morphodynamique (et non plus logico-sémantique) de la prédication.
  • L'approche morphodynamique de la dialectique genre / espèce conduit à un réalisme des genres et à une théorie dynamique non seulement de la catégorisation mais également de la prototypicalité (cf. supra).
  • Enfin, ce ce qui concerne les rapports entre perception (visuelle) et langage, on peut développer une approche morphodynamique de la syntaxe structurale. On part des théories actantielles de la syntaxe (par exemple des grammaires casuelles) et on modélise une hypothèse fondamentale, à savoir l'hypothèse dite localiste, selon laquelle les interactions spatio-temporelles élémentaires entre actants spatio-temporels jouent un rôle de schèmes archétypes pour les structures actantielles en général. On peut, à partir de là, donner une version topologico-dynamique sophistiquée de la plupart des éléments de la « révolution » cognitive en linguistique (Fillmore, Jackendoff, Langacker, Talmy...).

Tous ces travaux sont profondément affines aux grands courants du cognitivisme contemporain. L'affinité déborde même le cognitivisme classique. Donnons deux exemples. En ce qui concerne les modèles cognitifs de la performance, le connexionnisme a retrouvé une idée déjà ancienne de Thom et de Zeeman, à savoir que les entités possédant une sémantique sont au niveau « macro » des attracteurs de dynamiques « micro » sous-jacentes. Ces dynamiques activent des configurations globales et complexes d'unités locales élémentaires interconnectées entre elles et fonctionnant en parallèle. Dans cette conception – dite aussi « sub-symbolique » –, la sémantique devient une propriété holistique émergente : les structures symboliques, discrètes, sérielles, logico-combinatoires, du niveau computationnel « macro » (celui de la compétence avec ses symboles, ses règles, ses inférences, etc.) apparaissent comme des structures qualitatives, stables et invariantes, émergeant du sub-symbolique à travers un processus coopératif d'agrégation. L'analogie avec les phénomènes critiques de transition de phase (cf. supra) devient principielle. D'autre part, ce qu'on appelle présentement la « physique naïve » et la « physique qualitative » ne fait que développer une approche informatique du niveau de réalité morphologique et phénophysique.

On peut donc, à bon droit, prolonger la phénophysique en une authentique morphodynamique cognitive qui aborde en termes morphodynamiques ce qui, jusqu'ici, était abordé en termes de sémantique ou de sémiolinguistique. Ce n'est donc plus l'objectivité logique (symbolique-formelle) qui détient la clef de la structuration qualitative du monde (comme on le croit depuis la fin du xixe siècle, de Frege, Russell et Husserl à Wittgenstein, à la philosophie analytique et au cognitivisme symbolique classique) mais un naturalisme élargi de la physique à une morphodynamique générale. C'est pour insister sur l'authentique « coupure épistémologique » que représente une telle naturalisation du sens que nous avons proposé le néologisme de physique du sens (repris par René Thom sous le nom de « sémiophysique »).

La physique du sens et le cognitivisme développent en détails (conceptuellement et mathématiquement) des théories parallèles pour les mêmes phénomènes (cf. supra). Le cognitivisme part du sujet. Il adopte un point de vue computationnel. Son substrat matériel est le système nerveux. Et il étudie comment des structures symboliques et formelles en émergent qui, traitant calculatoirement les informations physiques, transforment le monde physique en monde de l'expérience phénoménologique. La physique du sens part du monde. Elle adopte un point de vue morphodynamique. Son substrat matériel est la matière. Et elle étudie comment des structures morphologiques et qualitatives en émergent qui, explicitées par des représentations mentales, permettent au sujet cognitif d'expérimenter le monde phénoménologique. Les deux se rejoignent sur les formes-phénomènes. Un des problèmes théoriques majeurs qui reste actuellement à résoudre est celui de la dualité entre computationnel et morphodynamique. Ce problème est mathématique et devrait ouvrir à une compréhension de rapports inédits entre algorithmique symbolique et géométrie différentielle.

La scission entre une physique de la matière et une sémantique de la forme se trouve en passe d'être présentement abolie. La forme qui, dans son rapport intrinsèque au sens, avait été forclose par une mécanique des forces fait retour. C'est dire que les sciences de la nature sont en train de se réapproprier leur dehors. Et toute une conception du monde s'en trouve remise en question. À travers le cognitivisme, l'intelligence artificielle, la physique naïve et qualitative, les sciences psychologiques dépassent leur réductionnisme et les sciences sémio-linguistiques leur formalisme solipsiste pour aller à la rencontre du monde. À travers la phénophysique et la morphodynamique, les sciences physiques dépassent également leur réductionnisme et leur objectivisme matérialiste pour aller à la rencontre du sujet. Par ces dépassements complémentaires, ces deux types de sciences se retrouvent sur l'interface phénoménologique des formes-phénomènes, formes doublement émergentes, côté sujet et côté monde.

L'impossibilité de comprendre ce fait a fait « tomber » l'un hors de l'autre le sujet et le monde. Devenu sans apparaître et sans forme, le monde physique a été conçu comme une objectivité ne possédant pas en elle-même la possibilité de sa phénoménalisation. Devenu autarcique et constituant, le sujet a, dès lors, dû assumer démiurgiquement la production d'un monde phénoménal auquel faisait défaut l'instance productrice d'une natura naturans. Actuellement, le sujet revient à la natura naturans. Mais ce réalisme écologique bien fondé – ce « tournant morphologique » de la pensée de l'être et du sens de l'être – n'est ni un naturalisme ni, encore moins, un nouveau réductionnisme physicaliste simplement élargi. En effet, la morphodynamique, qu'elle soit phénophysique ou cognitive, est une science théorique mathématisée faisant l'objet d'une constitution transcendantale propre. À ce titre, elle concerne bien un nouveau niveau de réalité.

La signification historique de tout cela est que la « part maudite » aristotélicienne (qui hantait, nous l'avons vu, Leibniz, Goethe, Peirce, Brentano, Husserl et tant d'autres penseurs de génie) se trouve enfin intégrée aux sciences post-galiléennes. Elle s'y trouve intégrée non pas à la suite d'un coup de force spéculatif, mais bien à la suite d'importantes conquêtes mathématiques, physiques, techniques et conceptuelles. C'est un progrès scientifique qui débouche sur une nouvelle métaphysique réaliste. Ce qui montre d'ailleurs que, contrairement à l'affirmation de Heidegger « la science ne pense pas », la science pense. Cela fait longtemps qu'elle ne se borne plus à mathématiser les automatismes d'une nature inintelligente. Elle commence à comprendre une nature « intelligente », c'est-à-dire une nature capable d'engendrer des formes et un devenir des formes. Entre physique et sémiotique – entre matière et sens – l'analyse morphodynamique du « flux héraclitéen » des formes naturelles y conjugue désormais l'être et le devenir.

— Jean PETITOT

Bibliographie

D. Andler, dir., « Une nouvelle science de l'esprit », in Le Débat, no 47, 1987

V. I Arnold, Méthodes mathématiques de la mécanique classique, Mir, Moscou, 1976

V. I. Arnold, A. Varchenko & S. Goussein-Zade, Singularités des applications différentiables, ibid., 1986

P. Berge, Y. Pomeau & C. Vidal, L'Ordre dans le chaos, Hermann, Paris, 1984

M. V. Berry & C. Upstill, « Catastrophe Optics : Morphologies of Caustics and their Diffraction Patterns », E. Wolf, in Progress in Optics, pp. 258-345, North-Holland, 1980

H. Blum, « Biological Shape and Visual Science », in Journal of Theoretical Biology, no 38, pp. 205-287, 1973

Y. Bouligand dir., La Morphogenèse : de la biologie aux mathématiques, Maloine, Paris, 1980

Y. Bouligand, « Brisures de symétrie et morphogenèse biologique », in La Vie des sciences, no 2,2, pp. 121-140, C.R.A.S. 1985

E. Cassirer, Les Systèmes post-kantiens (trad. Collège de philosophie), Presses univ. de Lille, 1983

R. Chambon, Le Monde comme perception et réalité, Vrin, Paris, 1974

O. Chedin, Sur l'esthétique de Kant et la théorie critique de la représentation, ibid., 1982

J. De Kleer & J. Seely brown, « A Qualitative Physics Based on Confluences », in Artificial Intelligence, no 24, pp. 7-83, 1984

C. Domb & M. S. Green dir., Phase Transitions and Critical Phenomena, Academic Press, New York, 1972-1985

H. Dreyfus, Husserl, Intentionality and Cognitive Science, M.I.T. Press, Cambridge, 1982

H. Driesch, The Science and Philosophy of the Organism, A.M.S. Press, New York, 1908

W. D. Ellis, A Source Book of Gestalt Psychology, New York, 1939

J. A. Fodor & Z. W. Pylyshyn, « How direct is visual perception ? Some reflections on Gibson's “Ecological Approach” », in Cognition, no 9, pp. 139-196, 1981

J. Gibson, The Ecological Approach to Visual Perception, Houghton Mifflin, Boston, 1976

F. Gil, « Aux confins de la forme : de l'identité du plan d'organisation biologique à l'attraction de soi par soi chez Geoffroy Saint-Hilaire », in Passé-Présent, no 4, 1986

J. W. von Goethe, La Métamorphose des plantes, 1780-1830 (trad. H. Bideau), Triades, Paris, 1975

M. Golubitsky & V. Guillemin, Stable Mappings and their Singularities, Springer, New York, Berlin, 1973

B. C. Goodwin & G. Webster, « The Origin of Species : a sructuralist approach », in Jour. Sociol. Biol. Struct., no 5, pp. 15-47, 1982

G. G. Granger, Pour la connaissance philosophique, éd. Odile Jacob, Paris, 1988

W. Guttinger & H. Eikemeier dir., Structural Stability in Physics, Springer, New York, Berlin, 1979

E. Husserl, Idées directrices pour une phénoménologie (trad. P. Ricœur), Gallimard, Paris, 1950 ; Recherches logiques, P.U.F., 1969-1974, Paris ; La Crise des sciences européennes et la phénoménologie transcendantale (trad. G. Granel), ibid, 1976

R. Jackendoff, Semantics and Cognition, M.I.T. Press, 1983 ; Conciousness and the Computational Mind, ibid., 1987

E. Kant, Premiers Principes métaphysiques de la science de la nature (trad. J. Gibelin), Vrin, Paris, 1971 ; Critique de la faculté de juger (trad. A. Philonenko), ibid., 1979 ; Critique de la raison pure (trad. A. J. L. Delamarre et F. Marty), coll. La Pléiade, Gallimard, Paris, 1980

J. J. Koenderink & A. J. van Doorn, « Dynamic Shape », in Biological Cybernetics, no 53, 6, pp. 383-396, 1986

J. Largeault, Philosophie de la nature, univ. de Paris-XII, 1984

M. Le Bellac, Des phénomènes critiques aux champs de jauge, Inter Éditions - Éditions du C.N.R.S., 1988

C. Lévi-Strauss, De près et de loin, éd. Odile Jacob, 1988

D. Marr, Vision, Freeman, San Francisco, 1982

M. Merleau-Ponty, Phénoménologie de la perception, Gallimard, 1976

P. Ouellet, « Une physique du sens », in Critique, no 481 482, pp. 577-597, 1987

J. Petitot, Les Catastrophes de la parole : de Roman Jakobson à René Thom, Maloine, Paris, 1985 ; Morphogenèse du sens, P.U.F., 1985 ; Epistémologie des phénomènes critiques, documents du C.A.M.S., École des hautes études en sciences sociales, Paris, 1986 ; « Hypothèse localiste, modèles morphodynamiques et théories cognitives », in Semiotica, 1989

J. Petitot dir., Logos et Théorie des catastrophes (colloque de Cerisy en l'honneur de R. Thom), éd. Patino, Genève, 1989

I. Prigogine, Physique, temps et devenir, Masson, Paris, 1980

Z. Pylyshyn, Computation and Cognition, M.I.T. Press, 1986

A. Robinet, Architectonique disjonctive, automates systémiques et idéalité transcendantale dans l'œuvre de G. W. Leibniz, Vrin, Paris, 1986

D. E. Rumelhart & J. L. Mc Clelland, Parallel Distributed Processing, M.I.T. Press., 1986

B. Smith dir., Foundations of Gestalttheory, Philosophia Verlag, Vienne, 1988

B. Smith & K. Mulligan dir., Parts and Moments. Studies in Logic and Formal Ontology, ibid., 1982

P. Smolensky, « On the Proper Treatment of Connectionnism », in The Behavioral and Brain Sciences, no 11, pp. 1-22, 1988

H. Spemann, Embryonic Development and Induction, Yale Univ. Press, New Haven, 1938

R. Thom, Stabilité structurelle et morphogenèse, Benjamin, New York, Ediscience, Paris, 1972 ; « Structural Stability, Catastrophe Theory and Applied Mathematics, The John von Neumann Lecture 1976 », in Siam Review, no 19, 2, pp. 189-201, 1977 ; « Formalisme et scientificité », in Les Études philosophiques, no 2, pp. 171–178, 1978 ; Modèles mathématiques de la morphogenèse, Christian Bourgois, Paris, 1980 ; « Prédication et grammaire universelle », in Fundamenta Scientiae, no 1, pp. 23-34, 1980 ; Morphogenèse du sémiotique, Semiotic Inquiry, no 1, 4, pp. 301-309, 1981 ; « Animal Psychism VS Human Psychism », in M. de Groslier dir., Glossogenetics, The Origin and Evolution of Language, no 3-14, Hartwood Academic Publ., Paris, 1983 ; « Dynamique globale et morphologie locale chez les êtres vivants », in H. Barreau dir., L'Explication dans les sciences de la vie, éd. du C.N.R.S., Paris, 1983 ; Classification des sciences et des techniques, Séminaire de philosophie et mathématiques, École normale supérieure, Paris, 1984 ; Esquisse d'une sémiophysique, InterÉditions, Paris, 1988

W. Thompson D'Arcy, On Growth and Form, Cambridge Univ. Press., 1952

G. Toulouse & P. Pfeuty, Introduction au groupe de renormalisation et à ses applications, Presses univ. de Grenoble, 1975

A. J. Winfree, The Geometry of Biological Time, Springer, New York, Berlin, 1980

C. Zeeman, Catastrophe Theory : Selected Papers 1972-1977, Massachusetts, Addison-Wesley, 1977.