Le destin des formalismes : à propos de la forme des plantes

Le destin des formalismes : à propos de la forme des plantes

Deuxième usage : l’analyse statistique et la morphométrie

L’analyse statistique et, plus spécifiquement, la morphométrie ou morphologie statistique proposent de « mesurer » et de comparer les formes du vivant ou, plus largement, ses caractères morphologiques, dans leur évolution et dans leur répartition. Ce qui doit nous surprendre à première vue est le remarquable essor de la morphométrie dans l’après-guerre. On peut voir à cela deux raisons majeures en rapport avec notre propos. D’une part, elle bénéficie des méthodes de mathématisation descriptive développées avant-guerre par Fisher et ses successeurs dans un contexte génétique puis agronomique et que nous avons partiellement rappelées. Surtout, elle profite des raffinements conceptuels apportés entre-temps par le statisticien M. S. Bartlett avec sa proposition d’une analyse multivariée (1947) 4 . D’autre part, elle bénéficie de la mise à disposition progressive des calculateurs numériques que lui sont les computers. Et nous allons ici nous interroger un peu plus avant pour comprendre cette étonnante pré-adaptation entre une mathématisation descriptive et une machine conçue au départ pour calculer de façon arithmétique. Dans un premier temps donc, un peu avant que les ordinateurs ne soient à disposition, c’est-à-dire à partir de la fin des années 1940, le développement systématique de l’analyse multivariée donne un nouveau souffle à cette approche dans la mesure où des outils conceptuels plus complexes peuvent arracher la taxonomie descriptive de sa dépendance aux choix subjectifs des caractères distinctifs entre genres, espèces et variétés 5 . Une telle analyse fondée sur la mesure des caractères morphologiques, et donc sur leur quantification, se présente directement à l’époque comme une prolongation mathématisée de l’anatomie comparée et de la paléontologiquantitative telles qu’elles existaient déjà dans les années 1920 et 1930 1 . Fisher lui-même, dans un article de 1936 2 , avait indiqué les possibles usages taxonomiques de son approche statistique de l’expérience. La morphométrie procède en effet à des caractérisations réputées plus objectives dans la mesure où elle tâche de quantifier les dénominations qualitatives : elle remplace, quand elle le peut, des distinctions qualitatives par des différenciations quantitatives ou, à tout le moins, par des différenciations ordonnées en des échelles factorielles. Dans tous les cas, il s’agit donc soit d’une énumération, soit d’une mesure. Dans ce cadre, au cours des années 1950, le support du calcul reste essentiellement arithmétique 3 . Cette recherche d’objectivité par la mesure et par la médiation, autant que possible, d’un instrument formel qui puisse neutraliser les projections subjectives de l’observateur était déjà le fait de la psychologie expérimentale du tournant du siècle. Mais c’est essentiellement le statisticien M. S. Bartlett du University College de Londres qui a travaillé au développement de l’analyse multivariée et à ses applications en morphométrie, notamment à la suite des travaux en analyse multifactorielle du psychologue américain C. Spearman 4 , mais aussi bien sûr à la suite des recherches en analyse statistique et biométrie de son collègue R. A. Fisher. Bartlett définit la statistique multivariée comme « l’étude de plusieurs variables en même temps dans le but d’augmenter soit l’efficacité de l’analyse statistique, soit la puissance de l’interprétation » 5 . Comme dans l’analyse statistique appliquée à l’agronomie, le but du développement de ces outils conceptuels en biologie a en fait essentiellement été d’augmenter le pouvoir de discrimination entre des groupes d’individus présentant tous une collection de propriétés métriques (ou métriquement exprimables) à des degrés variables. Venant donc au départ de la biométrie eugéniste anglaise, puis de la psychométrie, ces techniques ont été très vite utilisées dans le domaine du diagnostic médical 6 . Dans la morphométrie, en particulier, il y a bien le projet de représenter quantitativement les caractères des êtres vivants à commencer par leurs formes ou plutôt par leurs caractères morphologiques. Mais, là encore, l’objectif de cette application de l’analyse multivariée à la taxonomie n’est pas du tout de représenter un individu en tant que tel mais plutôt la distance entre les individus en vue de leur discrimination : ce sont les relations entre des caractères un à un homogènes qui sont mathématiquement traitables en des termes métriques mais pas l’hétérogénéité de l’individu à lui-même, de ses parties ou de ses formes entre elles, ou de ses parties avec son organisme entier. Comme en biométrie, l’approche est donc d’emblée relationnelle, métrique et apparemment purement descriptive. La morphogenèse de l’individu n’y est pas traitée en tant que telle. S’y ajoute cependant un but précis : phylogénétique. Avec ce but classificatoire, la morphométrie rencontre une autre tradition qui n’est plus seulement à visée descriptive mais qui cherche des représentations mathématiques en vue d’explications phylogénétiques. Il faut bien comprendre ici que ces représentations mathématiques de distances métriques entre des caractères diversement présents ne deviennent pas pour autant en elles-mêmes explicatives mais des chercheurs comme R. E. Blackith, du département de zoologie de l’Université de Melbourne, prétendent toutefois les faire directement servir à une interprétation théorique et explicative. Or, dans ce cadre-là, les avatars de la morphométrie dépendent bien sûr intégralement du grand débat amplement étudié par ailleurs 1 et qui oppose la génétique quantitative, avec son hypothèse d’une évolution graduelle, et la génétique mendélienne, avec sa théorie des mutations brusques et discontinues. Pour le morphométricien, les mathématiques sont essentiellement une technique de mesure. L’approche logique et classificatoire reste une métrique dégénérée aux yeux de l’axiomatique implicite du biométricien. Elle ne nous oriente de toute façon nullement vers une explication selon lui. Comme elle est essentiellement inféodée aux objectifs de la taxonomie et aux problématiques phylogénétiques, la morphométrie des années 1940 et 1950 sert encore comme un outil statistique dédié à une approche plutôt phylogénétique qu’ontogénétique. De plus, comme ce sont des relations entre des formes homogènes qui sont de fait objectivées dans la mathématisation statistique et non la forme des êtres vivants, en eux-mêmes, pris séparément dans leur histoire et chacun comme un tout, la morphométrie s’est développée très aux marges d’une autre approche morphologique quantitative et qui s’est au contraire prétendue d’emblée théorique et explicative. Ainsi, le deuxième usage de l’ordinateur qui se répand rapidement est bien évidemment celui de l’analyse de données. Car, on l’a compris, il s’agit là essentiellement de traitements de données numériques en très grand nombre. Dans ce cadre-là, puisqu’on a toujours affaire à des quantités discrètes de données, on peut comprendre que l’utilisation des calculateurs numériques n’y ait même pas été le plus souvent précédée par celle des calculateurs analogiques. Le caractère numérique du computer lui sied très bien. En revanche, il faut que les biométriciens et les morphométriciens s’adaptent très vite au calculateur numérique ; mais ils avaient déjà auparavant recours à des machines à calculer électromécaniques (arithmétiques) et les langages évolués facilitent la maîtrise de l’outil dès le début des années 1960. Notons, pour finir sur ce point, que l’intérêt des biologistes en ce domaine recoupe clairement celui des statisticiens de l’économie et des affaires qui avaient été auparavant à l’origine des travaux de Hollerith mais aussi de la naissance d’IBM 2 . Le transfert de formalisme ne semble pas poser de question dans la mesure où l’on reconnaît les statistiques comme appartenant à une mathématique de la surface, une mathématique descriptive et non fonctionnelle ou explicative. Le choix pour le calculateur numérique peut sembler donc évident à ce moment-là dans ce que Rashevsky appelait la « biologie quantitative » : les capacités de traitement et de stockage du calculateur numérique sont inappréciables en ce qu’elles soulagent des fastidieux et répétitifs calculs numériques. Dans l’ensemble, les langages évolués comme FORTRAN 3 et ALGOL permettent d’ailleurs d’implémenter utilement et convenablement les formules de l’analyse multivariée comme les tests statistiques, puisque les mathématiques algébriques et arithmétiques ainsi que quelques fonctions transcendantes y sont prises en compte grâce à des tabulations directement mises en mémoire dans le calculateur. 

Troisième usage : le traitement de données non numériques ou traitement d’informations

Le troisième usage du calculateur numérique dans les sciences de la vie est celui du traitement de données non numériques. R. S. Ledley donne comme premier exemple l’analyse de chaînes d’acides aminés par calculateur telle qu’elle est intervenue en biochimie des protéines 1 . Une protéine est en effet construite comme une chaîne séquentielle de diverses espèces d’acides aminés qu’il faut identifier puis situer sur la chaîne protéique relativement aux autres acides aminés, un peu comme des lettres dans un mot. Or, les seules expérimentations de chimie organique possibles sur cette protéine conduisent à divers types de ruptures intervenant à divers endroits de la chaîne. Ces expérimentations étant en grand nombre, les sous-produits de ces réactions sont très nombreux également, puisqu’ils sont des fragments eux-mêmes inanalysés. En codifiant chaque acide aminé par une lettre, on a la possibilité de laisser à l’ordinateur le loisir de synthétiser et de tester empiriquement, mais virtuellement, toutes les chaînes protéiques qui rendent possibles les quelques expérimentations de rupture accessibles et réellement faites. Il s’agit donc là d’une forme d’analyse logique par synthèse reconstitutive, formellement réaliste (non mathématiquement abstractive puisque chaque acide aminé est représenté univoquement par un caractère alphanumérique ‘A’ ou ‘B’) et hypothétique. C’est ici la possibilité de concaténer selon des règles logiques des données non numériques qui est mise en œuvre dans le calculateur. On conçoit bien que ce type de problème combinatoire, et non numérique en ce sens, s’apparente davantage à la simulation d’une activité que l’on pourrait dire « intelligente » car mettant en œuvre, face à des données faiblement formalisées, un procédé qui ne relève pas immédiatement du calcul déterministe mais de la procédure heuristique classique essai/erreur. Ledley donne comme deuxième exemple de traitement de données non numériques le cas du traitement d’image microphotographique, comme la microphotographie d’un chromosome, d’un axone ou de cellules sanguines 2 . Rappelons qu’à l’époque, la biologie cellulaire travaille très souvent à établir les karyogrammes des êtres vivants, cette caractérisation chromosomique ayant de nombreuses applications utiles : non seulement dans le diagnostic de certaines maladies mais aussi en amélioration des plantes dès lors qu’il s’agit par exemple de déterminer la ploïdie des espèces que l’on souhaite hybrider. Le calculateur numérique peut servir dans ce cas à la reconnaissance du type de chromosome en question et à la mesure précise de ses bras par exemple. Il a ainsi une fonction de reconnaissance qui ne s’appuie pas d’abord sur des techniques statistiques de tests mais plutôt sur des suivis complexes (et a priori non formulables analytiquement), et pas à pas, des contours d’objets en vue d’une reconnaissance de formes qui soit aussi une caractérisation numérique pour cet objet et pas seulement une discrimination par rapport à d’autres. L’image est pour cela d’abord convertie (scannée) en un tableau bidimensionnel de nombres entiers déterminés en fonction des tons de l’image au moyen d’un convertisseur analogique-numérique. Ce tableau est ensuite mémorisé. Pour reconnaître et caractériser automatiquement les contours des objets photographiés, ce tableau est systématiquement parcouru par ce que les chercheurs de la National Biomedical Research Foundation appellent un « cafard » [« bug »] 3 de telle sorte qu’il passe à la case voisine qui a le ton le plus proche de celle qu’il occupait précédemment. Cela dessine un parcours dans ce tableau bidimensionnel qui discerne et situe effectivement les formes photographiées. Les vecteurs qui relient les points de ce parcours dans le tableau peuvent ensuite être analysés entre eux par des procédés mathématiques élémentaires inspirés de l’analyse et de l’algèbre et praticables en FORTRAN (produits scalaires, projections…) : sont-ils parallèles ? Y a-t-il une rotation et, si oui, dans quel sens ?, etc. Ce calcul permet de discriminer des formes élémentaires : en U, en S, en ligne droite… Un certain ordre de concaténation de ces formes élémentaires correspond à la forme précise d’un chromosome (en X). Enfin, une fois reconnu et situé automatiquement, on peut dimensionner ce chromosome, c’est-à-dire le caractériser métriquement, si l’on connaît le taux de grossissement de l’image. À travers ce procédé dans lequel le calculateur conserve une image de l’objet étudié, il y a donc la possibilité de caractériser numériquement des compositions de courbures et de formes élémentaires qui ne pourraient l’être mathématiquement. Le manque de modèle mathématique simple et abréviatif pour la description des formes complexes est donc ici pallié par une analyse d’image « à vue » et pas à pas, c’est-à-dire élément d’image par élément d’image. Il n’y a donc pas de modèle mathématique quantifié et abréviatif qui soit sous-jacent au procédé de parcours. Il y a seulement des règles logiques ou heuristiques de parcours de données numériques. Ces règles logiques sont censées reprendre intuitivement les règles que le regard humain suit devant une forme nouvelle, devant une forme à laquelle il ne s’attend pas, et qu’il ne peut anticiper. C’est donc une approche purement empirique, beaucoup plus empirico-inductive qu’hypothéticodéductive, bien que, au final et malgré tout, il y ait des « modèles » de séquences de vecteurs qui permettent de reconnaître des types de formes élémentaires. Cela est dû au fait que l’on cherche finalement à pouvoir tenir quand même une sorte de discours sur ces séquences de formes élémentaires et qu’ainsi une re-connaissance s’opère bien au moins au niveau de la forme globale. Le calculateur numérique a ainsi le pouvoir de caractériser ce qui n’a pas encore de sens, c’est-à-dire pas de forme substantielle. Du moins permet-il de disjoindre l’étape de la caractérisation d’une forme de l’étape de sa reconnaissance. Et il établit ainsi une passerelle entre l’analyse d’image et le traitement purement syntaxique et structural (donc non sémantique) de signaux tel qu’il intervient dans la théorie de la communication de Shannon. 

Table des matières

AVANT-PROPOS
INTRODUCTION GENERALE
REMERCIEMENTS
PREMIERE EPOQUE : LE DERACINEMENT
INTRODUCTION : LES COMMENCEMENTS
Morphologie et phyllotaxie géométrique
La géométrie spirale : description précise mais sans explication ni application
La mathématisation des formes du vivant : une curiosité
La critique de toute idéalisation mathématique : les « hélices foliaires » de Plantefol
CHAPITRE 1 – LA « LOI MATHEMATIQUE » HYPOTHETIQUE DE R. A. FISHER
La signification de la mathématisation chez R. A. Fisher
Esprit étroit et information
Le rôle d’un infini hypothétique dans le modèle statistique
Le causalisme faible de Fisher
La modélisation de la croissance des plantes selon Fisher
Précision de l’indéterminisme : critique des premières formules mathématiques générales
CHAPITRE 2 – LA LOI D’ALLOMETRIE : DE LA MESURE ABSOLUE A LA MESURE RELATIVE .
Les « interprétations chimiques »
Les interprétations métaboliques : Bertalanffy (12).
Les « lois élémentaires » de la croissance
L’allométrie ou la « loi quantitative » de la « croissance relative »
Une loi d’abord empirique, puis physiologiquement interprétée et légitimée
Signification épistémologique du passage à l’allométrie
Prenant et Teissier : un physiologisme dialectique
Bilan : loi hypothétique et mesures relatives
CHAPITRE 3 – LA BIO-« MECANIQUE » DE D’ARCY THOMPSON (
Le développement des théorisations physicalistes de la morphogenèse
Les postulats de d’Arcy Thompson sur le « pouvoir » des mathématiques
Cause et analogie ne sont toutes deux que des « liens » entre les phénomènes
Combiner et généraliser : la symbolisation à double effet synthétique
Le « gnomon » au principe de la spirale logarithmique : la loi géométrique la plus simple
La forme des feuilles et la ramification
CHAPITRE 4 – LA BIO-« HYDRAULIQUE » DE CECIL D. MURRAY
La ramification vasculaire
Le principe du travail minimum en physiologie morphologique
« Modèle » inexpliqué ou « loi » fondée sur une « foi » en l’optimalité de la nature ?.
CHAPITRE 5 – LA « BIOPHYSIQUE » DE NICHOLAS RASHEVSKY
Le premier Rashevsky (11-19) et le projet de la « biophysique » : un réductionnisme
Forme et mécanisme de division de la cellule
Physicalisme unitaire et convergence avec le « positivisme logique » de Rudolf Carnap
La période des essais tous azimuts
De la mécanique de la cellule à la forme complexe des métazoaires
La proposition de « principes formels et généraux »
De deux à trois horizons de formalisation : insérer des principes intermédiaires
Application à la forme des animaux puis des plantes
Des résultats pas entièrement en cohérence avec l’objectif initial
CHAPITRE 6 – LA BIO–« PHYSIQUE D’INGENIEUR » DE DAVID L. COHN
Un prise de conscience venant de l’embryologie chimique9
L’optimisation du tout passe par l’optimisation des parties
CHAPITRE 7 – L’AXIOMATISATION DE LA BIOLOGIE PAR JOSEPH HENRY WOODGER
Le contexte philosophique
La morphologie : atomisée et logicisée
Carnap, Woodger et Rashevsky : convergence et bifurcation
La méthode axiomatique en biologie
Le cas de l’embryologie : augmenter la complexité sans recourir au vitalisme
Complexifier la « théorie des homologies » de d’Arcy Thompson
CONCLUSION : FORMALISATIONS DE LA MORPHOGENESE AVANT L’ORDINATEUR,
DERACINEMENT ET RESISTANCES
La biophysique unitaire et les biophysiques régionales
Bilan sur les théories et les modèles de la morphogenèse avant l’ordinateur
Statuts des divers formalismes avant l’ordinateur
Bilan général de la première époque
DEUXIEME EPOQUE : LA DISPERSION
INTRODUCTION : LA RECONNAISSANCE DE LA « METHODE DES MODELES »
CHAPITRE 8 – L’ORDINATEUR COMME CALCULATEUR NUMERIQUE : LE MODELE
MATHEMATIQUE DE TURING
Une nouvelle machine à calculer pour un modèle de morphogenè
Le modèle chimico-mathématique
L’influence de l’embryologie chimique
La modélisation mathématique et le rôle du calculateur numérique selon Turing
Réception de l’article de Turing en embryologie
CHAPITRE 9 – LA SIMULATION CONÇUE COMME COMPUTATION SPATIALISEE : REPLIQUER POUR CALCULER
Les automates auto-reproducteurs et la première simulation numérique sur l’ENIAC
Modéliser n’est plus abstraire des lois mais reproduire des règles
Une genèse logique sans morphogenèse chez von Neumann
La réduction des mathématiques à une visualisation combinatoire chez Ulam
Quand le calculateur numérique est … analogique, il simule !
Du stochasticisme à la spatialisation : le rôle des théorèmes sur les transformations linéaires
Spatialiser les formalismes en biologie : les « systèmes de réaction binaire »
Simulation spatialisée et déterministe de la croissance et de la ramification
Un modèle d’accrétion
Ramification à partir d’une « pousse »
Bilan sur les premières simulations : un travail de mathématiciens
CHAPITRE – LA SIMULATION CONÇUE COMME GENERATRICE DE FORME AU HASARD
Un « modèle probabiliste » de ramification
Le contexte technique du Lincoln Laboratory
Le Research Laboratory of Electronics et le « Groupe de Traitement de l’Information Cognitive » du MIT
La rencontre féconde avec l’analyse phonologique structurale
Un modèle discret des « traits de plume » pour la forme des lettres manuscrites
Simulation probabiliste de la croissance d’un tissu dissymétrique
Un second enjeu : estimer une formule inconnue d’analyse combinatoire
Un stochasticisme biologique
Bilan sur les premières simulations de la morphogenèse
CHAPITRE 11 – LE COMPUTER EN BIOLOGIE DANS LES ANNEES 19 : UN TOUR D’HORIZON
De la physique à la biologie
Débuts lents et sporadiques, mais volontarisme des National Institute of Health
Quatre différents usages du calculateur numérique en biologie
Premier usage : la résolution d’équations différentielles, d’équations de flux ou de modèles à compartiments
Deuxième usage : l’analyse statistique et la morphométrie
Troisième usage : le traitement de données non numériques ou traitement d’informations
Le quatrième usage : la simulation numérique représentative
Bilan : une évolution quantitative et une évolution qualitative dans les rapports de la biologie aux mathématiques
CHAPITRE 12 – LA « BIOTOPOLOGIE » DU SECOND RASHEVSKY
L’emprunt à la « théorie des graphes » : une topologie graphique
Fonction mathématique et fonction biologique : la « biotopologie » ensembliste
« Organisme primordial » et « propositions existentielles »
« Tranches » et « propriétés » du vivant : Woodger et le second Rashevsky
Une conséquence : l’oubli de la forme
CHAPITRE 13 – LA « BIOLOGIE RELATIONNELLE » DE ROBERT ROSEN
Des « propriétés » aux « composants » du système biologique : le système (M, R)
Le jugement du maître : un « modèle topologique »
L’intérêt d’une ambiguïté terminologique
Application de la « théorie des catégories » à une « théorie de la représentation » des systèmes biologiques
« Diagramme de blocs abstrait » et « forme canonique » du système équivalent
Confirmation par la théorie des « réseaux de neurones » et la « théorie des automates » : application de la théorie des catégories et fin
Reconnaissance tardive de la « modélisation mathématique » par la tradition de la biophysique théorique (19)234
Une autre preuve de l’érosion de la résistance : la nature transitoire des modèles mathématiques
CHAPITRE 14 – THERMODYNAMIQUE ET TOPOLOGIE DIFFERENTIELLE DES FORMES
Arbres fluviaux et arbres botaniques
« Entropie généralisée » et phyllotaxie
Reconnaissance de la dispersion des « modèles »
Une topologie de la morphogenèse en France : Thom et le modèle conçu comme paradigme du réel
Bilan sur la biophysique, la biologie mathématique et la phyllotaxie théoriques devant l’ordinateur
CHAPITRE 15 – LA DISPERSION PRAGMATIQUE ASSUMEE : L’ECOLE DE MODELISATION
FRANÇAISE ET LA MORPHOGENESE
De la génétique à l’agronomie
De la sélection génétique à la physiologie
Retour vers la génétique et la biométrie
La rencontre avec les modèles mathématiques de la biophysique : graphes et ramifications
Rashevsky et Legay
La biocybernétique, la systémique et ce qu’en retient Legay : tout est lié
Le groupe « Méthodologie » de la DGRST : une rencontre avec l’écologie
Une intervention de la philosophie française : l’accusation d’idéalisme
Informatique et Biosphère et la « Méthode des modèles »
Conséquence de cette épistémologie pour la simulation sur ordinateur
La ramification du gui : un modèle pour l’épistémologie des modèles
Bilan : la non existence du modèle unique
CONCLUSION : MULTIPLICATION ET DISPERSION DES FORMALISMES
TROISIEME EPOQUE : LA CONVERGENCE
INTRODUCTION – DE LA DIVERSITE DES CONVERGENCES A L’UNITE D’UNE METHODE
CHAPITRE 16 – SIMULATION PROBABILISTE DE FORMES BIOLOGIQUES RAMIFIEES : DAN
COHEN
Une enquête de faisabilité sur ordinateur
Des classes d’éléments hiérarchiquement organisés et sensibles à l’environnement
Les rôles de la programmation modulaire, de la simulation et de la visualisation
Le rôle épistémique de la simulation pour la biologie du développement
Importance du couplage du calculateur avec un dispositif de visualisation
CHAPITRE 17 – LA SIMULATION D’AUTOMATES BIOLOGIQUES MOLECULAIRES SUR ORDINATEUR : WALTER R. STAHL
De l’« analyse dimensionnelle » à l’« automate moléculaire »
Une influence de la biologie moléculaire sur la modélisation mathématique du vivant
Une épistémologie néo-positiviste des modèles : assumer et neutraliser la dispersion
Purger les modèles de toute métaphysique
CHAPITRE 18 – LA SIMULATION DE LA MORPHOGENESE PAR AUTOMATES FORMELS :
ARISTID LINDENMAYER
Un botaniste convaincu par le positivisme logique : la « théorie des cycles de vie »
Axiomatique inutilisable et axiomatique utilisée
De la théorie logiciste à la théorie des automates en passant par l’exobiologie
Eviter d’avoir recours à l’ordinateur
Un « modèle mathématique » pour l’« intercellularité » dans le développement
Le « modèle développemental » linéaire et les règles de réécriture
Observation de l’« émergence » d’une « régularité inattendue »
La « théorie du contrôle morphogénétique »
Ce que l’on gagne à discrétiser
Le « modèle développemental » de la ramification6
Première calibration du modèle sur des algues et premier dessin
CHAPITRE 19 – LA RECEPTION CONTRASTEE DES SYSTEMES DE LINDENMAYER
La controverse avec Brian Carey Goodwin au sujet des formalismes « naturels ».
Un déplacement de l’horizon des automates vers l’horizon des langages
Convergence entre genèse de phrases et morphogenèse végétale
Ce que la biologie apporte à l’informatique : un nouveau modèle de computation
Caractérisation, inférence, complexité
De l’analyse statistique à la modélisation algorithmique : Hermann et Jacqueline Lück,un cas français
L’analyse numérique de la croissance : Ralph O. Erickson et l’ordinateur-calculateur
Le tournant logiciste
CHAPITRE 2 – LA SIMULATION GEOMETRIQUE A VOCATION BOTANIQUE : HONDA ET FISHER
Reconnaissance de formes d’arbres et écrans graphiques à l’Université de Kyoto
Un modèle de simulation génératif et géométrique validé par l’image
Une simulation de la géométrie des tissus
La simulation géométrique reste un argument théorique
La rencontre avec les mesures : rapprocher la simulation des détails du réel
Les limites de la morphométrie et de l’approche thermodynamique des arbres
La première simulation géométrique d’un arbre réel : le Terminalia
La plante conçue comme métapopulation
Une limite de la simulation géométrique
Simuler pour tester un argument théorique
Bilan sur la simulation géométrique
CHAPITRE 21 – LA PERIODE DE FORMATION ET LE CONTEXTE INSTITUTIONNEL DE L’IFCC
Des modèles de la génétique au « module » des chromosomes
La culture tropicale et la création de l’IFCC dans l’après-guerre
Le service « Café-Cacao-Thé »
Une « large autonomie locale »
La perspective du marché commun : accroître la compétitivité des produits nationaux
L’orientation de la recherche génétique à l’IFCC : l’amélioration des plantes
CHAPITRE 22 – LA PROBABILITE DE FRUCTIFICATION COMME CARACTERE GENETIQUE
Transférer un peu d’économétrie dans la biométrie : le premier article de
Des résultats en demi-teinte
De la fonction à la structure
Modéliser, c’est former des hypothèses
Construire un caractère non directement observable : une probabilité objective
Modéliser pour exhiber des faits biologiques
La réception de la thèse de 19 : une modélisation étrange mais efficace
Hégémonie et résistance de la biométrie à l’IFCC
CHAPITRE 23 – MODELISATION FRACTIONNEE ET SIMULATION GEOMETRIQUE (19-11)
Représenter fidèlement plutôt que condenser
Essoufflement de la physiologie et des relations d’allométrie traditionnelles
Visualisation et abstraction
Première modélisation fractionnée : l’approche cinétique du caféier
La modélisation de la formation des rameaux : les hypothèses
Le sous-modèle de la formation des rameaux
Le sous-modèle de la croissance des rameaux et l’organigramme intégrateur
Le rôle de la technique : le HP et le langage HPL (Hewlett-Packard Language)
« Matérialiser » la représentation pour caractériser la verse du caféier
L’insertion d’un savoir d’ingénieur : la résistance des matériaux
Un programme plus complexe et une programmation plus structurée
Comment publier un programme informatique ?
Résultat : des préconisations précises pour le sélectionneur
La réception des deux premiers modèles de de Reffye à l’IFCC
Deux conditions pour « simuler »
CHAPITRE 24 – PREMIERES SIMULATIONS PROBABILISTES : LES TRAVAUX PARALLELES SUR
LE CACAOYER (19-11)
La sous-pollinisation chronique du cacaoyer
Simuler de manière probabiliste pour interpréter la structure des données de terrain.
Une « vérification expérimentale » … par simulation
Un ouvrage de référence dû à des « simulateurs » en recherche opérationnelle
Contingence des types d’événements aléatoires
Ce que l’on gagne à simuler aléatoirement l’aléatoire
La réception du modèle de simulation aléatoire pour le cacaoyer.
De la pollinisation au rendement : simuler pour discriminer les différents facteurs biologiques de la fructification
L’« analyse logique » d’un macro-événement : le nombre de fèves par cabosse
Un formalisme peut en invalider un autre
Une « démonstration » par simulation ?
Analyse logico-mathématique des différents faciès par les sous-modèles
Simulation : l’analyse pour la synthèse
Le sens de la méthode de Monte-Carlo
L’achat du tout nouveau modèle d’HP : un enjeu financier, humain et technique
Bilan sur les premières simulations probabilistes
CHAPITRE 25 – LES APPLICATIONS DES SIMULATIONS FRACTIONNEES
La simulation détaillée du trafic des insectes : un problème de « file d’attente »
Un troisième transfert de méthodes venues de la recherche opérationnelle
Relativité des échelles et rôle de la modélisation
Le « rappel » et l’« application » de la théorie des files d’attente
L’organigramme du programme synthétique de simulation de la pollinisation
Des résultats en demi-teinte
Une « équation mathématique » supplante la simulation : un aboutissement aux yeux des agronomes
L’agronomie et les formules mathématiques fonctionnelles
L’application du modèle du caféier à l’étude de l’influence des engrais
Bilan sur les prolongements des premières modélisations du caféier et du cacaoyer
CHAPITRE 26 – LE « MODELE ARCHITECTURAL » EN BOTANIQUE : FRANCIS HALLE ET ROELOF A. A. OLDEMAN
Une motivation nouvelle pour la thèse d’Etat : le réalisme botanique
Naissance du concept d’« architecture végétative »
Naissance du concept de « modèle architectural »
Ce qui a motivé l’emploi du terme « modèle » en botanique
Un modèle non mathématique
CHAPITRE 27 – UNE SIMULATION ARCHITECTURALE, ALEATOIRE ET UNIVERSELLE
Une vision occidentale limitée
Limite de la modélisation mathématique
Limites de la modélisation théorique logiciste
Contre l’esprit analytique de la biométrie
La plante conçue comme population de méristèmes
Modélisation probabiliste de l’activité de croissance des méristèmes
Mortalité des méristèmes et ramifications avec retard
Validation et vérification : arbre calculable et arbre non calculable
Simulation spatiale et intégrale : le verdict du rendu visuel
Simulation de la phyllotaxie
Vitesse, mémoire et souplesse limitées
Diversité des applications réalisées et envisagées
Réception et suite immédiate du programme de simulation des plantes (19-11)
CHAPITRE 28 – LA PREMIERE CONVERGENCE : AVEC L’INFORMATIQUE GRAPHIQUE (11-19)
Du terrain de la simulation à la simulation comme terrain .
Le retour en métropole : création et informatisation du CIRAD
La rencontre avec l’informatique graphique : itinéraire d’un informaticien français
Optimisation d’algorithme, nombres de Strahler et combinatoire énumérative
Ce que Françon retient de la thèse de de Reffye
CHAPITRE 29 – LE REDEMARRAGE DE LA RECHERCHE EN SIMULATION ARCHITECTURALE
Création de l’AMAP et valorisation du premier logiciel : une simulation en préfixé
Modèles et structures de données : l’apport des langages
Expression générale du « moteur de croissance » en préfixé
Premières applications : médiatiques
Une valorisation de la recherche pour le moins réussie
Timides applications botaniques et agronomiques
Rigueur formelle et perte de sens
Le deuxième logiciel simule le parallélisme
La construction ordre par ordre exige une nouvelle structuration des données
La simulation d’événements discrets et le moteur de croissance parallèle
La discrétisation de l’espace
La validation de la simulation dans son ensemble
Applications et limites
Des retombées conceptuelles en botanique
CHAPITRE 3 – LA DEUXIEME CONVERGENCE : AVEC LA MODELISATION MATHEMATIQUE
EN FORESTERIE
Les agronomes à l’école de la simulation : l’AIP INRA/CIRAD
L’appel d’offre officiel
Les raisons scientifiques de la sollicitation de l’INRA
Le rôle de l’AMAP dans les projets retenus
Les hésitations de l’INRA : les arguments en présence
Des traces de réticences dans les actes du Colloque de synthèse
Le rapprochement institutionnel INRA/CIRAD autour d’AMAP
Formalisation conceptuelle et institutionnelle : le laboratoire associé CIRAD/INRA
L’épistémologie du « modèle général » à valeur empirique
Une maquette informatique comme support d’expériences virtuelles
CHAPITRE 31 – LA TROISIEME CONVERGENCE : RE-MATHEMATISER
Le premier modèle mixte structure-fonction : « l’efficience de l’eau »
Evolution de la simulation logiciste
Une grammaire sensible à l’environnement
Simuler la plante individuelle pour voir fonctionner les cultures
L’association avec l’INRIA en Chine : sous-structures et contrôle optimal
CONCLUSION : CONVERGENCES AUTOUR DE LA SIMULATION PLURIFORMALISEE
CONCLUSION GENERALE
BIBLIOGRAPHIE THEMATIQUE
BIBLIOGRAPHIE ALPHABETIQUE
ANNEXE A : HISTOIRE DE LA MODELISATION, ETAT DES LIEUX
ANNEXE B : UNE HISTOIRE DE LA PHILOSOPHIE DES MODELES
ANNEXE C : GRAMMAIRES DE CHOMSKY
ANNEXE D : CARACTERISTIQUES DE LA « HP »
TABLE DES ENCADRES
INDEX DES NOMS

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *