Team:Evry/Policy and Practices/Philosophy fr
From 2014.igem.org
(3 intermediate revisions not shown) | |||
Line 134: | Line 134: | ||
Une telle démarche, qui relève davantage du kludge que de la démarche rigoureuse préconisée par Popper, a effectivement quelques inconvénients, principalement le risque d'ajouter une hypothèse qui permette d'accorder la théorie aux phénomènes, mais qui soit fausse. Cependant, il n'est pas certain que cette démarche soit nécessairement à rejeter. Elle permet de complexifier les théories et de les améliorer. Les hypothèses <i>ad hoc</i> peuvent être testées une à une dans le modèle, et il est a priori également possible de tester ces hypothèses indépendamment du modèle pour avoir une confirmation supplémentaire. [paragraphe non fini] | Une telle démarche, qui relève davantage du kludge que de la démarche rigoureuse préconisée par Popper, a effectivement quelques inconvénients, principalement le risque d'ajouter une hypothèse qui permette d'accorder la théorie aux phénomènes, mais qui soit fausse. Cependant, il n'est pas certain que cette démarche soit nécessairement à rejeter. Elle permet de complexifier les théories et de les améliorer. Les hypothèses <i>ad hoc</i> peuvent être testées une à une dans le modèle, et il est a priori également possible de tester ces hypothèses indépendamment du modèle pour avoir une confirmation supplémentaire. [paragraphe non fini] | ||
- | Ces observations nous amènent à nous interroger sur la démarche scientifique en général. Peut-être faut-il donner raison non pas à Popper, mais à Paul Feyerabend, philosophe des sciences du XXème siècle, a propos des hypothèses <i>ad hoc</i>, qui pense que toutes les bonnes hypothèses se sont d'abord constituées <i>ad hoc</i>, sans justification indépendante, et n'ont été confirmées que plus tard. Si l'on considère l'expérimentation scientifique et la recalibration des modèles pour les faire concorder aux résultats comme du kludge, alors il n'est plus possible de rejeter les hypothèses <i>ad hoc</i> dans la démarche scientifique. Au contraire, construire et modifier des modèles et leurs hypothèses auxiliaires est un aspect crucial de cette démarche, car c'est en transformant ces modèles de façon créative que l'on peut découvrir des choses inattendues, et produire les résultats les plus puissants possibles (O'Malley, 2010). Sans l'hypothèse <i>ad hoc</i> de l'existence d'une masse près d'Uranus, Johann Galle n'aurait jamais pointé son télescope à la position supposée de la masse hypothétique, et n'aurait jamais observé Neptune. Pour Max Delbrück, les scientifiques se doivent d'avoir un comportement flexible et pragmatique de bricoleurs plutôt que d'être trop rigoureux, s'ils veulent pouvoir faire de nouvelles découvertes. En biologie synthétique comme | + | Ces observations nous amènent à nous interroger sur la démarche scientifique en général. Peut-être faut-il donner raison non pas à Popper, mais à Paul Feyerabend, philosophe des sciences du XXème siècle, a propos des hypothèses <i>ad hoc</i>, qui pense que toutes les bonnes hypothèses se sont d'abord constituées <i>ad hoc</i>, sans justification indépendante, et n'ont été confirmées que plus tard. En effet, il est fréquemment arrivé dans l'histoire des sciences qu'une hypothèse ad hoc qui sauvait une théorie sans s'appuyer sur la moindre observation indépendante, soit ensuite confirmée comme exacte. Il en existe un exemple célèbre en astronomie au XIXème siècle, lorsque l'astronome et mathématicien urbain Le Verrier, remarquant que la position d'Uranus ne correspondait pas à ce que prévoyaient ses calculs, a supposé l'existence d'une masse près d'Uranus qui influençait son mouvement. Cette hypothèse permettait de faire concorder calculs et phénomène observé, mais aucune donnée expérimentale auparavant n'avait indiqué l'existence d'une telle masse : cette hypothèse était entièrement ad hoc. Mais quelques jours après, cette masse – la planète Neptune – est effectivement observée par l'astronome Johann Galle à l'observatoire de Berlin, et l'hypothèse <i>ad hoc</i> était donc confirmée. |
+ | |||
+ | Si l'on considère l'expérimentation scientifique et la recalibration des modèles pour les faire concorder aux résultats comme du kludge, alors il n'est plus possible de rejeter les hypothèses <i>ad hoc</i> dans la démarche scientifique. Au contraire, construire et modifier des modèles et leurs hypothèses auxiliaires est un aspect crucial de cette démarche, car c'est en transformant ces modèles de façon créative que l'on peut découvrir des choses inattendues, et produire les résultats les plus puissants possibles (O'Malley, 2010). Sans l'hypothèse <i>ad hoc</i> de l'existence d'une masse près d'Uranus, Johann Galle n'aurait jamais pointé son télescope à la position supposée de la masse hypothétique, et n'aurait jamais observé Neptune. Pour Max Delbrück, les scientifiques se doivent d'avoir un comportement flexible et pragmatique de bricoleurs plutôt que d'être trop rigoureux, s'ils veulent pouvoir faire de nouvelles découvertes. En conclusion, il semblerait qu'en biologie synthétique comme en fait dans toutes les sciences expérimentales, une démarche "kludgy-like", bien qu'inélégante, pourrait être en réalité plus efficace et intéressante que des démarches trop rationnelles. (O'Malley, 2010) | ||
<br><h5>Le <i>kludge</i> à iGEM</h5> | <br><h5>Le <i>kludge</i> à iGEM</h5> | ||
Line 141: | Line 143: | ||
*faire revenir la discussion sur iGEM pourrait être sympa* | *faire revenir la discussion sur iGEM pourrait être sympa* | ||
*donner quelques exemples concrets* | *donner quelques exemples concrets* | ||
- | *discuter avec l'équipe pour avoir l'avis de tout le monde sur la question*</i> | + | *discuter avec l'équipe pour avoir l'avis de tout le monde sur la question* |
+ | |||
+ | En gros ce serait cool si vous avez des exemples de moments en paillasse où vous vous êtes dit "bon ce truc marche mieux que l'autre, je sais pas trop pourquoi mais ça marche, alors on fait comme ça !". | ||
+ | Après si vous pensez au contraire que votre démarche reste quand même plus rationnelle que "efficace et inélégante", dites-le aussi. | ||
+ | Dans cette partie l'idée serait de re-centrer la discussion sur iGEM et notre projet :) | ||
+ | </i> | ||
Line 158: | Line 165: | ||
Serrano L (2007) Synthetic biology: Promises and challenges. Molecular Systems Biology 3: 158. Doi:10.1038/msb4100202 | Serrano L (2007) Synthetic biology: Promises and challenges. Molecular Systems Biology 3: 158. Doi:10.1038/msb4100202 | ||
+ | |||
+ | + d'autres (à compléter) | ||
</div> | </div> |
Latest revision as of 16:02, 28 August 2014
Policy and Practices
Design in Synthetic Biology: rationality versus kludge
Kludge : "klumsy, lame, ugly, dumb, but good enough"
Inelegant but successful solution to a problem.
Contents |
Une biologie formalisée
L'analogie avec les sciences de l'ingénieur
Les définitions de la biologie de synthèse sont multiples, et peuvent être significativement différentes suivant la personne à qui on la demande. Cependant on peut retrouver certains éléments communs à la plupart de ces définitions, comme l'analogie entre la biologie de synthèse et les sciences de l'ingénieur. Cette analogie est basée sur l'idée que la nouvelle discipline biologique permet de synthétiser des éléments standardisés du vivant, dont on connaît les propriétés et les fonctions, et permet également de les assembler selon un protocole rationnel et transposable d'un système à l'autre ; on doit de plus pouvoir prédire et modéliser le comportement de l'organisme synthétique ainsi obtenu. Construire de nouveaux systèmes vivants devrait donc devenir à terme aussi simple que d'assembler des composants non-biologiques dans une machine.
En 2005, une commission européenne rassemblant des experts de la biologie de synthèse a ainsi proposé la définition suivante :
“Synthetic biology is the engineering of biology: the synthesis of complex, biologically based (or inspired) systems which display functions that do not exist in nature. This engineering perspective may be applied at all levels of the hierarchy of biological structures – from individual molecules to whole cells, tissues and organisms. In essence, synthetic biology will enable the design of ‘biological systems’ in a rational and systematic way.”High-level Expert Group European Commission
On remarque dans cette définition la confiance des biologistes sur le caractère rationnel et systématique du design des nouveaux systèmes : comme dans les designs de machines ou de programmes informatiques dans les sciences de l'ingénieur, chaque partie de l'ensemble est parfaitement caractérisée et se comporte de façon prévisible. On peut alors assembler ces composants ensemble pour obtenir le résultat désiré.
La prédictibilité supposée des systèmes issus de la biologie de synthèse est également mentionnée par SynBERC :
"As envisioned by SynBERC, synthetic biology is perhaps best defined by some of its hallmark characteristics: predictable, off-the-shelf parts and devices with standard connections, robust biological chassis (such as yeast and E. coli) that readily accept those parts and devices, standards for assembling components into increasingly sophisticated and functional systems and open-source availability and development of parts, devices, and chassis.”SynBERC
Les êtres vivants sont généralement vus comme des créatures aux comportements imprévisibles, où les interactions entre chaque composants entre eux et avec le milieu extérieur sont tellement complexes que l'on n'est pas capables de rendre compte entièrement de chaque phénomène survenant dans les organismes, et que de nombreuses propriétés doivent être considérées comme émergentes face à notre incapacité à les réduire à un mécanisme causal simple. Il est alors légitime de se demander comment la biologie de synthèse peut prétendre pouvoir synthétiser de manière rationnelle et prévisible des systèmes biologiques, comme le décrivent les deux définitions ci-dessus.
Comment est-il possible de construire rationnellement un système biologique ?
On est aujourd'hui capables de synthétiser un grand nombre de composants d'une cellule simple, et de les assembler pour construire des systèmes qui se comportent comme des cellules vivantes naturelles. Mais le composant le plus souvent transformé et synthétisé est l'ADN, ou du moins certaines séquences du génome des organismes : en effet, l'essentiel des propriétés des êtres vivants est codé dans le génome, aussi c'est en modifiant l'ADN que l'on peut parvenir à construire des systèmes biologiques avec de nouvelles fonctions. Dans la branche de la biologie de synthèse qui conçoit et construit des systèmes basés sur la synthèse et l'assemblage d'ADN, comme par exemple à iGEM, les composants standardisés qui sont utilisés sont les parts du Registry of Standard Biological Parts du MIT. Ces parts sont des séquences d'ADN dont la fonction est connue : il suffit théoriquement d'intégrer ces parts dans un organisme vivant pour qu'elles lui fournissent la fonction prévue. Grâce au catalogue de parts du Registry, décrivant des milliers de séquences géniques avec leurs fonctions, les biologistes de synthèse disposent d'un très grand nombre d'outils standardisés, qu'ils peuvent combiner dans un système biologique afin de les faire se comporter comme ils le veulent. Ces séquences d'ADN ressemblent ainsi à des outils hautement caractérisés et facilement transposables d'un système à l'autre. Dans un de ses articles, le journaliste Dan Ferber rapporte ainsi les paroles de Drew Endy du MIT, qui explique que le Registry est comparable à l'inventaire que des ingénieurs en électricité pourraient consulter lorsqu'ils conçoivent un nouvel outil. Le Registry permet d'avoir à disposition des pièces standardisées, sensées fonctionner dans la plupart des châssis utilisés en biologie synthétique (Ferber 2004).
Ce sont grâce à ces parts synthétisables que nous créons, caractérisons et utilisons à iGEM, ainsi qu'aux autres composants des cellules qui ont été pareillement caractérisés et standardisés, que la biologie de synthèse prétend pouvoir synthétiser des systèmes biologiques de façon rationnelle et prévisible.
Outre l'utilisation d'éléments standardisés, la rationalisation de la biologie passe également par une méthode prise aux ingénieurs, souvent distinguée en quatre phases : conception, synthèse, implémentation et validation. La première étape, de conception du système, utilise des outils mathématiques et informatiques afin de faire un modèle du système, et de simuler son fonctionnement par programmation informatique. Les éléments du système sont ensuite synthétisés ou construits, grâce aux outils du génie génétique et, de plus en plus, à des synthétiseurs d'oligonucléotides. Le système est implémenté en utilisant des outils de la biologie moléculaire et de la génétique, et finalement l'étape de validation se sert de nouveau d'outils mathématiques pour vérifier que les résultats correspondent à ceux attendus lors de la simulation – le cas échéant, le modèle mathématique est recalibré. C'est cette méthode de conception et de construction rationnelle que les biologistes de synthèse tendent à reproduire dans leur discipline.
Les chercheurs partagent de plus la volonté de formaliser et normaliser leurs modèles, afin qu'ils puissent être facilement réutilisés dans des conditions différentes, ou par d'autres équipes. C'est pourquoi par exemple dans le Registry, toutes les parts soumises le sont sous la même forme : la séquence d'intérêt doit être entourée de deux séquences flanquantes – préfixe et suffixe – possédant des sites de restriction précis ; le tout est placé dans un plasmide portant un gène de résistance à un antibiotique. Ce modèle de construction permet aux chercheurs d'utiliser ensuite systématiquement les mêmes techniques pour se servir de toutes les parts, ce qui en simplifie grandement l'assemblage.
Pourquoi la biologie de synthèse cherche-t-elle a faire des designs rationnels ?
L'intérêt de formaliser ainsi les éléments des systèmes biologiques est évident : avec chaque partie caractérisée et facile à assembler, il devient aisé de construire de nouveaux systèmes ayant un comportement précis et prévisible, et donc de construire des machines biologiques remplissant des fonctions utiles ou intéressantes. Cette méthode a pour ambition de surmonter la complexité du vivant, en le soumettant à la rationalité humaine. En parvenant à induire volontairement dans des organismes des propriétés qu'ils n'avaient pas avant, on peut commencer à utiliser les formidables propriétés des créatures vivantes (forte sensibilité, production de protéines, dégradation de toxines, etc.) pour concevoir des machines biologiques avec de formidables applications pratiques et industrielles. Aujourd'hui, le Registry contient plus de 2000 parts caractérisées, dont environ 700 sont disponibles aux chercheurs, ce qui représente une quantité impressionnante d'outils aux différentes fonctions que l'on peut assembler pour construire toutes sortes de systèmes utiles ou intéressants. Une des applications pratiques les plus célèbres de la biologie de synthèse est sans nul doute la construction d'une levure capable de synthétiser une molécule rare dans la nature, qui est un précurseur de l'artémisinine, le médicament le plus efficace contre le paludisme.
Cette conception et construction rationnelle de nouveaux systèmes biologiques est également intéressante d'un point de vue fondamental : tout d'abord, parce qu'en simplifiant et construisant des modèles de circuits génétiques puis ces circuits eux-mêmes, les biologistes en apprennent énormément sur les cellules et leurs composants (Ferber 2004). Mais aussi, comme la biologie de synthèse offre la possibilité de construire des êtres vivants qui n'existent pas dans la nature, ainsi que de construire des cellules qui comporteraient le minimum possible d'éléments nécessaires à sa survie vivre et sa reproduction, elle nous permet d'interroger sous un nouvel angle la notion de vivant. Quelles sont les propriétés minimales nécessaires à un dispositif pour qu'il puisse être considéré comme un être vivant ? Les propriétés que l'on considère traditionnellement comme étant typiques du vivant sont-elles réellement toutes nécessaires, ou bien peut-il exister des vivants différents, comportant d'autres propriétés ? C'est également ce genre de questions que la biologie de synthèse se propose d'interroger, afin d'améliorer nos connaissances fondamentales du vivant.
Pour Lazebnik, il y a également une autre raison pour laquelle la biologie a tout intérêt à devenir aussi rationnelle que les sciences de l'ingénieur. Pour le biologiste, l'utilisation d'un langage formalisé et d'outils et méthodes standardisés en biologie sont le meilleur, sinon le seul moyen qu'a la biologie de progresser, car elle permettra une meilleure communication entre les scientifiques. Cela assurera un développement informé et rationnel de la biologie de synthèse, sans répétition des erreurs faites par d'autres. Et cette rationalisation du design permettra également de restreindre les approximations lors des expériences (Lazebnik 2002).
On peut enfin rappeler l'importance qu'a pour de nombreux biologistes le fait de construire les systèmes biologiques. Lorsqu'ils reprennent la citation du Prix Nobel Richard Feynman pour illustrer l'intérêt de la biologie de synthèse, "What I cannot create, I do not understand" (Feynman, 1988), ils veulent généralement signifier qu'il y a un lien entre construire et connaître. Ce qui semble sous-entendu par la citation est qu'il est possible d'apprendre en construisant, ou alors qu'on ne peut considérer connaître quelque chose que lorsqu'on est capable de le construire. La phrase peut en fait être comprise de plusieurs façons différentes ; mais la signification que lui donnent le plus souvent les biologistes, lorsqu'ils l'utilisent pour expliquer le propos la biologie synthétique, est que la construction d'un système biologique permet d'améliorer nos connaissances sur le-dit système : on apprend en construisant. Peu importe que cette idée soit assez éloignée de ce qu'avait voulu signifier Feynman lorsqu'il a écrit la phrase sur son tableau noir (O'Malley, 2010 ; Feynman, 1988) : la phrase est désormais emblématique de la biologie de synthèse. Et si l'on partage l'opinion de Lazebnik sur le fait que la biologie peut être formalisée, et qu'elle doit l'être afin de progresser, alors sans aucun doute une synthèse rationnelle des éléments d'un système biologique, où chaque étape de la construction obéit à un schéma précis et maîtrisé et où la machine vivante se comporte comme prévu par les modèles, est la bonne façon de faire de la biologie synthétique. En maîtrisant ainsi le vivant, les biologistes peuvent concevoir et construire plus facilement des systèmes utiles et performants, et mieux interroger les propriétés du vivant.
Mais tous n'admettent pas que la biologie de synthèse est, en pratique, aussi rationnelle et prévisible qu'elle le promet. Les comportements biologiques sont tellement complexes, et dépendent de tellement de variables – conditions du milieu, interactions avec d'autres éléments de la cellule, comportement des cellules voisines, etc. – que beaucoup de scientifiques n'hésitent pas à énoncer leurs doutes sur les capacités de la nouvelle discipline biologique à construire des systèmes aussi facilement qu'ils l'ambitionnent, et avec des résultats aussi prévisibles et stables que prévus. La biologie de synthèse telle qu'elle est effectuée en laboratoire par les scientifiques et par les étudiants d'iGEM est-elle réellement aussi rationnelle et maîtrisée que les sciences de l'ingénieur, ou bien ressemble-t-elle davantage à du bricolage pragmatique ?
Une science du bricolage pragmatique
Rigueur ou bricolage ?
La biologie de synthèse se pratique rarement de manière aussi rationnelle qu'elle l'aimerait. Les tentatives de maîtriser les systèmes biologiques se heurtent inlassablement au comportement imprévisible du vivant. Lors de la compétition iGEM par exemple, les étudiants s'aperçoivent tous les jours qu'une part du Registry ne se comporte pas toujours comme prévu : son expression dépend entre autres du châssis dans lequel elle est introduite, de son interaction avec les autres gènes présents dans la cellule, et du milieu dans lequel se trouve la cellule. Le problème est qu'une part a été caractérisée comme fonctionnant dans un cas particulier, mais que son comportement ne sera jamais exactement le même dans des constructions différentes. Dans le monde du vivant, la plus légère modification du milieu ou de l'état de la cellule peut influencer considérablement l'expression de ses gènes. Pour reprendre les mots de Mark Isalan, le comportement d'un module est largement affecté par le reste du réseau. C'est pourquoi l'uniformité et la reproductibilité exacte de la fonction codée par une part est aujourd'hui encore impossible.
Lorsque l'on travaille avec les parts du Registry, comme on le fait à iGEM, on se heurte de plus au problème des parts qui sont mal caractérisées. Sur les plus de 5000 parts que l'on peut commander sur le Registry, seules 2000 environ ont été vérifiées. Comme le Registry est une ressource en libre-accès, et qu'une grande partie des parts ont été soumises par des étudiants qui n'ont eu qu'un temps très court très courte pour travailler dessus, un grand nombre de parts du Registry sont mal assemblées ou ne fonctionnent pas tel que décrit dans leur notice.
A cette imprécision s'ajoute le problème que même si la fonction de chaque part est connue, les parts peuvent ne pas fonctionner comme prévu lorsqu'elle sont mises ensemble. Des propriétés émergentes imprévisibles qui peuvent survenir dans un système. En 2005, Church avançait qu'en combinant des parts biologiques suffisamment caractérisées, on pourrait surmonter le caractère indéterminé et non modulaire du vivant, afin de produire des systèmes au comportement plus stable que les organismes naturels qui peuvent évoluer rapidement de façon imprévue. Mais aujourd'hui, de plus en plus de biologistes reconnaissent que lorsque l'on combine ensemble plusieurs parts, même si elles sont bien caractérisées, il est entièrement possible que le nouveau système ne possède pas seulement la somme prévue des fonctions codées par chacune des parts : des propriétés et comportements imprévisibles peuvent émerger lorsque l'on combine différentes parts, ce qui freine le design rationnel des systèmes.
Plus le système est complexe, plus les probabilités que le comportement du système s'éloigne du comportement prévu sont élevées. Il en résulte que le design, en biologie de synthèse, est plus souvent un long processus d'erreurs et de nouvelles tentatives, qu'un schéma rationnel et fonctionnel. Comme le design produit souvent des comportement inattendus, c'est au final plutôt une solution pragmatique qui est couramment adoptée par les biologistes de synthèse : ils choisissent la méthode avec laquelle on a les résultats voulus, plutôt que la méthode qui paraissait la plus rationnelle. Oliver Müller faisait la remarque pertinente que le design ou processus scientifique est souvent idéalisé par des biologistes qui affirment qu'ils savent précisément comment produire tel résultat, alors que la réalité est beaucoup plus complexe et incontrôlable. La raison principale pour laquelle le côté hasardeux des démarches expérimentales en biologie de synthèse – comme d'ailleurs dans toute discipline scientifique – est souvent passé sous silence est la nécessité de produire des articles scientifiques régulièrement, et avec des résultats positifs : les chercheurs ne parlent pas de leurs résultats négatifs, et cherchent à mettre en valeur seulement ce qui a fonctionné, quitte à donner une image idéalisée du design. On peut en trouver un exemple dans la compétition iGEM : les juges recommandent explicitement aux étudiants participant à la compétition de ne pas parler de leurs expériences qui n'ont pas fonctionné. Bien sûr, une telle demande est compréhensible : la plupart des expériences sans résultat positif n'ont pas un grand intérêt scientifique, et de plus les jurys seront davantage impressionnés par les résultats positifs que les autres, d'où le conseil d'omettre ces derniers. Il n'en reste pas moins que cette attitude reflète une habitude de passage sous silence des expériences qui n'ont pas fonctionné, alors même qu'elles auraient théoriquement du fonctionner d'après les modélisations rationnelles effectuées préalablement ; et que cette attitude contribue à donner l'impression que le design rationnel parvient maîtriser le vivant et conduit toujours à des résultats positifs, alors qu'en réalité la démarche expérimentale a été hasardeuse et semée d'échecs.
Il apparaît donc qu'en réalité, le design en biologie de synthèse se fait plutôt à la manière d'un bricolage pragmatique, utilisant des objets sans savoir s'ils vont s'assembler correctement, et dont on ne peut prévoir le comportement final. Si en théorie le biologiste de synthèse doit pouvoir rendre compte de façon rationnelle de toutes les étapes du design et du comportement du système, en pratique – et surtout à iGEM où les étudiants travaillent sur une durée limitée – la priorité est surtout donnée aux résultats. Plusieurs auteurs (Arkin an Fletcher 2006, O'Malley 2010) ont ainsi emprunté le terme de "kludge" aux informaticiens pour décrire le design en biologie de synthèse :
"Unlike other engineering disciplines, synthetic biology has not developed to the point where there are scalable and reliable approaches to finding solutions. Instead, the emerging applications are most often kludges that work, but as individual special cases. They are solutions selected for being fast and cheap and, as a result, they are only somewhat in control."Arkin an Fletcher 2006
Le terme "kludge" décrit une solution grossière et non respectueuse des règles, mais efficace. Cette solution est choisie parce qu'elle permet d'avoir un système qui fonctionne, et peu importe qu'on ne puisse expliquer exactement pourquoi cette solution fonctionne. L'approche rigoureuse est mise de côté au profit de l'efficacité obtenue par hasard ou par des bricolages peu élégants. La méthode utilisée par les biologistes de synthèse serait donc ainsi à l'opposé même de la démarche rationnelle et formalisée dont se réclament tant de scientifiques de la discipline : elle consisterait davantage à essayer de diverses manières créatives jusqu'à ce que le système fonctionne, que de se limiter à suivre un plan unique précis, qui ne délivre pas toujours les résultats escomptés.
Face à cet aspect imprécis de la biologie de synthèse, deux avis contraires s'élèvent : certains pensent que le côté irrationnel de certaines méthodes et solutions proposées doit être surmonté, et qu'il pourra l'être grâce à la standardisation croissante de la discipline, qui doit tenter de ressembler aux sciences de l'ingénieur. Mais d'autres pensent à l'inverse que non seulement le kludge est indissociable de la biologie, mais il est aussi en réalité une meilleure méthode de produire des résultats et des connaissances que la méthode trop rigoureuse.
Le kludge : une nouvelle démarche scientifique ?
En biologie de synthèse, dès que l'on obtient pas sur la paillasse le résultat prédit par la modélisation, on n'hésite pas à modifier le modèle précédent, en ajoutant des paramètres et des théories, en restant flexible sur les divers modèles proposés jusqu'à en avoir un qui correspond aux résultats obtenus in vivo. Cette modification de la théorie sous prétexte qu'elle est en désaccord avec les observations expérimentales pourrait être considéré comme l'apport d'hypothèses ad hoc à la théorie initiale. Une hypothèse ad hoc est une hypothèse ajoutée à une théorie à l'occasion d'une menace de réfutation : alors que les phénomènes ne concordent pas avec ce qui était prédit par la théorie, plutôt que de considérer que la théorie a été falsifiée par les phénomènes, on introduit une hypothèse supplémentaire, qui n'avait pas été anticipée, et qui permet de rétablir la concordance entre théorie et phénomènes observés. Or Popper considérait qu'ajouter des hypothèses ad hoc à une théorie ne relevait pas d'une bonne démarche scientifique, car ces hypothèses sont souvent mal justifiées et que si l'on considère que l'on peut ajouter indéfiniment des hypothèses à une théorie pour l'ajuster face aux phénomènes, alors la théorie, tout en devenant de plus en plus complexe, ne peut jamais être falsifiée. Or une bonne théorie scientifique, comme l'a défini cet auteur et comme le reconnaissent la plupart des scientifiques aujourd'hui, doit être falsifiable – c'est-à-dire qu'elle doit être susceptible d'être mise à l'épreuve par des expérience, et d'être démontrée fausse. Si il est impossible d'imaginer une expérience dont un résultat pourrait invalider la théorie, alors cette théorie n'est pas considérée comme scientifique, mais comme affirmation de pseudo-science. Doter une théorie d'hypothèses ad hoc n'est donc pas, de ce point de vue, une démarche scientifique ; il vaut mieux reconnaître que sa théorie a été réfutée par les phénomènes et l'abandonner, que de la transformer sans justifications. Mais alors, que doit-on penser de la démarche couramment effectuée en biologie de synthèse et en biologie systémique, selon laquelle lorsque les résultats expérimentaux ne correspondent pas à ceux prévus par le modèle, on ajoute un paramètre au modèle afin que ses prédictions se rapprochent davantage des phénomènes observés ? Serait-ce là une mauvaise façon de procéder ?
Prenons l'exemple de la modélisation par Hoehme de la régénération cellulaire dans le foie après une lésion provoquée par du CCl4. Dans un premier modèle, il supposait que la division cellulaire se faisait dans des directions aléatoires : seul le mouvement induit par la prolifération et la micro-motilité était pris en compte. Son modèle rendait bien compte de la concentration en hépatocytes dans le lobule du foie, mais il n'expliquait pas la rapidité de régénération de la région nécrosée. Plutôt que de renoncer à sa première hypothèse, il y a ajouté une seconde hypothèse qui permettait d'expliquer pourquoi la lésion se refermait si rapidement : il a supposé que les hépatocytes avaient un mouvement supplémentaire de migration vers la zone nécrosée. Le nouveau modèle rendait alors bien compte à la fois de la densité en hépatocytes, et de la dynamique de régénération. Hoehme a alors considéré que sa nouvelle hypothèse devait être correcte. Cette démarche est courante en biologie systémique comme en biologie synthétique : on ajuste les modèles en fonction des observations expérimentales, jusqu'à ce que les résultats théoriques s'accordent aux résultats expérimentaux, et on considère alors avoir modélisé et expliqué le processus biologique. Or ces hypothèses peuvent être qualifiées de ad hoc : d'abord parce qu'elles ne s'appuient pas toujours sur des connaissances préalables, mais peuvent être purement conjecturales ; et ensuite parce qu'elles sont retenues sur la seule justification qu'elles permettent de sauver la théorie d'une falsification par les phénomènes – à condition du moins qu'elles soient cohérentes. Il apparait donc que les hypothèses ad hoc sont couramment utilisées en biologie systémique et synthétique. Non seulement leur utilisation fait partie intégrante de la démarche scientifique dans ces disciplines, mais c'est grâce à elles que l'on parvient à améliorer les modèles et à mieux connaître le vivant.
Une telle démarche, qui relève davantage du kludge que de la démarche rigoureuse préconisée par Popper, a effectivement quelques inconvénients, principalement le risque d'ajouter une hypothèse qui permette d'accorder la théorie aux phénomènes, mais qui soit fausse. Cependant, il n'est pas certain que cette démarche soit nécessairement à rejeter. Elle permet de complexifier les théories et de les améliorer. Les hypothèses ad hoc peuvent être testées une à une dans le modèle, et il est a priori également possible de tester ces hypothèses indépendamment du modèle pour avoir une confirmation supplémentaire. [paragraphe non fini]
Ces observations nous amènent à nous interroger sur la démarche scientifique en général. Peut-être faut-il donner raison non pas à Popper, mais à Paul Feyerabend, philosophe des sciences du XXème siècle, a propos des hypothèses ad hoc, qui pense que toutes les bonnes hypothèses se sont d'abord constituées ad hoc, sans justification indépendante, et n'ont été confirmées que plus tard. En effet, il est fréquemment arrivé dans l'histoire des sciences qu'une hypothèse ad hoc qui sauvait une théorie sans s'appuyer sur la moindre observation indépendante, soit ensuite confirmée comme exacte. Il en existe un exemple célèbre en astronomie au XIXème siècle, lorsque l'astronome et mathématicien urbain Le Verrier, remarquant que la position d'Uranus ne correspondait pas à ce que prévoyaient ses calculs, a supposé l'existence d'une masse près d'Uranus qui influençait son mouvement. Cette hypothèse permettait de faire concorder calculs et phénomène observé, mais aucune donnée expérimentale auparavant n'avait indiqué l'existence d'une telle masse : cette hypothèse était entièrement ad hoc. Mais quelques jours après, cette masse – la planète Neptune – est effectivement observée par l'astronome Johann Galle à l'observatoire de Berlin, et l'hypothèse ad hoc était donc confirmée.
Si l'on considère l'expérimentation scientifique et la recalibration des modèles pour les faire concorder aux résultats comme du kludge, alors il n'est plus possible de rejeter les hypothèses ad hoc dans la démarche scientifique. Au contraire, construire et modifier des modèles et leurs hypothèses auxiliaires est un aspect crucial de cette démarche, car c'est en transformant ces modèles de façon créative que l'on peut découvrir des choses inattendues, et produire les résultats les plus puissants possibles (O'Malley, 2010). Sans l'hypothèse ad hoc de l'existence d'une masse près d'Uranus, Johann Galle n'aurait jamais pointé son télescope à la position supposée de la masse hypothétique, et n'aurait jamais observé Neptune. Pour Max Delbrück, les scientifiques se doivent d'avoir un comportement flexible et pragmatique de bricoleurs plutôt que d'être trop rigoureux, s'ils veulent pouvoir faire de nouvelles découvertes. En conclusion, il semblerait qu'en biologie synthétique comme en fait dans toutes les sciences expérimentales, une démarche "kludgy-like", bien qu'inélégante, pourrait être en réalité plus efficace et intéressante que des démarches trop rationnelles. (O'Malley, 2010)
Le kludge à iGEM
- faire revenir la discussion sur iGEM pourrait être sympa*
- donner quelques exemples concrets*
- discuter avec l'équipe pour avoir l'avis de tout le monde sur la question*
En gros ce serait cool si vous avez des exemples de moments en paillasse où vous vous êtes dit "bon ce truc marche mieux que l'autre, je sais pas trop pourquoi mais ça marche, alors on fait comme ça !". Après si vous pensez au contraire que votre démarche reste quand même plus rationnelle que "efficace et inélégante", dites-le aussi. Dans cette partie l'idée serait de re-centrer la discussion sur iGEM et notre projet :)
+ Conclusion
Bibliographie
Andrianantoandro E, Basu S, Karig DK, Weiss R (2006) Synthetic biology: New engineering rules for an emerging discipline. Molecular Systems Biology 2: 2006.0028. Doi: 10.1038/ msb4100073
Feynman RP (1988) Last blackboard. Photo ID 1.10–29. http://www.archives.caltech.edu
Lazebnik Y (2002) Can a biologist fix a radio? Or what I learned while studying apoptosis. Cancer Cell 2: 179–182.
O’Malley MA (2010). Making knowledge in synthetic biology: Design meets kludge. Biological Theory, 4(4): 378–389 .
Serrano L (2007) Synthetic biology: Promises and challenges. Molecular Systems Biology 3: 158. Doi:10.1038/msb4100202
+ d'autres (à compléter)