BIOLOGIE 2.0 : QUAND L’IA INVENTE LE VIVANT

IA générative et biotechnologie : entre promesses et responsabilités

L’arrivée rapide de l’IA générative dans le domaine des biotechnologies a changé en profondeur la façon dont on mène la recherche, conçoit de nouvelles molécules et interprète les phénomènes biologiques. Si ces nouveaux outils ouvrent des possibilités inédites pour explorer la matière vivante et analyser des données très variées, il n’en reste pas moins qu’ils créent aussi de nouvelles zones de tension : risques de double usage, décisions automatisées difficiles à superviser, qualité parfois inégale des données utilisées et questions éthiques liées à l’automatisation de la science. Cet article propose donc une analyse critique de ces évolutions, en s’appuyant sur les travaux récents et sur les nouveaux cadres théoriques qui émergent dans le champ de la Bio-IA.

L’arrivée rapide de l’IA générative dans le domaine des biotechnologies a changé en profondeur la façon dont on mène la recherche, conçoit de nouvelles molécules et interprète les phénomènes biologiques. Si ces nouveaux outils ouvrent des possibilités inédites pour explorer la matière vivante et analyser des données très variées, il n’en reste pas moins qu’ils créent aussi de nouvelles zones de tension : risques de double usage, décisions automatisées difficiles à superviser, qualité parfois inégale des données utilisées et questions éthiques liées à l’automatisation de la science. Cet article propose donc une analyse critique de ces évolutions, en s’appuyant sur les travaux récents et sur les nouveaux cadres théoriques qui émergent dans le champ de la biologie assitée par l’IA.

Depuis 2022, les modèles génératifs ont profondément changé le monde des biotechnologies. Là où l’intelligence artificielle se limitait autrefois à analyser des données, elle joue désormais un rôle actif dans la conception même du vivant où les architectures de diffusion, les grands modèles de langage biomédicaux et les modèles multimodaux ne sont plus de simples outils d’aide : ils participent aussi à la création d’hypothèses scientifiques et à l’exploration de nouvelles idées. Certains chercheurs parlent même d’« une reconfiguration des frontières du savoir expérimental »[1]. Autrement dit, la production de connaissances n’est plus uniquement le fait des humains : elle se construit désormais en collaboration avec des systèmes informatiques extrêmement puissants.

Cette transformation s’inscrit dès lors dans un contexte où les sciences du vivant s’appuient de plus en plus sur la modélisation et sur des outils capables de faire des prédictions statistiques très fines. En effet, aujourd’hui, presque chaque étape du travail scientifique, de la collecte de données à l’analyse, en passant par la conception d’expériences, est touchée par l’automatisation. Et cette accélération permet non seulement d’aller plus vite et d’explorer des pistes autrefois impossibles à tester, mais soulève aussi de nouvelles questions : Comment réguler des outils capables de proposer des hypothèses à grande échelle ? Comment garantir la fiabilité scientifique lorsque les modèles deviennent eux-mêmes des intermédiaires dans la production du savoir ? Et qui doit encadrer l’innovation lorsque celle-ci repose sur des systèmes de plus en plus autonomes ? Ces enjeux deviennent centraux à mesure que l’IA s’installe durablement au cœur des biotechnologies.

L’un de ces changements les plus marquants tient au passage des modèles prédictifs classiques aux modèles génératifs. Là où les premiers se limitaient à analyser les données déjà connues pour en tirer des inférences, les seconds, en revanche, vont beaucoup plus loin : ils créent de nouvelles hypothèses, proposent des séquences moléculaires originales ou imaginent des structures protéiques qui n’existent dans aucune base expérimentale. Autrement dit, la transition vers les modèles génératifs a profondément modifié la manière de concevoir le vivant, faisant passer la biologie d’une approche essentiellement empirique à une exploration computationnelle guidée[2].

Il faut se rendre à une évidence : cette évolution change aussi la place de l’autorité scientifique, car l’IA ne se contente plus de décrire ou de cartographier l’espace biologique, puisqu’elle en redessine les contours en suggérant des idées et des architectures biologiques entièrement nouvelles. On peut dès lors considérer la biologie générative non pas simplement comme un ensemble d’outils, mais comme une extension algorithmique de notre manière de penser la biologie synthétique, c’est-à-dire un prolongement computationnel de notre cadre conceptuel.

Pour saisir concrètement la puissance de ces nouveaux outils, il suffit de regarder ce qui se passe dans le design moléculaire. Dans le domaine de la protéinomique, des systèmes comme InstaNovo+ ou DynoProteinLM peuvent désormais reconstruire théoriquement des peptides ou proposer des structures protéiques crédibles avec une vitesse et une ampleur qu’aucun chercheur ne pourrait atteindre manuellement[3].

Bien sûr, ces molécules générées ne sont pas immédiatement prêtes à être manipulées au laboratoire, mais cela n’enlève rien à leur intérêt : elles deviennent de véritables moteurs d’exploration conceptuelle, puisque ces modèles, en repérant des configurations qui valent la peine d’être testées, orientent les priorités expérimentales en instaurant un lien beaucoup plus fluide entre hypothèse computationnelle et validation in vitro. En pratique, ils créent un nouvel espace de travail où la génération algorithmique et l’expérimentation biologique avancent presque en tandem.

Il va sans dire que cette approche transforme aussi la manière dont on découvre de nouveaux médicaments : étant donné que les modèles génératifs accélèrent l’identification de candidats thérapeutiques en croisant des données chimiques, des profils biologiques et même certains signaux cliniques, ils autorisent la mise en place de stratégies de criblage plus rationnelles, moins dépendantes d’essais longue durée et très coûteux[4]. A fortiori, cette accélération pourrait aussi rendre la recherche plus équitable, en ouvrant l’innovation à des équipes qui n’ont pas toujours accès à des infrastructures expérimentales lourdes.

Toutefois, il reste difficile d’évaluer l’impact réel de ces outils sur l’ensemble de la chaîne d’innovation, car les prédictions doivent encore franchir les barrières réglementaires, être validées expérimentalement, et leur fiabilité fait souvent débat. Autrement dit, même si le potentiel est immense, l’intégration concrète de ces modèles dans le développement de médicaments avance encore avec prudence.

Mais attention : ces avancées s’accompagnent aussi de risques. Le rapport Generative AI for Biosciences: Emerging Threats and Roadmap to Biosecurity[5] rappelle que les modèles génératifs posent des enjeux de double usage informationnel : ils ne fournissent pas d’instructions concrètes, mais peuvent produire des représentations abstraites (schémas, hypothèses, structures théoriques) qui, si elles sont mal comprises, peuvent mener à des interprétations erronées.

De là, les principaux risques évoqués concernent essentiellement la mécompréhension scientifique, les approximations présentes dans les structures générées et les extrapolations trop ambitieuses. En réalité, ces modèles ne produisent pas des résultats confirmés expérimentalement : ils fabriquent des hypothèses, des possibilités plausibles. Et si cette capacité est précieuse pour explorer des pistes nouvelles, elle exige aussi une vigilance constante, d’où l’idée que pour éviter les interprétations hasardeuses, il faut aussi une lecture critique, un minimum de culture scientifique et une bonne compréhension de ce que ces systèmes peuvent, et ne peuvent pas, réellement fournir.

À ces risques s’ajoutent les limites propres aux données biologiques, qui sont souvent incomplètes, hétérogènes ou biaisées. Comme le soulignent plusieurs études, « les biais dans les données génomiques peuvent se propager dans les architectures génératives »[6], créant des corrélations illusoires ou donnant l’impression que certaines prédictions sont valides alors qu’elles ne reposent sur rien de solide. Ces « hallucinations », typiques des modèles génératifs, peuvent sembler convaincantes, mais elles ne possèdent aucune base expérimentale. Dans le domaine biologique, elles ne constituent pas un danger direct au niveau opérationnel, mais elles posent un vrai problème sur le plan de la production de connaissances : elles peuvent détourner des ressources, orienter la recherche vers de fausses pistes et fragiliser la rigueur scientifique.

À cela s’ajoute un autre défi : l’absence de standards internationaux pour évaluer, auditer ou tracer le fonctionnement des modèles biomédicaux. Cette zone grise soulève des questions délicates : Qui est responsable des productions générées par l’IA ? Comment vérifier leur légitimité scientifique ? Et selon quels critères ? D’où l’importance de développer des mécanismes de gouvernance clairs, incluant une documentation transparente, des limites d’usage bien définies, une supervision humaine qualifiée et des évaluations indépendantes[7]. Ces cadres sont essentiels pour garantir que l’innovation reste fiable, responsable et alignée sur les exigences de la recherche biologique.

Au fond, le domaine de la bio-IA est traversé par une tension majeure : d’un côté, une innovation qui avance à une vitesse sans précédent ; de l’autre, la nécessité de renforcer la biosécurité et la gouvernance scientifique. Chercheurs, institutions et décideurs doivent apprendre à évoluer entre ces deux pôles. Comment tirer parti des gains d’efficacité sans affaiblir la rigueur scientifique ? Comment accélérer la découverte sans perdre en contrôle et en qualité ? Cette tension devient encore plus marquée lorsque les modèles génératifs brouillent la distinction entre simple exploration conceptuelle et véritable production de connaissances. En fait, « la question n’est pas de ralentir la recherche, mais de garantir que la vitesse ne se substitue pas à la rigueur »[8].

Pour relever ce défi, une approche intégrée s’impose. L’innovation technologique doit aller de pair avec une régulation adaptée, une meilleure auditabilité des modèles et une réflexion éthique solide. Cela implique d’instaurer une traçabilité systématique des systèmes utilisés, d’assurer une supervision humaine compétente à chaque étape, et de mettre en place des standards partagés entre la recherche publique, le secteur industriel et les autorités réglementaires. C’est cette combinaison qui permettra de développer une bio-IA à la fois ambitieuse, fiable et responsable.

En définitive, l’IA générative ne se contente pas de modifier les méthodes de recherche : elle transforme profondément notre manière de penser le vivant. Elle nous permet d’explorer plus largement l’espace biologique, de concevoir des structures hypothétiques inédites et d’analyser des ensembles de données complexes avec une précision inédite. Mais cette accélération doit s’accompagner de garde-fous : il est essentiel de rester conscient des risques épistémologiques et institutionnels, et de préserver la rigueur scientifique à chaque étape. L’objectif n’est pas de freiner l’IA, mais de s’assurer qu’elle serve à renforcer notre compréhension du vivant plutôt qu’à créer des zones grises où l’automatisation l’emporte sur la réflexion critique.

Finalement, « le véritable enjeu n’est pas l’IA elle-même, mais la manière dont les institutions choisissent de l’intégrer dans les pratiques scientifiques »[8-9]. C’est là que réside notre responsabilité collective : définir des cadres, des standards et des pratiques qui permettent de tirer le meilleur parti de l’IA tout en garantissant que la science reste fiable, transparente et éthique.

AxeDérouléTension critiqueActualisation
Adoption des technologies générativesDepuis 2022, les modèles génératifs passent de simples outils analytiques à des acteurs actifs de la conception biologique, notamment via architectures de diffusion, modèles multimodaux et grands modèles biomédicaux [1-3].Forte pression sur la structure scientifique : les modèles influencent la génération d’hypothèses et la configuration de l’espace biologique, modifiant l’autorité traditionnelle des chercheurs.La tendance à l’industrialisation et à l’automatisation des recherches biologiques s’intensifie, avec un rôle central des modèles génératifs dans le design moléculaire et la découverte de médicaments [3-4].
Risques épistémologiques et biaisLes modèles génératifs produisent des hypothèses inédites mais peuvent générer des hallucinations et propager des biais existants dans les données biologiques [5-6].Les risques incluent la mécompréhension scientifique, les extrapolations abusives et le détournement de ressources expérimentales ; tension forte entre innovation rapide et rigueur scientifique.L’IA continue de se développer, nécessitant des protocoles de validation expérimentale et des mécanismes de supervision humaine pour limiter les erreurs de production de connaissances [6-8].
Gouvernance et régulationL’absence de standards internationaux pour l’auditabilité et la traçabilité des modèles biomédicaux crée un vide réglementaire [7].Tension institutionnelle modérée à forte : responsabilité incertaine, légitimité des productions IA contestable, risque d’appropriation non supervisée de l’innovation scientifique.Les propositions incluent traçabilité systématique, supervision humaine qualifiée et standards partagés entre recherche publique, industrie et autorités réglementaires [7-8].
Innovation pharmaceutique et économiqueLes modèles accélèrent le criblage et la conception de médicaments, réduisant le temps et le coût des essais expérimentaux [4].Tension économique modérée : gains d’efficacité et potentiel d’équité confrontés aux obstacles réglementaires et incertitudes sur la validité des prédictions.L’intégration des modèles génératifs dans l’industrie pharmaceutique continue, mais l’impact réel reste à mesurer ; pression sur les investissements et priorisation des projets biotech [4].

© Pierre Fraser (PhD), linguiste et sociologue / 2025


RÉFÉRENCES

[1] Cizauskas, C., De Benedictis, E., Kelly, P. (2025). “How the past is shaping the future of life science: The influence of automation and AI on biology”. In New Biotechnology, vol. 88. URL: https://www.sciencedirect.com/science/article/pii/S1871678425000287.

[2] Guo, F., Guan, R., Li, Y. et al. (2025). “Foundations Models in Bioinformatics”. In National Science Review, vo. 1, n° 4. URL: https://academic.oup.com/nsr/article/12/4/nwaf028/7979309.

[3] Hsu, C., Fannjiang, C., Listgarten, J. (2024). “Generative models for protein structures and sequences”. In Nature Biotechnology, vol. 42. URL: https://www.nature.com/articles/s41587-023-02115-w.

[4] Kim, J., Dunn, A., Bi, L. (2025). Multimodal AI in Digital Medicine. In Nature Digital Medicine. URL: https://www.nature.com/collections/ajiaccdjfj.

[5] Generative AI for Biosciences: Emerging Threats and Roadmap to Biosecurity. (2025). arXiv preprint. URL: https://arxiv.org/abs/2510.15975.

[6] Cambridge University Press (2025). “Bias and stereotyping: Human and artificial intelligence (AI)”. In Annual Review of Applied Linguistics, vol. 45 , pp. 69 – 84. URL: https://www.cambridge.org/core/journals/annual-review-of-applied-linguistics/article/bias-and-stereotyping-human-and-artificial-intelligence-ai/4BA8310491BE6F1B9A4ABFA43E615360.

[7] Taiehagh, A. (2025). “Governance of Generative AI”. In Oxford Academic Policy and Society. URL: https://doi.org/10.1093/polsoc/puaf001.

[8] Musslick, S., Bartlett, L. K., Chandramouli, S. H. (2024). “Automating the practice of science: Opportunities, challenges, and implications”. In PNAS, vol. 122, n° 5. URL: https://doi.org/10.1073/pnas.2401238121.