Participer

© Indesciences.com
Tous droits réservés.
Site réalisé par William Traoré

Le cannabis, une valeur thérapeutique au milieu des effets à risques ?

/!\ Cet article est à titre informatif et n’entraine en aucun cas un jugement ou une incitation à la consommation de cannabis /!\

Au centre des controverses pour permettre sa libre commercialisation contrôlée en France, le cannabis anime les esprits à différentes occasions, du loisir au traitement thérapeutique. Comment les extraits d’une plante peuvent-ils être si dangereux et en même temps utilisés à but thérapeutique ? 

Le cannabis (ou marijuana) est un produit extrait du chanvre (cannabis sativa), plante à feuilles palmées originaire d’Asie centrale. Ses effets psychotropes étaient connus dès le 5ème avant J.C, et ont vu une expansion rapide à travers toute l’Asie et le bassin méditerranéen.

L’ère moderne a permis d’identifier les molécules responsables des effets procurés par la consommation de cannabis, que ce soit par voie orale ou par inhalation: les Cannabinoïdes. Parmi les plus importantes molécules du cannabis, le THC (tétrahydrocannabinol) est la molécule responsable de la majorité des effets psychotropes de la consommation de cannabis, agissant sur le cerveau (1).

Les effets aigus sont multiples et dépendent de plusieurs facteurs, comme la quantité ou la voie de consommation, l’état physique et mental de la personne : L’effet sur l’humeur, principale caractéristique de l’usage récréatif du cannabis, se manifeste par une diminution de l’anxiété, de la vigilance, de la dépression et de la tension sociale. Un effet supplémentaire est l’altération de la perception: les couleurs, sons et émotions semblent plus vives et intenses, accompagnés d’hallucinations en cas de fortes doses. Enfin, le dernier effet important de la consommation de cannabis affecte la cognition et les capacités psychomotrices, de façon similaire à l’alcool, la consommation de THC produit un ralentissement du temps de réaction, une incoordination motrice, des défauts de la mémoire à court terme et difficulté de concentration dans les tâches complexes. L’une des conséquences majeures de ces effets, est l’augmentation de la probabilité d’avoir un accident de la route, le cannabis causant x accidents de la route chaque année. (2)

La consommation chronique de cannabis provoque également des troubles de l’attention, des difficultés à traiter des informations complexes, et des problèmes de mémoire, ces effets peuvent durer plusieurs semaines à plusieurs années après l’arrêt de la consommation (3).

Connaître les effets du cannabis a permis d’en connaître le danger, encore faut-il comprendre comment il agit sur le cerveau humain, ici nous allons nous intéresser à la mémoire.

L’effet du THC sur la mémoire

Le cerveau humain, aussi complexe soit-il, nous révèle peu à peu ses secrets et son fonctionnement. Parmi les structures impliquées dans le processus de mémorisation, l’hippocampe a été identifié comme un acteur important (4) et continue d’être étudié afin d’en déchiffrer toutes les fonctions physiologiques ainsi que les effets pathologiques. Il s’est également révélé être une des cibles des cannabinoïdes (5). Ainsi, il est un candidat d’étude parfait pour les chercheurs voulant connaître l’effet du THC sur les neurones, et leurs conséquences sur les mécanismes de perte de mémoire. Bien que ceux-ci soient nombreux, nous allons ici nous focaliser sur les effets au niveau de la mitochondrie.

L’hippocampe est en partie composé de neurones, qui, comme toute cellules du corps humain, possèdent des mitochondries, organites intracellulaires qui produisent l’énergie, sous forme d’ATP, nécessaire au fonctionnement des cellules par un phénomène que l’on nomme la “respiration mitochondriale ». Lors de la consommation de cannabis, le THC vient se fixer sur des récepteurs aux cannabinoïdes présents à la surface des mitochondries. Cette fixation entraîne une cascade chimique au sein de la mitochondrie, résultant en une diminution de la respiration mitochondriale, Ainsi, celles-ci produisent moins d’énergie, diminuant la capacité des neurones de l’hippocampe à exercer leurs fonctions telles que la transmission d’informations de souvenirs vers les différentes aires du cerveau (5).

Ainsi le THC diminue la capacité du cerveau à enregistrer des souvenirs à court terme ce qui, à terme, peut entraîner des difficultés de mémorisation. 

Le cannabis possède de nombreux autres effets négatifs que nous ne développerons pas ici. Néanmoins, on peut tout de même préciser qu’il possède des vertus reconnues parmi le corps médical, et peut être même utilisé comme traitement, à l’instar de la morphine.

Le cannabis, un possible traitement thérapeutique  

Encore au stade expérimental en France, le cannabis thérapeutique est aujourd’hui sujet d’étude et de test sur des pathologies graves. Les cas cliniques retenus par le comité scientifique sont entre autres les personnes atteintes de certaines formes d’épilepsie sévères, de certains symptômes rebelles en oncologie liés au cancer ou à ses traitements, ou encore de spasticité douloureuse de la sclérose en plaques. (6) 

Les voies d’administration sont différentes, pour ces recherches, des formules moins dangereuses ont été mises en place, comme des sommités fleuries de cannabis à vaporiser pour inhalation ou sous forme d’huile administrée par voie orale. Cette dernière permet d’étudier l’effet du premier passage hépatique, impliqué dans la métabolisation, sur l’effet du cannabis, comparée aux effets “classique” de l’inhalation du cannabis. 

Cette expérimentation en France a débuté en mars 2021, prévue pour deux ans, permettra ou non son utilisation par les professionnels de santé dans le traitement des pathologies évoquées, voir dans d’autres cas cliniques si l’étude découvre une utilité autre du cannabis thérapeutique.

En parallèle des études sur le cannabis, une autre molécule connue du cannabis, le CBD (ou cannabidiol), est commercialisé en France depuis l’arrêté de juin 2021, si ce dernier provient d’une variété de cannabis cultivé dans l’Union européenne et qu’il est spécifique en ne contenant que 0.2% de THC. Cette molécule, identifiée en 1963 (7), est dépourvue de propriétés psychoactives.

L’intérêt du grand public dans l’utilisation du CBD se tourne vers ses supposés effets antalgiques et dermatologiques, mais également décontractant musculaires, effets qui intéressent beaucoup pour le traitement de l’épilepsie (8). Néanmoins, bien que dépourvu d’effets psychoactifs, le CBD n’est pas sans risques; les effets néfastes connus par voie orale sont le manque d’appétit, diarrhées et somnolence (8).

Il est donc nécessaire d’approfondir la recherche scientifique sur les effets du CBD avant que celui-ci puisse être défini comme un traitement sûr et efficace.

Les biofilms, tout un monde à découvrir ?

“La grandeur a besoin de mystère. On admire mal ce qu’on connaît bien.” – Charles DE GAULLE

Les biofilms sont des communautés de microorganismes en contact avec une surface. C’est un mode de vie différent de la vie libre dans l’eau. On en voit souvent sur les pierres dans les rivières, car ils forment une couche marron et un peu glissante. Ils sont un sujet d’étude clé dans plusieurs domaines, car on les retrouve sur la plaque dentaire, ou sur les bateaux. Les biofilms se forment dans les minutes suivant l’immersion de la surface. Des bactéries, puis des micro-algues se déposent et se fixent sur le support. Ces microorganismes sont importants pour la santé des écosystèmes marins, car ils participent au transport de molécules au travers des grands réservoirs de la Terre (atmosphère, géosphère, hydrosphère).

Nous savons que les biofilms se forment à partir des microorganismes déjà présents dans le milieu, et qui se fixent à sa surface. Mais en milieu marin, des études ont montré que les organismes qui composent majoritairement le biofilm sont différents de celles qui évoluent dans l’eau environnante (1).

Weipeng ZHANG, un chercheur chinois,(2) et son équipe ont voulu identifier une grande quantité d’organismes présents sur des biofilms marins, afin de mieux comprendre les espèces qui les composent.

Pour cela, iels ont utilisé des données du projet Tara Ocean (3) afin de comprendre la biodiversité océanique mondiale. C’est une fondation française qui a pour but de développer la recherche dans les océans, et mieux comprendre les risques du changement climatique. Zhang et ses collègues ont donc exploité 2,5 terabases (1 base = 1 nucléotide, brique élémentaire de l’ADN) de séquences génétiques issues de Tara Ocean et provenant des océans Atlantique, Indien et Pacifique. Grâce à ces données, l’équipe a réussi à identifier plus de 7000 nouvelles espèces dans les biofilms ; augmentant de plus de 20% la diversité microbienne connue dans les océans !

Au vu de ces résultats, on pourrait se demander pourquoi il y a une telle différence entre les organismes relativement connus vivant librement dans l’eau, et les biofilms ?

Ils semblent cacher des milliers d’espèces restant à découvrir alors que ces derniers se forment à partir de ce qu’il y a déjà dans la mer. En réalité, le fait de s’associer à une surface, comme le font les microorganismes dans les biofilms, offre de nombreux avantages. En se fixant, les bactéries produisent des molécules qui vont former comme une couche de protection autour d’elles et piéger les nutriments. Cela leur permet également de se protéger contre des prédateurs qui voudraient en faire leur repas, ou contre les rayons UV qui pénètrent même dans l’eau. Le fait que diverses espèces se mélangent leur permet également d’interagir les unes avec les autres et de tirer profit de leurs voisines. Certaines espèces vont donc plus facilement s’adapter à ce type de mode de vie. Elles sont souvent assez rares dans l’eau, mais se développent beaucoup mieux dans les biofilms marins. C’est pourquoi on retrouve une telle différence dans la composition en espèces des deux milieux.

Les résultats obtenus tendent vers un principe en écologie microbienne qui dit « everything is everywhere, but the environment selects » (4) (tout est partout mais l’environnement sélectionne).

Cette phrase signifie que les organismes sont globalement distribués partout, mais qu’ils seront plus ou moins présents selon l’environnement. Tout ceci nous montre que nous sommes loin d’avoir tout compris sur les microorganismes, petits mais si diversifiés ; et qu’il nous reste encore beaucoup de choses à découvrir sur ce mode de vie si particulier qu’est le biofilm.

Comment lire un article scientifique ?

Science Limitations

« Not only is it important to ask questions and find the answers, as a scientist I felt obligated to communicate with the world what we were learning » ―Stephen Hawking

In 2017, Pierre Chirsen, one of the founders of Indésciences declared, in trying to define science popularization, « It’s a term that we have long been afraid to use. We try to avoid using it because it doesn’t really correspond to what we want to transmit. Research can be « straightforward ». Research is for everyone, that’s a fact. Sometimes you just have to slightly adjust the discourse so that it’s for everyone. It’s not a desire to make something extra playful by discrediting it. We want to stick to a scientific rigor we’re very attached to. Making scientific discourse accessible while maintaining rigor is what we are trying to do » (“Vulgariser sans vulgarité” 2017). I dare to imagine that this sentence sums up perfectly the wish of magazines, blogs, TV and radio programs, and finally of conference organizers and all those involved in scientific mediation.

Transmit accurately the information produced by the researchers

However, today more than ever, there is a lack of understanding of scientific issues and epistemic knowledge about science (Scheufele 2013; Scheufele and Krause 2019). This lack of understanding includes public perceptions of scientific uncertainty, media promotion techniques, and the gap between what research says and what the public hears (National Academies of Sciences, Engineering, and Medicine 2017; Scheufele and Krause 2019; Schmidt 2009) as well as the multiplication of sources and organizations involved (Bubela et al. 2009). All this shows that achieving the ultimate goal of civic education (Schmidt 2009) is not an easy task. The danger and explosion of « fake news » have even prompted researchers to study the phenomenon at an accelerated pace since 2016 (Alonso García et al. 2020). Moreover, research has shown that insufficient communication between the scientific sphere and the public can significantly hinder social and political debates (Bubela et al. 2009; National Academies of Sciences, Engineering, and Medicine 2017; Scheufele 2013; Scheufele and Krause 2019; Schmidt 2009). This may even lead to an increase in the prevalence of certain conditions such as cancer (Johnson et al. 2018). We may assume that good science outreach practices, education, quality, and development depend solely on science-trained individuals. When we see the daily progress being made all around us every year, it leads us to believe, often erroneously, that if scientists maintain this passion, perseverance, and dedication it’s because they are “limitless” and, by extension, so is science. In this article, I will present some of the elements that limit the legitimate dissemination of science to the general public and briefly suggest some avenues we need to address.

Study limitations 

The preferred means of communicating scientific or technological advancement is through the writing of scientific articles (Crookes 1986; Peterson 1961). Initially created to disseminate scientific discoveries among researchers, they have become open to the public and are now a major source of information that can be refuted and has a considerable impact on our decision-making in all aspects of life (Hoogenboom and Manske 2012; Nahata 2008). As a result, to limit confusion, they have a very rigid form and publisher-specific guidelines that must be followed (Bates College 2011; Hoogenboom and Manske 2012; Kenyon College n.d.; Mack 2018; Nahata 2008). The abstract, a general summary of the research project, is followed by the introduction, which sets the context and purpose of the study. Next, the materials and methods provide a detailed explanation of how the study was carried out and the results, which objectively present the results of the experiments carried out. Then, the discussion to interpret the results and put them in the general context. Finally, the conclusion to trace the results and their relevance, to propose future directions followed by the references used. In order to avoid any misinterpretation, it is essential, in each study, to clarify the importance of the contribution to science and especially its limits, to ensure total transparency, without harming the research. To this end, there is a very important paragraph in the discussion section that scientists may sometimes be a little reluctant to share (“How To Present Study Limitations and Alternatives” 2018; Puhan et al. 2012; Ross and Bibler Zaidi 2019; ter Riet et al. 2013; Tigre Moura 2017). This section entitled « Study Limitations » refers to any issue that impedes a study and its results (Ross and Bibler Zaidi 2019; Tigre Moura 2017). Regrettably, a study on biomedical research published in 2007 showed that only 17% of respondents reported limitations to their study (Ioannidis 2007). But, as Dr. Puhan and his collaborators have noted: « we need scientists who understand and note the potential for frank and unbiased discussion of study limitations and for journals to recognize and accept such manuscripts » (Puhan et al. 2012).

Oversimplification

Furthermore, students in scientific training are the firsts to learn this: when it comes to writing an article or presenting their work at the end of an internship, or even during their studies, they have to be honest, precise, and extremely rigorous. This requirement is perfectly useful and necessary for the communication and progress of science between researchers, but how can this rigor be applied to communication with the general public? Quite simply, a scientist must be able to condense and simplify, or, in other words, “popularize” their discourse in order to get the message across. They must remove all technical terms from their oration in order not only to make themselves understood but also to maintain the public’s attention (Alley 2014). The introduction of magazines and television programs in charge of science outreach has facilitated the task of many researchers and made science more accessible by increasing its dissemination. Despite this, condensing work lasting several months or a ten-page article often represents a very great risk: oversimplification (Doumont 2010; Schmidt 2009). For several years now, some scientific-educational programs in France have included communication courses and require their students to practice this skill fairly regularly. But again, this is something that has only recently been introduced into science curricula. Most of the people who really manage to successfully communicate scientific progress nowadays are people who have not had this kind of training. But have taken advantage and exploited opportunities outside their usual curriculum. These people have often shown creativity and their passion has led them to take up science outreach, such as Dr. Elodie Chabrol director of Pint of Science France, Dr. Sébastien Carassou, or platforms like “Café Des Sciences.

Then we have the journalists trained in science mediation. The principle of one person being taught how to write and communicate science eloquently to the public is an idea that has greatly increased the visibility and funding of research projects. Despite this, with few exceptions, a journalist is not a scientist and a scientist is not a journalist. Researchers are certainly very grateful to magazines and newspapers that are dedicated to science outreach. Nevertheless, as mentioned earlier, the writing of original articles follows inflexible rules and, as a result, offers a very different version of what we see in the media columns. For those trained in technical sciences, reading such a column can sometimes create doubts about the extent or consequences of the research mentioned. It is at this point that a check of the original article may reveal a lack of precision or an oversimplification of the researcher’s assessment. However, this problem can be solved by effective cooperation between the two parties. The journalist should communicate regularly with the scientist and submit the article to him or her before publication in order to agree on the latest version. And the researcher, for his part, must make himself available, be cautious in what he says and ensure that the work of his team is not excessively distorted or overly simplified.

Pseudoscience

Another important thing to consider when it comes to sharing research with the public it’s that despite all the double checks in place, scientists are human and can, therefore, like everyone else, make mistakes. Whether it is personality, funding size and policies, unconscious bias, or lack of integrity, there are many elements that can hinder the dissemination of solid and accurate information. A term that frequently recurs in discussions of scientific integrity is the term pseudo-science. To use a quite common term nowadays, pseudoscience can be characterized as science’s fake news, and in this case, “pseudo” is a Greek term that literally means fake. Nonetheless, despite the practicality of the term and the general consensus, extreme caution must always be exercised when using it. Most importantly, scientists who have spent most of their adult lives learning to practice science ought to explain to non-experts the process of first defining and then recognizing pseudo-science.

The major difference lies in the ground rules, established to produce rigorous scientific work. Pseudoscience is not based on the scientific method (Coker 2003). Specifically, it is often based on subjective value and starts from an attractive hypothesis, dependent on the arbitrary conventions of culture and not on facts, in which case there’s no evidence to support it (Coker 2003). That is to say, even if it is found to respect the classic structure of an article, it lacks credible evidence based on the (objective) knowledge of nature and does not take into account the overwhelming presence of contradictory data (Coker 2003). In theory, the various processes in place prior to the publication of an article, and especially peer review, should provide a safe barrier to pseudoscience (Marcus and Oransky 2017). The peer-review technique exists in several forms, but in the long run, it allows journals/platforms to solicit 2-3 researchers with expertise in the field to assess the quality and validity of the paper a scientist wishes to publish. Unfortunately, this is not always the case, and whether it is the journals, the reviewers, or the publishers, all must be vigilant in order to no longer give a forum to non-validated ideas (Marcus and Oransky 2017). You can easily use Google and you will discover that there is a list of topics on Wikipedia that have been identified as pseudoscience topics (“List of Topics Characterized as Pseudoscience” 2020). However, any well-informed person can easily realize that some of the topics on this list are certainly not science, and as Michael D. Cordin put it so well in his book Pseudoscience Wars: « The more attractive science is, the more people with unorthodox ideas want to model themselves upon it, and the greater the public appetite for doctrines with the appearance of science » (Gordin 2017). Does this mean that any unorthodox or unconventional idea is necessarily wrong or fake? Absolutely not! Starting with the young Albert Einstein, to less well-known names such as the 1975 Nobel prize winners, David Baltimore, Howard M. Temin, and Renato Dulbecco. The history of science offers us an abundance of stories where brilliant people had revolutionary ideas but were nevertheless mistreated and their scientific integrity was questioned. As described by Schopenhauer, when opinion becomes general, adhering to it is a duty, and people are hated when they dare to formulate their own judgments (Schopenhauer 1830 ploy XXX). Even in this day and age, there are scientists, such as Dr. Ruth Izhaki, who conducts research on Alzheimer’s disease and who, while they respected scientific guidelines and procedures, the fact that they dared stray away from the norm, made people question the importance and validity of her work (Begley 2019). Thus, this is what we can draw from our reflections. These examples show that it is not a question of our opinion on the title or the results of an article, but of focus on the method used to generate these results.

However, like Michael D. Gordin, it is reasonable to assume that those who have been called pseudo-scientists (whether or not history has proven them right) may have considered themselves to be true scientists (Gordin 2017). This does not mean that all those who have found themselves in this category are a marginalized and unrecognized pioneer. Unfortunately, as always, there are charlatans and ill-intentioned opportunists. This is why it is cardinal to regularly double-check our sources and examine all our information. Hence, once again it is a matter of proper communication and the use of modern tools. First of all, the non-expert public needs the keys to assess the reliability of the information and to search for the validity of any new hypothesis. With these means, everyone will be able to understand which hypotheses are mostly accepted and which ideas are controversial, inaccurate, or false. It is obvious that science is evolving every day and that research must be constant. But if this is done correctly and everyone who creates a debate supports the scientific community and ultimately listens to its conclusions, personal and societal progress in this area will be the inevitable reward.

Cognitive Bias

Now, let us now assume that the problems mentioned above disappear. Once again, we are human beings, and whether we like it or not, the way we establish our beliefs is biased. In this case, it is not always our fault, but it is our responsibility to evaluate our behavior and to identify what may prevent us from doing, writing, speaking, or disseminating science. Whether unconscious or conscious, prejudice and cognitive biases shape the way we view the world and, by extension, science.

Let’s start with cognitive biases, and again, Wikipedia has a non-exhaustive list of them (“List of Cognitive Biases” 2020). To put it plainly, it is undeniable that it is not a question of intelligence or education, but simply of how our brains function to allow us to perform and think clearly on a daily basis (Benson, 2019). You may think it is absurd that the driver of the car that is your body deliberately takes it easy but « unreasonable » turns to reach his destination, but if you are driving and your GPS tells you there is a shortcut, won’t you follow it?! You’ll probably save time and energy, and that’s exactly what your brain does. According to author Buster Benson (Benson 2019), there are four main problems that cognitive biases help solve, and here’s how he listed them:

  1. Too much information
    Your brain picks the information that is likely to be most useful, meaning: We notice things that are already primed in memory or repeated often, bizarre/funny/visually-striking/anthropomorphic things stick out more than non-bizarre/unfunny things, things that have changed, details that confirm our own existing beliefs, and we notice flaws in others more easily than flaws in ourselves.
  2. Not enough meaning
    The word is very confusing and we need to make sense of things, meaning: We find stories and patterns even in sparse data, We fill in characteristics from stereotypes, generalities, and prior histories whenever there are new specific instances or gaps in information, We fill in characteristics from stereotypes, generalities, and prior histories whenever there are new specific instances or gaps in information, We simplify probabilities and numbers to make them easier to think about, We think we know what others are thinking, and we project our current mindset and assumptions onto the past and future.
  3. Need to act Fast
    We are limited by time and information and we can’t let that paralyze us, meaning: In order to act, stay focused, avoid mistakes and get things done, We need to be confident in our ability to make an impact and to feel like what we do is important, we favor the immediate, relatable thing in front of us over the delayed and distant, we’re motivated to complete things that we’ve already invested time and energy in, we’re motivated to preserve our autonomy and status in a group and to avoid irreversible decisions, and we favor options that appear simple or that have more complete information over more complex, ambiguous options.
  4. What should we remember?
    Once again the plethora of information around is too much to remember so we keep the most useful bits, meaning: We edit and reinforce some memories after the fact, we discard specifics to form generalities, we reduce events and lists to their key elements, and we store memories differently based on how they were experienced.

Can you imagine what these biases do to the information we consume? In research, despite all the checks and balances that are in place, bias can very often and unconsciously influence the way research is conducted. Psychologist Brian Nosek has dedicated his career to this issue in order to create a more transparent science or « scientific utopia » (Ball 2015). Nosek and his colleague Jeff Spies created the Open Source Framework which essentially allows scientists to submit a plan of their work prior to its completion (Stage 1). They then develop their respective projects and when the results arrive, they compare their results with the previously submitted hypotheses (stage 2) (Ball 2015). This approach limits the presentation of unexpected results and « forces » the scientist to respect their initial plan. It avoids bias in the scientist’s reasoning since they do not change the project by analyzing everything differently and trying to adapt it to their original idea (Ball 2015). Is this the ultimate solution? Nosek states that for the time being no assertions can be made (Ball 2015) although it has other advantages. And, even if « open » science has not yet convinced everyone (Hocquet 2018; Swan 2017), the European Commission’s initiative to launch a new open science platform “Open Research Europe” shows that its development is on the right track.

Processus d’enregistrement des rapports. Note. Figure extraite du site web des rapports enregistrés du Center for Open Science à https://cdn.cos.io/media/images/registered_reports.width-800.png

Lastly, I would like to briefly talk about attentional bias. This type of bias is part of cognitive bias, but it is wise to discuss a little more about its impact. “Attention is the cognitive process of selectively concentrating on one thing while ignoring other things. It refers to all the mechanisms by which the brain selects information, amplifies it, channels it, and deepens its processing(“Attention” 2020; Dehaene 2020). The phrase « selects information » implies that there is a process where our mind favors some of the information it receives, focuses on it, and eventually stores it. When we focus on intellectual tasks in this way, we become blind to other situations or the information and reduce the impact of information that is deemed irrelevant (Dehaene 2020). Thus, the attentional bias affected by the selective factors of our attention can be as useful as when driving a car. Consequently, in some cases, it can also prevent us from collecting essential information, such as when we concentrate on our phone while crossing a road. When it comes to science, this information, even if it is sometimes contradictory to what we think we know, is necessary in order to arrange the puzzle of our beliefs and experiences.

However, as the current crisis illustrates, we cannot afford misinformation and, above all, we cannot afford to limit the progress and scope of science. Firstly, as individuals, scientists, and non-scientists alike, and secondly as a society. We must constantly and respectfully question ideas, methods, and people. We must assume responsibility and consciously challenge our prejudices, accept the judgment and open communication of our work, and learn to evaluate and interpret the work of others. Only in these circumstances can we hope to avoid oversimplification, discuss productively the limits of a study, weaken the ascendancy along with the visibility of pseudo-science, and lessen the impact of bias, for a science « without limits ».

For more information on:

  1. The Story of the 1975 Nobel Prize Winners: Listen to this podcast by Malcolm Gladwell.
  2. Dr. Ruth Ithaki: You can view the article she struggled to publish here and her subsequent results here.
  3. Brian Nosek and Jeff Spies and their platform read Nosek’s article on psychological science & the piece on natureindex.com  along with their strategic plan.
  4. Michael D. Gordin and his book and other related works, see The University of Chicago Press
  5. The importance of presentation/publication of negative results in science, see the article by D.Mehta Nature Careers.
  6. The peer-review process, see Elsevier.
  7. Open science, see the Business Science report.
  8. The war against misinformation during the COVID19 crisis, you can refer to this article.



Les limites de la Science

“Non seulement il est important de poser des questions et de trouver les réponses, mais en tant que scientifique, je me suis senti obligé de communiquer au monde ce que nous apprenions » – Stephen Hawking

En 2017, Pierre Chirsen, l’un des fondateurs d’Indésciences déclarait, en essayant de définir la vulgarisation, “C’est un terme que l’on a longtemps été frileux d’utiliser. On essaie d’ailleurs d’éviter de l’utiliser parce que ça ne correspond pas vraiment à ce que l’on veut transmettre. La recherche peut être « vulgaire ». La recherche s’adresse à tout le monde, c’est un fait. Parfois, il faut juste aménager un peu le discours pour que cette recherche s’adresse à tout le monde. Ce n’est pas une volonté de rendre quelque chose d’extra ludique en le décrédibilisant. On veut rester sur une rigueur scientifique à laquelle on est très attaché. Rendre le discours scientifique accessible en gardant la rigueur, c’est ce que l’on cherche à faire” (Vulgariser sans vulgarité, 2017). J’ose imaginer que cette phrase résume parfaitement le souhait des magazines, des blogs, des émissions télés et radios et enfin des organisateurs de conférences et de tous les acteurs de médiation scientifique.

Transmettre avec précision l’information requise à partir du travail des chercheurs 

Seulement, aujourd’hui plus que jamais, il y a un manque de compréhension de la science et de connaissances épistémiques à son sujet (Scheufele, 2013; Scheufele & Krause, 2019). Cette incompréhension se traduit notamment par la façon dont le public perçoit l’incertitude scientifique, les techniques de promotion des médias et l’écart entre ce que dit la recherche et ce que le public entend (National Academies of Sciences, Engineering, and Medicine, 2017, Chapter 3; Scheufele & Krause, 2019; Schmidt, 2009) ainsi que par la multiplication des sources et des organisations engagées (Bubela et al., 2009). Tout ceci montre que d’atteindre l’objectif final de l’éducation civique (Schmidt, 2009) n’est pas une tâche facile. Le danger et l’explosion des “fake news” ont même poussé les chercheurs à étudier le phénomène à un rythme accéléré depuis 2016 (Alonso García et al., 2020). Par ailleurs, des recherches ont prouvé qu’une communication insuffisante entre la sphère scientifique et le public peut nuire considérablement aux débats sociaux et politiques (Bubela et al., 2009; National Academies of Sciences, Engineering, and Medicine, 2017, Chapter 3; Scheufele, 2013; Scheufele & Krause, 2019; Schmidt, 2009). Cela peut même entraîner une augmentation de la prévalence de certaines pathologies comme le cancer (Johnson et al., 2018). Nous partons peut-être du principe que la bonne pratique de la vulgarisation scientifique, l’éducation ainsi que sa qualité et son développement reposent uniquement sur des personnes formées en sciences. Lorsque nous voyons les progrès quotidiens réalisés chaque année tout autour de nous, cela nous laisse croire, souvent à tort, que si les scientifiques gardent cette passion, cette persévérance et ce dévouement, c’est parce qu’ils sont sans défaut et, par extension, la science l’est aussi. 

Dans cet article, je présenterai quelques éléments qui limitent la diffusion légitime de la science auprès du grand public et proposerai brièvement quelques pistes pour que nous puissions les dissiper.

Limites de l’étude

Le moyen privilégié pour communiquer les progrès de la science ou de la technologie est la rédaction d’articles scientifiques (Crookes, 1986; Peterson, 1961). Initialement créés pour diffuser les découvertes scientifiques entre les chercheurs, ils se sont ouverts au public et constituent aujourd’hui une source d’information majeure, réfutable et doté d’un impact considérable sur nos prises de décision dans tous les aspects de la vie (Hoogenboom & Manske, 2012; Nahata, 2008). Par conséquent, pour limiter la confusion, ils ont une forme très rigide et des lignes directrices spécifiques à chaque éditeur qu’il faut respecter (Bates College, 2011; Hoogenboom & Manske, 2012; Kenyon College, n.d.; Mack, 2018; Nahata, 2008). Tout d’abord l’abstract, un résumé général du projet de recherche, puis l’introduction, qui permet d’établir le contexte et préciser l’objectif de l’étude. Ensuite, le matériel et méthodes permet d’expliquer en détails la façon dont l’étude a été réalisée, les résultats, qui présentent objectivement les fruits des expériences effectuées. Ensuite, la discussion pour interpréter les résultats et les remettre dans le contexte général. Au final, la conclusion pour  retracer les résultats et leur pertinence, proposer des futures directions suivie des références utilisées. Afin d’éviter toute mauvaise interprétation, il est primordial, dans chaque étude, de clarifier l’importance de la contribution à la science et surtout ses limites, afin d’assurer une transparence totale, sans nuire à la recherche. Pour cela, il y a un paragraphe très important dans la partie discussion que les scientifiques peuvent parfois être un peu réticents à partager (“How To Present Study Limitations and Alternatives” 2018; Puhan et al., 2012; Ross & Bibler Zaidi, 2019; ter Riet et al., 2013; Tigre Moura, 2017). Cette section intitulée « Limites de l’étude » fait référence à tout aspect qui entrave une étude et ses résultats (Ross & Bibler Zaidi, 2019; Tigre Moura, 2017). Regrettablement, une étude sur la recherche biomédicale publiée en 2007 montrait que seulement 17% exposent les limites de leur étude (Ioannidis, 2007). Mais, comme évoqué par le Dr. Puhan et ses collaborateurs : “nous avons besoin de scientifiques qui comprennent et notent le potentiel d’une discussion franche et impartiale sur les limites des études et que les revues reconnaissent et acceptent de tels manuscrits” (Puhan et al., 2012).

Simplification excessive

En outre, les étudiants en formation scientifique sont les premiers à le savoir : quand il s’agit d’écrire un article ou de présenter leur travail à la fin d’un stage, ou même pendant leur cursus, ils doivent être précis et extrêmement rigoureux. Cette exigence est parfaitement utile et nécessaire pour la communication et le progrès de la science entre les chercheurs, mais comment appliquer cette rigueur à la communication auprès du grand public ? Un scientifique se doit de réussir à condenser, simplifier ou autrement dit vulgariser son discours pour pouvoir faire passer le message. Il doit supprimer tous les termes techniques de son discours pour non seulement se faire comprendre, mais également  maintenir l’attention du public (Alley, 2014). L’introduction des magazines et des émissions de télévision en charge de vulgariser la science a permis de faciliter la tâche de nombreux chercheurs et de rendre la science plus accessible en augmentant sa diffusion. Malgré cela, condenser des travaux de plusieurs mois ou un article d’une dizaine de pages représente souvent un très grand risque : la simplification excessive (Doumont, 2010; Schmidt, 2009). Depuis quelques années, certaines formations scientifiques en France ont intégré des cours de communication et exigent que leurs étudiants pratiquent assez régulièrement cette compétence. Mais encore une fois, il s’agit d’un enseignement qui a été introduit récemment dans les cursus scientifiques. La plupart des personnes qui arrivent réellement à transmettre avec succès les progrès scientifiques sont des personnes qui n’ont pas eu ce genre de formation mais qui ont su exploiter des opportunités en dehors de leur cursus habituel. Ces personnes ont souvent fait preuve de créativité et leur passion les a poussées à se lancer dans la vulgarisation, tels les vulgarisateurs Dr. Elodie Chabrol, directrice de Pint of Science France, ou Dr. Sébastien Carassou, ou encore nombre de scientifiques sur des plateformes comme le “Café Des Sciences”. 

De plus, certains journalistes sont formés en médiation scientifique. Le fait d’enseigner comment écrire et communiquer avec éloquence la science au public est une idée qui a permis d’augmenter considérablement la visibilité et les financements des projets de recherche. Malgré cela, à quelques exceptions près, un journaliste n’est pas un scientifique et un scientifique n’est pas un journaliste. Les chercheurs sont certainement très reconnaissants envers les magazines et journaux qui sont dédiés à la vulgarisation. Néanmoins, comme dit précédemment, l’écriture des articles originaux suit des règles inflexibles et, par conséquent, offre une version très différente de celle d’une rubrique des médias. Pour les personnes formées en sciences techniques, la lecture d’une telle rubrique peut parfois créer des doutes par rapport à l’ampleur ou les conséquences de la recherche mentionnée. C’est à ce moment là qu’une vérification de l’article original peut permettre de constater un manque de précision ou une simplification excessive du bilan. Cependant, ce problème peut être résolu par une coopération efficace entre les deux parties. Le journaliste doit communiquer régulièrement avec le scientifique et lui soumettre l’article avant la publication pour avoir l’accord sur la dernière version. Et le chercheur, de son côté, doit se rendre disponible, se montrer prudent dans ses propos et s’assurer que les travaux de ses équipes ne sont pas déformés ou excessivement vulgarisés. 

Pseudoscience

Un autre élément important à prendre en compte lorsqu’il s’agit de partager la recherche avec le public, est que, malgré tous les contrôles mis en place, les scientifiques sont humains et peuvent donc, comme tout le monde, faire des erreurs. Qu’il s’agisse de la personnalité, de la taille et des politiques de financement, de biais inconscients ou d’un simple manque d’intégrité, de nombreux éléments peuvent faire obstacle à la diffusion d’informations solides et précises. Un terme qui revient fréquemment dans les discussions sur l’intégrité scientifique est le terme de pseudo-science. Pour utiliser un terme assez courant de nos jours, la pseudoscience favorise la production de  “fake news” scientifique, et dans ce cas, « pseudo » est un terme grec dont le sens signifie littéralement « faux ». Malgré la praticité de ce terme et le consensus général, il faut toujours faire preuve d’une extrême prudence lorsqu’on l’emploie. Cela doit commencer par les scientifiques qui ont passé la majeure partie de leur vie d’adulte à apprendre à faire de la science. Ils devraient expliquer aux non-experts la démarche pour d’abord définir et ensuite reconnaître la pseudoscience. 

La différence majeure se trouve dans les règles de base, établies pour produire des travaux scientifiques rigoureux. La pseudo-science ne se base pas sur la méthode scientifique (Coker, 2003). Plus précisément, elle repose souvent sur une valeur subjective et part d’une hypothèse attrayante, dépendante des conventions arbitraires de la culture et non de faits, pour ensuite  chercher des éléments qui vont l’appuyer (Coker, 2003). C’est à dire que, même en respectant la structure classique d’un article, elle manque de preuves crédibles basées sur nos connaissances (objectives) de la nature et elle ne prend pas en compte la présence accablante des données contradictoires (Coker, 2003). En théorie, les différents processus mis en place avant la publication d’un article, et plus particulièrement l’examen par les pairs (Peer review), devraient poser une barrière sûre à la pseudoscience (Marcus & Oransky, 2017). La technique d’examen par les pairs existent en plusieurs formes, mais à terme, elle permet aux journaux/plateformes de solliciter 2-3 chercheurs possédant une expertise  dans le domaine traité, pour évaluer la qualité et la validité du papier qu’un scientifique souhaite publier. Malheureusement, ce n’est pas toujours le cas et qu’il s’agisse des journaux, des évaluateurs, ou des éditeurs, tous doivent être vigilants afin de ne plus donner une tribune à des idées non validées (Marcus & Oransky, 2017). Vous pouvez aisément utiliser Google et vous découvrirez qu’il existe une liste de sujets sur Wikipédia qui ont été identifiés comme étant des sujets de pseudo-sciences (List of topics characterized as pseudoscience 2020). Pourtant, même si toute personne bien informée peut facilement se rendre compte que certains sujets de cette liste ne sont certainement pas de la science, et comme l’a si bien dit Michael D. Gordin dans son livre Pseudoscience Wars : « Plus la science est attrayante, plus les gens aux idées peu orthodoxes veulent s’en inspirer, et plus l’appétit du public pour les doctrines ayant l’apparence de la science est grand » (Gordin, 2017). Cela signifie-t-il que toute idée non orthodoxe ou non conventionnelle est nécessairement fausse ? Absolument pas ! A commencer par le jeune Albert Einstein, jusqu’à des noms moins reconnus comme les lauréats du prix Nobel de 1975, David Baltimore, Howard M. Temin et Renato Dulbecco. L’histoire de la science nous offre une abondance de feuilletons où des gens brillants avaient des idées révolutionnaires mais qui étaient pourtant maltraités et dont l’intégrité scientifique était remise en question. Comme décrit Schopenhauer, lorsqu’une opinion devient générale, y adhérer est un devoir et on déteste les individus qui osent vouloir formuler leur propre jugement (Schopenhauer, 1830, stratagème XXX). Même à notre époque, on trouve des scientifiques, comme le Dr. Ruth Izhaki, qui mène des recherches sur la maladie d’Alzheimer et qui, tout en respectant les directives et les procédures scientifiques, a osé s’écarter de la norme, à créer des doutes sur la crédibilité et la validité de son travail (Begley, 2019). C’est donc de ça que l’on peut s’inspirer afin de mener nos réflexions. Ces exemples montrent qu’il s’agit non pas de s’arrêter à notre opinion sur le titre ou les résultats de l’article, mais de s’attacher à la méthode utilisée pour générer ces résultats. 

Toutefois, comme Michael D. Gordin, il est raisonnable de supposer que les personnes que l’on a appelées pseudo-scientifiques (que l’histoire leur ait donné raison ou non) ont pu se considérer comme de véritables scientifiques (Gordin, 2017). Ce fait ne signifie pas que tous ceux qui se sont trouvés dans cette catégorie sont des marginaux ou des pionniers non reconnus. Malheureusement, comme toujours il existe des charlatans et des opportunistes mal intentionnés. C’est pourquoi il est primordial de vérifier régulièrement nos sources et d’examiner toutes nos informations. Il s’agit là de communication et d’utilisation appropriées des outils modernes. Tout d’abord le public non-expert a besoin de clés pour évaluer la fiabilité de l’information et pour rechercher la validité d’une nouvelle hypothèse. Avec ces moyens, tout le monde aura la capacité d’appréhender quelles hypothèses sont majoritairement acceptées et quelles idées sont controversées, inexactes ou fausses. Il est évident que la science évolue tous les jours et que la recherche doit être constante. Mais si cela est fait correctement et que chaque personne qui crée un débat soutient la communauté scientifique et, à terme, écoute ses conclusions, des progrès personnels et sociétaux en la matière seront la récompense inévitable.

Biais cognitifs

Supposons maintenant que les problèmes mentionnés précédemment disparaissent. Une fois de plus, nous sommes des êtres humains, et que cela nous plaise ou non, la façon dont nous établissons nos croyances est biaisée. Dans ce cas, ce n’est pas toujours notre faute, mais il nous incombe d’évaluer nos comportements et de repérer ce qui peut nous empêcher de faire, d’écrire, de parler ou de diffuser la science. Qu’ils soient inconscients ou conscients, les préjugés et les biais cognitifs forment la façon dont nous voyons le monde et, par extension, la science.

Commençons par les biais cognitifs, et encore une fois, Wikipédia en possède une liste non exhaustive (“List of Cognitive Biases”, 2020). Pour le dire clairement, il est inévitable que cela ne soit pas une question d’intelligence ou d’éducation, mais simplement du fonctionnement de notre cerveau pour nous permettre de fonctionner et de penser clairement au quotidien (Benson, 2019). Vous pouvez penser qu’il est absurde que le conducteur de la voiture qui est votre corps prenne délibérément des virages faciles mais “déraisonnables” pour atteindre sa destination, mais si vous conduisez et que votre GPS vous dit qu’il y a un raccourci, ne le suivrez vous pas ?! Vous gagnerez probablement du temps et de l’énergie, et c’est exactement ce que fait votre cerveau. Selon l’auteur Buster Benson (Benson, 2019), il existe quatre principaux problèmes que les biais cognitifs aident à résoudre et voici comment il les a énumérés :

a. Trop d’informations

Votre cerveau choisit les informations qui sont susceptibles d’être les plus utiles, c’est-à-dire que nous remarquons de préférence des choses qui sont déjà amorcées dans la mémoire ou qui se répètent souvent, des choses bizarres/amusantes/visuellement frappantes/anthropomorphiques qui ressortent, des choses qui ont changé, des détails qui confirment nos propres croyances existantes, et nous remarquons des défauts chez les autres plus facilement que nos propres défauts.

b. Pas assez de sens

Le monde est très confus et nous devons donner un sens et une signification aux choses, c’est à dire que nous trouvons des histoires et des modèles même dans des données éparses, nous remplissons les caractéristiques à partir de stéréotypes, de généralités et d’histoires antérieures. Chaque fois qu’il y a de nouveaux cas spécifiques ou des lacunes dans les informations, nous simplifions les probabilités et les chiffres pour les rendre plus faciles à appréhender, nous pensons savoir ce que les autres pensent et nous projetons notre état d’esprit actuel et nos hypothèses sur le passé et le futur.

c. Nécessité d’agir rapidement

Nous sommes limités par le temps et l’information et nous ne pouvons pas laisser cela nous paralyser, c’est-à-dire que pour agir, rester concentrés, éviter les erreurs et faire avancer les choses, nous devons avoir confiance en notre capacité à avoir un impact sur notre environnement et à sentir que ce que nous faisons est important, nous préférons l’immédiat au lointain, nous sommes motivés pour mener à bien des choses dans lesquelles nous avons déjà investi du temps et de l’énergie, nous sommes motivés pour préserver notre autonomie et notre statut dans un groupe, ainsi que pour éviter les décisions irréversibles, nous privilégions les options qui semblent simples ou qui disposent d’informations plus complètes par rapport aux options plus complexes et ambiguës.

d. De quoi devons-nous nous souvenir ?

Une fois de plus, la pléthore d’informations est trop importante pour que nous nous en souvenions, aussi gardons-nous les éléments les plus utiles, c’est à dire que nous modifions et renforçons certains souvenirs après l’événement, nous éliminons les détails pour former des généralités, nous réduisons les événements et les listes à leurs éléments clés et nous stockons les souvenirs différemment en fonction de la façon dont ils ont été vécus.

 
Pouvez-vous imaginer ce que ces biais font à l’information que nous consommons ? Dans la recherche, malgré tous les freins et contrepoids qui sont en place, les biais peuvent très souvent et inconsciemment influencer la façon dont elle est menée. Le psychologue Brian Nosek a consacré sa carrière à cette question afin de créer une science plus transparente ou une « utopie scientifique » (Ball, 2015). Nosek et son collègue Jeff Spies ont créé l‘Open Source Framework qui permet essentiellement aux scientifiques de soumettre un plan de leur travaux en amont de leur réalisation (stage 1). Ils développent ensuite leurs projets respectifs et lorsque les résultats arrivent, ils confrontent leurs résultats aux hypothèses précédemment soumises (stage 2) (Ball, 2015). Cette façon de faire limite la présentation de résultats inattendus et « force » le scientifique à respecter son plan initial. Elle évite la partialité du raisonnement du scientifique puisqu’il ne change pas le projet en analysant tout différemment et en essayant de l’adapter à son idée originale (Ball, 2015). Est-ce la solution ultime? Nosek déclare que pour l’instant aucune affirmation ne peut être faite (Ball, 2015) bien qu’elle présente d’autres avantages. Et, même si la science “ouverte” n’a pas encore convaincu tout le monde (Hocquet, 2018; Swan, 2017), l’initiative de la commission européenne de lancer une nouvelle plateforme de science ouverte “Open Research Europe” montre que son développement est en bonne voie.

Processus d’enregistrement des rapports. Note. Figure extraite du site web des rapports enregistrés du Center for Open Science à https://cdn.cos.io/media/images/registered_reports.width-800.png

Enfin, je voudrais introduire brièvement le biais attentionnel. Ce type de biais fait partie des biais cognitifs mais il est judicieux de parler un peu plus de son impact. “L’attention est le processus cognitif qui consiste à se concentrer sélectivement sur une chose tout en ignorant d’autres choses. Elle désigne l’ensemble des mécanismes par lesquels le cerveau sélectionne l’information, l’amplifie, la canalise et approfondit son traitement” (Attention, 2020; Dehaene, 2020). La phrase « sélectionne l’information » implique qu’il existe un processus où notre esprit choisit une partie de l’information qu’il reçoit, se concentre dessus et finit par la stocker. Lorsque nous nous concentrons sur des tâches intellectuelles de cette manière, nous devenons aveugles aux autres situations ou informations et nous réduisons l’impact des informations jugées non pertinents (Dehaene, 2020). Ainsi, le biais attentionnel affecté par les facteurs sélectifs de notre attention peut être utile, comme pendant la conduite d’une voiture. Mais dans certains cas, il peut aussi nous empêcher de recueillir des informations essentielles comme par exemple lorsque l’on se concentre sur son téléphone en traversant une route. Quand il s’agit de la science, ces informations, même si elles sont parfois contradictoires à ce que nous pensons savoir, sont nécessaires afin d’ajuster le puzzle de nos croyances et de nos expériences.  

Toutefois, comme illustre la crise actuelle, nous ne pouvons pas nous permettre la mésinformation et, surtout, nous ne pouvons pas nous permettre de limiter les progrès et la portée de la science. D’abord en tant qu’individus, scientifiques ou non, et ensuite en tant que société, nous devons perpétuellement remettre en question les idées, les méthodes et les personnes, sans relâche et avec respect. Nous devons assumer notre responsabilité et nous interroger consciemment sur nos préjugés, accepter le jugement et la communication ouverte de notre travail et apprendre à évaluer et à interpréter ceux des autres. C’est seulement dans ces circonstances que nous pouvons espérer éviter la simplification excessive, discuter de manière productive des limites d’une étude, diminuer l’impact des biais et de la pseudo-science ainsi que sa visibilité, pour une science “sans limites”.

Pour plus d’informations sur:

  1. L’histoire des lauréats du prix Nobel 1975 : Écouter ce podcast par Malcolm Gladwell.
  2. Dr. Ruth Ithaki: Vous pouvez consulter l’article qu’elle a lutté pour publier ici et ses résultats ultérieurs ici.
  3. Brian Nosek and Jeff Spies et leur platforme lisez la pièce écrite sur natureindex.com l’article de Nosek sur psychological science ou leur plan stratégique.
  4. Michael D. Gordin et son livre et d’autres ouvrages relatifs, consulter University of Chicago Press.
  5. L’importance de la présentation/publication des résultats négatifs en science, consulter l’article de D.Mehta Nature Careers.
  6. Le processus de l’examen par le pairs vous pouvez consulter Elsevier.
  7. La science ouverte consulter le rapport de Business Science
  8. La guerre contre les mesinformations pendant la crise du Covid19, vous pouvez vous référez à cette article

Profiter d’une pause pour aller dans l’espace

« Que sert à l’Homme de gagner l’univers s’il n’a pas de culotte pour passer l’hiver ? » Proverbe québécois

Cela fait plusieurs décennies que nous travaillons à la conquête d’autres planètes. Mais pour l’instant, c’est surtout via la science fiction que de nombreux auteurs imaginent des écosystèmes extraterrestres comme dans de nombreux épisodes de la célèbre série télévisée Doctor Who.

Aujourd’hui, le premier obstacle que nous rencontrons est la durée du voyage (4 petits jours pour aller sur la Lune, mais 260 pour atteindre la planète rouge). Il s’agirait donc de trouver un moyen pour que des organismes puissent survivre à une telle durée avec un minimum de provisions, car la masse est également un élément à ne pas négliger lors d’un vol. Il faut environ 1 million de Joules par kilogramme pour envoyer ce kilogramme à 100 000 km d’altitude (limite de l’espace) ; il y a donc un intérêt pratique et économique à transporter des individus sous des formes moins lourdes, et/ou dont les besoins en ressources seront minimums durant le trajet. Les principaux risques physiologiques auxquels les organismes devront également faire face sont les éruptions solaires, les rayons cosmiques et l’impesanteur. Il est nécessaire pour la viabilité du projet que les espèces sélectionnées pour le voyage soient de composition suffisamment solide, ou sous une forme plus résistante comme la diapause. D’autres organismes peuvent également résister à des conditions extrêmes sur Terre notamment les radiations grâce à un système de réparation optimal de leur génome, tel que Deinococcus radiodurans ; ou Bacillus infernus qui survit à plus de 2000 m de profondeur dans le sol.

La diapause est une adaptation que l’on retrouve dans un large spectre de groupes taxonomiques, allant des végétaux supérieurs aux animaux (Alekseev et al., 2019). Il s’agit d’un ralentissement de l’organisme qui ressemble à un endormissement profond et qui permet à cet organisme de résister à des conditions environnementales qui lui sont peu favorables (froid, sécheresse, anoxie, hypersalinité…). Elle est souvent régulée par des mécanismes hormonaux ou des stimulations dues à l’environnement (par exemple l’augmentation de la température).

La diapause peut prendre plusieurs formes : beaucoup de petits organismes aquatiques tels que les rotifères, les daphnies ou les artémies fabriquent des « oeufs de durée », qui sont produits lorsque les conditions ne sont pas optimales et pourront éclore une fois que l’environnement sera redevenu favorable. Ces oeufs, qui sédimentent parfois au fond des lacs, représentent une véritable banque génétique qui peut traverser les âges. S’ils peuvent résister pendant des années à un milieu défavorable, des chercheurs ont envisagé que les “oeufs de durée” pourraient également survivre à un petit voyage spatial (Baranov et al., 2009)…

Grâce à l’avancée des biotechnologies, il devient envisageable aujourd’hui d’envoyer des extraits, échantillons voire membres de la biosphère terrestre ailleurs. Le phénomène de dormance pouvant être induit par des facteurs extérieurs, certains chercheurs pensent qu’avec des connaissances suffisantes sur ces mécanismes nous pourrions déclencher et arrêter une diapause chez des individus dans des écosystèmes artificiels contrôlés.

a) Daphnia magna portant des œufs sous-cutanés. b) D. magna portant un éphippium immature (structure protectrice renfermant deux œufs en dormance). Holderbau et al. (2015). 

Plusieurs points sont aujourd’hui étudiés dans le cadre de programmes d’astrobiologie (Alekseev et Pinel-Alloul 2019, chapt. 6)  : 

° L’étude de la dormance dans le cadre de maintien de systèmes écologiques 

° La dormance et l’adaptation de vertébrés à la modification de leur métabolisme 

° La sécurité microbiologique des vols spatiaux

° Les problèmes de quarantaine planétaire et interplanétaire

° La recherche de vie extraterrestre

Parmi ces différents programmes de recherche, Novikova et son équipe ont exposé des unicellulaires, des plantes, des insectes, ainsi que des oeufs de crustacés et de vertébrés à des conditions spatiales pendant 13 et 18 mois. Les résultats montrent que la plupart des organismes testés en sont ressorti viables (Novikova et al., 2011). Il n’y a pas que les formes en dormance d’individus unicellulaires qui pourraient résister à des voyages intersidéraux de longue durée, mais également celles d’organismes plus complexes. Cependant, les oeufs de poisson n’ont pas résisté à une durée supérieure à 13 mois ; probablement car leur temps de diapause moyen dans les conditions naturelles est plutôt de l’ordre de 6 mois. Il reste des limites aux possibilités de survie des organismes, selon leur résistance à des dormances plus ou moins longues.

D’autres études menées dans le cadre du projet Biorisk à Moscou en Russie ont été les premières à mettre en évidence que les plantes, les arthropodes, les spores microbiennes et fongiques, ainsi que les stades dormants des plantes et animaux aquatiques peuvent survivre à des conditions spatiales pendant une durée de 23 mois (Baranov et al. 2009) (ce qui est bien supérieur à un trajet Terre-Mars). Ils ont également conclu que le rayonnement ultraviolet est le facteur le plus hostile à la matière vivante dans un environnement spatial.

Finalement, le concept de dormance semble présenter un réel intérêt pour la “colonisation” d’autres systèmes planétaires. Si des organismes aussi différents que des algues, des bactéries, voire même des invertébrés peuvent survivre à long terme dans des conditions extrêmes, il y aurait une possibilité de transferts interplanétaires de certaines formes de vie. Cela pourrait se produire via des comètes, des météorites, ou suite aux voyages d’origine humaine. Cependant, les études menées pour l’instant se penchent principalement sur la survie au voyage spatial, mais pas au développement de ces organismes sur d’autres planètes, qui présentent des conditions extrêmement différentes d’une sortie de diapause sur Terre après un voyage dans l’espace. Il reste encore de larges pans d’études de l’exobiologie à explorer afin de mieux comprendre ces possibles voyages interplanétaires. De plus, ces résultats sur l’étude de la dormance permettent d’envisager la recherche exobiologique sous d’autres formes de vie présentes en “diapause” qui ne seraient pas encore détectées.

Les animaux en sciences, vraiment nécessaires ?

Travaillant dans le domaine de la recherche biomédicale et étant végétarien, je suis tous les jours confronté à un dilemme moral : est-ce justifié d’utiliser des animaux pour la recherche scientifique ? En effet, l’une des méthodes utilisées par les chercheurs en biologie afin de mieux comprendre le corps humain est l’expérimentation animale. Mais pourquoi utilise-t-on des animaux ?

Tout d’abord, regardons ce que la loi française définit comme étant l’expérimentation animale. L’Article R.* 214-88 du Décret n° 2003-768 [1] (appliqué de la directive européenne de 1986 86/609/EEC) décrit cette expérience comme : “toute utilisation d’un animal vertébré à des fins expérimentales ou à d’autres fins scientifiques. […] La suppression des douleurs, de l’angoisse, des souffrances ou dommages durables du fait de l’utilisation efficace d’un anesthésique, d’un analgésique ou d’autres méthodes ne place pas l’utilisation d’un animal en dehors du champ d’application de la présente définition.”

Certaines personnes militent vivement contre l’expérimentation animale pour différentes raisons.  Tout d’abord, certains déplorent le fait que les résultats obtenus chez l’animal ne soient pas toujours applicables à l’Homme. De plus, les expériences peuvent induire des douleurs et du stress aux animaux. La dernière raison est l’existence de méthodes alternatives à l’expérimentation animale (in vitro, in silico, épidémiologie).

Et pourtant, l’expérimentation animale s’est révélée utile et nécessaire à l’avancée scientifique. Elle a engendré de nombreux prix Nobel récompensant par exemple les découvertes de l’insuline en 1923, de la pénicilline en 1945, ou des cellules souches pluripotentes induites en 2012 [2]. Encore aujourd’hui, certaines méthodes dites alternatives, comme la culture cellulaire, nécessitent l’utilisation d’animaux afin d’obtenir les facteurs de croissance nécessaire à la survie des cellules. 

La recherche en biologie est capitale afin de faire face aux défis à venir comme le réchauffement climatique ou la résistance aux antibiotiques. L’expérimentation animale est couramment utilisée et doit donc être réglementée afin d’éviter les dérives.
En effet, en Europe, tout personnel doit être formé et doit respecter la règle des 3R, mise en place en 1959 par Russell & Burch [3] 

  • Réduire le nombre d’animaux, 
  • Raffiner les méthodes, 
  • Remplacer les modèles animaux.

Toutefois, le recours à des modèles animaux soulève plusieurs questions. 

Les résultats obtenus sont-ils applicables à l’Homme?

Les modèles animaux sont choisis de façon pertinente pour étudier une pathologie précise, et sont souvent très proches génétiquement entre eux afin d’avoir des résultats fiables permettant de diminuer la variabilité au sein d’un groupe, et ainsi le nombre d’animaux utilisés. Il existe des animaux qui développent naturellement une pathologie, ils seront donc plus adaptés à l’étude de cette dernière. On peut citer les souris ob/ob qui développent une obésité suite à une mutation génétique. [4]

L’expérimentateur est tenu de connaître les limites des modèles qu’il utilise. Par exemple, dans l’étude de l’hypertension artérielle, nous savons que  chez l’Homme, c’est une pathologie multifactorielle tandis que celle induite chez l’animal n’aura qu’une cause (génétique, environnementale.. etc). Il doit également être à même de détecter les signes de détresse des animaux afin d’arrêter l’expérience si nécessaire. Ainsi avant toute expérience, des points limites sont définis concernant par exemple le poids de l’animal, son attitude, son aspect, ses signes cliniques. [3] [5]

Enfin, tout projet incluant de l’expérimentation animale nécessite la validation préalable par un comité d’éthique régionale et doit ensuite être soumis au ministère de la recherche. Le chercheur désirant débuter un projet doit entre autre :

  • justifier que le recours à l’expérimentation animale est la seule option pertinente pour l’étude (par l’acquisition de données in vitro préliminaires par exemple), 
  • que la souche et l’espèce sont les plus adaptées (le rat étant plus intelligent et plus calme que la souris, il sera utilisé pour les tests comportementaux) et 
  • que les groupes d’animaux sont correctement constitués (présence d’un groupe contrôle, nombre d’animaux pertinent). 

L’accord est donné pour 5 ans et toute modification doit être mentionnée. [6]

Les technologies actuelles ne permettent-elles pas de s’affranchir des animaux?

Il existe des méthodes dites alternatives à l’expérimentation animale comme les méthodes de culture cellulaire in vitro ou, les approches in silico. Ces dernières, réalisées en amont de toute expérimentation animale, permettent de collecter de nombreuses informations. Elles sont toutefois complémentaires à l’expérimentation animale, car un tissu généré artificiellement (culture cellulaire in vitro) ou un modèle informatique (approche in silico) ne sont souvent pas assez performants pour atteindre la complexité d’un organisme vivant qui possède de nombreux moyens de compensation et de régulation. 

Les cellules sont souvent issues de tumeurs et dites “immortalisées”, en effet mettre une cellule en culture n’est possible que sur un cours laps de temps. Les cellules immortalisées sont des populations clonales présentant de nombreuses mutations génétiques permettant leur maintien, elles ne pourront donc modéliser qu’en partie la physiologie de cellules saines. 

L’expérimentation ne peut-elle pas être réalisée directement sur les humains?

Dans le cadre de l’expérimentation animale, des paramètres sont recréés afin de modéliser des phénomènes et d’établir un lien de cause à effet. Chez l’Homme, la plupart des études sont épidémiologiques, c’est à dire qu’on établit un lien de corrélation entre deux facteurs mais on ne contrôle pas la multitude de paramètres extérieures. Les études randomisées consistent quant à elles à séparer une population en deux de façon aléatoire et d’attribuer une condition à un groupe mais pas à l’autre. Cependant, il est compliqué d’imposer un mode de vie à un groupe et d’être sûr qu’il respectera les conditions expérimentales. 

Les modèles animaux permettent, eux, de contrôler au mieux les paramètres extérieurs pouvant modifier les conclusions et également de tester le rôle d’un gène ou d’une mutation retrouvée dans une pathologie directement en induisant cette mutation. Là où l’expérimentation animale crée une condition et contrôle tous les paramètres externes, l’épidémiologie apporte des corrélations et ne permet donc pas de dresser de conclusions. 

La souffrance engendrée est-elle nécessaire?

Il est à noter qu’une grande partie des résultats est obtenue par analyse des organes qui sont prélevés post mortem. [7] Ceci présuppose que la mort des animaux doit être rapide, sans douleur, ni souffrance, ni anxiété. 

De plus, les résultats issus de l’expérimentation animale ont permis, et permettent encore, de soigner l’Homme et les animaux non humains, il est donc d’un point de vue utilitariste logique de continuer à utiliser des animaux si les alternatives ne permettent pas d’explorer un phénomène et si cela permet d’améliorer le bien-être du plus grand nombre.

Finalement, l’être humain fait part entière d’un écosystème. Dans ce cadre, il est impossible d’exister sans avoir un effet sur cet écosystème. Toutefois, l’Homme ayant conscience de cet impact, il est nécessaire qu’il fasse son maximum pour que cet impact soit le plus faible possible. L’expérimentation animale engendre la mort d’animaux non humains mais permet également de soigner des animaux et des humains, ainsi que de comprendre les relations au sein d’un écosystème afin de le préserver. Il est important de continuer à trouver des méthodes alternatives pour diminuer le nombre d’animaux utilisés jusqu’à pouvoir s’en passer. Néanmoins, il existe des obstacles à l’introduction de ces méthodes qui sont le coût, les limites technologiques et la capacité à recréer la complexité du vivant.

Mâle ou Femelle : Pourquoi choisir ?

Quand on parle d’être à la fois mâle et femelle, on pense souvent à nos chers amis les escargots qui sont hermaphrodites. Cependant ici je vais vous parler d’un aspect particulier de ce mélange des sexes : le gynandromorphisme. Etymologiquement, on retrouve les racines latines -gyne pour parler de ce qui a trait à une femelle, et -andro qui se réfère au sexe masculin. L’individu est donc une chimère à la fois femelle et mâle. Contrairement aux escargots qui sont hermaphrodites, ce qui signifie qu’ils passent d’un genre à l’autre durant leur vie selon les besoins et les circonstances, le gynandromorphe est les deux en même temps. Il possède environ la moitié de ses cellules avec un génotype mâle et l’autre avec un génotype femelle. Le gynandromorphisme est souvent défini comme présent uniquement chez les insectes (Larousse s. d.) car il a été repéré principalement sur des papillons (@NatGeoFrance 2018), pourtant ce n’est pas le cas.

Un article récemment publié dans The National Geographic (@NatGeoFrance 2019) témoigne d’une observation d’un oiseau cardinal atteint de gynandromorphie bilatérale (séparée droite et gauche) en Pennsylvanie. Ce développement connu chez plusieurs espèces d’oiseaux reste tout de même rare à observer. Il a notamment été étudié récemment chez un poulet (Morris et al. 2018), qui présentait une gynandromorphie bilatérale (femelle côté gauche et mâle côté droit). Durant cette recherche, l’animal a été comparé à des congénères de même âge afin de voir le développement de ses caractères (dont les caractères sexuels). On pouvait donc constater un développement à priori normal du côté droit avec toutefois une sorte d’hybride entre un ovaire et un testicule du côté gauche (des follicules côtoyant des tubes séminifères). Au final le développement sexuel de cet individu s’est fait à l’échelle cellulaire mais est également visible à l’échelle globale de l’animal, avec un ensemble de caractéristiques à la fois mâle et femelle. Au niveau hormonal, il présente un taux de testostérone assez élevé (10 fois plus que chez un mâle normal) et un taux d’oestradiol plus élevé que chez un mâle moyen mais inférieur à celui d’une femelle. D’après les résultats de cette étude, il est peu probable que le gynandromorphisme vienne d’une mutation au stade de développement embryonnaire deux cellules. Il était envisagé dans des analyses précédentes que cela viendrait plutôt d’une mauvaise séparation lors du stade 2 cellules et que les pronuclei (Z et W pour les oiseaux) auraient été à nouveau fécondés par 2 spermatozoïdes Z.

Photographie par Shirley Cardwell

D’après les études menées précédemment (Zhao et al. 2010), il a été remarqué que des individus gynandromorphes peuvent présenter chaque côté mâle ou femelle. Il n’y a cependant pas encore assez de données sur ces individus pour savoir s’il existe une majorité d’un type de configuration (côté mâle plus souvent à gauche par exemple). Cet agencement peut avoir une importance, notamment au niveau de la fertilité de l’animal. En effet les oiseaux femelles ne possèdent que l’ovaire gauche de fonctionnel. Des études ont été menées sur des insectes, mettant en évidence une absence de comportement sexuel. Il n’y a pas encore eu de recherches sur la possible reproduction de vertébrés gynandromorphes mais l’étude du comportement de ces animaux pourrait être une piste intéressante, notamment pour savoir s’ils sont capable d’avoir des relations avec d’autres individus. Le cardinal découvert en Pennsylvanie serait accompagné régulièrement par un oiseau mâle d’après les observations des habitants qui ont l’habitude d’attirer les oiseaux avec des mangeoires. Ces témoignages sont précieux car ils permettent d’avoir un suivi dans l’habitat naturel de l’animal sans intervention pour l’étudier. En observant les habitudes de cet oiseau hors normes qu’ils peuvent facilement identifier M. et Mme Caldwell aimeraient, en association avec des spécialistes, mieux comprendre les effets de ce développement particulier sur la vie du volatile.

Poulet gynandromorphe : côté mâle à droite (couleur plus claire) et côté femelle à gauche (couleur plus foncée) de l’individu. Source image : Morris, Kirsten R., Claire E. Hirst, Andrew T. Major, Tariq Ezaz, Mark Ford, Susan Bibby, Tim J. Doran, et Craig A. Smith. 2018. « Gonadal and Endocrine Analysis of a Gynandromorphic Chicken ». Endocrinology 159 (10): 3492 ‑ 3502. https://doi.org/10.1210/en.2018-00553 . (avec autorisation de l’auteur pour diffusion)

À la recherche de l’éthique

Dans une société meurtrie par les atrocités des guerres telles que l’expérimentation humaine sous l’égide nazie, les procès de Nuremberg(1) ou encore celui d’Helsinki ont permis d’instaurer les premières ébauches des règles éthiques. C’est à ce moment là que la science a pris conscience de l’ampleur et des conséquences de son pouvoir sur la population. L’indispensable alliance de biologistes, médecins, théologiens, philosophes, et sociologues a été matérialisée par la cristallisation d’un domaine unique fondé sur la réflexion humaine qu’est l’éthique. 

Qu’est-ce que l’éthique ?  

L’éthique est définie en tant que science ayant pour objet la détermination des principes et de la conduite morale. Avant de poursuivre, il advient nécessaire de faire une stricte distinction entre l’éthique et la morale. Il peut être intéressant de noter que chez les Grecs, les deux notions sont étroitement liées, ethos signifiant les “moeurs”. Aristote fut un premier pionnier de cette réflexion critique qu’il qualifie de relation de l’âme avec l’environnement. Dans l’Éthique de Spinoza, ce dernier explique que l’éthique doit libérer l’homme de sa servitude à l’égard des sentiments et lui apprendre à vivre exclusivement sous la conduite de la raison. Aux yeux de Kant, elle est la science des lois de la liberté. Elle naît de la dualité de la volonté propre universelle d’une part, et de la morale synonyme de devoir, d’autre part.

De nos jours, la morale revêt les habits des valeurs subjectives, tandis que l’éthique érige les lois auxquelles les individus se doivent d’obéir, dans un monde où les mœurs subissent de perpétuelles mutations et où la science a toujours suscité de vives interrogations. Le chercheur a alors le devoir de tenir une ligne de conduite irréprochable. Il a une responsabilité vis-à-vis de la société. 

Les responsabilités des chercheurs

La biologie, à l’image de toute science, est indifférente quant à la manière dont l’homme usera de ses conséquences. Ainsi, il est du devoir du scientifique, détenteur d’une certaine quantité de connaissances, de faire bon usage d’une telle substance. La transparence dans le monde de la recherche scientifique est alors indispensable. Le chercheur se doit de communiquer à la société, qui finance sa recherche, la nature et l’envergure de ses travaux car l’ignorance du public pourrait devenir un obstacle à une subvention future. Il ne faut pas oublier que l’ultime essence d’un tel métier est d’apporter au monde de nouvelles avancées, et non de servir une gloire personnelle. En effet, une découverte n’a d’écho que par l’existence d’une communauté scientifique capable de comprendre l’information, voire de la réfuter. En revanche, la pérennité même de cette communauté requiert la formation de futurs chercheurs. La transmission se doit d’être davantage valorisée, car elle est aussi primordiale que le nombre de publications et de citations par les paires. La production scientifique destinée à l’éducation, ainsi qu’au grand public devrait être davantage gratifiée, en étant prise en compte dans l’évaluation des chercheurs. Il est nécessaire de faire évoluer le système actuel afin de promouvoir un enrichissement culturel universel, permettant simultanément une démarginalisation de la communauté scientifique, et dépoussiérant le mythe du chercheur coupé du monde profane.

Une telle démocratisation de la connaissance (par la vulgarisation par ex.) éviterait notamment une manipulation maladroite, voire fourbe, par une presse ni qualifiée, ni consciente, avide d’audience. L’information est mutilée, tronquée à souhait, relayée dans des flashs infos accrocheurs à un public généralement non formé pour la comprendre. On pourrait citer l’éprouvée propagande dont a souffert la vaccination, qui subsiste jusqu’à présent, ou encore la diabolisation médiatique des organismes génétiquement modifiés. Par exemple, en 1998, l’équipe du chirurgien Wakefield dans The Lancet (journal médical britannique) établissait un lien entre l’inoculation des vaccins rougeole-oreillons-rubéole (ROR) et l’incidence autistique(2). Relayée par les médias, la controverse conduira à une baisse sévère de la couverture vaccinale du ROR, corrélée avec une résurgence de la rougeole au Royaume Uni. Pourtant, malgré la rétractation de l’article en 2010, et la parution de dizaines d’études réfutant tout lien entre les deux événements, les esprits restent marqués. C’est ainsi, qu’en 2019, une étude de grande ampleur, menée par une équipe de chercheurs danois(3) reprend de très nombreuses données (cohorte de 650 000 individus nés entre 1999 et 2010) et finit par acculer ce travail frauduleux. Elle établit que la vaccination ROR n’augmente pas le risque d’autisme, et ceci même chez les enfants à risques.

Les conséquences des pressions sociales

D’autre part, la science ne peut s’octroyer le luxe d’occulter l’erreur, et justement le terme latin error signifie la course à l’aventure. Le philosophe Gaston Bachelard affirmait que les « vérités » (4) scientifiques n’étaient jamais que provisoires, qu’elles devaient, sans cesse, être remaniées et corrigées. Il apparaît donc nécessaire de ne pas confondre l’erreur avec la faute, qui elle engage la responsabilité du chercheur. Il est primordial que ce dernier rapporte tous ses résultats, qu’ils soient positifs ou négatifs, afin de ne pas ralentir inutilement la science, économisant à d’autres du temps et de l’argent. En revanche, la pression sociale que subit le chercheur peut le conduire à la falsification des données. Il compromet ainsi non seulement son intégrité mais également celle de l’organisme qu’il représente. Il devient indigne de la confiance placée en lui, voire du pécule qu’on lui a confié. 

Une explication de telles conduites frauduleuses, peut être abordée par la course au financement, la tare moderne de la recherche et notamment la recherche biomédicale. Les crises économiques ayant ébranlé les systèmes libéraux, ont induit d’importantes restrictions budgétaires qui ont fait diminuer les offres et les budgets des laboratoires. De cela, naissent des déséquilibres majeurs croissants entre les entreprises privées et publiques, conduisant à une recherche biomédicale guidée par la rentabilité économique. Une nouvelle atmosphère régit le monde de la recherche où la compétition prévaut à la collaboration inter-scientifique, et où la circulation des informations devient limitée. Cette libre-circulation essentielle est substituée par des données confidentielles, toujours dans l’optique de cette éternelle course à la publication, pour un achèvement individuel. Un exemple de ces dérives est la multiplication  des tests de dépistage de maladies génétiques, au détriment d’une recherche plus fondamentale autour de la compréhension des mécanismes pathologiques, tels que dans la maladie d’Alzheimer.

Les règles strictes de l’expérimentation

Chaque institution applique donc un code de conduite d’après les textes de normes éthiques, à laquelle doit se soumettre chacun de leurs protagonistes. Des règles et des protocoles stricts régissent ainsi toute forme d’expérimentation. 

Le sujet de l’expérimentation animale a toujours suscité de vives polémiques, à juste titre. Les arguments des parties adverses sont justifiés. Les uns déclarent que le modèle animal constitue une étape essentielle pour une première investigation dans le milieu in vivo, tandis que les autres réfutent la transposition du modèle à l’espèce humaine. Évidemment, d’autres ne comprennent pas que les animaux aient à subir des protocoles lourds, parfois souffrir, et vivre confinés dans d’étroites cages toute leur vie, sans aucune échappatoire possible à un destin funeste. À cela, certains répondront que la finalité de leur existence même était l’expérimentation, leur naissance étant contrôlée. À ce jour, il n’existe que dans de rares cas, des alternatives à cette forme de recherche, alors on ne peut que réglementer l’utilisation des animaux en s’inspirant de la règle des 3R (réduire, raffiner, remplacer) énoncée par Russel et Burch. Il s’agit de réduire leur nombre, améliorer leurs conditions de vie, et recourir à d’autres méthodes dès lors que c’est possible. À cette fin, il est essentiel de correctement former les individus afin que ceux-ci les utilisent dans le respect. 

La recherche biomédicale nécessite toujours, malgré de longues périodes d’études au laboratoire sur le modèle cellulaire ou animal, le passage à l’expérimentation humaine. Dans une lettre adressée à l’Empereur du Brésil Dom Pedro II, Pasteur déclare, alors même qu’il aura multiplié les succès sur les animaux (prophylaxie de la rage), que cela n’empêchera guère sa « main de trembler quand il faudra passer à l’espèce humaine ». Il avait quelques réticences à pratiquer l’expérimentation en milieu carcéral mais le justifiait par une rédemption sociale que sa société offrait au condamné à mort. La réponse de l’Empereur, un homme de sciences, ne se fit pas attendre, et l’accès aux prisonniers brésiliens lui fut expressément défendu. Furent ainsi posées les prémices de l’interrogation sur le corps de l’homme, qui n’est ni une affaire sociale, ni l’assemblage de pièces organiques remplaçables, mais une personne unique. Cette personne est aujourd’hui protégée par un certain nombre de lois éthiques, qui ne font que s’étoffer. Malgré la requalification de la personne, la recherche par son caractère scientifique nécessite une forme de déshumanisation des patients si elle veut des résultats qualitatifs. De plus, une telle instrumentalisation (consultation comités, collecte consentements,…) peut avoir des effets négatifs comme un allongement des démarches. Cela peut constituer un handicap pour certains protocoles de recherche comme pour les myopathies où le stade de l’intervention thérapeutique sur le patient est primordial.

Les révolutions biologiques, telles que le passage de la génétique au transhumanisme, où l’homme façonne une intelligence artificielle capable de le supplanter, font que nous ne sommes pas à l’abri d’une nouvelle forme d’eugénisme. A présent, il est également capable de générer des individus résistants à certaines pathologies, en manipulant le génome. Une polémique récente révélait la naissance d’individus génétiquement modifiés résistants à l’HIV par modification de leurs gènes clés via l’outil CRISPER/Cas9. Où nous arrêterons-nous ? Faudra-t-il attendre l’éradication de l’espèce humaine telle que nous la connaissons, si parfaite de ses imperfections. Une société où les inégalités socio-économiques creuseront plus que jamais des écarts infranchissables, où faute de moyens on tendrait vers une disparition inéluctable. D’autre part, les révolutions thérapeutiques, où l’homme voit sa longévité augmenter, sur une planète où les ressources ne semblent pas suivre la même croissance, forgent un destin nouveau, où la science se doit d’être cloisonnée par des règles afin de préserver la dignité humaine. L’homme ne cesse d’outrepasser des limites que l’on ne pouvait pas même soupçonner quelques années auparavant. Tout un chacun se doit d’être concerné par les nouvelles problématiques qui se soulèvent chaque jour, et ne pas rester engluée dans la masse sociétale inerte, car c’est par la confrontation, la conjonction des opinions, et la définition de nouvelles éthiques, que se construira le monde de demain.

La révolution du graphène est en marche

Cela fait maintenant une dizaine d’années que l’on entend régulièrement parler du graphène, structure particulière du carbone se développant en deux dimensions et disposé selon un motif hexagonal. Cette popularisation, on la doit en grande partie aux travaux d’Andre Geim et Konstatin Novoselov. Ces deux physiciens russes ont réussi à isoler des feuillets de graphène à partir de graphite, à la simple aide de bandes adhésives [1], leur valant au passage le prix nobel de Physique en 2010. Le graphène a souvent été décrit comme un matériau miracle, extrêmement résistant, meilleur conducteur électrique et thermique jamais connu, pouvant être utilisé pour une multitude d’applications tels que les batteries, les panneaux solaires, les écrans tactiles ou encore les transistors. Mais qu’en est-il aujourd’hui?

Un matériau dur à synthétiser

Un des problèmes majeurs quand on veut utiliser du graphène en quantités industrielles est sa difficulté à produire. Il y a un fossé entre les quelques échantillons produits par Andre Geim et Konstantin Novoselov en 2004 et le besoin réel nécessaire à la fabrication des matériaux de demain. Preuve en est, en 2008, La Recherche estimait le coût de production d’un mètre carré de graphène à six cent milliards d’euros [2]! Ce coût reste bien sûr à relativiser, car deux techniques majeures de production du graphène se sont démocratisées depuis.

La première est le dépôt chimique en phase vapeur (ou CVD pour chemical vapor deposition en anglais) [3].

En bref, un gaz carboné (du méthane ou de l’éthène principalement) est porté à très haute température en présence d’un substrat métallique, du cuivre la plupart du temps. Sous l’effet de la chaleur, le carbone va se dissocier et former une couche monoatomique à la surface du cuivre. En refroidissant rapidement, on finit par obtenir la structure hexagonale du graphène.

Fig.1 Schématisation du dépôt en phase chimique du graphène sur un substrat métallique [4]

 

Cette méthode permet d’obtenir un graphène très pauvre en défauts structuraux et présentant de très bonnes propriétés électriques. Pour autant les quantités synthétisées sont toujours trop faibles pour une production à échelle industrielle.

L’alternative pour obtenir du graphène à moindre coût passe par la méthode de Hummer [5].

On aura besoin pour cela d’un bloc de graphite solide. Pour rappel, le graphite est la forme du carbone à l’état naturel, il compose notamment la mine de nos crayons à papier. L’intérêt d’un tel matériau réside dans sa structure, le graphite n’est en effet rien de plus qu’un empilement de feuilles de graphène. On ne cherche donc plus à créer le graphène de toute pièce avec des atomes isolés comme avec le dépôt chimique en phase vapeur, mais à l’isoler du solide de base. Pour cela, on place donc ce bloc de graphite solide dans une solution d’acide sulfurique et de permanganate de potassium, un puissant agent oxydant. Des groupements oxygénés (acides carboxyliques -COOH, alcools -OH, cétones =O) sont créés dans le graphite, polarisant la structure et augmentant la distance entre les différentes couches de graphène. Ces couches, une fois fonctionnalisées, sont donc hydrophiles, et il devient aisé de les exfolier en solution aqueuse. Il suffit alors de faire une réduction chimique sur les feuillets isolés, c’est à dire de retirer les groupements oxygénés en utilisant des solutions comme l’hydrate d’hydrazine (H2N–NH2) à haute température pour obtenir du graphène, dénommé rGO, pour “reduced Graphene Oxide”, ou oxyde de graphène réduit en français.

Fig. 2 Schématisation de la synthèse de graphène par oxydation de Hummer exfoliation et réduction thermique [6]

 

Cette technique présente néanmoins un inconvénient : le graphène obtenu est plus riche en impuretés et anomalies structurales du fait de l’oxydation, et perds donc une grande partie de ses propriétés, électriques notamment [7]. De plus, les gaz rejetés en utilisant la méthode de Hummer sont toxiques, mais ne présentent plus de risques d’explosion, comme on pouvait le voir avec d’autres méthodes d’oxydation plus anciennes.

On constate qu’aucune de ces méthodes n’est vraiment totalement satisfaisante, à croire qu’il est impossible de concilier qualité et production à grande échelle. Et pourtant, des recherches récentes [8] suggèrent l’existence d’une troisième voie: l’exfoliation électrochimique. Le principe est simple: contrairement à la méthode de Hummer où l’exfoliation est provoquée par oxydation, ici on parlera d’insertion d’ions interstitiels. On applique un potentiel électrique à un morceau de graphite placé dans une solution riche en ions. Ce morceau de graphite devient alors une électrode, anode ou cathode au choix de l’expérimentateur. Sous l’effet du champ électrique, les ions du signe opposé au morceau de graphite vont venir se loger entre les couches de graphène, allongeant l’espace inter feuillets, et permettant ainsi l’isolement du graphène comme vu précédemment.

Fig.3 Schématisation de la synthèse de graphène par exfoliation électrochimique [9]

 

Il est à noter que derrière la simplicité apparente de cette méthode se cache une gestion minutieuse des paramètres expérimentaux comme le choix des ions, le voltage à appliquer ou encore le pH de la solution, sans quoi l’exfoliation serait difficile voire impossible. Il n’en reste pas moins que ce procédé est une alternative moins coûteuse et plus écologique pour produire du graphène de bonne qualité et en larges quantités, qui ne manquera pas de se développer dans un avenir proche.

Un large panel d’applications

Une fois le graphène produit vient l’étape de l’industrialisation. Deux possibilités se présentent alors en fonction de son utilisation à venir: soit il peut être considéré comme un matériau tel quel soit il peut être intégré en infimes quantités dans des polymères pour former un matériau composite.

Dans ce dernier cas, le graphène peut par exemple être utilisé en vue d’augmenter l’élasticité et la résistance des vêtements de plus de 50%, on peut d’ailleurs d’ores et déjà acheter des chaussures de sport incluant du graphène dans leur composition [10].

Fig.4 Les inov-8 G series, premières chaussures de sport utilisant le graphène à des fins de renforcement de propriétés mécaniques [11]

 

Mais le graphène peut aussi et surtout rendre des matières plastiques conductrices d’électricité, et ce à partir de faibles proportions [12]. En effet, pouvoir intégrer du graphène à des fibres de polymères est un premier pas vers des textiles intelligents, capables de relever des données médicales comme le poul ou la température corporelle, d’émettre de la lumière, de réagir au toucher ou encore de chauffer leur utilisateur[13]. Néanmoins, avant de pouvoir trouver des vêtements connectés dans nos magasins, les chercheurs doivent toujours affronter un problème de taille: le graphène n’interagit chimiquement que très peu avec les polymères. En conséquence, il est difficile d’obtenir un matériau composite homogène et donc durable dans le temps. Une solution envisageable est d’utiliser des oxydes de graphène, qui ont la particularité de pouvoir se lier à des composés organiques. Or, comme expliqué précédemment, les oxydes de graphènes ont de moins bonne propriétés physiques que le graphène pur, la difficulté ici est donc de trouver un bon compromis entre l’homogénéité du matériau et sa conductivité électrique [14].

Mais le graphène n’a pas besoin d’être “mixé” à d’autres matériaux pour être utilisable. Pris à part entière, il reste toujours un excellent conducteur d’électricité et est transparent à la lumière visible, aux UVs et aux proches infrarouges. Ces deux propriétés en font un matériau de choix pour deux applications: les écrans tactiles et les panneaux solaires [15]. Pourquoi ces domaines en particulier? Les dalles tactiles actuelles fonctionnent par différence de potentiel électrique et non pas par pression mécanique. Cela veut dire que des capteurs sont placés dans l’écran et émettent un signal électrique lors du contact avec nos doigts, d’où l’intérêt d’avoir un écran conducteur. Pour ce qui est des panneaux solaires, une couche conductrice est nécessaire sur la surface pour la collecte des électrons générés. Sur les modèles les plus courants au silicium, ce sont des bandes en métal qui remplissent ce rôle de contact électrique, comme on peut le voir sur les figures 5 et 6.

               

Fig. 5 et 6: schéma et photo d’un panneau solaire au silicium avec la mise en évidence des contacts électriques [16,17] 

 

Ces contacts cachent une partie de la lumière (environ 5% de la surface totale) et imposent une certaine rigidité à la cellule photovoltaïque, ce qui peut être un problème pour la confection de panneaux solaires fins et flexibles. C’est pour cette raison que l’on tends à remplacer ces contacts par des couches conductrices transparentes, qui couvrent toute la surface du panneau. Le graphène, dans ce rôle-là, présente des propriétés très similaires à l’oxyde d’indium et d’étain, matériau le plus utilisé à ce jour pour la fabrication des écrans de nos smartphones. Si les industriels veulent l’utiliser, c’est surtout que contrairement à l’Indium qui est une ressource rare quasi exclusivement importé de Chine [18], le graphène est créé à partir de carbone, ressource abondante sur Terre, et donc devrait, à long terme, devenir plus économique et s’inscrire dans une logique de développement durable.

On notera aussi l’émergence du graphène dans les domaines de la médecine, où il est utilisé en implant pour capter l’activité cérébrale [19] et dans le stockage d’énergie, sous la forme de batteries ultra performantes: on parle d’une charge cinq fois plus rapides que pour les batteries Lithium-ion traditionnelles [20].

La science du graphène n’en est qu’à ses balbutiements: au travers de ces quelques projets ambitieux présentés ici il est aisé de comprendre l’intérêt suscité par un tel matériau. Ce n’est sûrement plus qu’une question d’années avant que le graphène ne se démocratise et ne vienne s’insinuer dans nos vies, comme le plastique avait pu le faire un siècle plus tôt.