La science a-t elle une obligation éthique?
L’expérience scientifique doit prouver ou infirmer une hypothèse afin de la transformer en théorie. Pour ce faire, elle utilise une méthode précise et des protocoles de laboratoire. L’expérience randomisée en double aveugle est, par exemple, réputée très efficace. L’objectif est l’objectivité du scientifique. Mais l’objectivité est-elle toujours recommandable en science? Est-elle même possible? Le scientifique a t il une obligation éthique de rester objectif dans son travail, ou au contraire a t’il l’obligation éthique d’y faire intervenir des valeurs?
Pour le moment, le modèle utilisé en science est le modèle “value-free ideal”, c’est à dire le modèle selon lequel la science ne doit inclure que des valeurs épistémiques (des valeurs relatives à la connaissance scientifique objectives). Mais dans son ouvrage philosophy of science after feminism, Janet Kourany propose un modèle alternatif, qui fait intervenir des valeurs non épistémiques en science: le modèle “social responsible science”.
Qu'implique ce modèle de science socialement responsable? Kourany souhaiterait que l’on inclue des valeurs sociales au sein de la science, et ce afin d’éviter une science sexiste ou raciste par exemple. Mais elle ne renie pas les valeurs épistémiques. Il ne faudrait donc tout simplement pas annoncer un résultat qui implique des valeurs sociales répréhensibles, ni un résultat qui implique des valeurs épistémiques faibles, aucun des deux ensembles de valeurs n’étant plus important que l’autre.
Qu’est-ce alors que la bonne science? Ce terme peut avoir deux sens. La bonne science, cela peut être une science qui s’appuie sur des preuves et une méthode solides. Mais cela peut aussi être une science qui inclut des notions de vie bonne, auquel cas cela peut être compris comme une science éthique.
Le problème qui se pose, dès lors, c’est celui des valeurs qui doivent intervenir. Il va falloir trouver le juste équilibre pour ne pas tomber dans le relativisme extrémisme, ni dans le paternalisme. En effet, il ne faut pas accepter, dans ce modèle, qu’un scientifique sorte une théorie selon laquelle les personnes noires sont moins intelligentes que les personnes blanche, car ce type de théorie éminemment raciste serait inacceptable dans une science à valeurs éthiques, et ce indépendamment de ses valeurs épistémiques. Néanmoins, nous ne pouvons pas non plus reprocher à un scientifique de sortir une théorie selon laquelle les animaux ont une intelligence inférieure à celle de l’homme, si cette théorie est fondée sur une méthode et des preuves fiables.
Mais qu’est-ce qui différencie autant ces deux théories? Pourquoi la première nous heurte-elle profondément alors que la deuxième semble acceptable (et l’interdire relèverait donc du paternalisme) ?
Il s’agit d’abord d’une hiérarchisation sociale des valeurs. Le racisme, dans notre société, est considéré (et à très juste titre!) comme inacceptable. Mais cela n’a pas toujours été le cas. A contrario, les valeurs antispécistes ne sont pas encore implantées comme des valeurs éthiques essentielles, elle ne le seront peut être jamais, elle le deviendront peut-être. Le fait est que les valeurs sociales changent, il n’existe pas de règles immuables à ce sujet, et la science semble être un monument immobile rassurant au sein de cette tempête de valeurs multiples et mouvantes.
Mais plusieurs questions peuvent se poser face à cette vision d’une science purement objective. Premièrement, ce n’est pas historiquement vrai, pendant des centaines d’années la science a dû répondre à des religions, et nous reviendrons plus tard sur cet argument pour montrer l’importance qu’il y a à laisser une marge aux scientifiques sur les valeurs éthiques. Secondement, la science est-elle réellement objective? A quel point les valeurs épistémiques elles-mêmes sont-elles immuables? Le niveau d’exigence en sciences n’est jamais la certitude, mais bien un haut niveau de probabilité que la théorie “x” soit vraie (c’est ce niveau de probabilité qui fait d’une hypothèse une théorie). Même dans le cas d’un essai en double aveugle randomisé par exemple, il n’y a pas de certitude car il existe toujours une possibilité de hasard. Bien entendu, plus l’essai se fait sur un large nombre de personnes, plus la probabilité que la conclusion soit juste est élevée. L’exigence épistémique d’exactitude n’est pas réellement fixée, il n’existe pas de cadre normatif à ce sujet. Il faut nécessairement que la certitude s’élève largement au delà de 50%, mais il n’y a pas réellement de convention plus claire que cela. Que la certitude d’une théorie s’élève à 99% ou à 99.99%, elle reste une certitude théorique. C’est d’ailleurs pour cela que, dans le langage courant, on désigne par théorie quelque chose qui est presque une certitude mais qui ne l’est pas totalement.
Ce chiffre de certitude rassure, il concrétise quelque peu le degré auquel on peut croire à quelque chose, il nous le donne même en mains propres. Seulement, chiffrer la probabilité d’exactitude d’une croyance éthique semble bien plus complexe, voir impossible. A quel degré peut-on être certains que le racisme est une croyance réprouvable? Et le sexisme? On ne peut pas prouver que de telles idéologies sont intrinsèquement mauvaises, car les notions de bien et de mal ne sont pas chiffrables, et elles sont toujours contestables. C’est donc des notions humaines, émotives, narratives qu’il faut faire intervenir pour justifier ou réfuter des croyances éthiques qu’aucune expérience ne peut justifier. Pourquoi le racisme est-il éthiquement réprouvable? Car il implique une souffrance constante et écrasante pour certains, et indifféremment du nombre de personnes que cela implique, on peut légitimement considérer que la souffrance d’autrui n’est pas souhaitable. Cependant, le même type d’argument peut être avancé en ce qui concerne les idéologies antispécistes: la souffrance animale n’est pas souhaitable. Le cadre normatif des croyances éthiques est ici évident. Ces normes sont définies par l’ensemble des croyances de la société, au regard de son histoire.
Mais alors, des normes morales telles que la religion peuvent intervenir dans la science. Galilée en est un des tristes exemples. La science n’a pas toujours été détachée des normes morales, même si elle s’est aujourd’hui imposée comme justification de ce type de normes. Et c’est justement pour cette dernière raison que l’éthique des résultats de l’expérience doit se poser. Foucault l’a bien démontré avec sa notion de biopouvoir, la science a aujourd’hui une réelle prise sur les corps, sur la vie des individus. Aujourd’hui, la science est éminemment politique.
Mais alors comment éviter la dérive du paternalisme face à la science, comme ce fut le cas pour Galilée? La science et la politique se répondant et s’écrasant l’une et l’autre successivement, les scientifiques ont une responsabilité éthique qui ne doit pas se transformer en obligation d’accepter certaines convictions.
On pourrait regarder du côté de la loi, et examiner la manière dont les normes juridiques répondent à des nécessités éthique. Il faut alors aussi examiner leur potentiel normatif. On peut trouver dans la philosophie politique certaines réponses à l’éthique du scientifique.
Prenons par exemple la philosophie de John Rawls. Chez Rawls, la liberté est une des deux composantes de la justice. L’état doit donc intervenir le moins possible dans la vie des individus. Mais la seconde composante est l’égalité. L’Etat doit donc intervenir dans la vie des individus lorsque cette seconde composante est bafouée. La solution que propose Rawls pour résoudre ce dilemme, c’est de différencier des doctrines raisonnables et non raisonnables, englobantes et non englobantes. Les doctrines raisonnables, ce sont celles qui sont compatibles avec ces deux premiers principes de justice que sont l’égalité et la liberté, et dont découlent tous les autres principes de justice. Le racisme étant une idéologie qui implique la hiérarchisation du genre humain, ce n’est pas une doctrine raisonnable car elle n’est pas compatible avec l’égalité. Néanmoins, le spécisme est une doctrine raisonnable car il ne nuit ni à la liberté, ni à l’égalité entre les hommes. Cela nuirait en revanche à la liberté que de l’imposer, il serait alors constitué comme doctrine englobante. Dès lors, on pourrait par exemple choisir de construire l’éthique du résultat scientifique sur ces critères. Le racisme étant fondamentalement injuste car se heurtant à la notion d’égalité, un résultat scientifique impliquant une théorie raciste (telle que les personnes noires sont moins intelligentes que les personnes blanches) ne devrait pas être annoncé. En revanche, une théorie montrant que l’intelligence des animaux est inférieure à celle de l’homme n’aurait aucune raison de ne pas être annoncée si le scientifique le souhaite, car elle ne heurte ni le principe d’égalité ni celui de liberté, et l’interdire serait ériger l’antispécisme en doctrine englobante et relèverait donc du paternalisme. Cela fonctionne également pour les religions.
Mais un autre problème se pose face à l’expérience: il existe toujours une possibilité d’erreur. Or, ce qui définit cette possibilité, c’est les marges que l’on pose. On peut poser ces marges de manière neutre, par exemple en faisant en sorte qu’on ait autant de chance d’obtenir un faux positif qu’un faux négatif. Mais les conséquences d’un faux positif ou d’un faux négatif peuvent également influencer notre choix. Ainsi, si un pesticide est testé afin de savoir si il est ou non toxique pour l’homme, on peut adapter les chances de faux positifs ou de faux négatifs en fonction des conséquences. Certes, il y aura des conséquences dans les deux cas: surrégulation en cas de faux positifs, effets sur la santé publique en cas de faux négatifs. Dans ce type de cas, on ne peut pas invoquer l’égalité ni les doctrines englobantes pour considérer ce que doit faire le scientifique. Les valeurs épistémiques inciteraient à ne favoriser ni le risque de faux positifs ni celui de faux négatifs. Mais on peut, par une expérience de pensée, répondre à ce problème. Si on ne pouvait pas tester ce pesticide, et que l’on avait aucune idée de son degré de dangerosité, est-ce que l’on choisirait de l’utiliser ou non? Entre la santé publique et l’intérêt financier des compagnies, le choix est-il si difficile? Même si le fait que ce dernier soit touché implique des conséquences sur l’économie locale, la santé publique semble plus importante. En effet, utiliser un produit toxique revient à risquer de tuer des individus, cela s’apparente à un homicide involontaire.
Brown argue que les valeurs épistémiques doivent prévaloir dans le raisonnement du scientifique elles sont soutenues par des considérations épistémiques. Le but du scientifique, c’est la vérité. Mais l’importance de la vérité n’est encore elle-même qu’une valeur sociale, pourquoi la placer avant toutes les autres? On pense qu’elle nous offre une certaine objectivité, mais en quoi cela lui donne-t’il plus d’importance? N’y a-t’il pas une certaine objectivité également dans des valeurs telles que l’égalité? Dans le gai savoir, Nietzsche écrit “Dans les derniers siècles on a fait avancer la science, soit parce que, avec elle et par elle, on espérait mieux comprendre la bonté et la sagesse de Dieu - le principal motif dans l'âme des grands Anglais (comme Newton) - soit parce que l'on croyait à l'utilité absolue de la connaissance, surtout au lien le plus intime entre la morale, la science et le bonheur - principal motif dans l'âme des grands Français (comme Voltaire) -, soit parce que l'on croyait posséder et aimer dans la science quelque chose de désintéressé, d'inoffensif, quelque chose qui se suffit à soi-même, de tout à fait innocent, à quoi les mauvais instincts de l'homme ne participent nullement - le motif principal dans l'âme de Spinoza, qui, en tant que connaisseur, se sentait divin : - donc pour trois erreurs!”. Cela signifie que la science ne doit pas s’ériger en connaissance ultime ni remplacer la religion. La connaissance n’est pas ce qui relie toutes les valeurs entre elles, elle ne permet pas un point de vue juste sur la justice. Elle ne doit pas se positionner comme supérieure ou plus importante que les autres valeurs. Et loin d’être inoffensive, elle a une énorme responsabilité car elle a un potentiel de pouvoir, elle influe sur le monde. La science a donc nécessairement une obligation éthique.