Le positivisme scientifique JUIGNET Patrick. Le positivisme scientifique. Philosophie, science et société. 2015. [en ligne] http://www.philosciences.com Les positivistes admettent que toute connaissance véritable découle de faits avérés et que l'on évite le verbalisme et l’erreur à la condition de se tenir sans cesse au contact de l’expérience. Le positivisme scientifique est à la fois une conception du monde et un ensemble de règles épistémologiques. Il a pris des formes différentes en fonction du domaine scientifique, du pays, et de la personnalité des savants. Si Auguste Comte en a rassemblé l’essentiel dans son Cours de philosophie positive (1842), sa doctrine philosophique ne se confond pas avec le paradigme scientifique que nous allons décrire. Nous nous attacherons au positivisme dans les sciences appliquées, prenant Claude Bernard et Marcellin Berthelot pour référence, car ils furent des modèles pour leurs contemporains.
- PLAN
- 1. Déterminisme et rationalité
- 2. La méthode expérimentale
- 3. L’agnosticisme ontologique
- 4. Énergétisme et économisme
- 5. La dimension temporelle
- 6. Conclusion
1. Déterminisme et rationalité
Pour le positivisme, tout ce qui est dans la nature peut être connu rationnellement. Le rationalisme, la volonté de connaître, de prévoir et d’agir sur un monde exempt de phénomènes surnaturels, sont des caractéristiques de la conception positiviste du monde. L’homme est un être naturel qu’il est possible de connaître. Cette conception permet à la connaissance d’échapper à la métaphysique religieuse mais pas à la métaphysique tout court. Si la nature ne manifeste plus le divin ou le démoniaque, la recherche de fondements premiers continue à donner naissance à des postulats métaphysiques, en particulier matérialistes.
Le déterminisme constitue le premier grand principe des sciences positives : les phénomènes naturels actuellement existants déterminent ceux qui existeront ultérieurement. Aucune intervention divine ne peut en dévier le cours ; il s'ensuit que l'avenir est prévisible si l'on connaît la totalité des conditions initiales. Le déterminisme joue également le rôle de postulat méthodologique. Dans une étude scientifique, les faits ne peuvent être considérés autrement que déterminés. Toute la recherche est assise sur ce principe qui prévient les démissions de l’esprit devant l'irrégularité ou l'anarchie apparente des phénomènes.
Le déterminisme est souvent conçu en termes de causalité sous forme d’une suite de causes et d’effets. Pourtant la causalité est suspecte, car elle rappelle certaines notions obscures de la philosophie. C'est pourquoi certains positivistes préfèrent une conception légaliste dans laquelle la succession des phénomènes est régie par des relations exprimées par des lois qui permettent de les prévoir. Le mode de production des phénomènes reste inconnu. Autour du pivot déterministe, d'autres éléments viennent s'articuler : l’espace et le temps sont pour la pensée positive des catégories bien définies. L'espace est une étendue homogène et le temps un déroulement régulier et absolu. Tous les faits scientifiques sont repérables selon ces deux catégories.
2. La méthode expérimentale
La méthode expérimentale reste la pièce maîtresse de l'argumentation dans les sciences appliquées. Les scientifiques la conçoivent comme garant de scientificité ou comme ensemble de règles utiles. Elle est fondée sur la distinction des faits et de la théorie ; la mise en place d'un ensemble expérimental permet de corroborer la théorie par les résultats d’expérience, les faits garantissant la justesse de la théorie. Plus généralement, il y a interaction des deux ; les faits suscitent de nouvelles théories qui auront à être vérifiées et ainsi de suite. Dans cette conception, l'investigateur n'entre pas dans le dispositif expérimental. Il est considéré comme un observateur neutre dont la personnalité n'intervient pas (ou seulement comme source d'erreurs d'interprétation). L'observateur est le miroir des faits « objectifs ».
Le raisonnement causaliste est indissociable de la méthode expérimentale et dans ce cas, la causalité concerne des faits précisément définis. Il s’agit uniquement des causes dites « prochaines » qui sont conçues dans une inspiration empiriste empruntée à David Hume. Le principe causal se traduit par quelques énoncés traditionnels : tout fait a une cause et il n'y a pas d'effet sans cause ; les mêmes causes produisent les mêmes effets ; la cause précède ou accompagne son effet ; la disparition ou la cessation de la cause entraîne la disparition ou la cessation de son effet. Dans l'enchaînement causal, conçu comme série linéaire, la cause entraîne un effet qui ne peut être lui-même sa propre cause. Certains, comme Claude Bernard, considèrent les conditions comme les causes du phénomène. Il évite l'écueil métaphysique en précisant qu'il ne saurait s’agir que des causes « prochaines ». (Introduction à la médecine expérimentale, 1865). La notion de causalité perd tout caractère obscur et en vient dès lors à désigner la série linéaire des faits empiriquement constatables qui se succèdent nécessairement. La recherche de causes précises sera un puissant moteur de l’évolution scientifique tout au long du XIXe siècle.
3. L’agnosticisme ontologique
Les tenants de la science positive oscillent entre deux opinions sur l'être. Pour les uns, la nature des choses, le réel dernier, l’être en soi, resteront à jamais cachées et ne peuvent faire l'objet d'une étude scientifique (C’est la position agnostique d’inspiration kantienne). Seuls les phénomènes et les rapports qu'ils entretiennent entre eux sont connaissables. La réalité scientifique est la réalité concrète, celle dans laquelle se produisent les faits observables. D'autres ont une position matérialiste : pour eux, la nature est composée d'une substance unique, la matière. Elle constitue l’être, le réel dernier et fondamental. La réalité phénoménale est une apparence ou une conséquence de ce réel dont ils cherchent l'accès.
L’agnosticisme ontologique est prôné par des figures influentes tel Paul Du Bois-Reymond, devenu célèbre à la fin du siècle. Le discours qu'il prononça lors de sa nomination comme recteur de l'université de Berlin, intitulé Ignorabimus, portait sur la limite à la connaissance dans une perspective d’inspiration kantienne. Il soutenait la causalité, affirmant, entre autres choses, que s'il était possible de connaître la façon dont s'organisent les faits, on pourrait prédire le futur avec une précision mathématique. Ce n'est pas cette dernière opinion banalement mécaniste qui nous intéresse mais son agnosticisme sur ce qui fonde les faits empiriques. Les limites de la connaissance sont constituées par la nature de la substance, la matière dont on ne peut connaître la nature. La question des origines (origine du mouvement, origine de la vie) et du fondement ontologique (nature de la substance) restera selon lui également insoluble. Dans son ensemble, la communauté scientifique professe un agnosticisme ontologique inspiré d’Emmanuel Kant. Derrière les faits, on peut supposer un être en soi qui échappe à l’expérience directe et donc à la connaissance scientifique. Cette manière de voir est une interprétation de la doctrine de Kant, un « néokantisme » assez répandu dans l’élite intellectuelle.
Pierre Duhem opposé à toute interprétation matérialiste et réaliste de la chimie et de la physique, proposa en 1906 une conception qu'on qualifie "d'instrumentaliste" ou "opérationnaliste". Selon lui, la science propose des théories concernant les phénomènes et c'est tout. Cette position accentue la doctrine en interdisant à la science tout accès à la constitution du monde (réservé à la métaphysique).
4. Énergétisme et économisme
Ernst Mach est un représentant de cette génération d’intellectuels humanistes à la formation à la fois philosophique et scientifique. Mach fait ses études universitaires à Vienne. Il est reçu docteur en philosophie en 1860, enseigne la philosophie et les mathématiques, puis est nommé professeur à Prague et ensuite à Vienne. Plus que par ses travaux proprement scientifiques, c'est par ses travaux épistémologiques qu'Ernst Mach influence ses contemporains. Il ajoute au courant positiviste de langue allemande des conceptions nouvelles venues du concept d’énergie. Cette proposition se fait au détriment de la physique traditionnelle, centrée sur la mécanique. Mach est si connu, qu'à partir de 1880, ses conceptions sont admises par la plupart des hommes cultivés de son temps. Sur le plan épistémologique, il considère qu'il existe des régions scientifiques bien distinctes qui correspondent au type de phénomène étudié. L'analyse débute par l'émergence de concepts de base simples qui doivent pouvoir être remis en question lorsque la recherche l'impose.
L'équivalence entre le travail et la chaleur était depuis longtemps soupçonnée, mais l’idée était freinée par la notion du « calorique », considéré comme un fluide. Premier auteur à traiter de thermodynamique, Sadi Carnot avait, en 1824, avancé le deuxième principe de la thermodynamique dans son ouvrage sur la puissance motrice du feu. Il faut attendre le milieu du siècle pour que le concept d'énergie fasse jour et se répande sous l'influence de Robert Mayer et Hermann von Helmholtz. Dès 1842-1843, les travaux de Mayer et Ludwig Colding établissent l'équivalence entre travail et chaleur, ainsi que le principe de conservation de la force. La poursuite de ces recherches, associées à celles de James Prescott Joule sur l'équivalent mécanique de la chaleur, ainsi que la théorie d’Helmholtz sur l'énergie latente, permettent de formuler le premier principe de la thermodynamique : la conservation de l'énergie. En 1882, Helmholtz avance la distinction entre énergie libre et énergie liée : la première peut se convertir en travail, alors que la seconde ne le peut pas et donne de la chaleur. Il démontre que la somme de ces deux énergies est constante et forme l'énergie interne si le système est isolé.
Les travaux de thermochimie et thermodynamique amènent un nouvel objet d'étude dont la nature est inconnue : l’énergie. Différente de la matière, l’énergie est susceptible de transformation d'une forme dans une autre. On en quantifie les effets sans avoir accès au réel lui-même, ce qui interroge la conception du monde. Cette étude ouvre indéniablement un nouveau champ dans le domaine de la physique. Sur le plan métaphysique, deux thèses s'affrontent. Les uns font de l'énergie le second fondement de l'univers à côté de la matière. Dans cette optique, les principes de conservation (de la matière et de l'énergie) apparaissent complémentaires. Les autres veulent ramener l’univers à l'énergie, considérée comme fondement premier et unique.
Une extension du concept d’énergie se produit dans tous les domaines d'application possibles. Ainsi Robert Mayer envisage des applications électriques, biologiques et même océanographiques. Il en tire également des principes métaphysiques sur la constitution de la nature, divisant le monde en deux substances, la matière et la force, cause de tous les phénomènes. Les conceptions énergétiques seront reprises et amplifiées par Wilhelm Ostwald à la fin du siècle qui prône un énergétisme intégral : tout est énergie. L'énergie apparaît comme réelle, mieux, comme le réel même ; elle est la cause de tous les phénomènes qui d'une manière ou d'une autre peuvent lui être ramenés. Globalement c’est une pensée qui privilégie le fluidique, le continu, par opposition au séquentiel, au discontinu, à l’élémentaire.
Le principe d'économie érige en une loi à prétention universelle l'idée selon laquelle toute chose irait vers le moindre coût énergétique, le niveau le plus bas de dépense énergétique. C’est le principe de Maupertuis, la "loi du moindre effort" extrapolée des travaux de Pierre Louis Moreau de Maupertuis sur l’optique. Des machines thermiques à la mécanique céleste en passant par la physiologie, la psychologie, l’épistémologie et la production des biens, tout doit fonctionner selon la dépense la plus faible, le coût le moins élevé.
5. La dimension temporelle
Le temps prend une importance qu’il n’avait pas jusqu’alors dans la pensée scientifique. Dans la plupart des sciences, on intègre la dimension temporelle comme facteur de transformation. L'idée d'une dynamique évolutive s’impose. On remarque des transformations sociales au cours des temps historiques, la transformation des espèces au cours des temps géologiques, les transformations astronomiques au cours des temps cosmiques. L’affrontement le plus fort a lieu entre Frédéric Cuvier, naturaliste catholique, qui défend un temps « immobile » où se reproduit indéfiniment la création et Jean-Baptiste de Lamarck pour qui le temps permet la transformation des espèces.
Avec Charles Darwin, le temps devient une donnée fondamentale de la biologie et de la zoologie, car c’est grâce à lui que la sélection peut s’effectuer. En géologie, la grande affaire du XIXe siècle est l'établissement d'une échelle stratigraphique exprimant la succession des événements géologiques. Elle est étroitement liée à l'adoption du transformisme puisque l'établissement de cette échelle dépend des fossiles et de leur évolution. Elle fut finalement établie pendant la seconde moitié du siècle. En 1894, Émile Renevier peut présenter une chronologie géologique et l’américain H.S. William créa, en 1893, le terme de « géochronologie ». En physique, le temps est un continuum ou les phénomènes sont réversibles, mais la « flèche du temps » (le caractère non réversible des déroulement temporels) est finalement introduite par la thermodynamique.
Le temps est au centre de la réorganisation de nombreux savoirs. Dans de multiples domaines de la connaissance, il apparaît comme une figure d'ordonnancement essentielle, un lieu d'action des processus évolutifs et parfois comme un facteur de production des formes nouvelles. Le temps n'est plus cette étendue immobile dans laquelle se répètent les formes figées de la nature. Il devient théâtre d'événements, lieu de processus. Ce premier pas, déjà important et complexe, en appelle un second : celui de la compréhension des mécanismes par le jeu desquels se produisent les transformations. Le temps n'est pas une explication suffisante, il amène à concevoir l’origine des faits qui s'y égrènent.
6. Conclusion
La fin du XIXe siècle est un moment de prodigieux essor scientifique au cours duquel découvertes fondamentales et mises au point techniques se succèdent. Ces réussites sont liées au « positivisme scientifique » qui est à la fois une méthode et un idéal. C'est une une philosophie située au cœur de l'évolution de la science moderne de la fin du XIXe au début du XXe siècle. Comme nous l’avons vu ailleurs (Une épistémologie pour l’étude du complexe), le paradigme de la science moderne s’avère insuffisant pour aborder le domaine de la complexité organisationnelle (la vie, l’homme, la société).