dimanche 19 février 2023

Un regard différent (version du 2023-03-01 avec dernière section 4.5 ajoutée)

 

Depuis tout jeune je suis passionné par les théories et les découvertes des sciences de la nature et par l’évolution des sociétés humaines. Au total, cela fait plus de cinquante ans que ces deux centres d’intérêt se croisent dans mes lectures, dans mes réflexions et dans mes activités personnelles. Au cours de ces années, j’ai été en contact avec plusieurs idées  intéressantes mais qui n’ont pas été largement véhiculées ou enseignées. Même si ces idées ne sont pas toujours bien développées et vérifiées, elles sont utiles comme pistes de réflexion et de recherche. Elles pointent vers des directions différentes où regarder pour comprendre le monde matériel et le monde humain qui nous entourent. Elles permettent de sortir des schémas bien ancrés de pensée qui deviennent à la longue des obstacles à une bonne compréhension du monde.

Dans cette série de textes que je débute et que je publierai par intervalles, je vous invite à me suivre dans un périple d’exploration et de réflexion hors des cadres établis et des sentiers battus. Ce sera à la fois une synthèse d’idées qui m’ont marqué au cours des années et une réflexion philosophique sur la science de notre époque et sur notre époque elle-même. Ce sera en quelque sorte un genre de testament intellectuel personnel.

J’espère que certaines idées vous intéresseront, qu’elles vous feront réfléchir sur l’univers matériel qui nous entoure et sur la société actuelle, la société actuelle faisant ici référence à une combinaison de traits généraux communs à l’ensemble des pays actuels et de traits particuliers au Québec.

Les idées qui seront présentées sont d’abord et avant tout des pistes de recherche. Elles pourront manquer parfois de précision et de fini, mais jamais d’à-propos. Ce sont avant tout des invitations à porter un regard plus attentif dans certaines directions particulières.


Voici les thèmes que je vais aborder:

1- L’univers à l’échelle astronomique

2- Les caractéristiques générales des êtres vivants

3- Traits politiques et économiques du Québec actuel

4- Concepts et paradigmes de la physique moderne



1- L’univers à l’échelle astronomique


1.1 - La structure à grande échelle de l’univers

À grande échelle, l’univers apparait formé de filaments et de bulles. On peut en voir une image sur la page suivante www.astronomes.com/les-galaxies/superamas-structure-grande-echelle.

Dans cette image, les filaments inter-reliées de matière condensée entourent des zones moins denses de matière. Ces filaments sont formés d’amas et de super-amas de galaxies. Dans le modèle du Big Bang, cette structuration de la matière origine grosso-modo de l’agrégation progressive de matière par la gravité. Un effet qui agit à une certaine échelle de temps et d’espace qui n’est pas dominée par l’énergie d’expansion de l’univers repoussant les galaxies les unes des autres. D’abord des étoiles se forment par agrégation de la matière laissant une zone moins dense de matière tout autour; puis des galaxies se forment par regroupement de ces étoiles; ensuite se forment des regroupements de galaxies. C’est une explication plus ou moins séquentielle d’un univers à grande échelle qui évolue depuis un moment de «création» (un moment de commencement avant lequel on ne peut rien dire).

Il est possible de concevoir autrement comment ces bulles et ces filaments se forment en mettant de côté l’hypothèse de l’expansion de l’univers (je reviendrai sur cette question). C’est de considérer les bulles comme des centres d’explosion et de diffusion de matière et de lumière. Les bulles grossissent et là où elles se rencontrent et interagissent, la matière se condense pour former des filaments. La matière se condense sous l’effet des chocs et de la gravité. Et là où la matière se condense se produit par la suite à nouveau des explosions ou des éjections de matière et de lumière. C’est un phénomène qui se produit et se reproduit sans fin et sans commencement dans le temps.

Le phénomène se déroule à différentes échelles de grandeur: les étoiles qui explosent en supernova, les éjections de matière provenant du centre des galaxies actives, les collisions de galaxies et de groupes de galaxies qui créent de nouveaux centres gigantesques d’éjection de matière, etc. Les cycles simultanés s’influencent mutuellement et créent des conditions différentes d’un cycle au suivant. Il n’y a pas une histoire globale unique mais des histoires multiples aux variations innombrables selon le hasard de la répartition des étoiles et des galaxies et de leurs interactions continuelles.

Il est à noter que le modèle du Big Bang contient lui aussi des cycles imbriqués de condensation et d’éjection de matière au sein des galaxies: les éléments chimiques plus lourd que le fer que l’on retrouve sur Terre ne peuvent avoir été générés que par des explosions antérieures en supernova d’autres étoiles massives et non pas par la fusion nucléaire provenant du soleil (pour plus de détails, voir l’article suivant «La vie et la mort des étoiles»).


1.2 - La question de l’expansion de l’univers

L’hypothèse de l’expansion de l’univers origine de la mesure des spectres lumineux de la lumière provenant des galaxies lointaines: plus une galaxie est éloignée de la nôtre et plus le spectre de la lumière qui nous parvient d’elle est décalé. Le spectre est systématiquement décalé vers une plus grande longueur d’onde que celle qui est mesurée pour la lumière émise sur Terre ou par le Soleil pour des éléments atomiques semblables.

L’explication avancée habituellement est que l’espace se dilate au cours du temps. Cela fait en sorte que les longueurs d’onde de la lumière seraient aussi étirées durant l’intervalle de temps de leur parcours vers nous. Plus la distance entre une galaxie et la nôtre est grande, plus l’étirement serait grand.

L’hypothèse de la dilatation de l’espace et de l’expansion de l’univers est souvent présentée comme si elle était un fait prouvé scientifiquement. Mais en fait ce qui est prouvé c’est la capacité du modèle beaucoup plus complexe du Big Bang, qui inclut cette hypothèse (et bien d’autres qui se sont ajoutées au fil du temps), d’en arriver à retrouver les caractéristiques connues de l’univers (mais pas toutes comme j’en traiterai dans un article à venir). Ce n’est pas l’expansion elle-même de l’espace qui est prouvée. C’est là une différence fondamentale à bien saisir. 

Un autre type d’explication au décalage de la lumière vers de plus grandes longueurs d’onde est que la lumière serait transformée dans son voyage vers nous. Une hypothèse précise qui a été avancée et qui va en ce sens est qu’au cours de son voyage vers nous la lumière pourrait être absorbée par de la matière et réémise dans des longueurs plus grandes. Mais avec cette hypothèse et en utilisant des paramètres de répartition de matière dans l’univers répondant à un modèle d’univers «homogène et isotrope», les calculs n’arriveraient pas aux bons résultats. On nous dit en conséquence que le modèle du Big Bang est le meilleur et qu’il est donc celui qui est reconnu par la communauté des astrophysiciens.

l faut savoir cependant que l’acceptation et l’utilisation d’un modèle en science ne signifie pas que toutes ses hypothèses sont vérifiées et vraies. Par exemple, le modèle planétaire des électrons considérés comme des sphères quasi-ponctuelles tournant autour des noyaux atomiques a été utile par le passé pour expliquer les liens chimiques. Mais il a été remplacé par la suite par un modèle quantique plus complexe et bien différent quant à la nature des électrons et des noyaux atomiques. Les hypothèses d’un modèle ne sont pas vérifiées par la validation de sa capacité de donner des résultats concordant avec les mesures expérimentales. Chaque hypothèse n’est pas vérifiée individuellement par la vérification des résultats du modèle global. C’est une vérité et une limitation de base des modèles que tous doivent comprendre et reconnaître.

Pour revenir au décalage des spectres lumineux, il est bien naturel d’envisager que la lumière soit transformée dans son voyage à travers l’univers par un autre mécanisme restant à découvrir et à préciser (en particulier selon moi en remettant en cause les postulats de l’homogénéité et de l’isotropie de l’univers qui sont utilisés dans tous les calculs et dont je traiterai aussi dans un autre article). Quoiqu’il en soit, l’hypothèse de la dilatation de l’espace au cours du temps demande une preuve pour elle-même bien différente de celle de la validation des résultats du modèle du Big Bang qui la prend comme postulat.


1.3 - Les lacunes du modèle du Big Bang et des connaissances actuelles

Depuis les résultats d’observation du satellite WMAP obtenus en 2008, la communauté des astrophysiciens s’accorde à dire que l’univers est composé d’environ 73% d’«énergie noire» et d’environ 23% de «matière noire». Seulement 4,6% de l’univers serait constitué de matière connue.

Donc près de 96% de l’univers est constitué d’énergie et de matière inconnues. Inconnues veut dire que ce ne sont pas des constituants que les physiciens peuvent actuellement manipuler en laboratoire ou déduire du modèle standard de la physique des particules; ces constituants sont déduits de leur nécessité dans les équations mathématiques décrivant le comportement de l’univers à grande échelle (pour retrouver en particulier les mesures de rotation des étoiles dans les galaxies et de décalage de la lumière des supernovas). Il faut bien noter que c’est le modèle reconnu de composition de l’univers observable qui affirme cela.

Avec un univers dont la composition est à 96% inconnue, dire que le Big Bang est un modèle vérifié et validé de l’univers observable et de son évolution me semble devenu une affirmation plutôt curieuse et aberrante. Non seulement la situation montre les limitations d’application du modèle du Big Bang mais aussi celles du modèle standard de la physique des particules qui ne permet plus de faire le pont avec les observations astronomiques. 

Mais il ne faut pas mal comprendre la situation. Les mesures astronomiques empiriques sont de plus en plus nombreuses et précises. Ce sont les explications théoriques qui ne réussissent pas à bien intégrer l’ensemble des mesures.


1.4 - Pour sortir du noir

Selon le modèle actuel de l’univers, celui-ci serait composé d’environ 73% d’«énergie noire» et d’environ 23% de «matière noire». Plutôt que recourir à de la matière noire, un petit groupe d’astrophysiciens proposent une version légèrement modifiée de la loi de la gravitation. Cela permettrait supposément d’avoir une meilleure correspondance avec les vitesses mesurées de rotation des étoiles dans certains types de galaxies. C’est une explication très controversée. Elle indique cependant que des approches différentes de celle de l’ajout de matière noire ou d’énergie noire pourraient avoir un effet mathématique semblable et donner des résultats s’accordant avec les mesures astronomiques effectuées. Plus le temps passe sans pouvoir détecter en laboratoire la matière noire et l’énergie noire et plus le modèle reconnu qui a besoin d’eux subit des pressions cherchant à le modifier.

Sur une question connexe, quelques astrophysiciens ont commencé à douter que l’univers soit isotrope, c’est-à-dire uniforme dans toutes les directions vues de la Terre. Des écarts de mesure des radiations provenant de loin dans l’univers selon diverses directions les incitent à le faire. Même si ces astrophysiciens ne remettent pas en question le modèle global du Big Bang, c’est là une remise en question d’un postulat de base du modèle.

La remise en question de l’isotropie de l’univers a des conséquences plus importantes si on lui ajoute une remise en question de l’homogénéité de l’univers: des structures à grande échelle décelées dans l’univers actuel s’accordent difficilement avec ce postulat d’homogénéité. Pour en arriver à dire malgré tout que l’univers est en moyenne homogène à grande échelle cela nécessite des manipulations complexes de probabilité sur des données sélectionnées et des hypothèses de mesure dépendant elles-mêmes du modèle du Big Bang. C’est loin d’être évident. Si les deux postulats d’homogénéité et d’isotropie s’avéraient faux cela mènerait directement à une remise en question globale du modèle actuel de l’univers.

Quoiqu’il en soit, le pourcentage élevé de composantes inconnues de l’univers (96%) qui perdure depuis des dizaines d’années appelle à une révision majeure du modèle en vigueur et à une autre façon de voir et de comprendre l’univers. Cela justifie de sortir des modèles académiques acceptés, d’envisager de nouvelles idées sur la base des lacunes observées et de multiplier les angles différents de vision.


2 - Les caractéristiques générales des êtres vivants


2.1 - La définition de la vie

On entend parfois dire par certains scientifiques et par la plupart des journalistes de vulgarisation scientifique que donner une définition de la vie est difficile. Pourtant il est plutôt facile de distinguer de façon globale le vivant du non-vivant: on pourrait dire grosso-modo qu’un être vivant est un système ayant la capacité de se développer en utilisant les matériaux de son environnement pour régénérer ses propres composantes internes.

C’est une définition très générale qui met en évidence l’essentiel car si vous vous en servez vous verrez qu’elle permet de distinguer facilement les systèmes mécaniques et électroniques non-vivants (comme des robots et des ordinateurs) des systèmes organiques vivants.

Selon cette définition, un virus n'est pas strictement vivant car même s'il produit une copie de lui-même dans certaines conditions, chaque virus ne reproduit pas ses propres composantes internes (mais il faut reconnaître que c’est un cas-limite à la frontière entre vivant et non-vivant). Une étoile ou un cyclone ne sont pas non plus des phénomènes vivants; ce sont plus des mécanismes de réaction en chaîne automatique que des auto-régénérations de leurs propres composantes.

Quand certains disent que c’est difficile de définir la vie, c’est souvent qu’ils ont en tête le problème plus détaillé et plus technique d’identifier des critères physico-chimiques signalant la présence ancienne ou actuelle de formes de vie dans un milieu donné. Car on veut déterminer s’il y a eu de la vie sur Mars et d’autres planètes et on veut pouvoir détecter des molécules et des composantes atomiques précises qui signalerait que des êtres vivants vivent ou ont vécu dans ce milieu. Autrement dit, on veut pouvoir déterminer s’il y a de la vie dans un milieu donné sans avoir devant soi une entité dont on pourrait concrètement analyser le fonctionnement. C’est un problème qui dépend beaucoup du milieu à considérer et qui ne relève pas d’une définition générale.

La définition essentielle de la vie que j’ai utilisée est une caractéristique de la vie qui s’appelle de façon académique l’autopoïèse. La définition de Wikipédia de l'autopoïèse (du grec auto soi-même, et poièsis production, création) «est la propriété d'un système de se produire lui-même, en permanence et en interaction avec son environnement, et ainsi de maintenir son organisation malgré le changement de composants».

De façon générale, on peut dire que la vie n’est pas une caractéristique propre à un type particulier de matière, elle est plutôt un niveau particulier d’organisation de la matière physique.


2.2 - Les formes d’intelligence

Il y a eu au cours des dernières années beaucoup de découvertes sur la sensibilité des plantes face à leur environnement et sur leur capacité d’interconnexion entre elles. Elles mémorisent entre autres certaines interactions qui les mettent en danger et transmettent autour d’eux des messages chimiques qui servent d’avertissement aux autres plantes. C’est là une forme d'intelligence si on définit l’intelligence comme étant la capacité de résoudre des problèmes. La survie des plantes est certainement un problème dont la résolution mérite d’être soulignée.

Mais cela ne dénote pas une forme consciente d’intelligence, ce que la plupart des gens comprennent intuitivement quand certaines personnes disent que les plantes sont aussi intelligentes ou plus intelligentes que les animaux. Ce n’est pas un processus de réflexion des plantes sur différentes solutions alternatives à envisager qui les mèneraient à prendre une décision consciente. Personne n’a fait la démonstration d’une telle capacité. Ce qu’on observe en réalité c’est une forme complexe de réflexes conditionnés qui s’est constitué au cours de l’évolution des plantes. C’est une des formes d’intelligence organique et évolutive.

Un système équivalent chez les animaux et les humains est le système immunitaire inconscient et involontaire qui réagit automatiquement à différentes molécules et organismes de l’environnement qui entrent en contact avec eux. C’est un système organique extrêmement complexe d’interactions avec mémorisation des contacts antérieurs. Il résout des problèmes qu’aucun être humain ne serait en mesure de résoudre consciemment mais il demeure un système complexe de réflexes conditionnés au cours de l’évolution des espèces.

La capacité de réflexion des animaux est une forme d’intelligence qui leur est spécifique. Elle est une nécessité liée à leur mode de vie, nécessité qui n’est pas présente dans le cas des plantes. Elle est nécessaire à la plupart des animaux qui se déplacent librement et qui changent ainsi continuellement leur environnement immédiat. Il faut que ces animaux soient capables de manoeuvrer pour trouver ce qu'ils ont besoin dans cet environnement changeant. Ils ont besoin d’avoir une forme ou une autre de représentation interne du monde extérieur en relation avec ce qu'ils recherchent et de pouvoir prendre des décisions en fonction de ce qui est présent dans leur environnement de déplacement. Ils ont besoin d’une forme ou d’une autre de réflexion sur le monde extérieur. Des réflexes automatiques, des réflexes conditionnés et des évolutions organiques à long terme ne sont pas suffisants pour leur mode de vie.

Cela étant dit, cela n'enlève rien au merveilleux de l'intelligence organique des plantes et au merveilleux des interconnections complexes qu'elles établissent entre elles et leur milieu. De plus, beaucoup de ces interconnections fascinantes restent certainement à découvrir. De façon plus globale, l'évolution des espèces vivantes peut aussi être considérée comme une forme d'intelligence intrinsèquement présente dans la nature. Mais ce n'est pas une forme d'intelligence réflexive qui est la forme spécifique d'intelligence donnant à mon avis un niveau d'autonomie plus grand aux animaux.

L’intelligence réflexive, l'intelligence organique conditionnée et l’intelligence évolutive de la nature sont des formes inter-reliées d'intelligence. Si la plupart des humains ont tendance dans la vie de tous les jours à valoriser davantage la capacité de réflexion, il ne faut pas oublier que c’est un des produits de l'intelligence évolutive et qu’elle ne donne la capacité à aucun humain de prendre consciemment le relais de la coordination organique inconsciente de son propre corps.


2.3 - La conscience de soi

Parmi les nombreuses questions que se posent les philosophes et les scientifiques, la nature de la conscience et de la conscience de soi sont des questions qui génèrent beaucoup d’analyses et de débats. En particulier, on veut identifier les êtres vivants qui sont conscients d’eux-mêmes. Et on veut aussi déterminer si un ordinateur ou un robot pourraient éventuellement devenir conscients.

En ce qui me concerne, je serais porté à dire dans un 1er temps que la conscience de soi est la capacité d’avoir en soi-même une image ou une représentation de soi en interaction avec le milieu environnant. C’est ce que suggère directement les mots «conscience de soi».

Mais l’utilisation des expressions «conscience» et «conscience de soi» par les gens réfère habituellement à plus que cela. Elle contient l’idée supplémentaire de la sensibilité à soi-même. Nous n’avons pas seulement la représentation de nous-même et de l’environnement, nous avons aussi une sensibilité liée à cette représentation. Sans cette sensibilité vivante, le mot conscience semble inapproprié et manquer d’une caractéristique essentielle.

On peut par exemple doter un robot de senseurs lui permettant d’avoir une représentation de lui-même dans son environnement, cela n’en reste pas moins une représentation mécanique et sans conscience: son comportement n’est pas liée à une sensibilité à son propre corps et à son propre devenir mais bien à un programme et à un but élaborés en dehors de lui. On pourrait dire qu’il a la connaissance mais pas la conscience. De là ma réponse à la question à savoir si un robot pourrait devenir conscient: il lui faudrait une sensibilité à son propre organisme et une volonté propre liée à cette sensibilité. Ce qui n’est clairement pas possible d’envisager à l’heure actuelle.

Dans la section précédente, j’ai appelé intelligence réflexive la capacité des animaux à résoudre les problèmes qui se posent à eux dans leur changement continuel d’environnement immédiat. J’ai mentionné qu’ils ont besoin d’avoir une forme ou une autre de représentation interne du monde extérieur et d’eux-mêmes. Pour moi, cette nécessité fait en sorte que la plupart des animaux à notre échelle ont la capacité de représentation et la sensibilité vivante les rendant conscients d’eux-mêmes. Et cela indépendamment qu’ils réussissent ou non le test de se reconnaître dans un miroir qui est habituellement mentionné comme critère distinctif.


2.4 - Ce qui est spécifique aux humains

Aucune des caractéristiques ou capacités suivantes n’est spécifique aux humains, même si elles sont moins développées et systématiques chez les autres animaux que chez les humains:

- la conscience de soi; car au delà de l’argumentation théorique personnelle plus générale que j’ai exprimée la-dessus dans la section 2.3, sa présence est reconnue par tous au moins pour certains animaux qui réussissent le test empirique de se reconnaître dans un miroir;

- le langage vocal exprimant par des sons simples ou des séquences courtes de sons certaines sensations, émotions et sentiments ou désignant directement des objets ou des êtres vivants; car quiconque a été en contact avec des animaux ou a été instruit sur leur comportement sait qu'ils utilisent à cette fin le langage vocal;

- le langage abstrait où des symboles intermédiaires sont utilisés; car la danse bien connue des abeilles pour indiquer le lieu d’une source de nourriture est effectivement une forme de langage abstrait;

- l’utilisation simple d’outils; car de nombreux mammifères en utilisent pour atteindre des sources de nourriture;

- la construction de structures élaborées; car certains insectes sociaux sont passés maîtres dans la fabrication de nids complexes;

- les comportements appris et transmis culturellement de génération en génération; car on n’a qu’à penser à l'enseignement des sources d'alimentation par les parents des jeunes mammifères et à la transmission culturelle du lavage des pommes de terre par certaines des bandes de macaques du Japon.

Les capacités de base distinguant très nettement les humains des autres animaux sont ailleurs. Elles me semblent être plutôt du côté 1) de la capacité verbale de décrire une séquence d'évènements (de conter une histoire) et du côté 2) de l'utilisation d'un langage écrit. Ce sont des capacités centrales qui une fois acquises ont permis d’accumuler des données et des connaissances. De ces capacités ont découlé le développement de toutes sortes d'autres disciplines et la création d'oeuvres plus élaborées qu'on ne retrouve que chez les humains.

Il est à noter que différents facteurs ont contribué à développer ces capacités distinctives. Par exemple, la systématisation de l'utilisation d'outils de plus en plus performants et l'indispensable maîtrise du feu. Cela a diminué le poids des contraintes immédiates et pressantes de la lutte pour la survie et a libéré du temps et des énergies pour remémorer, décrire et célébrer les activités effectuées et les émotions vécues. Cela a permis aussi aux communautés humaines d'améliorer et complexifier leur langage verbal pour mieux décrire leurs activités et communiquer ce qu'ils ont vécu et appris.

Deux étapes ultérieures du développement humain l'ont mené à l'élaboration progressive d'un langage écrit. Ce sont le passage à une agriculture sédentaire et le regroupement des humains en cités. La nécessité d'accumuler des données et connaissances sur les saisons pour l'agriculture et la complexification des relations sociales et commerciales entre humains dans les cités a entraîné le recours à une mémoire écrite plus complexe, dépersonnalisée et permanente que la mémoire verbale. Le langage écrit a été au centre du développement des «civilisations» humaines et de tout ce qui le démarque de façon non-équivoque de tous les autres animaux de la Terre.


3- Traits politiques et économiques du Québec actuel


3.1 - Une démocratie représentative qui a gardé certains traits d’une monarchie

Par comparaison avec certains pays qui vivent sous l’autorité personnelle d’un dictateur ou sous l’autorité d’un parti unique qui ne tolèrent aucune organisation en opposition à eux, il est juste de dire que nous vivons dans une démocratie. Mais il faut se rendre compte que cela ne veut pas dire que c’est toujours la volonté de la majorité des citoyens qui détermine les politiques et les lois du pays: nous vivons dans une démocratie représentative où le vote démocratique désigne qui va diriger le gouvernement et établir les lois du pays au nom des citoyens. Cela ne garantit pas en pratique que le gouvernement va respecter dans ses projets la volonté majoritaire des citoyens. Il doit cependant respecter les règles constitutionnelles et les chartes des droits en vigueur.

Comme exemple des limites à la démocratie dans notre démocratie parlementaire: lorsque le 1er ministre et son parti ont la majorité au parlement, ils ont légalement tous les pouvoirs de décider ce qu’ils veulent peu importe l’opinion et les intérêts de la majorité des citoyens. Et c’est ce qu’ils font parfois. On l’a bien vu par le passé sous les gouvernements d’austérité détestés de Charest et Couillard pendant lesquels a été aussi mise en évidence la corruption généralisée dans le secteur de la construction. On le voit encore aujourd’hui (juillet 2020) avec la menace du gouvernement Legault d’un bâillon pour l’adoption à l’automne de son projet de loi 61; ce projet a prétendument pour but d’accélérer la reprise économique après les fermetures et confinements de la covid-19 alors qu’il vise à donner au gouvernement Legault des pouvoirs exceptionnels comme de ne pas respecter les règles d’attribution des contrats, les règles environnementales et les normes d’expropriation; pourtant l’opposition à ce projet a été immédiate et massive dès sa présentation.

Sans trop déformer mais en caricaturant tout de même un peu, on pourrait dire que notre démocratie représentative est une monarchie où un roi est élu aux 4 ans. Les citoyens votent démocratiquement qui aura l’autorité sur toute la société durant cette période. Il faut ajouter que les citoyens sont aussi consultés de diverses manières mais le gouvernement n’a aucune obligation de respecter la volonté de la majorité. En pratique, le gouvernement agit d’abord et avant tout en fonction de son programme politique partisan en l’assouplissant quand les critiques sont trop vives lors des consultations et des délibérations parlementaires. Le gouvernement agit aussi en fonction d’intérêts particuliers et privés qu’il défend habituellement sous le prétexte très général de la création ou du maintien d’emplois au Québec.

La démocratie représentative est le mode de gouvernement le plus fréquent à notre époque. Elle a différentes formes dont la monarchie constitutionnelle parlementaire (ce qui est le cas ici où la constitution canadienne garde les vestiges de la monarchie héréditaire) et la république constitutionnelle avec un président ayant plus ou moins de pouvoirs selon les pays (la forme la plus répandue de gouvernement, 151 pays sur 197 en 2020 selon Wikipédia). Les limites démocratiques de la démocratie représentative s’appliquent de façon générale à ces pays, même ceux sans vestiges évidents de monarchie.


3.2 - Le pouvoir décisionnel des premiers ministres et des chefs d’entreprise

Nos premiers ministres dirigent souvent le pays comme s’ils étaient des rois élus. Des rois élus qui peuvent s’ils le veulent imposer légalement leur volonté à l’ensemble du pays le temps que dure leur mandat. C’est ce qu’ils font bien souvent en allant au-delà et en dehors du mandat qu’ils prétendaient vouloir obtenir durant la période des élections.

Cette façon de décider par en haut a aussi cours dans la majorité des entreprises: seulement un ou quelques individus à la tête de l’entreprise prennent les décisions majeures et les font mettre en application par l’ensemble des employés. Si plusieurs entreprises ont en plus des processus de consultation, ces processus ne sont pas décisionnels, tout comme c’est le cas avec les consultations des gouvernements en place. C’est en fait un mode hiérarchique de direction assoupli par des consultations limitées et dont les résultats peuvent être mis de côté par les dirigeants.

Il y a aussi d’autres limitations au pouvoir des dirigeants des entreprises provenant des normes du travail et des conventions de travail mais cela ne change rien au fait que ce sont eux qui prennent les décisions stratégiques d’orientation et les décisions majeures de gestion.

Le mode hiérarchique de décision fait partie de la culture organisationnelle moderne. Il s’applique autant aux petites entreprises familiales avec quelques employés du coin de la rue qu’aux grandes compagnies avec un conseil d’administration et un comité exécutif. Il s’applique aussi aux ministères et entreprises d’État dont les dirigeants sont nommés par le premier ministre concerné. Il s’applique aussi à un grand nombre de coopératives bureaucratisées dont le pouvoir de décision stratégique appartient à des organes centralisés ou dont l’assemblée des membres n’est plus réellement souveraine à cause de différentes règles administratives mises en place.

Les raisons de la domination du mode de décision par le haut dans les entreprises sont multiples. On souligne habituellement que cela est lié aux intérêts des propriétaires des entreprises qui cherchent évidemment à imposer leur volonté aux employés dans leur entreprise. C’est certainement un facteur majeur d’explication.

Mais l’exemple des coopératives bureaucratisées qui appartiennent pourtant à leurs membres montre que ce n’est pas la seule raison. Il semble dans ces cas que la spécialisation hyper-développée des emplois et des responsabilités dans les sociétés modernes ont tendance à mener à la délégation du pouvoir de décision. C’est aussi un facteur majeur d’explication des décisions prises par le haut.

D’autres facteurs peuvent aussi entrer en ligne de compte. Ce qui importe pour moi, c’est de se rendre compte que très peu d’entreprises modernes échappent à la culture des décisions stratégiques prises par le haut de la hiérarchie organisationnelle. Peut-être quelques coopératives de travail où l’assemblée générale des membres votent sur ces décisions. Peut-être aussi quelques petites entreprises nouvelles avant qu’elles ne prennent de l’envergure. Mais elles restent marginales par rapport à l’ensemble des entreprises existantes.

Ce n’est donc pas surprenant que dans notre société la démocratie politique se limite à une démocratie de représentation et de consultation non décisionnelle. Elle est plutôt en phase avec ce qui se fait actuellement dans le domaine économique.


3.3 - La condition nécessaire à une démocratie politique plus participative

J’ai dit dans mon article précédent que le pouvoir décisionnel des premiers ministres dans le domaine politique (face aux citoyens) est le reflet du pouvoir décisionnel hiérarchique des chefs d’entreprise dans le domaine économique (face à leurs employés). Les modes de sélection des dirigeants sont différents mais les façons hiérarchiques de diriger et de gérer sont dans une grande mesure les mêmes.

Malgré le désir que j’ai d’une démocratie politique plus élargie et plus participative, la démocratie politique représentative me semble être là pour rester encore un bon bout de temps. Car j’ai tendance à penser que si rien ne change au niveau du fonctionnement des entreprises où travaillent à chaque jour les citoyens, il serait surprenant que cela change au niveau des institutions politiques.

Si les citoyens ne créent pas et n’essaient pas eux-mêmes de créer des entreprises de travail dont les objectifs sont déterminées démocratiquement par les personnes qui y travaillent, je ne vois pas comment pourrait s’installer au niveau politique plus complexe une démocratie de participation des citoyens. Une démocratie qui irait au-delà d’un vote aux 4 ans et des consultations actuelles très limitées et non-décisionnelles entre les élections. Je me dit que dans l’avenir prévisible les premiers ministres vont continuer à avoir le pouvoir légal de décider en bout de ligne des orientations majeures de notre société et de ses institutions.


3.4 - L’indépendance limitée de la justice vis-à-vis la politique

En février 2019, le 1er ministre du Canada Justin Trudeau est accusé d'avoir fait pression sur la ministre de la Justice, Jody Wilson-Raybould, pour mettre un terme aux poursuites contre le groupe SNC-Lavalin, impliqué dans des scandales de corruption. En raison de ce scandale, Gerald Butts, principal conseiller du premier ministre démissionne, suivi par Jody Wilson-Raybould et Jane Philpott, ministre du budget, qui explique ne plus avoir confiance en Trudeau. Voici un article qui faisait une présentation générale de l’affaire: Au Canada, Justin Trudeau vit une crise politique sans précédent

Toute cette histoire de corruption et de pressions politiques est révélatrice des «temps modernes» au Canada et au Québec. Elle révèle à mon avis 4 grandes tendances de fond de notre système économique et politique actuel. J'aborde dans la présente section une de ces tendances. Les 3 sections qui la suivent traiteront des autres tendances.

D'abord cette affaire soulève la fausse indépendance de la justice vis-à-vis de la politique en général. Les commentateurs politiques des grands médias portent beaucoup d'attention à la nature indue des pressions politiques exercées par Justin Trudeau et son cabinet sur l'ancienne ministre de la Justice. Car selon les dires de l'ancienne ministre, Trudeau aurait même soulevé la question bien partisane de l’élection des libéraux au Québec en relation avec la décision à prendre.

S'il est effectivement injuste et scandaleux de voir la politique partisane s'immiscer dans les démarches juridiques du Canada, il n'en reste pas moins que la personne au poste de ministre de la Justice et de procureur général du Canada est actuellement nommée directement par le premier ministre. Comme on l'a vu elle peut donc être démise de ses fonctions en tout temps par lui. Ce n'est pas un poste où une personne indépendante est engagée sans comptes à rendre directement au parti au pouvoir et au premier ministre. Et par définition le procureur général est essentiellement le conseiller juridique principal «de la Couronne», autrement dit du gouvernement et du premier ministre en place.

L'indépendance formelle du juridique vis-à-vis du politique est en conséquence un mythe trop souvent entretenu à la fois par les politiciens et les mass medias. C'est un idéal qui pourrait se rapprocher un peu de la réalité seulement par une réforme concrète de nos institutions politiques et juridiques.


3.5 - Une culture de corruption présente au sein des géants mondiaux de l’économie

C’est une deuxième tendance de notre système économique et politique actuel révélée par l’affaire SNC - Lavallin.

Cette histoire attire l'attention sur une culture de corruption répandue au sein des très grandes entreprises faisant affaires au niveau mondial. Par exemple, le chroniqueur Yves Boisvert de La Presse le mentionne en parlant du grand nombre d'accords de poursuite suspendue (APS) aux États-Unis contre de telles entreprises: «...depuis une quinzaine d'années, on compte entre 20 et 40 de ces ententes avec des sociétés multinationales énormes». D'autres chroniqueurs ont soulevé le fait que plusieurs pays d'Europe ont aussi recours à de telles ententes. SNC-Lavallin est donc loin d'être un cas d'exception.

Il faut bien voir que les ententes de poursuite suspendue avec des géants mondiaux ne visent pas des individus corrompus particuliers mais bien les entreprises elles-mêmes. Des poursuites individuelles distinctes sont entreprises contre les administrateurs corrompus. Les ententes de poursuite suspendue concernent les façons de faire criminelles de l'entreprise au-delà des comportements individuels. Elles concernent la culture administrative de l'entreprise.

Le paradoxe dans tout cela, c'est que d'un côté des multinationales géantes soudoient des individus à coups de dizaines de millions de dollars pour obtenir des contrats dans différents pays alors que d'un autre côté les politiciens au service des gens d'affaires ne cessent pas de dire qu'il faut subventionner et favoriser à coups de centaines de millions de dollars ces géants pour créer de la richesse ici. Comme si ces géants n'avaient pas des succursales partout dans le monde. Comme si les emplois de ces géants n'étaient pas aussi répartis partout dans le monde en fonction de leurs intérêts particuliers et non pas en fonction du pays dans lequel la société-mère est incorporée.


3.6 - Un traitement juridique privilégié demandé par certains pour les grandes entreprises et les «fleurons» de l’économie

Plusieurs articles et reportages canadiens et québécois sur l’affaire SNC - Lavallin ont fait la promotion implicite d'un traitement juridique privilégié pour les grandes entreprises. Voyons comment ils l’ont fait.

De nombreux commentateurs politiques du Québec ont appelé à signer une entente pour la suspension des poursuites contre SNC-Lavallin, accompagné du paiement d'une compensation et de certaines mesures de correction au sein de l'entreprise. Avec comme objectifs mentionnés de sauvegarder SNC-Lavallin qui a son siège social au Québec ou pour sauvegarder ses nombreux emplois au Québec.

Qu'en est-il au niveau des emplois? Il est question de plus de 3000 emplois de SNC-Lavallin au Québec et de plus de 50000 emplois dans le monde. La grande majorité des emplois ne sont donc pas au Québec. Mais l'insistance de beaucoup de commentateurs porte sur le grand nombre d'emplois ici pour dire qu'il faudrait les sauvegarder. Ils justifient le recours à un «accord de réparation» en fonction du nombre absolu des emplois touchés. Ils veulent donc implicitement que les «accords de réparation» s'appliquent surtout aux grandes entreprises. Qu'on soit d'accord ou non, il faut admettre que cette position fait la promotion d'un droit de suspension des poursuites en fonction de la grosseur de l'entreprise. Ce qui en soi est révélateur et significatif sur notre système économique et les mentalités actuelles.

Certains parlent aussi de sauvegarder SNC-Lavallin parce que c'est un «fleuron» québécois, c'est-à-dire une grande entreprise prospère qui s'est développé à partir du Québec et qui a son siège social au Québec. Cela importe-t-il réellement dans notre économie de conserver les «fleurons» québécois? C'est possible. Mais à voir le grand nombre de fleurons québécois qui ont été acquis par des firmes étrangères au cours des années et le grand nombre de firmes étrangères achetées par des fleurons québécois, c'est à se demander si cela change réellement quelque chose dans notre économie. C'est à se demander si l'attention qui est portée aux grandes entreprises québécoises n'est pas plutôt le reflet de leur influence politique auprès des décideurs politiques (en résumé, l'influence des «petits amis»).

Quoiqu'il en soit, l'idée d'apporter une attention politique et juridique spéciale aux grandes entreprises québécoises confirme mon propos d'un traitement privilégié pour les grandes entreprises. Nul n'a soulevé la question des accords de réparation pour de petites ou de moyennes entreprises. Si l'expression «too big to fail» a prévalu pour renflouer financièrement les grandes institutions financières lors de la crise économique 2007-2009, voilà maintenant qu'il faudrait ajouter l'expression «trop grosses pour être poursuivies»!


3.7 - Le déni de justice du système judiciaire canadien embourbé dans la bureaucratie

L'affaire SNC-Lavallin attire l'attention dans son sillage sur un déni flagrant de justice du système judiciaire canadien embourbé dans la bureaucratie. Un autre accusé au criminel s'en tire sans aucun procès. Il s'agit de Stéphane Roy, un ancien vice-président de SNC-Lavalin, qui attendait depuis cinq ans son procès au criminel. Il était accusé de fraude et de corruption. Il a obtenu l'arrêt des procédures en raison des délais déraisonnables. C'est l'arrêt Jordan de la Cour suprême qui permet d'imposer une limite au temps d'attente d'un accusé pour subir son procès.

Si les délais juridiques déraisonnables sont pénibles et injustes envers les accusés, des arrêts de procédure sont tout autant inquiétantes et injustes envers l'ensemble des citoyens. Avec l'arrêt Jordan, des juges de la Cour suprême du Canada se sont permis de décréter que les droits des accusés pesaient plus lourd dans la balance que l'application des lois canadiennes. Avec ce jugement, quelques personnes accusées de meurtre ont même vu leur procès cancellé.

Ceux qui ont déjà assisté à des audiences judiciaires savent jusqu'à quel point les juges en sont les rois et maîtres. Ils ont le pouvoir concret s'ils le veulent de faire accélérer les procédures judiciaires et les causes qui sont entendues devant eux afin de désembourber le système. On voit souvent des audiences et des causes qui sont reportées au moindre prétexte et qui font perdre un temps fou dans le système. Ce n’est qu’un exemple de ce qui peut être évité. Les juges de la Cour suprême s'en sont lavé les mains et on a laissé plutôt la tâche au gouvernement de nommer plus de juges et de confrères pour accélérer la tenue des audiences! Même cela ne semble pas être suffisant pour venir à bout de la bureaucratie du système judiciaire.



4- Concepts et paradigmes de la physique moderne


4.1 - Le rejet d'un milieu de vibration de la lumière

L'expérience de Michelson et Morley de 1887 n'avait pu détecter d'effet du déplacement d'une source de lumière sur les vitesses de la lumière dans diverses directions. Cela a remis en question au début du 20ème siècle la réalité d'un milieu stationnaire supposé de vibration de la lumière appelé éther: puisqu'on ne pouvait détecter l'effet d'un milieu pour le déplacement de la lumière relativement à ce milieu, aussi bien dire que ce milieu n'existe pas pour la lumière.


De plus le milieu hypothétique de vibration de la lumière devait être à la fois rigide pour transmettre une vibration transversale et d'une grande perméabilité pour ne pas perturber le passage de la lumière. Cela était problématique et a fait rejeter la conception de la lumière comme étant des ondes se propageant dans un milieu mécanique stationnaire.


Il n'en restait pas moins que les interférences entre eux de faisceaux de lumière cohérente ne s'expliquaient que par un modèle ondulatoire de la lumière. On aurait pu alors revenir sur le modèle de l'éther en cherchant à révéler un médium composé de particules fondamentales ayant des propriétés bien différentes des propriétés mécaniques habituelles. Au lieu de cela, c'est un modèle ondulatoire probabiliste de la lumière qui a été imaginé et qui est devenu l'explication reconnue: l'onde était conçu comme étant une onde de probabilité de présence des particules appelées photons. Ce modèle réconciliait les interférences ondulatoires produites avec le modèle de la lumière comme étant constitué de particules (ou de paquets localisés d'ondes).


Mais ce modèle quantique nécessite un saut vers une conception probabiliste de l'univers. Un saut difficile à franchir par la majorité de ceux qui étudient la physique. Un saut aussi qu'Einstein ne voulait pas faire, lui qui pensait qu'un modèle caché plus détaillée devait exister pour expliquer le comportement probabiliste global des photons. De nos jours quelques physiciens se posent d'ailleurs la question si la matière noire et l'énergie noire qu'on ne réussit pas jusqu'à maintenant à détecter en laboratoire ne seraient pas reliées à l'éther qu'on n'avait pas réussi non plus à détecter autrefois. C'est une hypothèse spéculative mais qui ouvre une perspective différente très large.
N.B.: Einstein a d'abord dit que l'éther n'était pas nécessaire avec sa théorie de la relativité de l'espace-temps pour plus tard reconnaître que l'espace-temps lui-même de la relativité générale est une forme particulière d'éther non-mécanique. Mais l'espace-temps de la relativité générale est une conception mathématique générale qui n'éclaire pas réellement ce qui se passe au niveau des interactions locales entre les particules fondamentales. Le domaine de la relativité générale et celui de la physique quantique des particules présentent des perspectives très différentes qui restent à être réconciliées dans une théorie plus générale.


L'article de Wikipedia Éther (physique) est une référence intéressante sur le sujet de l'éther et de l'histoire du concept en physique.


4.2 - Le photon comme particule de la lumière

L'expérience de «l'effet photoélectrique» a mené à considérer la lumière comme étant un ensemble de particules. Cette expérience était une expérience qui montrait que l'énergie électrique produite par de la lumière incidente sur une électrode dépend de la fréquence de cette lumière. On s'attendait à ce que l'énergie de la lumière soit fonction de son intensité alors que l'expérience montrait qu'une augmentation de l'intensité de la lumière ne changeait pas le niveau d'énergie produit au niveau des électrons. Une augmentation de l'intensité de la lumière ne changeait pas le voltage électrique produit, il changeait seulement l'intensité du courant électrique.


C'est Einstein qui a interprété les résultats comme étant une conséquence de l'existence de photons ou particules discontinues de lumière, chaque photon individuel devant avoir une énergie définie suffisante pour éjecter un électron de son milieu. Cette énergie étant liée à la fréquence intrinsèque associée à chaque photon. Avec l'explication des photons de lumière, l'augmentation de l'intensité de la lumière est une augmentation du nombre de photons et cela ne change rien au niveau d'énergie obtenu par un électron individuel qui interagit avec un des photons: si les photons individuels ne sont pas d'une énergie suffisante, il n'y aura pas d'éjection d'électrons peu importe le nombre de ces photons c'est-à-dire peu importe l'intensité de la lumière incidente.


Mais une explication ondulatoire avec des valeurs seuils de fréquence venant modifier l'état de vibration des atomes et des électrons de l'électrode était aussi théoriquement envisageable. Surtout que dans les métaux les électrons se déplacent librement et que le courant électrique est un état d'ensemble du milieu. Il est possible d'envisager dans une optique ondulatoire que les vibrations d'ensemble du milieu créent une cohérence et une valeur seuil de fréquence de vibration nécessaire pour créer une rupture au sein de ce milieu (comme une éjection d'électron). Il me semble que la simplicité de l'explication corpusculaire individuelle l'a emporté devant la difficulté de développer cette hypothèse complexe.


Le hic avec l'interprétation corpusculaire c'est qu'elle a mené plus ou moins directement à une interprétation probabiliste du patron d'interférence entre 2 sources de lumière. Il a mené à présenter la lumière comme une onde de probabilité de présence des photons. Car une explication ondulatoire restait nécessaire pour expliquer le phénomène d'interférence de la lumière. Les ondes réelles de lumière dans un médium matériel de vibration ont donc été remplacées par des ondes fantômes de probabilité de présence des photons. [Il est à noter que l'interprétation corpusculaire des photons est devenue plus complexe dans le cadre de la «théorie quantique des champs» et du «modèle standard de la physique des particules» mais elle demeure une interprétation fondamentalement probabiliste de l'existence des particules].

On a dématérialisé le milieu de vibration de la lumière pour en faire un espace mathématique abstrait de probabilité. On a remplacé la conception  matérialiste qui explique les phénomènes par des interactions diversifiées de la matière en mouvement par une conception idéaliste abstraite qui rèfère à des entités potentielles hors de la réalité concrète. C'est là une bifurcation fondamentale de la théorie physique moderne que personnellement je considère néfaste peu importe le degré de précision qu'elle atteint dans ses calculs et peu importe la correspondance des résultats de ses calculs avec les mesures empiriques. Il n'y a qu'à voir aujourd'hui toutes les idées d'univers parallèles et de particules qui remontent dans le temps qui circulent maintenant légitimement en physique pour se rendre compte que cette bifurcation a mené à des dérives mathématiques abstraites majeures.

La conception corpusculaire de la lumière n'est pas le seul facteur qui a mené à considérer l'univers comme étant fondamentalement probabiliste. Mais c'est un facteur important. Quand on y pense, il est paradoxal de se rendre compte que l'interprétation corpusculaire de la lumière d'Einstein a été un facteur menant à une vision probabiliste fondamentale de l'univers, un résultat que n'acceptait surtout pas Einstein.


4.3 - Le matérialisme des sciences physiques

La science considère à la base que les objets et phénomènes de l’univers interagissent entre eux selon des lois fixes et mesurables. La philosophie matérialiste considère en plus que tout ce qui existe dans la réalité est constituée de matière et d’espace, qu’il n’y a rien dans l’univers qui n’obéit pas aux lois d’interaction de la matière dans l’espace. Le matérialisme considère en particulier que l’esprit humain est le produit d’une forme complexe d’organisation et d’interaction de la matière dans l’espace.

Tous les scientifiques n’ont pas une conception strictement matérialiste de la réalité. Mais pour que leurs recherches soit scientifiques, elles doivent nécessairement porter sur les interactions matérielles des objets et des phénomènes de l’univers.


Une nouvelle forme de matérialisme?

Avec le développement récent de la physique quantique est apparue une forme nouvelle et particulière de matérialisme. Cette conception considère que les états de certaines particules sont liés entre eux à distance comme si elles ne formaient qu’une seule et même particule. C’est là une vision non-locale différente de celle qui dominait depuis l’unification effectuée par la théorie électromagnétique de la lumière: celle-ci avait mené à la conclusion que les influences entre les objets de la réalité se font seulement par contact local direct ou de proche en proche via des champs de force étendus dans l’espace.


La propriété nouvelle, qui est appelée intrication quantique, ne permettrait pas cependant une communication instantanée à distance: avant la mesure, la particule serait dans un état aléatoire et elle ne deviendrait dans un état précis connu que lors de la mesure. Donc ne connaissant pas ou n’ayant pas au départ un état particulier de la particule, on ne peut pas transmettre un message en modifiant d’une façon connue l’état de cette particule. Cela respecte la théorie de la relativité qui interdit qu'un quelconque transfert d'énergie ou d'information à travers l'espace se fasse à une vitesse dépassant celle de la lumière dans le vide. Mais il n’en reste pas moins qu’une modification est transmise instantanément même si nous ne pouvons pas l’utiliser nous-mêmes pour communiquer.


Une minorité de physiciens continuent à penser que l’intrication quantique entre les particules est une corrélation statistique et non pas un état lié à distance entre eux. Celle-ci pourrait s’expliquer par une origine commune corrélée des particules qui est suivie par des mesures corrélées sur ces particules: les mesures effectuées ne seraient pas statistiquement indépendantes une de l’autre et les particules intriquées ne formeraient donc pas en pratique une seule et même particule. Je reviendrai plus tard sur le sujet en donnant une explication possible de la corrélation des mesures.


- Le réductionnisme

Dans le domaine de la physique particulièrement, plusieurs scientifiques ont une conception réductionniste de la réalité. Ils considèrent que les interactions à tous les niveaux dans l’univers et dans la société peuvent être réduits ou ramenées à des interactions relevant des lois de la physique entre les constituants physiques de base. Wikipedia le mentionne de la façon suivante : «L’approche réductionniste considère tout système réel comme la résultante agrégative d'un ensemble de sous-systèmes ou d'éléments qui le composent, l'explication des propriétés d'un système physique ne pouvant s'effectuer qu'à partir de propriétés plus élémentaires.».

Si pour moi, tout repose bien à la base sur des interactions physiques élémentaires, il me semble nécessaire d’apporter deux bémols importants à cette approche qui seront illustrés ensuite par un exemple.

1) D’abord, il faut voir que chaque niveau de complexité de la réalité obéit a des lois qui lui sont propres. Ces niveaux vont des particules élémentaires aux super-amas de galaxies en passant entre autres par les atomes, les cellules vivantes, les sociétés humaines et les environnements naturels. Ces lois découlent bien pour moi des lois des niveaux plus élémentaires d’organisation de la matière, mais elles dépendent de combinaisons particulières des constituants de ces niveaux plus élémentaires. Ces combinaisons multiples ne sont pas pris en compte dans les lois de base d’interaction des constituants des niveaux plus élémentaires. Des effets non-linéaires ou propriétés émergentes apparaissent dans les interactions avec un grand nombre de constituants organisés selon des combinaisons complexes dans l’espace et dans le temps. De cette façon particulière et précise, on peut dire que le tout est plus que la simple somme de ses parties.

Ce bémol réduit la portée du réductionnisme même s’il ne nie pas que les propriétés plus élémentaires sont à la base du système.


2) De plus, un système donné n’est pas seulement «la résultante agrégative d'un ensemble de sous-systèmes ou d'éléments qui le composent» comme le mentionne Wikipedia, il est aussi la résultante de ses interactions avec d’autres systèmes à son niveau, à des niveaux plus complexes et à des niveaux plus élémentaires. Le système est en interaction avec son environnement et en dépend. De cette autre façon particulière et précise, le tout est plus que la somme de ses propres parties. Et on peut dire que chaque partie du système est aussi façonnée par les interactions du tout avec son environnement. On est loin d’un système simplement composé de sous-systèmes internes. On s’approche plus d’une vision «holistique» des systèmes (qui considèrent les systèmes dans leur globalité).

Ce deuxième bémol restreint encore davantage la portée du réductionnisme même s’il ne nie pas non plus que les propriétés plus élémentaires sont à la base du système.


3) Pour illustrer ce qui vient d’être mentionné, on peut utiliser l’exemple des motifs en forme d’yeux sur les ailes de certains papillons. Ces motifs font fuir certains prédateurs de ces papillons (voir https://www.sciencesetavenir.fr/.../pourquoi-les...). D’un côté, il est vrai que les cellules et les atomes qui constituent ces motifs obéissent dans leur développement aux lois physiques fondamentales. De l’autre, les gènes qui produisent ces motifs ont été favorisés par les lois d’évolution biologique et les multiples interactions entre les papillons et leurs prédateurs au cours des générations successives. Ces lois découlent d’interactions multiples au cours du temps entre des ensembles très complexes et à plusieurs niveaux imbriqués de la matière. Ce sont les interactions à ces niveaux qui déterminent le résultat et non pas par exemple les interactions électromagnétiques simples qui s’établissent entre 2 atomes à la fois.


4.4 - Loi empirique, théorie et modèle scientifiques ont des niveaux différents de validité

La période actuelle est fertile en spéculations de toutes sortes dans certaines branches de la physique. Par exemple, certains physiciens et certains médias de vulgarisation scientifique spéculent parfois sur des dimensions supplémentaires à l'espace-temps, sur des univers parallèles, sur l'histoire du Big Bang, sur les voyages envisageables dans le passé, etc. 

Il vaut mieux connaître la valeur des divers types d'affirmations qui sont faites car souvent des modèles spéculatifs comportant des hypothèses non-validées sont présentés comme s’ils avaient la valeur de théories scientifiques éprouvées. Cela est vrai en particulier en cosmologie où le modèle du Big Bang est souvent présenté comme étant une théorie scientifique éprouvée au lieu d’un modèle comportant plusieurs hypothèses spéculatives. Il y a dans ce domaine beaucoup de confusion sur la différence entre une loi scientifique, une théorie scientifique et un modèle scientifique. 

Les lois scientifiques empiriques

D'abord, ce qui est le plus fondamental et qui a le niveau de validité le plus élevé, ce sont les lois empiriques. Par exemple la loi cosmologique empirique qui exprime que le décalage vers le rouge de la lumière des galaxies est proportionnel à leur distance. Une loi empirique exprime une relation mathématique précise vérifiée expérimentalement entre des concepts bien définis et mesurables. Une relation vérifiée expérimentalement veut dire qu'elle a été testée et confirmée par plusieurs équipes de chercheurs scientifiques.

Un autre exemple est la loi de la gravitation de Newton où la force F exercée entre deux objets A et B s'exprime en fonction de la masse des objets et de la distance entre eux:  F = (G x Ma x Mb) / d2 . Quand on effectue des expériences répétées entre deux objets dans les laboratoires, c'est cette relation qu'on obtient entre les mesures effectuées.

C'est cette loi qui a été utilisée jusqu'à ce que la théorie de la relativité générale d'Einstein propose une loi plus complexe avec des équations différentes. Ces équations ont donné un résultat semblable pour les expériences de laboratoire mais un résultat différent à l'échelle astronomique, par exemple pour l'interaction entre la masse de Mercure et celle du Soleil. Ces nouvelles équations ont permis d'expliquer la variation de l'orbite de Mercure autour du Soleil, ce que ne permettait pas l'ancienne loi. De façon globale, les équations de la relativité générale ont supplanté celle de Newton qui en représente une limite valable aux petites vitesses et aux champs gravitationnels faibles. La loi de la gravitation de Newton reste donc très valable pour les expériences en laboratoire et pour les calculs de mise en orbite autour de la Terre.

Quant à elles, les équations de la relativité générales ont été vérifiées expérimentalement dans de nombreux autres contextes astronomiques différents et elles n'ont pas été prises en défaut jusqu'à maintenant.

Une loi empirique peut donc se révéler incomplète. Si une loi empirique acceptée peut par la suite se révéler inexacte, ce pourra être par exemple parce que le contexte d'application d'une loi nouvelle de remplacement sera plus étendu comme pour la théorie de la relativité générale ou que la nouvelle loi donnera des résultats plus précis dans l'ancien contexte d'application. Mais cela n'invalide pas les équations ou relations empiriques établies et vérifiées en fonction des anciens concepts et des anciens contextes expérimentaux.

Il est à noter que les lois empiriques n'ont pas toutes une origine semblable. Alors que l'équation elle-même de la gravitation universelle de Newton avait était obtenue à partir de mesures empiriques, les équations de la relativité générale elles l'ont été à partir de considérations théoriques. Mais dans les deux cas, ce sont les mesures empiriques qui historiquement leur ont donné leur validité scientifique et qui ont aussi restreint la validité scientifique de l’équation de la gravitation de Newton à certains contextes seulement.

Les théories scientifiques

Alors qu'une loi scientifique exprime une relation mathématique précise entre divers concepts mesurables, une théorie scientifique donne une explication de cette relation empirique en fonction des concepts particuliers à la théorie.

Par exemple, la théorie de l’expansion de l’univers qui donne une explication possible au décalage progressif vers le rouge de la lumière des galaxies lointaines.

Pour devenir une théorie scientifique acceptée, une autre condition nécessaire est que la théorie permette de faire une ou plusieurs prédictions nouvelles vérifiables expérimentalement. Par exemple, on nous dit que la théorie du Big Bang expliquant l’origine de l’expansion de l’univers a prédit la présence du rayonnement homogène appelé fonds diffus cosmologique qui est présent dans toutes les directions du ciel (N.B.: si cet énoncé est contestable car une autre théorie l'a prédit avant et avec une précision meilleure à l'époquec'est un débat que je laisse de côté ici).

Un autre exemple de théorie scientifique est la théorie de la gravitation de Newton. Dans son application, elle considère qu'une force d'attraction s'exerce directement à distance entre les masses. Elle a entre autre permis de prédire le mouvement des planètes dans le système solaire et de prédire aussi l'existence de la planète Neptune. La théorie de la relativité générale quant à elle considère que l'espace-temps est courbé par les masses des objets et particules, et que cette courbure détermine le trajet suivi par eux. C'est une toute autre perspective sur la gravitation même si les équations peuvent donner à toutes fins pratiques le même résultat dans beaucoup de contextes expérimentaux. Mais dans d'autres contextes elle a prédit des résultats différents qui ont été validés expérimentalement.

Une théorie nouvelle qui ne permet pas de nouvelle prédiction n’est pas habituellement reconnue comme étant une alternative valable. Car il y a beaucoup de théories plus complexes qui peuvent être élaborées pour donner les mêmes résultats que les théories déjà acceptées sans rien ajouter de concret tout en complexifiant les concepts et les mécanismes d'action. 

Les modèles scientifiques

De façon générale, un modèle est un assemblage de différentes parties ou concepts permettant de représenter ou de simuler la réalité. Ce peut être un modèle constitué d’objets physiques ou de formules mathématiques provenant de théories scientifiques.

Si une théorie fait appel à plusieurs autres théories ou lois indépendantes l'une de l'autre ou qu’elle fait appel à plusieurs hypothèses distinctes, on devrait selon moi l'appeler un modèle scientifique et non pas une théorie scientifique ou un modèle ayant le même niveau de validité qu'une théorie scientifique. Car la vérification expérimentale du modèle ne vérifie pas automatiquement chacune des parties distinctes ou hypothèses qui s’additionnent pour produire le résultat global. Chacune des parties ou hypothèses devrait être validée séparément pour être reconnue comme étant valable. La combinaison de fausses hypothèses peut donner un résultat vrai, tout comme on peut faire des additions différentes de nombres pour obtenir le même nombre résultant (ex.: 3+4=7; 5+2=7).

Si on prend comme exemple le modèle du Big Bang, sa version actuelle incorpore plusieurs hypothèses indépendantes comme la dilatation de l'espace au cours du temps, une période inflationnaire d'expansion, la présence de matière noire et la présence d'énergie noire. L'addition de ces hypothèses permet d'obtenir un portrait actuel de l'univers qui est conforme avec les mesures astronomiques expérimentales. Cependant, les deux premières hypothèses n'ont jamais été spécifiquement prouvées en elles-mêmes et les deux dernières n'ont jusqu'à maintenant pu être observées et mesurées en laboratoire. Ce qui fait que présenter le Big Bang comme étant une théorie scientifique éprouvée et non pas un modèle spéculatif est une distorsion de la réalité. C'est une attitude dogmatique de promotion inconditionnelle du Big Bang et de rejet sans nuances des critiques du modèle.



4.5 - Paradigmes de la physique actuelle


Ce qu'est un paradigme

Un paradigme est une façon de voir, un cadre de compréhension ou une théorie qui ont une très grande portée pour les domaines scientifiques auquels ils s'appliquent. Un paradigme va au-delà des nombreuses lois scientifiques particulières que contient ce domaine. Le mot prend un sens plus clair et plus précis quand on l'utilise dans l'expression «changement de paradigme». Un changement de paradigme est un changement radical d'une ancienne façon de penser.

Il est à noter que le concept de paradigme origine de l'étude des connaissances et de l'évolution des sciences. Ce n'est pas un mot qu'on retrouve habituellement dans les livres et les textes scientifiques eux-mêmes. Eux vont plutôt parler parfois de remplacement d'une théorie scientifique par une autre plus précise ou plus générale. Ils vont mettre l'emphase sur le critère de vérification expérimentale. Alors que le concept de paradigme concerne les façons de voir qui sont omniprésentes en arrière-fond, qui orientent les recherches et qui caractérisent certaines périodes de l'histoire des sciences.


Des exemples de paradigmes

Un exemple de changement de paradigme est celui qui a eu lieu lors du passage du modèle astronomique géocentrique de Ptolémée au modèle planétaire héliocentrique de Copernic. C'est toute la conception de l'univers centrée sur la Terre qui a basculée alors.

Un autre exemple de changement de paradigme est celui du passage de la théorie de la gravitation de Newton à la théorie de la relativité générale d'Einstein. L'ancienne théorie considérait que les masses exercent une force à distance alors que la relativité générale considère que l'espace-temps est courbé par les masses qu'il contient. On passe alors d'une vision centrée sur les objets individuels à une autre centrée sur un champ gravitationnel dans l'espace qui entoure les objets.

Un autre paradigme important, cette fois en astrophysique, est celui de la théorie de la dilatation de l'espace et de l'expansion de l'univers dont j'ai parlé dans la section 1.2. C'est aussi un changement fondamental dans la façon de voir l'espace et l'univers dans son entier. Il est au coeur du modèle spéculatif du Big Bang de l'évolution de l'univers qu'on retrouve en astrophysique.


Le paradigme central de la physique quantique 

Un autre paradigme de la physique actuelle, qu'on retrouve en physique quantique, est celui d'un univers probabiliste, c'est-à-dire celui d'un univers où chaque particule physique est dans un état fondamental de superposition de plusieurs états probables dont un seul des états se matérialise lors d'une mesure. Alors qu'avant on considérait que les probabilités sont liées à un grand nombre de particules, voilà qu'on considère qu'une seule particule est elle-même constituée d'une superposition de plusieurs états.

C'est une façon de voir complètement nouvelle qui s'applique à tous les différents types de particules. Elle continue cependant à faire l'objet de débats et d'interprétations différentes même après plus de cent ans d'existence: en particulier, certains considèrent que la superposition d'états reflète la connaissance limitée que nous avons de la particule et non pas un état réel; dans ce sens la physique quantique calculerait avec précision les résultats des interactions entre particules sans rien dire de leur état physique réel.

Pour moi le paradigme d'un univers probabiliste est connexe au paradigme du photon comme particule de lumière dont j'ai parlé à la section 4.2. L'univers probabiliste ne prend pas en considération un milieu ondulatoire concret pour les différents états de l'ensemble des particules tout comme c'était le cas pour le photon comme particule de lumière. Les deux s'éloignent de la conception matérialiste des ondes qui expliquait les phénomènes par des interactions de la matière en mouvement. Ils la remplacent par une conception idéaliste qui renvoient les ondes à des entités mathématiques abstraites qui interagissent entre elles.

C'est là une bifurcation fondamentale de la théorie physique moderne. C'est le changement de paradigme central de la physique moderne qui est promu par certains, ou qui est utilisé par d'autres uniquement comme outil mathématique de calcul sans se prononcer sur la nature physique des ondes et des particules. Ceux qui valorisent ce changement disent que les phénomènes à l'échelle quantique se comportent d'une toute autre manière qu'à notre échelle habituelle et qu'il faut prendre la nature telle qu'elle est sans idée préconcue. Un physicien qui a beaucoup contribué à cette façon de penser est Richard Feynman, célèbre pour  son cours «Feynman lectures on physics».

S'il faut effectivement prendre la nature telle qu'elle est, il faut aussi voir le changement de paradigme tel qu'il est: c'est un retour à une métaphysique hors de la réalité concrète pour expliquer les phénomènes de la réalité. C''est une nouvelle métaphysique de nature mathématique: si avant les physiciens se devaient d'interpréter physiquement les formules et transformations mathématiques, maintenant les physiciens quantiques en restent aux concepts mathématiques abstraits dans les explications. À titre d'exemple on peut penser au spin quantique qui n'a qu'une définition mathématique sans représentation concrète.

Il faut voir d'un autre côté que la physique quantique atteint un haut degré de précision dans ses calculs et une grande correspondance de ses calculs avec les mesures empiriques. La vérification empirique des résultats reste la méthode d'ancrage au réel qui demeure valide au-delà des théories explicatives. C'est ce qui empêche la physique de dériver vers une mathématique qui serait arbitraire.

Au total, la physique moderne est devenue d'un côté une discipline pragmatique où seuls les calculs et leurs résultats expérimentaux comptent et elle est devenue d'un autre côté une discipline hautement abstraite où les explications concrètes sont remplacées par des concepts mathématiques et des transformations qui ne permettent pas la visualisation matérielle des phénomènes.

Certains physiciens promoteurs d'un univers fondamentalement probabiliste vont cependant jusqu'à proposer comme explication l'existence d'univers parallèles où chacun des états probables des particules existe réellement. C'est une dérive vers un modèle qui ne peut pas être vérifié expérimentalement, donc une dérive vers une métaphysique arbitraire où est perdue la boussole de la réalité matérielle dans laquelle on se déplace. Ce genre de modèle est dénoncé comme étant non-scientifique par certains comme par exemple Sabine Hossenfelder qui est une des physiciens dont les propos sont rapportées dans l'article suivant: «Scientists Attempt to Map the Multiverse» .


Paradigmes et dogmatisme

Un paradigme a tendance à orienter les recherches détaillées du domaine scientifique auquel il s'applique. Tant qu'un autre paradigme ne mène pas à une théorie nouvelle vérifiée expérimentalement, le paradigme dominant est celui qui est reconnu et promu par la communauté scientifique concernée. C'est là une attitude logique et légitime face aux nombreuses théories spéculatives qui peuvent être mises de l'avant sur la base de nouveaux paradigmes. 

Cependant certains fervents défenseurs des paradigmes dominants vont beaucoup plus loin et refusent toute critique. Ils refusent de reconnaître les problèmes individuels des théories et modèles associés à ces paradigmes sous prétexte que leur assemblage global mène à des résultats très précis conformes aux mesures expérimentales. Et ils refusent les critiques sous prétexte qu'aucun autre modèle alternatif proposé n'est en mesure de remplacer le modèle accepté.

Mais de nouvelles théories et des nouveaux modèles scientifiques majeurs ne peuvent justement surgir que suite à la critique des paradigmes dominants et des théories associées. Ils ne peuvent surgir que des recherches générées par cette critique. Les défenseurs aveugles des paradigmes dominants considèrent que toute critique mène à la promotion de théories spéculatives insensées et associent tous ceux qui la font à des «crakpots». De fait, ils poussent à ce que la critique et la recherche alternative se fasse seulement de façon marginale et hors de la science officielle. C'est là une attitude dogmatique qui crée des débats acerbes, qui mène à couper les budgets de recherche pour les théories alternatives et qui retarde l'évolution de la science.

Un exemple caractéristique de ce dogmatisme est la réception de rejet qui est faite par certains astrophysiciens et vulgarisateurs scientifiques de la critique des hypothèses spéculatives du modèle du Big Bang (revoir la section 1 pour plus de détails sur ces hypothèses). Sur la base pragmatique que le modèle du Big Bang donne globalement des résultats conformes aux mesures effectuées, on refuse de voir la nature spéculative de ses multiples hypothèses. C'est un aveuglement dogmatique qui est présent depuis de nombreuses années.

9 commentaires:

  1. Très bonne réflexion

    RépondreEffacer
  2. Commentaire de la section 4.5
    J’apprécie les définitions de paradigme et dogmatisme par lesquelles tu commences, j’en avais seulement une vague idée ça les éclaircies. Les idées sont clairement présentées.

    Petite question 🙋‍♀️
    «L'univers probabiliste ne prend pas en considération un milieu ondulatoire concret pour les différents états de l'ensemble des particules tout comme c'était le cas pour le photon comme particule de lumière.». Tu emploies c’était est-ce parce que ça a changé?

    Les mathématiques ne sont pas abstraites, elles sont là pour expliquer des phénomènes, si ce n’est pas le cas, ça ne vaut rien d’élaborer des démonstrations à n’en plus finir.

    Mes réflexions après lecture

    - réfraction de la lumière, le point qui a le plus retenu mon attention après ma lecture. Depuis déjà quelques temps, j’entends parler du décalage de la lumière vers le rouge. Ma physique est loin mais ce que je me rappelle c’est lorsqu’un rayon lumineux passe d’un milieu à un autre de densité différente, il y a réfraction. Récemment j’ai entendu que dans le lointain univers, on considère l’espace de densité homogène car la différence est infime. Là on parle de l’univers qui est infiniment grand et de la lumière où on est dans l’infiniment petit. Alors est-ce que le minuscule changement de densité n’influencerait pas la lumière? Pourquoi la lumière agirait autrement lorsqu’elle vient de loin? Si on pouvait s’approcher infiniment très près de la lumière, peut-être que l’on verrait de minuscules changements de direction. Ça prendrait un immense et très puissant microscope 🔬 pour examiner le rayon lumineux de plus près.

    - univers probabiliste et mondes parallèles. Deux concepts auxquels je n’adhère pas. «univers probabiliste, c'est-à-dire celui d'un univers où chaque particule physique est dans un état fondamental de superposition de plusieurs états probables». Qu’une particule puisse posséder plusieurs états probables, d’accord mais la superposition des états, non, j’aurais besoin de preuves et non de calcul, ce n’est pas parce que l’on ne connaît pas son état qu’elle les possède tous. Et comme ça peut être interpréter comme ayant pour conséquences les univers parallèles, je trouve l’idée illogique. Je m’explique, si un univers parallèle existe et que j’y suis et je peux y faire des choix différents c’est que mes parents avant moi y était et ont pu faire des choix différents donc des choix qui n’ont pas abouti à ma mise au monde et c’est que mes grands-parents y ont vécu aussi et ont pu faire des choix différents donc mes parents n’ont pas existé dans ce monde alors oubliez-moi, je n’y suis pas. Si nos ancêtres ont toujours fait les mêmes choix pour les conduire à moi alors pourquoi moi j’aurais la possibilité d’une autre vie, de d’autres choix autant dire que ce monde parallèle est une copie conforme de celui-ci. C’est bon pour la fiction mais pour moi ce n’est pas une réalité.

    RépondreEffacer
  3. Merci pour tes commentaires.

    Pour répondre à ta question: quand je dis «c’était le cas» au passé, c’est simplement parce que j’avais traité le cas avant dans une section précédente du texte.

    À propos des mathématiques et des abstractions, je pense important de faire les précisions suivantes suite au fait que tu dis que «les mathématiques ne sont pas abstraites, elles sont là pour expliquer des phénomènes». Les mathématiques font de multiples opérations qui font abstraction des objets sur lesquels elles opèrent. Par exemple, faire une addition est indépendant du fait qu’elle soit faite pour des pommes, des oranges ou de l’argent. De plus, les mathématiques n’expliquent pas les phénomènes, elles exécutent des transformations abstraites sur des objets de la réalité ou encore elles expriment en équations les relations qui existent entre des objets de la réalité. Les mathématiques n’agissent pas sur les objets concrets eux-mêmes. Les mathématiques sont des abstractions qui permettent de calculer théoriquement quels sont les résultats des opérations correspondantes effectuées sur les objets concrets. La même équation mathématique peut s’appliquer à différents domaines et situations: c’est réellement une abstraction de la réalité qui nécessite d’être expliquée selon le contexte d’application.

    En ce qui concerne la réfraction de la lumière, c’est vrai qu’un changement de densité la produit comme tu le mentionnes. Mais cela n’explique pas en soi le décalage vers le rouge. Il faudrait chercher plus loin.

    Bien d’accord avec toi pour la question de l’univers probabiliste et des mondes parallèles.

    RépondreEffacer
    Réponses
    1. J’apprécie ta réponse, je sais très bien que ce n’est pas moi qui va résoudre le problème du décalage, c’est la première fois que j’y réfléchissais, je t’ai fait part de ce qui me passait par la tête suite à cette lecture. Pour les mathématiques, je connais cette approche.

      Effacer
  4. Pour les mathématiques, je connais cette approche. Il ne faut pas s’en prendre aux mathématiques, ils ne sont pas responsables des utilisateurs. Pour résoudre un problème;

    - Il faut comprendre de quoi il est question
    - Déterminer ce que l’on connaît de la situation et le but à atteindre, ce qu’on veut expliquer
    - Bien définir nos variables

    Si le problème est bien posé, on peut voir les avenues possibles à explorer pour atteindre notre objectif.

    Les mathématiques ne sont pas de simples calculs abstraits, ce serait très ennuyant, c’est la résolution de problèmes qui est passionnante.

    RépondreEffacer
  5. Si on laisse de côté la densité homogène de l’univers, peut-être qu’il y aurait d’autres pistes à explorer. On fait souvent (remarque j’ai pas dit toujours) en sorte de rendre les choses comme ça nous convient plutôt que comme elles sont. Il y a une petite variation de densité, ah! si petite, on n’en tient pas compte , oui mais elle est là cette variation.

    RépondreEffacer
  6. Je vais réfléchir aux mathématiques

    RépondreEffacer
  7. Après beaucoup de réflexion, je finis par me rendre à ton idée en changeant l’angle par lequel j’aborde les mathématiques. Je suis remontée à l’origine. Les nombres sont une abstraction, ils ne sont que dans l’esprit, mais le but était de représenter une situation dans l’esprit. Pouvoir compter les moutons (concret) d’un troupeau en associant une roche (concret) à chacun qui sortait le matin pour jeter la roche le soir pour chacun qui revient et vérifier que le troupeau est complet ou non, c’est le début de l’abstraction mathématique. C’est rattaché à du concret sinon ça n’aurait aucun sens d’exister. Pourquoi le produit scalaire ou vectoriel? À cause des vecteurs et donc de la physique sinon ça n’aurait eu aucun sens de les définir et on peut regarder les matrices et les utilisations. Donc oui, les mathématiques sont abstraites. Lorsque je prends ma tasse de café ☕️ dans la main, c’est concret, lorsque je la regarde c’est abstrait car c’est dans mon cerveau que j’ai l’image. Peut-être qu’il reste quelques zones d’ombre mais infime.

    RépondreEffacer

Partagez