Aller au contenu

Initiations à la physique/Chapitre VII

La bibliothèque libre.
Traduction par Joachim du Plessis de Grenédan.
Flammarion (p. 144-172).

CHAPITRE VII

DE LA NATURE DES LOIS PHYSIQUES

I

Que faut-il entendre par loi physique ? Une loi physique est une proposition qui établit un lien permanent et impossible à rompre entre des grandeurs physiques mesurables, de telle sorte que l’on peut calculer une de ces grandeurs quand on a mesuré les autres. Avoir une connaissance aussi complète que possible des lois physiques, tel est le but ardemment poursuivi par tout physicien. Celui-ci peut d’ailleurs se placer à un point de vue purement utilitaire et considérer que la valeur propre des lois physiques leur vient de ce qu’elles nous épargnent la nécessité de mesures nombreuses et coûteuses ; mais il peut aussi s’élever à un point de vue supérieur et y trouver la satisfaction d’un profond besoin de savoir et un point d’appui solide pour se faire une idée de l’univers.

Maintenant, comment est-on parvenu à établir l’existence des lois physiques que nous connaissons et sous quel aspect se présentent-elles à nous ? Tout d’abord, il faut bien le reconnaître, il n’est pas évident que le monde obéisse à des lois physiques, il n’est même pas évident que la permanence de leur empire jusqu’à l’heure actuelle étant admise, il en sera toujours de même à l’avenir. Il est, en effet, tout à fait concevable et il n’est au pouvoir de personne d’empêcher qu’un beau soir, à la suite d’un événement tout à fait imprévu, la nature nous joue le tour de s’abandonner à une sorte de jeu fantaisiste et nous donne le spectacle de l’incohérence la plus complète et la plus irréductible à l’idée d’une loi quelconque ; il ne resterait plus alors à la science que la ressource de se déclarer en faillite. C’est pourquoi aussi elle est contrainte à admettre l’existence des lois physiques à titre de postulat primordial et préalablement à toute démarche afin de pouvoir vivre et se développer. Pour employer le langage d’Emmanuel Kant, nous dirons qu’elle met le principe de causalité au nombre des catégories a priori, sans lesquelles aucune connaissance n’est possible. Il s’ensuit alors nécessairement que l’essence des lois physiques n’est pas plus déterminable par le seul travail de la réflexion que ne peut l’être, a priori, le contenu des diverses lois physiques particulières. Pour cette détermination il n’est qu’un seul moyen, se tourner vers la nature et l’interroger par les expériences les plus nombreuses et les plus diverses ; comparer ensuite les résultats de ces expériences et les traduire en formules aussi simples et aussi générales que possible, en un mot, se servir de la méthode inductive.

Comme le contenu d’une expérience est d’autant plus riche que les mesures qui en sont à la base sont plus exactes, il s’ensuit que le progrès de la connaissance en physique est lié de la façon la plus étroite aux degrés de perfection des instruments et de la technique des mesures. Toute l’histoire de la physique est là pour témoigner qu’il en est bien ainsi. Mais la mesure n’est pas tout ; elle n’est, en effet, de soi, qu’un événement lié à un ensemble de conditions particulières et notamment à un temps et à une situation spatiale bien délimités ; elle est même liée à un instrument de physique spécial et à tel expérimentateur à l’exclusion de tel autre. S’il y a des cas où la généralisation va de soi, il y en a d’autres aussi où il est extrêmement difficile de trouver la loi commune sous laquelle les événements étudiés doivent se ranger. Cela peut arriver, soit parce que la chose paraît absolument impossible, soit au contraire, et cela n’est pas plus satisfaisant, parce qu’il y a un trop grand nombre de généralisations entre lesquelles le choix est possible.

La seule issue à une situation de ce genre, c’est d’admettre une certaine supposition à titre d’essai, autrement dit de faire une hypothèse et de voir à quoi elle aboutit. Il peut arriver qu’une hypothèse forgée pour l’exploration d’un certain domaine se montre également féconde dans un autre domaine très éloigné en apparence du premier. C’est là un très bon signe ; car on peut en conclure qu’elle est l’expression d’une loi ayant un sens profond et exprimant une relation particulièrement intime et inhérente à la nature des choses. On peut donc s’attendre dans ce cas à un véritable progrès dans notre connaissance du monde.

Si donc une hypothèse appropriée est indispensable dans tout travail de recherche inductive, il est impossible de ne pas se demander comment on peut arriver à trouver de telles hypothèses. Malheureusement il n’existe pas de prescriptions générales à cet égard. La logique seule est insuffisante, même quand y est jointe la possession du trésor d’expérience le plus riche et le plus varié. Ce qui importe ici, c’est plutôt l’intuition immédiate, l’inspiration heureuse. Très souvent il s’agira d’un rapprochement de pensées, paraissant au premier abord très osé, qui ne saurait être l’œuvre que d’une imagination créatrice vivante et originale, guidée par une connaissance exacte des faits.

Dans la plupart des cas, il s’agit de l’apparition de certaines analogies d’images, préparant à des transpositions d’un domaine dans un autre et inclinant les esprits dans le sens d’un nouveau pas en avant vers l’unification de nos conceptions sur l’univers.

Voici donc le savant parvenu à un point où s’ouvrent pour lui les perspectives les plus brillantes et pourtant, en cet instant, un grave danger le guette. En effet, même si le pas difficile a été heureusement franchi, même si la nouvelle hypothèse a prouvé sa fécondité, il n’en faut pas moins lui donner tout le développement qu’elle comporte et, aussi, en lui trouvant une formule appropriée, extraire ce qui en constitue le noyau substantiel, après élimination de tous les accessoires plus ou moins accidentels. Or ce n’est pas là une besogne aussi simple qu’il pourrait le paraître au premier abord. Le rapprochement d’idée heureux qui a permis de jeter un pont donnant accès à un nouveau domaine dans l’ordre de nos connaissances, doit, en général, être regardé comme une construction provisoire, destinée à être remplacée peu à peu par une construction plus solide, capable de supporter le feu de cette grosse artillerie qu’est la logique des critiques.

Toute hypothèse est, il ne faut pas l’oublier, l’œuvre d’une fantaisie exploratrice et l’imagination est une faculté purement intuitive. Or si l’imagination est indispensable dans la création d’une hypothèse, elle n’en est pas moins un auxiliaire d’une valeur très douteuse quand il s’agit de l’élaboration d’une théorie rationnelle ou de la mise sur pied d’une démonstration logique. Il n’est pas rare de voir un savant aboutir à des généralisations hâtives et tout à fait insoutenables pour avoir eu une confiance trop absolue en des vues intuitives, confiance cependant très explicable en raison d’une abondante moisson de succès obtenue antérieurement sur quelques points particuliers. Il faut aussi ajouter à cela que les créateurs d’une théorie nouvelle et efficace, se sentent, en général, peu inclinés, soit pour des raisons de commodité, soit pour des mobiles d’ordre sentimental, à faire subir des changements importants aux idées et à la tournure d’esprit qui les ont conduit au succès. On les verra souvent, au contraire, peser du poids de l’autorité la plus légitimement acquise, pour maintenir les anciens points de vue. Le résultat d’une telle attitude sera d’entraver sérieusement l’évolution normale de la théorie.

Je pense que quelques exemples, tirés de l’histoire de la physique, ne seront pas inutiles comme illustration de ce qui précède.

Les premières notions que l’on ait eues au sujet de lois physiques se rapportent naturellement au domaine où les premières mesures exactes ont pu être effectuées. Elles concernent le temps et l’espace, c’est-à-dire le domaine de la mécanique. Il est donc facile de comprendre comment les premières relations, à forme de loi, qui furent découvertes, se rapportent à des mouvements ayant lieu dans des conditions qui excluent l’intervention fortuite de toute influence perturbatrice, c’est-à-dire au mouvement des corps célestes, Il y a déjà des milliers d’années que les peuples civilisés de l’Orient ont su tirer de leurs observations des formules permettant de calculer, des années à l’avance, et avec une grande précision, le mouvement des planètes. Tout progrès dans l’exactitude des mesures, entraînait un progrès parallèle dans les formules. Ainsi nous avons vu paraître successivement les théories de Ptolémée, de Copernic, de Kepler, dont chacune marquait un progrès sur la précédente, tant en ce qui concerne la simplicité que l’exactitude. Toutes ces théories ont ceci de commun qu’elles se proposent de résoudre le problème suivant : Étant donnée une planète et en supposant connu l’instant où elle est observée, trouver quelle est à cet instant la position de la planète. Naturellement pour chaque planète, il existe une relation qui lui est propre entre les temps et les positions, mais cette relation ne saurait s’appliquer à aucune autre planète, bien que les mouvements planétaires aient beaucoup de traits communs.

Newton fait un pas décisif en résolvant un problème beaucoup plus général : trouver une loi unique valable pour tous les corps célestes, et dont les formules donnant les mouvements de chaque planète seraient des applications à des cas particuliers. Son succès fut complet quand il parvint à donner à sa loi un caractère d’indépendance absolue à l’égard de tout instant particulier, c’est-à-dire quand il remplaça le temps par la différentielle du temps. La théorie du mouvement planétaire de Newton ne parle plus d’une loi exprimant une relation entre la position d’une planète et le temps ; ce qu’elle donne c’est une relation entre l’accélération d’une planète et sa distance au soleil. Cette loi se présente sous la forme d’une équation différentielle vectorielle, valable pour toutes les planètes. En conséquence, si la position et la vitesse d’une planète à un instant donné sont connues, on peut déterminer sans ambiguïté toutes les caractéristiques de son mouvement à un instant quelconque.

Que la théorie de Newton n’ait pas seulement été une manière nouvelle de se représenter l’univers, mais qu’elle ait encore eu le caractère d’un progrès dans la connaissance du rapport qui lie les choses dans la réalité, cela ressort très clairement de l’examen des résultats obtenus grâce à elle et qui ne sont pour nous que le développement d’une même idée. Elle surpasse les formules de Kepler, non seulement en exactitude (elle permet, par exemple, de prévoir les perturbations subies par la trajectoire elliptique de la terre autour du soleil du fait que cette dernière se rapproche de temps en temps de Jupiter), mais de plus, grâce à elle, il est possible de calculer, toujours en plein accord avec les mesures expérimentales, les mouvements des autres corps célestes, telles que les comètes, les étoiles doubles, etc., dont les lois de Kepler étaient absolument incapables de rendre compte. Mais le principal triomphe de l’actif de la loi de Newton a été son application immédiate aux mouvements qui ont lieu à la surface terrestre, tels que la chute des corps et les mouvements du pendule dont Galilée avait formulé les lois comme conséquence de ses mesures. Bien plus, la même loi se trouve donner la clef de certains phénomènes étonnants et, jusque-là incompréhensibles, tels que le flux et le reflux, la rotation du plan d’oscillation pendulaire, la précession dans le mouvement de la toupie et d’autres encore.

Mais ce qui nous intéresse le plus, à l’heure actuelle, c’est de savoir comment Newton parvint à trouver son équation différentielle. Ce ne fut pas, comme on pourrait se le figurer, en rapprochant directement l’accélération d’une planète de sa distance au soleil et en cherchant si on ne pourrait trouver une relation numérique entre l’une et l’autre ; ce fut par l’élaboration d’un concept qui pût servir, pour ainsi dire, d’intermédiaire entre la notion d’accélération et celle de position : ce rôle devait être joué par la force. Il imagina, qu’en raison de sa situation par rapport au soleil, toute planète est soumise à une attraction qui est dirigée vers cet astre et que cette force se manifeste en provoquant une certaine modification dans le mouvement de la planète. Il y eut ainsi, d’une part, la loi de l’inertie, et d’autre part, la loi de la gravitation.

La notion de force tire certainement son origine, comme le mot l’indique, de la sensation musculaire éprouvée lors du soulèvement d’un poids ou du lancement d’une balle, seulement cette notion fut généralisée et étendue à tout changement survenant dans un mouvement quelconque, même à ceux qui ne peuvent pas être obtenus, si peu que ce soit, par l’effort musculaire humain.

Il n’est donc pas étonnant de voir Newton attacher une importance aussi décisive à la notion de force qui lui avait valu de tels succès, bien que cette notion n’apparaisse aucunement, il faut le remarquer, dans la loi du mouvement proprement dit. La force est seulement considérée comme étant la cause du changement survenu dans le mouvement. Avec le temps, l’importance de la force newtonnienne devint même si grande qu’elle prit le caractère de concept fondamental, non seulement en mécanique, mais dans la physique tout entière.

L’image que nous offre la physique contemporaine présente un certain contraste avec cet état de choses. Aussi n’est-ce point un paradoxe que de dire que la force newtonnienne a perdu la signification fondamentale qu’elle avait en physique. Dans la mécanique actuelle, ce n’est plus qu’une grandeur secondaire ; elle a été remplacée par une notion d’un caractère plus élevé, plus général : la notion de travail, de potentiel. La force est alors définie comme une chute de potentiel, comme un gradient négatif de potentiel.

Mais, objectera-t-on, comment peut-on considérer le travail comme étant la notion primordiale alors que, s’il y a un travail, il y a toujours une force qui effectue ce travail ? Parler ainsi, c’est parler en physiologiste et non en physicien. Certes, en ce qui concerne le travail accompli quand on soulève un poids, la contraction musculaire, avec les sensations concomitantes, sont bien le phénomène primaire qui cause la manifestation du mouvement. Mais il convient de distinguer très nettement ce phénomène purement physiologique de la force d’attraction exercée par la terre sur le poids qui est le phénomène physique intervenant en cette occasion. Or ce phénomène est uniquement conditionné par le potentiel de gravitation qui est la notion fondamentale.

La supériorité du potentiel sur la force ne lui vient pas seulement de ce que, par son introduction, les lois physiques reçoivent une forme plus simple, elle vient aussi de ce que la notion de potentiel a une signification s’étendant beaucoup plus loin que la notion de force. Elle dépasse notamment le domaine de la mécanique et elle s’applique aux affinités chimiques où, évidemment, il ne saurait plus être aucunement question d’une force newtonnienne. Sans doute, le concept de potentiel n’a-t-il plus l’avantage d’être immédiatement intuitif comme celui de force en raison de sa relation avec le sens musculaire. L’élimination du concept de force a donc diminué grandement le caractère d’intuitivité des lois physiques, mais il était dans la nature des choses elles-mêmes qu’il en fût ainsi. La valeur d’une loi physique ne lui vient pas en effet de sa conformité aux organes des sens humains, mais de sa conformité aux choses elles-mêmes.

Néanmoins, à mon avis, quand il s’agira d’enseigner la mécanique, il conviendra toujours de débuter en prenant son point de départ dans la force newtonnienne, de même que si l’on parle d’optique, il est tout d’abord opportun de faire appel au sens de la vue, de même en thermodynamique on se référera au sens thermique. Plus tard seulement il conviendra de trouver une base plus précise. Cependant il ne faudrait pas oublier, non plus, que la signification de tout concept et de toute loi physique repose en dernière analyse sur ses relations avec les organes de nos sens humains, et nous touchons là un trait éminemment caractéristique du travail de recherche scientifique. Pour pouvoir établir des concepts et des hypothèses valables, il faut d’abord que nous fassions appel à un pouvoir d’intuition intimement lié à nos sensations spécifiques, car tel est le réservoir où nous puisons toutes nos idées ; mais si, de là, nous voulons parvenir aux lois physiques, nous devons, autant que possible, faire abstraction de nos images intuitives et rendre nos définitions libres de toute attache avec une représentation superflue, c’est-à-dire avec toutes celles qui n’ont point de lien logique nécessaire avec les mesures. Une fois les lois formulées, et leurs résultats déduits par voie mathématique, pour les rendre utilisables, il faudra les retraduire dans la langue de notre univers sensible. C’est là, jusqu’à un certain point un cercle vicieux, mais il est impossible de s’en passer ; car c’est l’abstraction seule qui libère les lois physiques de toute attache anthropomorphique et leur permet de se manifester sous une forme simple et générale.

On rencontre en physique des exemples nombreux de concepts intermédiaires semblables à la force newtonnienne ; ils servent d’auxiliaires en raison de leur caractère intuitif. À ce point de vue, je me bornerai à mentionner l’idée de la pression osmotique qui s’est montrée si féconde en chimie physique. Cette notion fut introduite par Van’t Hoff pour rendre intuitive les lois physiques des solutions, notamment la loi de l’abaissement du point de fusion et de la tension de vapeur. La pression osmotique, on le sait, est difficile à mettre en évidence et elle ne se laisse mesurer que très imparfaitement parce qu’il faut faire appel à un appareillage compliqué utilisant ce que l’on appelle des parois semi-perméables. L’intuition pénétrante du grand savant en est donc d’autant plus admirable, puisqu’il a réussi à formuler ses lois en s’appuyant sur un matériel d’observations peu abondant. Dans la formule qu’on donne habituellement des lois de Van’t Hoff, la pression osmotique intervient aussi peu que la force newtonnienne dans la mécanique moderne.

Il existe aussi d’autres concepts éminemment intuitifs d’un genre différent qui se sont montrés très féconds quand il s’est agi de l’élaboration d’hypothèses ; mais, contrairement à ceux dont il vient d’être question, il n’en ont pas moins contrarié directement le progrès au cours de l’évolution ultérieure de la physique. Parmi ces concepts il en est un qui mérite une mention spéciale. De même que l’on s’était habitué à soupçonner l’action causale d’une force derrière toutes les transformations naturelles, de même on fut très incliné à considérer comme une substance toute grandeur invariable, toute constante. Or le concept de substance, s’il joue en physique un rôle important, depuis des temps immémoriaux, n’a pas néanmoins toujours contribué au progrès. D’abord il est évident que toute loi de conservation peut s’exprimer en termes de substance et cette manière de se représenter les choses a l’avantage de rendre la loi intuitive et d’en faciliter l’utilisation. Est-il possible, en effet, de donner une idée plus tangible d’une grandeur demeurant quantitativement la même à travers toutes ses transformations, qu’en faisant appel à la représentation d’un corps matériel en mouvement. Pour cette raison, il y a toujours eu une tendance en faveur de l’explication des phénomènes naturels par des mouvements de portions infimes de substances, quantitativement déterminées. Pour rendre compte de la propagation de la lumière, il fut d’abord fait appel aux mouvements ondulatoires d’une substance : l’éther lumineux ; et, effectivement, les principales lois de l’optique ont pu être déduites de cette hypothèse, en pleine conformité avec l’expérience. Ce fut seulement plus tard que la théorie mécanique substantielle de la lumière cessa de se montrer féconde et s’égara dans des discussions stériles.

Dans le domaine de la chaleur, également, la notion de substance a rendu d’éminents services. Le haut état de perfection auquel fut amené la calorimétrie dans la première moitié du siècle dernier est dû à des travaux guidés par l’hypothèse d’une substance calorique s’écoulant, sans gain ni perte, du corps le plus chaud vers le corps le plus froid. Plus tard, lorsqu’il fut démontré que la quantité de chaleur pouvait être augmentée, par exemple dans le cas du frottement, l’on vit la théorie substantielle de la chaleur passer à la défensive et chercher son salut dans des hypothèses additionnelles. Cela lui réussit quelque temps, mais l’échec final n’en fut pas moins inévitable.

En électricité, la réflexion la plus superficielle suffit à montrer les conséquences suspectes qui peuvent être la suite d’une généralisation abusive de la notion de substance. Nous y trouvons, il est vrai, la loi de la conservation de la quantité d’électricité, la conception du courant électrique qui se rattache à cette loi et la loi des échanges entre des conducteurs parcourus par des courants, tout cela peut être rendu très intuitif en faisant intervenir la notion d’une substance électrique douée de propriétés dynamiques se manifestant extérieurement. Mais l’analogie ne peut plus se poursuivre, si l’on observe qu’il faut admettre l’existence d’une substance positive et celle d’une substance négative, se neutralisant complètement l’une l’autre. Voilà certes un phénomène tout à fait inacceptable dans le cas d’une véritable substance. D’autre part, il est également impossible de faire sortir du néant deux substances opposées.

Tout ceci prouve que les images représentatives et les concepts qui s’appuient sur elles, si elles sont, en physique, des auxiliaires indispensables de la recherche et si elles ont permis dans des cas innombrables de frayer la voie à des connaissances nouvelles, n’en doivent pas moins être utilisées avec la plus grande circonspection, même si pendant un certain temps leur valeur n’a pu être contestée.

Le seul guide dans la voie du progrès qui suit la découverte est et demeure la mesure, avec les notions qui s’y rattachent immédiatement ou s’en déduisent par voie logique. Tout autre genre de déduction, surtout ceux qui s’appuient sur une prétendue évidence, doit toujours être considéré avec une certaine méfiance. Ce n’est pas, en effet, l’intuition mais la seule raison qui décide du pouvoir contraignant d’une démonstration mettant en œuvre des concepts bien définis.

II

Jusqu’ici nous nous sommes surtout occupés de la question de savoir comment on parvient à la connaissance des lois physiques, nous allons maintenant examiner de plus près en quoi consistent ces lois et ce qui fait leur essence propre.

Une loi physique s’exprime ordinairement à l’aide d’une formule mathématique. Cette formule permet, étant donné un système physique soumis à des conditions déterminées, de calculer à l’avance les phénomènes dont ce système sera le siège. Considérées de ce point de vue, les lois physiques peuvent déjà être divisées en deux grands groupes.

Les lois du premier groupe ont ceci de particulier qu’elles conservent leur validité si on y change le signe de la variable « temps » ou, autrement dit, tout processus qui obéit à ces lois peut aussi se dérouler en sens inverse sans y contrevenir. Les lois de l’électrodynamique et de la mécanique, pour autant que les facteurs thermiques ou chimiques en sont exclus, sont des exemples du premier groupe. Par exemple, un corps qui tombe sans frottement aura un mouvement accéléré, d’après les lois de la mécanique ; d’après ces mêmes lois le même corps en s’élevant aura un mouvement retardé. Un pendule peut aussi bien osciller de droite à gauche que de gauche à droite. Une onde peut se propager dans une direction tout comme dans la direction opposée, elle peut s’écarter d’un centre ou s’en rapprocher. Une planète peut décrire sa trajectoire autour du soleil aussi bien dans un sens que dans l’autre. Bien entendu la question de savoir si l’inversion du mouvement est réalisable n’a rien à voir avec la réversibilité, aussi nous abstiendrons-nous de l’examiner. Il s’agit en effet ici de la loi elle-même et non des circonstances où elle trouve son application. Les lois du second groupe sont, au contraire, telles que le signe de la variable temps y joue un rôle essentiel, aussi les phénomènes régis par ces lois se déroulent-ils dans un seul sens : ils sont irréversibles. C’est le cas de tous les phénomènes mettant en jeu un transport de chaleur ou une affinité chimique.

Dans le cas d’un frottement, les vitesses relatives vont toujours en diminuant, jamais en augmentant. Dans le cas de la conduction thermique, c’est toujours le corps le plus froid qui s’échauffe et le corps le plus chaud qui se refroidit. Dans le cas de la diffusion, le mélange des corps se poursuit toujours dans le sens d’une homogénéisation croissante, jamais dans le sens d’une démixtion. Aussi voyons-nous les phénomènes irréversibles aboutir toujours à un état final. Le frottement aboutit à l’état de repos ; la conduction, à l’équilibre thermique ; la diffusion à l’homogénéité totale. Les phénomènes réversibles, au contraire, à moins qu’une action extérieure n’intervienne, se poursuivent sans fin en une suite indéfinie d’oscillations. Comment parvenir à trouver une enseigne commune pouvant convenir à deux catégories de lois aussi opposées ? Et pourtant, c’est là chose absolument nécessaire à l’unification de nos connaissances en physique. La génération qui a précédé la nôtre a subi d’une façon tout à fait prépondérante l’influence d’une théorie physique : l’énergétique ; c’est pourquoi elle a cherché à faire disparaître le contraste en assimilant, par exemple, le transport de la chaleur d’une température élevée à une autre plus basse à la chute d’un poids ou encore à un pendule descendant d’un niveau élevé vers un autre plus bas. Mais c’est là un point de vue qui néglige précisément tout l’essentiel, à savoir le fait qu’un pendule qui a atteint sa position la plus basse possède, au même moment, sa vitesse la plus grande, d’où il résulte qu’il remonte de l’autre côté de sa position d’équilibre en vertu de son inertie. Par contre, le courant thermique allant d’un corps chand vers un corps froid est d’autant plus lent que la différence des températures est plus faible. Il ne peut donc aucunement être question d’un dépassement de l’état où la température est uniforme, en vertu d’une autre sorte d’inertie.

De quelque manière que l’on s’y prenne, le contraste demeure donc le même entre les phénomènes réversibles et irréversibles. Il ne reste alors plus qu’une seule ressource : trouver un point de vue entièrement nouveau permettant de faire apparaître certaines relations entre les deux catégories de phénomènes et cela en ramenant, dans la mesure du possible, les lois d’une catégorie à celles de l’autre. La question qui se pose est la suivante : des phénomènes réversibles ou irréversibles quels sont ceux qui doivent être considérés comme les plus simples, les plus élémentaires ? En nous plaçant à un point de vue formel, purement extérieur, nous aurons déjà une indication à ce sujet. Toute formule physique contient, en plus des grandeurs variables, dont les mesures donnent les valeurs dans chaque cas particulier, certaines grandeurs constantes déterminées une fois pour toutes, ce sont elles qui donnent son caractère propre à la relation entre les variables dont la formule est l’expression. Or si l’on examine de près ces constantes, on s’aperçoit que ce sont toujours les mêmes qui reviennent tout le temps avec la même valeur dans le cas des phénomènes réversibles, malgré la diversité des conditions extérieures. Nous avons, par exemple : la masse, la constante de gravitation, la charge électrique, la vitesse de la lumière. Les constantes des phénomènes irréversibles seront : le coefficient de conductibilité thermique, le coefficient de frottement, la constante de diffusion ; or leurs valeurs dépendent toujours plus ou moins des circonstances extérieures comme la température, la pression, etc.

De cette différence de comportement on peut, tout naturellement, inférer que les constantes du premier groupe, de même que les lois qui s’y rattachent, sont les plus simples, qu’elles ne sont pas réductibles à d’autres, tandis que les constantes et les lois du second groupe ont un caractère plus complexe. Pour justifier nos conjectures, il faudra, il est vrai, faire appel à des considérations d’un genre plus raffiné et examiner les phénomènes pour ainsi dire à la loupe. Si les phénomènes irréversibles sont réellement de nature composite, les lois qui les régissent ne peuvent s’appliquer qu’en gros, elles doivent donc se présenter comme des lois statistiques qui ne sont qu’une appréciation macroscopique globale de la résultante moyenne d’un grand nombre de phénomènes élémentaires. Plus le nombre de ces éléments composants est petit, plus on devra s’attendre à des exceptions fortuites notables aux lois macroscopiques. En d’autres termes, si ce que nous avançons est exact, les lois des phénomènes irréversibles, — frottement, conductibilité thermique, — doivent toutes être inexactes ; considérées à l’échelle microscopique, elles doivent comporter des exceptions dont l’importance grandit d’autant plus que l’observation du phénomène se fait plus précise.

Or telle est bien la conclusion, de jour en jour plus certaine, à laquelle nous conduit aussi l’expérience, grâce au perfectionnement extraordinaire réalisé dans les méthodes de mesure. Si les lois des phénomènes irréversibles sont valables avec une très haute approximation, cela tient uniquement à ce qu’ils sont ordinairement la résultante d’un nombre énorme de phénomènes élémentaires. Prenons, par exemple, un liquide de température uniforme d’après la loi macroscopique de la conductibilité thermique, il ne doit exister aucun transport de chaleur dans ce liquide. Or, à parler en toute rigueur, ceci est absolument faux, car la chaleur est conditionnée par les mouvements rapides dont sont animées les molécules de ce liquide. La conductibilité thermique sera donc due à des échanges de vitesse entre molécules et, par suite, l’uniformité de la température ne signifiera donc pas que toutes les vitesses sont égales mais, seulement, que la valeur moyenne de toutes les vitesses est la même dans deux volumes élémentaires de liquide pourvu qu’ils renferment, tous les deux, un très grand nombre de molécules. Si nous prenions, par contre, un élément de volume ne contenant que des molécules relativement peu nombreuses, la valeur moyenne de leurs vitesses pourrait subir des variations dans le temps et cela, d’autant plus, que l’élément de volume considéré serait plus petit. Tout ceci nous le répétons n’est pas une simple vue de l’esprit, mais a été pleinement confirmé par l’expérience. En est-il une plus frappante, à ce point de vue, que le mouvement brownien ? Ce mouvement peut s’observer au microscope sur des grains de poussière en suspension ; ces grains sont heurtés en tous sens par les molécules invisibles du liquide et cela avec une violence d’autant plus grande que la température est plus élevée. Si maintenant nous faisons l’hypothèse, et il n’y a à cela aucune objection de principe, que chaque choc pris en particulier est un phénomène réversible obéissant à des lois dynamiques, nous pourrons dire que la considération du phénomène au point de vue microscopique nous a permis de ramener les lois des phénomènes irréversibles, lois statistiques, approchées et valables seulement en gros, aux lois exactes de la dynamique.

L’introduction en physique de lois statistiques a été très féconde et elle n’été la cause de grands progrès, c’est pourquoi il s’est produit, à leur égard, un changement remarquable dans les idées des physiciens. Autrefois les énergétistes auraient, plus ou moins, mis en doute l’existence des transformations irréversibles ; aujourd’hui, au contraire, nous voyons s’ébaucher, un peu partout, des tentatives ayant pour but de mettre au premier plan les lois à forme statistique en y ramenant toutes les autres lois, jusqu’alors regardées comme dynamiques ; même les lois de la gravitation, à tel point qu’il n’y aurait plus dans la nature aucune loi absolument contraignante. De fait, un point demeure certain : tout ce qui, dans la nature, peut être contrôlé par des mesures a ceci de particulier que le résultat de ces mesures ne peut jamais s’exprimer par un nombre bien défini ; car, dans toute mesure, il y a inévitablement des causes d’erreur qui entraînent une certaine indétermination. Il en résulte que jamais aucune mesure ne pourra nous permettre de savoir si une loi naturelle est d’une exactitude absolue ou seulement approchée. D’autre part, il n’est pas de théorie de la connaissance pouvant nous conduire à un résultat plus satisfaisant. Comme nous l’avons déjà fait remarquer incidemment, nous ne sommes même pas en état de prouver qu’il y a des lois naturelles : comment pourrions-nous donc démontrer que ces lois ont une valeur absolue ?

À s’en tenir au point de vue logique, l’hypothèse que toutes les lois sont à forme statistique est donc tout à fait justifiée. Mais si l’on me demandait, chose toute différente, cette hypothèse est-elle recommandable ? Je répondrais résolument : non. Il faut, en effet, bien se rendre compte que les seules lois à forme strictement dynamique satisfont pleinement notre besoin de savoir ; alors que les lois statistiques resteront toujours défectueuses, tout simplement parce qu’elles ne sont pas d’une exactitude absolue et qu’elles comportent des cas particuliers exceptionnels. La question de savoir quelles sont les circonstances où ces exceptions se rencontrent n’étant, d’autre part, jamais résolue.

Pourtant la réduction à la normale de ces exceptions apparentes a toujours été une des causes prépondérantes des perfectionnements apportés aux méthodes d’investigation. Si l’on admet que toute loi est, en dernière analyse, une loi statistique, il n’y a aucune raison, en présence d’une loi donnée, de rechercher la cause des écarts expérimentaux observés. Or, en réalité, c’est en cherchant toujours à découvrir derrière les lois statistiques, des lois dynamiques strictement causales que les plus grands progrès de l’atomistique ont toujours été réalisés.

Certes, nous le concédons, jamais aucune mesure ne pourra permettre de savoir si une loi, qui a toujours été vérifiée, aux erreurs d’expériences près, est, ou non, de nature statistique. Mais ceci est tout autre chose que de regarder cette loi comme étant de l’une ou l’autre catégorie en vertu de considérations théoriques. Dans le premier cas, on cherchera entre quelle limites la loi est valide, en apportant un perfectionnement de plus en plus grand aux méthodes de mesure ; dans le second cas on considérera ce genre de recherches comme voué à la stérilité. Or il y a déjà, en physique, trop de temps perdu à la recherche de la solution de pseudo-problèmes pour pouvoir se permettre de négliger des considérations de cet ordre.

À mon sens, il est donc tout à fait dans l’intérêt du progrès d’admettre parmi les postulats de la physique, comme on l’a toujours fait jusqu’ici, à vrai dire, non seulement l’existence des lois, mais aussi le caractère strictement causal de ces lois. Le terme de la recherche scientifique ne pourra donc pas être considéré comme atteint tant qu’une loi de caractère statistique n’aura pas été ramenée à une ou plusieurs lois de caractère dynamique. Tout ceci ne tend naturellement pas à frustrer les lois statistiques de leur grande importance pratique. La physique, tout comme la météorologie, la géographie et la sociologie devront souvent faire usage de lois statistiques. Mais si personne ne doute que les prétendues oscillations fortuites des courbes observées, soit en climatologie, soit en démographie, soit dans l’établissement des tables de mortalité, n’en sont pas moins régies par des lois causales dans chaque cas particulier ; de même aussi tout physicien aura-t-il toujours le droit de se demander pourquoi tel atome d’uranium a fait explosion plusieurs millions d’années avant tel autre.

La science de la vie psychique, elle-même, ne pourra jamais se dispenser d’une causalité rigoureuse. L’existence du libre arbitre a souvent été invoquée à titre d’objection par les adversaires d’une extension universelle de la causalité. J’ai déjà montré, plus haut, qu’il n’y a aucune contradiction entre la causalité stricte et le libre arbitre. Mais l’argumentation que j’ai présentée a été parfois fort mal comprise, Il sera donc peut-être utile, en raison du très grand intérêt présenté par le sujet, de revenir en quelques mots sur ce sujet.

Le principe de causalité demande que les actes humains et tous les phénomènes psychologiques soient déterminés à chaque instant et chez tout homme par son état interne à l’instant précédent ainsi que par l’influence du milieu qui l’entoure. Or, nous n’avons aucun motif de douter de la vérité de cette proposition. Dans la question du libre arbitre, l’existence de cette dépendance n’est pas en question, il s’agit seulement de savoir si le sujet qu’elle concerne peut en prendre connaissance. C’est de ce point seul que dépend le fait, pour l’homme, de se sentir libre ou non. On ne pourrait refuser à quelqu’un la conscience de son libre arbitre que s’il pouvait, par application du principe de causalité, prévoir son propre avenir. Mais cela même est impossible, car cette hypothèse renferme en elle-même une contradiction. Toute connaissance véritablement complète suppose, en effet, que l’objet à connaître ne sera pas modifié par des phénomènes intervenant dans le sujet connaissant. Or c’est là une supposition incompatible avec le cas où le sujet et l’objet sont identiques. Ou, pour user de termes plus concrets, la connaissance d’un motif d’action volontaire est un événement interne du sujet qui peut être la source d’un nouveau motif et ainsi le nombre des motifs possibles est augmenté. Cette constatation est une nouvelle connaissance, source éventuelle d’un nouveau motif, la série de ces derniers est donc susceptible de s’accroître indéfiniment. Le sujet ne pourra donc jamais parvenir à la production d’un motif absolument définitif, relativement à l’une de ses propres actions futures, c’est-à-dire à une connaissance incapable de provoquer l’éclosion d’un nouveau motif d’action. Il en est tout autrement si l’on considère une action déjà accomplie. Ici, la volonté ne peut plus être influencée par la connaissance, c’est pourquoi il est toujours possible, en principe, de découvrir un enchaînement strictement causal des motifs d’action. Si quelqu’un venait à douter de la justesse de ces considérations et ne voyait pas pourquoi un esprit suffisamment intelligent ne pourrait pas être capable d’embrasser la série causale complète des causes qui conditionnent causalement son moi actuel, nous lui demanderions pourquoi un géant suffisamment grand pour dominer toutes choses de son regard ne serait pas aussi capable de se dominer lui-même de ce regard. Non la loi causale ne suffit à aucun homme, même le plus intelligent, pour lui permettre de produire des motifs décisifs, pour aucune de ses actions conscientes. Il lui faut un autre fil conducteur : la loi morale. La plus haute intelligence, l’analyse la plus pénétrante ne sauraient y suppléer.

III

Revenons maintenant à la physique où il n’y a pas en général de complications semblables à celle dont nous venons de parler. Il me reste seulement maintenant à donner une idée de ce qu’est, dans ses grandes lignes, la conception de l’univers à laquelle est arrivée la physique moderne en suivant sa tendance qui est de ramener, comme je viens de le dire, toutes les relations entre les phénomènes à des lois strictement causales. Il suffit d’un coup d’œil rapide pour se rendre compte du changement énorme intervenu à cet égard. On peut le dire, jamais révolution aussi brusque ne s’est produite dans les idées depuis les temps de Newton et de Galilée et nous sommes fiers de constater que la science allemande y a pris une part essentielle. L’impulsion initiale qui est à l’origine de ce vaste mouvement se trouve évidemment dans l’extraordinaire perfectionnement apporté aux méthodes de mesure ; perfectionnement en relation très étroite avec les progrès de la technique, qui a permis la découverte de faits nouveaux et obligé à reviser les théories existantes. Deux grandes idées nouvelles contribuent surtout à donner le ton à la physique nouvelle ; ce sont, d’une part la théorie de la relativité et, d’autre part, la théorie des quanta. Chacune a, pour sa part, contribué au bouleversement fécond des idées ; mais elles n’en sont pas moins demeurées totalement étrangères l’une à l’autre et même opposées, jusqu’à certain point.

Il y eut une époque où la théorie de la relativité était un sujet général de conversation. Partisans et adversaires s’affrontaient dans tous les milieux et on peut retrouver un écho de leurs discussions jusque dans la presse quotidienne, où quelques personnes compétentes et un bien plus grand nombre d’incompétentes développaient leurs arguments pour ou contre. Aujourd’hui les esprits ont retrouvé un peu de calme et personne n’en éprouve une satisfaction plus sincère que l’auteur de la théorie lui-même. Le grand public s’est blasé et la mode s’est emparée d’autres sujets de discussion. Il faudrait bien, cependant, se garder d’en conclure que la théorie de la relativité ne joue plus aucun rôle dans la science : c’est exactement le contraire qui est la vérité. La théorie est devenue une pièce tellement essentielle de la construction de l’univers, aux yeux de la physique moderne, qu’on éprouve de moins en moins le besoin de la mentionner. Il en est d’elle, comme de toutes les choses qui vont de soi. Et effectivement, à tout prendre, pour révolutionnaire qu’ait paru être la théorie de la relativité au moment de son apparition, il n’en est pas moins vrai que les coups qu’elle a portés n’étaient nullement dirigés contre les grandes lois bien établies de la physique, mais contre certaines opinions profondément enracinées, il est vrai, par suite d’une longue habitude. Ces opinions, nous avons déjà essayé de le montrer à propos d’autres idées analogues, sont de celles qui ont été très utiles pour donner un premier aperçu des lois de la physique, mais qui doivent être éliminées ultérieurement quand il devient nécessaire d’approfondir et de généraliser.

La notion de simultanéité en est un exemple particulièrement instructif. Rien ne peut paraître plus évident à un observateur sans parti pris qu’il y a un sens bien défini à parler de la simultanéité de deux événements ayant lieu en des points éloignés l’un de l’autre. Pour tout le monde, c’est en effet un jeu que de parcourir instantanément par la pensée les plus grandes distances et de comparer par l’introspection les deux événements ainsi mis en contact direct. La théorie de la relativité, il faut insister là-dessus, n’a rien changé à cet état de choses. Tout observateur pourra, en l’utilisant en toute confiance, pourvu qu’il dispose d’instruments de mesure suffisamment exacts, déterminer si deux événements sont simultanés ou non. Quelle que soit la diversité des instruments et des méthodes dont il se servira pour mesurer le temps, s’il opère convenablement, il trouvera le même résultat. Tout reste donc comme devant.

Mais d’après la théorie de la relativité, il ne va pas de soi que les mêmes événements devront être regardés comme simultanés par un observateur en mouvement par rapport au premier, car la pensée et les intuitions d’un homme ne sont pas nécessairement la pensée et les intuitions d’un autre homme. Si les deux observateurs en viennent à échanger une explication sur leurs points de vue respectifs, chacun se référera à ses propres mesures et il en ressortira que pour l’interprétation des dites mesures, ils sont partis de suppositions tout à fait différentes. Mais parmi ces suppositions laquelle est exacte ? Il est aussi impossible de le savoir qu’il est impossible de savoir quel est l’observateur en mouvement et quel est celui qui est au repos. C’est là en définitive le point dont dépend tout le reste : car la marche d’une horloge subit, quand elle se meut, une modification dont il n’y a aucunement lieu de s’étonner et il en résulte que les deux horloges auront nécessairement une marche différente. La conclusion en est que chacun à tout autant que l’autre le droit de se prétendre au repos et que sa mesure du temps est exacte. Dans ces conditions, les événements tenus pour simultanés par un des observateurs ne le seront plus pour l’autre. Voilà certes un point de vue difficile à concilier avec le pouvoir représentatif de notre imagination. Mais le sacrifice qui est ainsi demandé à notre intuition est insignifiant et quasi nul si on le compare aux avantages inestimables qu’il a procurés, parce qu’il rend possible une synthèse de l’univers d’une simplicité et d’une amplitude vraiment grandioses.

Si quelqu’un ne pouvait, malgré tout, s’empêcher de soupçonner la théorie de la relativité de comporter quelque contradiction interne, nous lui ferions remarquer qu’une théorie dont tout le contenu peut tenir en une formule mathématique ne peut pas se contredire elle-même, pas plus que ne le peuvent deux conséquences de la même formule. C’est notre intuition qui doit se conformer aux résultats de la formule et non pas l’inverse.

En dernière analyse, l’expérience seule est capable d’établir la validité du principe de relativité et de renseigner sur son importance et nous ajouterons même que la possibilité, pour une théorie, d’être vérifiée par l’expérience est la marque la plus significative de sa fécondité. Or, malgré les bruits qui se sont répandus dans le grand public à ce sujet, jamais, jusqu’ici, l’expérience n’a infligé de démenti à la théorie de la relativité. Quoi qu’il en soit, d’ailleurs, si quelqu’un estimait qu’une telle contradiction est possible ou même probable, le mieux à faire, pour soutenir son opinion, serait encore de prêter son concours au développement de la théorie en la poussant jusqu’à ses dernières conséquences ; tel est l’unique moyen de faire apparaître une contradiction éventuelle entre elle et l’expérience. Le travail dont il s’agit serait d’autant plus aisé que la théorie ne comporte aucune équivoque, qu’elle est relativement claire et qu’elle s’adapte merveilleusement au cadre de la physique classique.

Bien plus, pour ma part, si je ne craignais de soulever des objections d’ordre historique, je n’hésiterais pas un instant à faire rentrer la relativité dans la physique classique. C’est elle qui en a été dans une certaine mesure le couronnement par son unification, dans une synthèse supérieure, des notions d’espace et de temps, d’énergie et de gravitation. Cette synthèse est si parfaite que, grâce à elle, il a été possible de donner aux lois de la conservation de l’énergie et de la quantité de mouvement des formes parfaitement symétriques, en considérant ces deux lois comme deux conséquences équivalentes du principe de la moindre action devenu la loi la plus générale de la physique. Ce principe, dès lors, enveloppe à la fois le domaine de la mécanique et celui de l’électrodynamique.

L’hypothèse des quanta forme le contraste le plus saisissant qui soit avec cette merveilleuse harmonie, elle fait exactement l’effet d’un explosif menaçant introduit du dehors au milieu de l’édifice de la physique et déjà nous voyons que, témoignage inquiétant de sa puissance, une grande lézarde le traverse du haut en bas. L’hypothèse des quanta n’est pas née d’un seul coup à l’état adulte, comme la théorie de la relativité, elle ne s’est pas présentée tout d’abord comme un système d’idées simple et bien cohérent, destiné à apporter à certaines lois déjà connues de la physique des modifications très importantes en principe, bien qu’insignifiantes, en pratique, dans la plupart des cas. Elle a vu le jour dans un domaine tout à fait spécial de la physique : la théorie de la chaleur rayonnante, où elle est apparue comme étant l’unique moyen de salut. Plus tard, il s’est trouvé que des problèmes tout différents, comme l’effet photoélectrique, la chaleur spécifique, l’ionisation, les réactions chimiques, devenaient quelquefois d’une simplicité enfantine et, en tout cas, beaucoup plus faciles à résoudre, l’hypothèse des quanta une fois admise. Aussi fut-on bientôt amené à faire de cette hypothèse, non plus un simple instrument de travail, mais un nouveau principe fondamental, trouvant son application partout où il s’agit de phénomènes très petits et très rapides.

Malheureusement, l’hypothèse des quanta ne se contente pas de contredire les idées anciennes généralement reçues : d’après ce qui vient d’être dit, ce serait là chose relativement supportable ; mais il apparaît de plus en plus qu’elle contredit les postulats les plus fondamentaux de la physique classique. Il ne s’agit donc pas d’une simple modification, comme dans le cas de la théorie de la relativité, mais d’une véritable subversion des idées.

Naturellement, rien ne pourrait s’opposer à un abandon de la théorie classique ; cet abandon deviendrait même nécessaire s’il était démontré que la théorie des quanta lui est supérieure ou même simplement équivalente sur tous les points. Or il n’en est absolument pas ainsi : il y a, en physique, des domaines, tel le vaste domaine des phénomènes d’interférence, où la théorie classique se trouve vérifiée par les mesures les plus précises jusque dans ses moindres détails et où l’hypothèse des quanta, du moins sous sa forme actuelle, échoue complètement et cela non point dans ce sens qu’elle ne serait pas applicable, mais bien en ce sens que les résultats qu’elle permet de prévoir ne concordent pas avec ce qui est constaté expérimentalement.

Aujourd’hui les choses en sont arrivées à un tel point que chacune des théories a, pour ainsi dire, son domaine particulier où elle se sent inattaquable. Il existe, en outre, des domaines intermédiaires, par exemple la dispersion et la diffraction de la lumière, où elles se combattent avec plus ou moins de succès, soit pour l’une, soit pour l’autre ; car elles conduisent à peu près aux mêmes conséquences. Un physicien pourra donc, suivant ses penchants personnels, s’appuyer tantôt sur l’une tantôt sur l’autre. Ceci ne va pas sans provoquer chez celui qui cherche sérieusement à se rendre compte de ce que sont les choses en réalité, un sentiment de gêne pénible et même insupportable à la longue.

Pour illustrer ce singulier état de choses, vous me permettrez de me borner à un seul exemple tiré du trésor surabondant des résultats expérimentaux et des considérations théoriques qui leurs sont relatives.

Je rappelle d’abord deux faits très simples. Imaginons deux faisceaux lumineux étroits obtenus en plaçant devant une source ponctuelle violette un écran percé de deux trous. Si ces deux faisceaux sont dirigés au moyen de miroirs, de façon à atteindre la même plage d’une paroi blanche éloignée, la tache lumineuse observée ne sera pas uniforme, elle sera parsemée de franges, tel est le premier fait. Le second est qu’un métal quelconque, sensible à la lumière, placé sur le parcours de l’un de ces rayons émettra continuellement des électrons dont la vitesse sera constante et tout à fait indépendante de l’intensité de la lumière qui frappe le métal.

Supposons maintenant que l’on fasse décroître de plus en plus l’intensité de la lumière : d’après toutes les expériences exécutées jusqu’ici, l’image des franges reste tout à fait invariable, l’intensité de leur éclairement, se bornant à devenir moindre. Dans l’autre cas, au contraire, la vitesse des électrons restera identique, seule la fréquence du bombardement sera moins grande. Voyons maintenant comment la théorie rend compte des deux faits. Le premier s’explique parfaitement au point de vue de la physique classique. En tout point de la paroi blanche qui est éclairé à la fois par les deux sources, les rayons lumineux se renforcent ou s’affaiblissent l’un l’autre, suivant la différence de marche existant entre les ondes lumineuses. Le second fait s’explique tout aussi facilement par la théorie des quanta. D’après cette théorie, l’énergie rayonnante ne frappe pas la surface du métal photo-sensible en un flux continu : cette énergie discontinue se présente sous la forme d’un nombre plus ou moins grand de quanta égaux et indivisibles et tout quantum incident provoque l’émission d’un électron. Par contre, tous les efforts tentés, soit pour expliquer les franges d’interférence par la théorie des quanta, soit pour ramener l’effet photo-électrique à la théorie classique, ont complètement échoué. En effet, si l’énergie rayonnante de la source lumineuse se compose de quanta indivisibles, un de ces quanta devra passer par l’un ou par l’autre des deux trous percés dans l’écran et, avec un éclairement suffisamment faible, il sera impossible que les deux rayons atteignent simultanément le même point de la paroi, il n’y aura donc pas d’interférence. Effectivement celles-ci cessent complètement si l’on intercepte un des deux rayons lumineux.

D’autre part, si l’énergie émise par une source lumineuse ponctuelle se disperse d’une façon continue dans toutes les directions et dans un espace de plus en plus grand, sa densité ira forcément en diminuant de plus en plus et on ne voit pas comment un éclairement très faible peut provoquer une émission d’électrons ayant la même vitesse que dans le cas d’un éclairement très intense. Naturellement, les tentatives les plus diverses ont été faites pour surmonter cette difficulté. La première idée qui vient à l’esprit est de supposer que l’énergie des électrons projetés par le métal ne provient aucunement du rayonnement incident, mais de l’intérieur du métal, de telle sorte que le rayonnement n’a qu’une action de relai analogue à celle d’une étincelle qui fait détonner un tonneau de poudre. Malheureusement, on n’a pas réussi à déterminer quelle est la source d’énergie qui agit, ni même à en trouver une, simplement plausible. D’après une autre hypothèse, l’énergie cinétique des électrons provient du rayonnement incident ; mais cette énergie ne peut produire son effet que si l’éclairement à duré assez longtemps pour accumuler l’énergie nécessaire à la projection de l’électron avec une vitesse déterminée. Ce temps devrait donc varier de quelques minutes à plusieurs heures ; en fait, on trouve que l’émission de l’électron a lieu parfois beaucoup plus tôt.

On mesurera aisément la grandeur des difficultés à surmonter, si je dis que des voix très autorisées ont proposé récemment de sacrifier le principe de la conservation de l’énergie, tentative que l’on peut bien qualifier de désespérée et qui s’est d’ailleurs révélée tout à fait inopérante, comme cela résulte d’expériences faites spécialement en relation avec elle.

Tous les essais faits dans le but d’expliquer l’émission électronique par la physique classique ont donc échoué alors que l’hypothèse des quanta y réussit parfaitement ; mais ce n’est pas là son seul triomphe. Il existe beaucoup d’autres lois relatives à une action mutuelle de la matière et du rayonnement qui deviennent très faciles à expliquer moyennant l’hypothèse de quanta qui se comportent comme de minuscules systèmes clos indépendants les uns des autres, comme de véritables atomes de substance dans leurs chocs avec la matière.

Comme il faut absolument adopter un point de vue ou l’autre, tout le problème revient à savoir si l’énergie rayonnée par la source se divise ultérieurement en deux parts, de telle façon qu’une partie passe par l’un des trous et l’autre par le second trou, ou bien si cette énergie formée de quantums indivisibles passe alternativement par un trou ou par l’autre. Cette question est inévitable, toute théorie quantique et même toute théorie, en général, doit prendre position vis-à-vis d’elle. Malheureusement aucun physicien n’a pu, jusqu’ici, y répondre d’une façon satisfaisante.

Cependant, convient-il de parler de l’énergie rayonnante comme de quelque chose de réel, étant donné que toutes les mesures d’énergie se rapportent toujours à des phénomènes ayant lieu dans des corps matériels ? On ne peut guère en douter si on veut bien ne pas oublier que, pour maintenir le principe de la conservation de l’énergie (dont la validité a trouvé une confirmation supplémentaire dans les expériences récentes), il est nécessaire d’attribuer à tout champ où il y a un rayonnement une certaine quantité d’énergie bien déterminée et calculable avec plus ou moins d’exactitude. Cette énergie diminue s’il y a absorption et elle augmente s’il y a émission. La seule question qui se pose est de savoir comment cette énergie se comporte. Dès lors, il devient indubitable que pour échapper au terrible dilemme dont nous venons de parler, il faut bien se résoudre à apporter un certain assouplissement et une certaine généralisation aux tous premiers postulats de la physique, à ceux dont nous sommes habitués à faire le point de départ de tout : que nous tenons, de ce fait, comme intangibles. C’est là une nécessité inéluctable, malgré ce qu’elle a de peu satisfaisant, eu égard à notre besoin de connaissance.

Il y aurait bien un moyen de tout sauver, ce serait, sans aucun doute, de se débarrasser de l’hypothèse vulgaire selon laquelle l’énergie rayonnante est localisée de quelque façon, localisation en vertu de laquelle il y aurait, à un instant donné, dans une portion déterminée du champ électromagnétique, une quantité également déterminée d’énergie. Si on élimine cette hypothèse, il n’y a plus de problème, tout simplement parce que la question de savoir si un quantum lumineux a passé par un trou ou par l’autre n’a plus de sens physique. Toutefois, à mon avis, cette manière de voir comporte, du moins pour le moment, l’abandon de trop de choses. Nous savons, en effet, que prise en bloc l’énergie rayonnante a une valeur bien déterminée et calculable ; de plus le champ électromagnétique vectoriel qui résulte d’un rayon peut être déterminé dans toutes ses particularités spatiales et temporelles, au moyen de l’électrodynamique classique et cela d’une façon qui concorde dans les moindres détails avec les faits, enfin l’énergie résulte du champ et disparaît avec lui. C’est pourquoi je vois difficilement comment on pourrait élucider la question suivante : étant donné telle portion de l’espace considérée à part, comment l’énergie y sera-t-elle déterminée par les caractéristiques du champ dans cette même portion ?

Cependant, si nous nous résolvons à tourner autant que possible la difficulté, la première idée qui vient à l’esprit pour échapper au dilemme est, tout en conservant des lois qui mettent en relation l’onde électromagnétique et l’énergie qu’elle transporte, de ne plus concevoir ces lois comme aussi rigides et aussi simples que dans la théorie classique. D’après cette dernière, à toute portion, si petite soit-elle, de l’onde électromagnétique, correspond une valeur de l’énergie proportionnelle à sa grandeur et se propageant avec elle. Si maintenant nous atténuons la rigueur de ce lien d’interdépendance, c’est-à-dire si nous admettons que l’énergie de l’onde ne lui est pas liée d’une façon aussi directe jusque dans ses parties les plus infimes, il deviendra possible que l’onde émise par une source se subdivise indéfiniment, tandis que l’énergie de cette même onde reste concentrée en certains points déterminés comme le veut la théorie des quanta. La première de ces circonstances permet d’expliquer les phénomènes d’interférences, car l’onde, même la plus faible, se partagera entre les deux trous de l’écran ; la seconde circonstance permet d’expliquer l’effet photoélectrique, car l’onde ne projette son énergie sur les électrons qu’en quanta discrets.

Comment imaginer une certaine portion d’une onde lumineuse sans l’énergie correspondante ? Je n’ignore pas que c’est assez difficile. Mais l’est-ce davantage que de se représenter une partie d’un corps sans la densité de ce même corps ? Or, nous sommes contraints de faire une telle supposition, notamment en raison de ce fait que la matière perd ses qualités ordinaires quand on y pousse de plus en plus loin la subdivision. Sa masse cesse d’être proportionnelle au volume qu’elle occupe, car elle se résout en un certain nombre de molécules discrètes. Il pourrait en être tout à fait de même de l’énergie électromagnétique et de la quantité de mouvement qui y est associée.

Jusqu’ici, on avait coutume de chercher les lois élémentaires de l’électrodynamique dans le domaine de l’infiniment petit. On partageait tout le champ en parties infiniment petites selon l’espace et selon le temps. Les lois qui exprimaient le comportement général de ce champ avaient donc la forme d’équations différentielles. Actuellement, semble-t-il, cette manière de procéder doit être modifiée de fond en comble. Il est, en effet, avéré que les lois à forme simple obtenues de cette manière cessent d’être valables à partir d’un certain degré de subdivision, car pour les phénomènes intéressant des domaines plus petits, il se produit une certaine complication. Les changements qui interviennent alors nous contraignent à introduire la notion d’une certaine atomisation des grandeurs d’action spatio-temporelles, à émettre par conséquent l’hypothèse d’atomes d’action.

L’élaboration toute récente de la mécanique des quanta par les physiciens de l’école de Gottingue, Heisenberg, Born et Jordan est, en ce sens, un progrès dont il est permis d’espérer beaucoup. La nouvelle mécanique a déjà de beaux succès à son actif. Cependant il appartient à l’avenir de montrer dans quelle mesure les idées nouvelles permettront d’approcher davantage de la solution de notre problème.

Les plus belles théories mathématiques ne sont, en effet, que spéculations en l’air, tant qu’elles n’ont point trouvé un point d’appui solide dans les constatations de l’expérience. L’art du physicien expérimentateur, qui a déjà levé tant de doutes dans les questions les plus délicates, apportera aussi, il faut l’espérer, sa lumière dans ce canton si obscur de la science. Quand cela aura eu lieu, une partie de l’édifice de la physique classique aura été ruinée de fond en comble, sous les coups de la théorie des quanta et il sera remplacé par une construction plus parfaite et plus solide.

Ainsi donc, la physique, comme nous venons de le voir, considérée par la génération précédente comme une des plus vieilles et des plus solidement assises parmi les connaissances humaines, est entrée dans une période d’agitation révolutionnaire qui promet d’être une des plus intéressantes de son histoire. Quand on aura surmonté les causes du trouble actuel, on s’apercevra qu’il aura, non seulement contribué à la découverte de phénomènes nouveaux, mais encore que, grâce à lui, des pistes toutes nouvelles auront indubitablement été ouvertes pour l’exploration des mystères de la théorie de la connaissance. Il se peut même que, dans ce domaine, nous devions nous attendre à bien des surprises et nous pourrions voir certaines idées, aujourd’hui vieillies et tombées dans l’oubli, retrouver une importance nouvelle. Pour cette raison, il serait souhaitable que les idées et les intuitions de nos grands philosophes fussent étudiées avec attention.

Les temps où la philosophie et les sciences positives se considéraient comme étrangères l’une à l’autre et se regardaient mutuellement avec méfiance doivent être considérés comme révolus. D’une part, en effet, les philosophes se sont bien rendus compte qu’il ne leur appartient pas de tracer leur ligne de conduite aux savants, soit pour leur indiquer les buts qu’ils doivent poursuivre, soit pour leur proposer les méthodes dont ils doivent user ; et, d’autre part, les savants ont parfaitement compris que le point de départ de leurs recherches ne réside pas seulement dans les perceptions sensibles et que, même aux sciences positives, une certaine dose de métaphysique est indispensable. Il est une très vieille vérité que la physique moderne se charge de mettre en une singulière évidence, c’est qu’il y a des réalités pleinement indépendantes de nos sensations et qu’il y a des problèmes et des sujets de controverses, où ces réalités valent davantage que les plus riches trésors tirés de l’univers tel que nos sens l’appréhendent.