Aller au contenu

La physique depuis vingt ans/La Physique du discontinu

La bibliothèque libre.



CHAPITRE IV
LA PHYSIQUE DU DISCONTINU[1]

Le changement profond qui s’est produit récemment en Physique est caractérisé surtout par la pénétration, dans tous les domaines de notre science, de la notion fondamentale de discontinuité. Nous devons aujourd’hui fonder notre conception du monde et notre prévision des phénomènes sur l’existence des molécules, des atomes et des électrons. Il semble bien aussi nécessaire d’admettre que les moments magnétiques sont tous des multiples entiers d’un élément commun, le magnéton, et que la matière ne peut émettre de rayonnement électromagnétique que de manière discontinue, par quanta d’énergie de grandeur proportionnelle à la fréquence.

Nous ne connaissons encore que très imparfaitement les lois exactes, individuelles, qui régissent tous ces éléments ainsi que leurs relations les uns avec les autres. Il est probable même que la plupart de ces lois ne pourront pas s’exprimer dans le langage du calcul différentiel et intégral, créé pour traduire analytiquement la notion de continuité.

Cet admirable instrument ne convient qu’à l’étude des systèmes accessibles à nos sens et qui sont en général composés d’un nombre énorme d’éléments. Les grandeurs qu’atteignent nos moyens de mesure intéressent d’ordinaire tant d’éléments à la fois par somme ou par moyenne des grandeurs individuelles, que nous pouvons, sans erreur sensibles, les traiter comme continues.

Mais les propriétés de pareils ensembles sont nécessairement déterminées par les lois élémentaire sous-jacentes et nous ne pouvons espérer comprendre l’aspect superficiel des choses qu’à condition de le raccorder avec l’aspect profond que l’expérience vient de nous révéler, C’est la tâche qui s’impose actuellement à nous établir la liaison entre le fond et la surface, entre les propriétés du grain et celles de l’agrégat, pour expliquer les faits d’ensemble quand les lois élémentaires sont connues ou plus souvent encore pour essayer d’atteindre ces dernières à partir des échos lointains qui seuls nous sont perceptibles. Nous ne pouvons éluder cette nécessité : l’existence des éléments est certaine, un monde nouveau nous est révélé dont les lois dominent toute la Physique. Nous devons tenter de remonter jusqu’à elles et pouvons espérer les trouver plus simples que leurs conséquences lointaines, que les résultats moyens ou statistiques auxquels nous sommes habitués.

Il arrive souvent aussi que la forme particulière des lois individuelles s’élimine, disparaît, quand on passe aux propriétés de l’ensemble dont certaines résultent uniquement du très grand nombre des éléments présents, ont le caractère de lois purement statistiques. Il semble bien, par exemple, que le principe de Carnot, la loi de destruction spontanée des substances radioactives, la loi d’action de masse et bien d’autres appartiennent à cette catégorie et soient uniquement des lois de grands nombres. Nul ne contestera que dans ce cas nous atteignons d’emblée l’explication complète de ces lois, la compréhension profonde de leur signification. Bien plus, nous prévoyons par là qu’elles doivent, comme toutes les lois de grands nombres, donner lieu à des écarts, à des fluctuations d’autant plus importantes qu’on les applique à des systèmes plus simples, comprenant un moindre nombre d’éléments. Vous savez tous que l’observation de ces écarts, dans des directions très variées, est venue apporter des arguments décisifs en faveur de l’existence des éléments discontinus, ainsi qu’une méthode générale et précise pour atteindre le nombre et la grandeur de ces éléments.

Pour constituer cette Physique du discontinu qui s’impose aujourd’hui, nous devons nécessairement faire usage de raisonnements statistiques, nous servir constamment du calcul des probabilités qui est le seul lien possible entre le monde des atomes et nous, entre les lois élémentaires et nos observations.

L’introduction du calcul des probabilités en Physique fut réalisée pour la première fois de manière explicite par Maxwell à propos de la théorie cinétique des gaz. Comme on l’imagine aisément, l’adaptation à un domaine nouveau d’un mode de raisonnement souvent fort délicat ne fut pas immédiate ; il reste même encore beaucoup à faire dans ce sens. Les premiers raisonnements de Maxwell manquaient de rigueur et soulevèrent des objections qui, autant que la difficulté des calculs, empêchèrent la majorité des physiciens d’accorder à la théorie cinétique l’attention qu’elle méritait et de reconnaître la beauté des résultats obtenus. Ce fut Boltzmann qui compléta l’œuvre de Maxwell, et vit pleinement l’importance que devaient prendre en Physique moléculaire les considérations de probabilités. En même temps que Gibbs et avec plus de précision, je crois, il réussit à fonder une mécanique statistique en montrant comment il faut définir la probabilité, pour un système dynamique, de se trouver dans un état donné compatible avec les conditions qui lui sont imposées. Dans toutes ces questions, la difficulté principale est, comme nous le verrons, de donner une définition correcte et claire de la probabilité. Le reste est surtout affaire de calcul. Ce pas décisif franchi, Boltzmann put atteindre l’interprétation statistique du principe de Carnot et le sens caché de la notion fondamentale d’entropie. Grâce à l’impulsion donnée par Boltzmann et aux efforts de ses continuateurs les raisonnements statistiques ont pénétré maintenant dans tous les domaines de la Physique et y joueront bientôt, pour les raisons que j’ai dites, un rôle prépondérant.

Malgré l’extrême diversité de leurs applications, les raisonnements sont en général très simples et je voudrais essayer de montrer sur des exemples que la plupart d’entre eux se ramènent à deux types principaux bien connus des mathématiciens et qui se sont introduits tout naturellement dès la création du calcul des probabilités.

Dans un premier groupe de questions, il s’agit de chercher la distribution ou la configuration la plus probable que peut prendre un système de particules ou d’éléments soumis à des conditions données. C’est essentiellement le problème des états d’équilibre et des régimes permanents (équations des fluides, statique des gaz, théories du magnétisme et des phénomènes électro et magnéto-optiques, théorie du rayonnement et des chaleurs spécifiques, interprétation statistique des lois de la Thermodynamique). Je montrerai que certaines questions comme celles de l’équation d’état des fluides ou de la pression osmotique n’attendent pour être complètement élucidées que la solution d’un problème bien défini de probabilités géométriques et de distribution probable.

Dans un second groupe de questions, on cherche à prévoir l’importance des fluctuations spontanées du système autour de cette distribution ou de cette configuration qui est la plus probable mais non la seule possible et ne s’observe qu’en moyenne. Ce frémissement universel autour des configurations rigides prévues par la Thermodynamique est intimement lié à la discontinuité de structure, au fait que nos systèmes sont composés d’un nombre fini, quoique très grand, d’éléments et son observation a pris une importance particulière parce qu’elle nous apporte une méthode générale pour atteindre ces éléments et les soumettre à la mesure.

Pour mieux faire comprendre comment les raisonnements, toujours les mêmes, du calcul des probabilités, peuvent s’appliquer à des problèmes de Physique si nombreux et si variés, je commencerai par examiner le mécanisme de ces raisonnements sur des cas particulièrement simples où leur emploi est familier à tous, sur des exemples tirés des jeux de hasard tels que celui de pile ou face ou de la roulette. Il paraîtra moins singulier qu’on puisse, pour ainsi dire, jouer à pile ou face la solution des questions de Physique, quand on aura bien vu que toute théorie de probabilité, si simple soit-/elle, a en réalité la même structure que toutes nos théories et qu’on fait déjà de la Physique en étudiant les problèmes posés par les jeux de hasard.

On a dit, par boutade, que tout le monde croit aux lois du hasard, les mathématiciens parce qu’ils y voient un résultat de physique et les physiciens parce qu’ils les prennent pour des théorèmes de mathématiques. En réalité ces lois sont déduites, par des raisonnements parfaitement rigoureux, de postulats très simples introduits à priori dans la définition des probabilités et affirmant en général l’équivalence de diverses circonstances possibles, l’absence de cause qui favorise les unes à l’exception des autres, l’égale probabilité que la roulette s’arrête sur la rouge ou la noire et que la pièce lancée retombe pile ou face. Ces postulats jouent ici exactement le même rôle que nos hypothèses, placées à la base des théories physiques, et dont nous essayons, par une analyse aussi rigoureuse que possible, de déduire des conséquences dont la comparaison avec l’expérience nous permettra de savoir si ces hypothèses sont justifiées ou non, si nous pouvons continuer à nous en servir pour édifier notre représentation du monde. De même la comparaison avec les faits des lois de grands nombres liées rigoureusement à nos postulats nous permettra de savoir si ceux-ci sont exacts, si la roulette n’est pas truquée ou la pièce plombée d’un côté. Tout raisonnement de probabilités est destiné à permettre la confrontation des postulats avec les faits, comme nos théories physiques permettent la confrontation des hypothèses avec l’expérience. Dans un cas comme dans l’autre, la rigueur n’existe qu’entre les postulats ou hypothèses et les lois qui s’en déduisent. L’accord des lois prévues avec les faits ne se produit pas nécessairement et la comparaison seule nous permet de décider dans quelle mesure nos points de départ peuvent être conservés. On fait de la Physique en déduisant d’une expérience de pile ou face dans laquelle les coups pile prédominent de manière exagérée, que la pièce est dissymétrique et doit avoir été plombée du côté face. Il vaudra mieux même, comme en Physique, recommencer plusieurs fois l’expérience si l’on veut pouvoir remonter des faits aux causes avec quelque sécurité. Et tout se termine, en Physique comme au jeu, par une question de probabilité des causes du genre de celle que posait Henri Poincaré; je joue à l’écarté avec un monsieur que je ne connais pas, et il retourne trois fois de suite le roi ; quelle est la probabilité pour que ce soit un tricheur ? Le désaccord entre l’expérience et les conséquences déduites par le calcul des probabilités du postulat que le jeu est honnête indiquera dans quelle mesure ce postulat est légitime, et la certitude viendra si l’expérience donne toujours le même résultat. Notre certitude en Physique est tout à fait de même nature : nous avons confiance dans nos représentations et dans nos hypothèses en raison de l’accord constant de leurs conséquences mathématiques avec l’expérience. Dans les raisonnements de probabilités, on fait des mathématiques entre les postulats et les lois du hasard et de la Physique quand on compare celles-ci aux faits pour en déduire des conclusions relatives aux postulats.

Outre la plus grande clarté tenant à ce que les postulats de définition des probabilités y sont intuitifs et simples, nous trouverons un autre avantage à étudier d’abord les questions posées par les jeux de hasard. Elles font intervenir des considérations de probabilités discontinues, où les divers cas possibles sont en nombre limité sans qu’on puisse passer de l’un à l’autre de manière continue. Par exemple, sur un nombre total donné de coups joués à la roulette, le nombre des fois qu’elle tombe dans une case noire ne peut varier que de manière discontinue puisqu’il est nécessairement entier. Il semble au contraire, au premier abord, que la Physique nous pose uniquement des problèmes de probabilités continues, où le nombre des cas possibles est infini et forme une série continue. Il en est ainsi, par exemple, de la position dans un intervalle de temps donné d’un événement tel que la destruction spontanée d’un atome radioactif : les instants où l’explosion peut se produire sont en nombre infini ou plutôt transfini puisque leur ensemble est continu. Il en est de même, au moins en apparence, pour l’ensemble des configurations que peut prendre un système dynamique. Les lois relatives aux probabilités continues se présenteront à nous comme les formes limites vers lesquelles tendent les résultats des problèmes discontinus quand on y suppose que le nombre des cas possibles augmente indéfiniment.

On pourrait obtenir de manière plus simple, et par des raisonnements directs, les formules applicables aux problèmes continus ; mais il nous sera utile d’avoir à notre disposition les formes plus générales relatives au cas de la discontinuité entre les cas possibles. En effet, un des résultats les plus surprenants, et les plus énigmatiques d’ailleurs, que la comparaison avec l’expérience nous ait révélés, c’est que, dans un grand nombre de problèmes tels que ceux du rayonnement thermique d’équilibre ou des chaleurs spécifiques, les lois expérimentales s’accordent avec l’hypothèse de la probabilité discontinue et pas du tout avec les conséquences déduites en toute rigueur du postulat de continuité. C’est là un aspect nouveau et singulier de la Physique du discontinu, celui des quanta, d’après lequel non seulement nous devons pour comprendre les faits appliquer des raisonnements de probabilités aux éléments multiples et discrets dont la matière est composée, mais encore ces raisonnements eux-mêmes doivent tenir compte de discontinuités d’un autre ordre et procéder comme si les configurations que ces systèmes d’éléments peuvent prendre ne variaient elles aussi que de manière discontinue.

PREMIER PROBLÈME

La probabilité d’une distribution. – Une des premières questions qui se posent à propos d’un jeu comme la roulette est celui de la distribution des coups où sort une certaine couleur, la noire par exemple, entre des intervalles successifs pendant chacun desquels un même nombre total de coups est joué. Nous prendrons le problème tout d’abord sous la forme suivante : étant donné que, dans l’ensemble de intervalles de ce genre, la noire est sortie au total fois, quelle est la probabilité pour que, dans un intervalle particulier, elle soit sortie un nombre donné de fois, Pour trouver cette probabilité, définie comme à l’ordinaire par le rapport du nombre des cas favorables au nombre total des cas possibles, il faut calculer chacun de ces deux nombres à partir des postulats. Nous remarquerons que chaque coup de roulette possède une individualité caractérisée par les circonstances, variables d’un coup à l’autre, qui l’ont accompagné et ont déterminé la couleur sortie. Nous désignerons par les symboles en nombre égal à les groupes de circonstances qui ont déterminé les coups pour lesquels la noire est sortie. Nous ignorons le détail de ces circonstances sans quoi nous aurions pu dans chaque cas prévoir ce qui allait se passer, mais nous introduirons comme postulat fondamental que chacun de ces groupes de circonstances peut se produire indifféremment dans l’un quelconque des intervalles, et nous admettons aussi, naturellement, comme second postulat, que ces groupes sont complètement indépendants les uns des autres, que les coups de roulette se succèdent sans exercer aucune influence mutuelle, que l’apparition d’un groupe particulier de circonstances dans un intervalle déterminé n’a aucune répercussion sur la position des autres groupes parmi les intervalles. Chacun de ceux-ci, qui comporte toujours un même nombre total de coups, est considéré comme équivalent aux autres au point de vue de la possibilité de production à son intérieur d’un groupe déterminé de circonstances, par exemple. En langage ordinaire, ces groupes sont supposés distribués au hasard entre les intervalles. Toutes les distributions possibles de ces groupes entre les intervalles sont considérées comme équivalentes, comme également probables par définition. Le nombre de ces distributions ou nombre des cas possibles est facile à évaluer. Si le groupe se produit dans un intervalle déterminé, nous affecterons d’un indice égal au rang de cet intervalle, cet indice pouvant être indifféremment jusqu’à

Le nombre des manières différentes de distribuer les indices entre les groupes, ou les groupes entre les intervalles est évidemment C’est là le nombre des cas possibles.

Si nous voulons la probabilité pour que, sur les coups se produisent dans le premier intervalle, nous devons chercher le nombre des distributions dans lesquelles des symboles porteront l’indice les autres indices étant différents de et d’ailleurs quelconques. Ceci nous donnera le nombre des cas favorables.

Les symboles portant l’indice dans une distribution formeront une des combinaisons à des symboles différents. À cette combinaison particulière peuvent être associées toutes les distributions des indices restants entre les autres symboles ; elles sont en nombre et comme il y a combinaisons différentes, cela fait au total :

pour le nombre des cas favorables ; d’où pour la probabilité cherchée :

(1)

On vérifierait aisément que, comme cela doit être, la somme des probabilités obtenues pour les diverses valeurs possibles de depuis zéro jusqu’à est bien égale à puisque la somme des n’est autre chose que le développement suivant la formule du binome de

c’est à dire identiquement l’unité.

On vérifierait aisément aussi que est maximum pour une valeur de égale au plus grand entier contenu dans c’est à dire précisément égale au nombre moyen de coups par intervalle si ce nombre est entier. Ce résultat pouvait être aisément prévu puisque la distribution la plus probable des coups entre intervalles équivalents par définition est évidemment la distribution uniforme à raison de par intervalle.

Ce qui intéresse le joueur, ce sont précisément les variations autour de cette moyenne, variations dont la formule (1) nous donne la probabilité. C’est de ces variations que dépend son bénéfice ou sa perte.

La formule peut se mettre sous une forme plus simple quand on suppose que la moyenne correspond à un nombre très grand d’intervalles. On trouve aisément comme forme limite de (1) pour très grand :

(2)

Les probabilités correspondantes aux diverses valeurs de s’obtiennent en multipliant par les termes successifs du développement en série de La somme est bien encore égale à et le maximum a lieu pour si est entier ou sinon pour le plus grand entier que contient Au jeu de roulette, si la rouge et la noire sont également probables, ce qui est un postulat indépendant de ceux que nous avons faits, la moyenne des noires portant sur un grand nombre d’intervalles est évidemment égale à la moitié du nombre des coups joués dans chacun de ces intervalles.

La loi des écarts. – Si nous introduisons dans la formule, au lieu du nombre l’écart à partir de la moyenne, et si nous supposons assez grand pour qu’on puisse remplacer par la formule bien connue de Stirling, la probabilité d’un écart prend la forme

(3)

qui rappelle exactement la loi des erreurs de Gauss. Si au lieu de l’écart absolu nous introduisons l’écart relatif il vient :

(4)

Cette dernière forme met en évidence un fait fondamental sur lequel je reviendrai tout à l’heure à propos de la théorie des fluctuations : c’est que la probabilité d’un écart relatif donné est d’autant plus faible que est plus grand, qu’il y a en moyenne un plus grand nombre de coups dans chaque intervalle. D’où la possibilité de déduire ce nombre de coups de l’observation des écarts.

Nous allons retrouver ce même fait sous une autre forme en calculant sur la formule générale (1) la valeur probable du carré moyen de l’écart relatif en posant toujours :

La probabilité de l’écart étant il en résulte pour la valeur probable du carré moyen :

Un calcul simple donne, si l’on remplace par la valeur (1) :

(5)

Si l’on introduit, au lieu du carré moyen, la somme des carrés des écarts dans les intervalles à partir de la moyenne, la valeur probable de cette somme est et satisfait à la relation

(6)

On voit que les écarts relatifs, les fluctuations de autour de sa moyenne, doivent diminuer d’importance à mesure que cette valeur moyenne augmente.

Ainsi que je l’ai dit tout à l’heure, la véritable signification de ces résultats est la suivante : ils représentent l’aboutissement d’une théorie basée sur des hypothèses et nous permettront, par comparaison avec l’expérience, de savoir si ces hypothèses peuvent être conservées. Le joueur qui voudra s’assurer de la sincérité du jeu se servira d’eux comme nous nous servons de nos théories physiques pour contrôler, par comparaison de leurs résultats avec l’expérience, la légitimité de nos représentations. La constance de l’accord nous donnera la seule certitude que nous puissions atteindre, au jeu comme en Physique, relativement aux causes.

Autre méthode. – Nous pouvons retrouver les formules fondamentales (5) et (6) en nous plaçant à un autre point de vue et en cherchant, non plus la probabilité pour que, sur les coups, il y ait un nombre déterminé dans l’un des intervalles équivalents, mais la probabilité pour que les coups se distribuent d’une manière déterminée, entre les intervalles, pour qu’il y ait en mėme temps coups dans le premier intervalle, dans le second, etc. Nous ne pouvons appliquer ici le théorème des probabilités composées et nous servir de la formule (1) en calculant et multipliant ces probabilités. En effet, les ne sont pas indépendants puisque leur somme doit être égale à Nous pouvons cependant utiliser la formule (1) en procédant de la manière suivante : la probabilité pour qu’il y ait coups dans le premier intervalle est bien :

Les autres intervalles ne peuvent contenir que coups, et la probabilité pour que le premier d’entre eux contienne est de la même manière :

et ainsi de suite. Si l’on fait maintenant, comme il est correct, le produit de toutes les probabilités composantes, on obtient pour la probabilité cherchée :

Autrement dit, puisque le nombre total des distributions possibles est le nombre de manières dont on peut obtenir dans les différents intervalles les nombres de coups assignés est :

(7)

Nous aurions pu obtenir ce résultat plus directement en cherchant de combien de manières il est possible de distribuer entre les symboles de groupes des nombres déterminés d’indices de chaque sorte, indices indices indices égaux à Chaque distribution correspond à un des ordres dans lesquels on peut ranger ces indices qui ne sont pas tous différents, à une des permutations de ces indices. Le nombre cherché est celui des permutations complètes de objets dont d’une même espèce, d’une autre, etc., etc. Il est bien donné par la formule (7). Ce nombre de manières dont on peut réaliser une distribution donnée des symboles entre intervalles équivalents, au point de vue de la présence possible de chacun d’eux, est proportionnel avec le coefficient à la probabilité de cette distribution. Nous pourrons souvent prendre comme mesure de cette probabilité.

On voit aisément que, pour une valeur donnée de est maximum quand les sont tous égaux. Nous voyons ainsi d’une autre manière que la distribution la plus probable est celle qui se fait également entre les divers intervalles, du moins lorsque aucune condition supplémentaire n’est imposée qui pourrait venir exclure certaines distributions. Nous allons traiter dans un instant un problème où s’introduiront de semblables exclusions.

La formule (7) donne également le moyen de calculer les écarts à partir de la distribution uniforme de probabilité maximum. Soit en effet la valeur moyenne du nombre des coups par intervalle, et soient les écarts relatifs à partir de cette valeur dans une distribution quelconque :

Les sont nuls dans la distribution la plus probable et sont dans tous les cas, puisque le nombre total est donné, soumis à la condition En prenant le logarithme des deux membres de (7), remplaçant chaque factorielle par la formule asymptotique de Stirling,

et négligeant le logarithme de chaque grand nombre tel que par rapport à celui-ci, on obtient, étant une constante qui dépend seulement de

(8)

Remplaçant par et développant suivant les puissances de il vient, si l’on tient compte de la condition et si on limite le développement aux termes du second ordre :

ou

étant la probabilité maximum, celle qui correspond à la distribution uniforme.

Ayant ainsi la probabilité qui correspond à chaque système de valeurs des on calcule aisément la valeur moyenne d’une expression quelconque telle que par :

En remplaçant chacune des deux sommes par une intégrale et en tenant compte de la condition on retrouve aisément la formule (6) :

en moyenne.

Bien que ce second mode de raisonnement soit moins direct que le premier et ne s’applique qu’au cas des grands nombres, il était important de le rappeler parce qu’il envisage les choses sous un nouvel aspect et prépare la voie pour la solution des autres problèmes dont nous aurons à nous occuper.

Application. – On peut faire, au jeu comme en Physique, deux sortes d’applications de la relation (6). Tout d’abord, comme je l’ai déjà dit, on peut l’utiliser pour vérifier, par sa concordance avec les faits, si les postulats d’indépendance et d’indifférence placés à la base de nos raisonnements sont légitimes. Le joueur qui voudra se rendre compte de la sincérité du jeu observera les nombres de coups sortis dans intervalles équivalents, calculera la moyenne et les écarts relatifs individuels et verra dans quelle mesure la relation (6) est vérifiée. Cette vérification doit être d’autant plus exacte que le nombre d’intervalles considérés est plus grand.

On peut également s’en servir pour déterminer le nombre et par conséquent quand on connaît seulement les écarts relatifs Par exemple on se donne, pour chacun de jours consécutifs équivalents, la somme totale gagnée par un joueur sans en retrancher les pertes. Quel est le nombre des coups joués chaque jour et quelle est la mise ? La connaissance des gains quotidiens entraîne celle des écarts relatifs et celle-ci suffit à connaître le nombre des coups joués à l’aide de la formule (6). Celle-ci traduit quantitativement le fait que les écarts relatifs entre les gains quotidiens sont d’autant plus faibles que le nombre des coups joués chaque jour est plus grand.

Cette question est tout à fait comparable à celles qu’on se pose en Physique quand on cherche à déduire le nombre des molécules et les grandeurs moléculaires de l’observation des écarts relatifs sur les grandeurs mesurables, de la mesure des fluctuations ou de leurs conséquences.

Fluctuations radioactives et fluctuations de concentration. – Donnons d’abord quelques exemples de questions de Physique où les résultats qui précèdent trouvent une application immédiate.

Prenons une substance radioactive de vie assez longue pour que nous puissions considérer son activité comme constante pendant toute la durée de nos expériences et comptons, parmi les particules qu’elle émet, celles qui tombent sur un écran ou traversent un appareil de numération pendant des intervalles de temps successifs égaux entre eux. Nos postulats fondamentaux, parallèles aux précédents, seront que les circonstances, tant intérieures qu’extérieures à l’atome radioactif, qui permettent l’arrivée d’une particule peuvent se produire indifféremment à un instant quelconque, dans l’un quelconque de nos intervalles de temps égaux et de plus qu’il y a indépendance complète entre les groupes de circonstances qui correspondent à deux particules différentes, que les circonstances déterminant l’explosion d’un atome dans des conditions favorables à l’arrivée d’une particule n’influent en rien sur celles qui détermineront ou accompagneront l’explosion d’un autre atome. La légitimation de ces postulats, par vérification de leurs conséquences, a une très grosse importance pour la théorie des phénomènes radioactifs. Le premier, pour ce qui concerne les circonstances intérieures à l’atome qui déterminent son explosion, signifie que ces circonstances peuvent se produire indifféremment à un instant ou à un autre, que les chances pour l’atome de continuer à vivre sont indépendantes du temps pendant lequel il a déjà vécu ; en d’autres termes qu’il ne vieillit pas, et qu’il meurt seulement par suite d’accidents dus à un hasard interne. Je dis interne parce qu’il semble bien qu’aucune circonstance externe, du moins parmi celles que nous pouvons modifier, n’influe sur la vitesse de transformation des substances radioactives.

Si nos postulats sont exacts et si nous recevons au total particules pendant intervalles de temps égaux, la probabilité pour qu’il arrive, particules pendant un de ces intervalles est donnée par la formule (1), les écarts à partir de la moyenne doivent satisfaire à la relation (6). Ce résultat a été vérifié de manière très exacte dans les expériences de M. Rutherford. Nous en rencontrerons plus loin un autre du même genre et de plus grande importance au point de vue de la numération des particules.

Il y a bientôt quinze ans que M. Smoluchowski a prévu de la même manière les fluctuations spontanées qui doivent se produire dans la distribution des molécules d’un gaz entre les diverses portions du volume qu’il occupe, les fluctuations de concentration. Pour que nous puissions appliquer à ce problème les résultats obtenus, il nous faut partir des postulats suivants : la présence d’une molécule particulière est également possible dans des portions égales du volume total ; ceci est intuitif et nous conduit à remplacer nos intervalles par régions d’égal volume et contenant chacune en moyenne molécules. De plus nous devons admettre que la présence d’une molécule dans une de ces régions n’influe en rien sur la présence possible d’une autre, ce qui nous oblige à négliger les actions mutuelles entre ces molécules ou le volume de chacune d’elles par rapport au volume total. Le gaz doit donc être supposé suffisamment rare. Quand le fluide est dense, les fluctuations peuvent être très différentes de ce que nous allons prévoir, ou beaucoup moindres si les molécules sont serrées au point d’occuper la plus grande partie du volume total, de façon à exercer entre elles surtout des actions répulsives, ou beaucoup plus importantes si les actions attractives l’emportent, comme c’est le cas pour les fluides au voisinage d’un état critique.

Pour un gaz peu dense, tel que l’atmosphère, les formules (1), (2) et (3) s’appliquent à la probabilité pour qu’une portion du volume contienne molécules si portions égales contiennent au total. Ici encore les fluctuations spontanées seront d’autant plus importantes que le nombre moyen de molécules sera plus faible. Nous trouverons l’application de ces résultats dans la théorie du bleu céleste.

M. Svedberg a pensé pouvoir mettre en évidence les fluctuations spontanées de concentration qui doivent se produire de la même manière dans une solution étendue en observant les fluctuations du nombre des particules a émises par une solution radioactive quand on s’arrange de manière à ne recevoir sur un écran que les particules émises par une petite fraction du volume total de la solution. Il pensait que, les hasards de distribution des atomes radioactifs dans le volume s’ajoutant aux hasards internes qui déterminent l’explosion, on devrait observer des fluctuations plus importantes qu’avec une matière radioactive solide. et a effectivement obtenu, pour le même nombre moyen de particules reçues dans chaque intervalle de temps, un carré moyen des écarts relatifs double environ de celui que prévoit la formule (5).

Le raisonnement général par lequel nous avons obtenu cette formule montre que s’il y a bien, conformément au second postulat, indépendance entre toutes les circonstances qui déterminent les arrivés sur l’écran de deux particules le résultat de M. Svedberg ne peut pas être exact. En raisonnant sur les groupes de circonstances qui permettent l’arrivée d’une particule sur l’écran comme nous l’avons fait pour les groupes de circonstances qui déterminent la sortie d’une noire à la roulette, on verra que la formule donnant l’écart relatif moyen en fonction du nombre moyen des coups reste applicable sous les deux postulats d’indifférence et d’indépendance. La superposition du hasard de distribution des atomes radioactifs dans le liquide au hasard interne qui détermine l’explosion augmente simplement la complexité des circonstances favorables, complexité dont la formule est indépendante.

Si de nouvelles expériences confirment les observations faites par M. Svedberg, cela prouvera, ou bien que l’explosion d’un atome peut influer sur celle d’un atome voisin, et ceci est en contradiction avec le fait que la radioactivité globale d’une substance s’est montrée jusqu’ici tout à fait indépendante de sa concentration, ou bien que la présence dans une région d’un atome radioactif entraîne aussi celle d’autres atomes radioactifs dans cette même région ; autrement dit que les atomes dissous vont par groupes associés, que la solution de M. Svedberg était colloïdale. De toute manière son résultat, s’il est exact, n’a rien à voir avec les fluctuations spontanées de concentration dont nous avons parlé.

Grandeurs moléculaires. – Voyons maintenant quelques exemples d’application de la formule (6) à la détermination des grandeurs moléculaires par l’intermédiaire des fluctuations auxquelles cette formule s’applique, comme celles des émissions radioactives ou de concentration dans les milieux dilués, cas où les postulats d’indifférence et d’indépendance se trouvent vérifiés. Avant qu’on sût faire les numérations de particules par la méthode des scintillations ou par l’élégant procédé de Rutherford , M. v. Schweidler avait observé que le courant d’ionisation produit par les rayons était soumis à d’importantes fluctuations. Pendant des intervalles de temps égaux entre eux, les quantités d’électricité libérées dans une chambre d’ionisation par l’électromètre sont proportionnelles aux nombres de particules émises pendant ces intervalles, de sorte que les écarts relatifs entre les nombres de particules et leur moyenne ; d’où la possibilité de calculer cette dernière moyenne à partir des écarts relatifs observés à l’électromètre en appliquant la relation (6).

De manière plus indirecte, on peut comprendre comment la diffusion de la lumière par l’atmosphère est due aux fluctuations spontanées de concentrations de l’air prévues par Smoluchowski et comment la mesure de l’éclat du ciel permet de remonter aux grandeurs moléculaires.

En raison de ces fluctuations, du frémissement continuel de l’atmosphère autour de la distribution uniforme de ses molécules en volume, l’air se comporte au point de vue optique comme un milieu trouble et diffuse la lumière solaire. De l’importance des fluctuations régie par les lois de probabilité, on peut déduire la proportion de lumière diffusée pour chaque longueur d’onde et par suite le rapport de l’éclat du ciel à celui du Soleil. On conçoit d’ailleurs que cette proportion augmente à mesure que la longueur d’onde diminue et que le ciel soit bleu ; en effet, pour une lumière de longueur d’onde donnée, la proportion d’énergie diffusée est déterminée par le degré d’hétérogénéité du milieu à l’échelle de la longueur d’onde, c’est à dire par les fluctuations relatives de concentration dans un cube ayant pour côté la longueur d’onde, et comme le nombre moyen des molécules présentes dans ce cube est proportionnel au cube de cette longueur d’onde, on conçoit que le milieu se comporte comme d’autant plus trouble et plus diffusant que la longueur d’onde est plus courte. Inversement, la comparaison expérimentale de l’éclat du ciel à celui du Soleil pour une longueur d’onde quelconque détermine l’importance relative des fluctuations, dans un cube de côté égal à cette longueur d’onde, et, par application de la formule (6), permet de remonter au nombre des molécules présentes en moyenne dans un tel volume.

Quand le milieu est dense, les actions mutuelles interviennent et changent l’importance relative des fluctuations. Pour traiter le problème dans le cas général il va nous falloir aboutir à la mécanique statistique en analysant de nouveaux problèmes de probabilités au double point de vue de la distribution la plus probable et des fluctuations spontanées autour de celle-ci.

DEUXIÈME PROBLÈME

Le problème des séries de coups. – Une des questions qui intéressent le plus les joueurs est celle de la distribution des coups d’une même couleur en séries. Nous allons voir que ce problème est étroitement lié à celui de la Mécanique statistique, aux applications les plus importantes qui aient été faites du calcul des probabilités à la Physique.

Posons-nous la question suivante : Étant donné que, sur un nombre total de coups de roulette, la noire est sortie fois et la rouge fois, quelle est la probabilité pour que les coups rouges, par exemple, soient distribués d’une manière donnée en séries, qu’il y ait coups rouges isolés, séries de deux coups consécutifs, de trois coups, et ainsi de suite.

Le nombre total des rouges étant on a évidemment :

(8)

Chaque série de rouges est située dans un des intervalles entre deux noires consécutives ou à chacune des deux extrémités de l’ensemble des coups, de sorte que, si nous désignons par et appelons nombre de séries rouges d’ordre le nombre des intervalles entre les noires où ne se trouve aucune rouge, nous devons avoir égal à d’où :

(9)

Le postulat d’indépendance entre les coups nous permet d’affirmer que chaque intervalle entre deux noires peut indifféremment renfermer une série d’ordre puisque la couleur d’un coup n’est nullement conditionnée par la couleur du coup qui l’a précédé. Il y aura donc autant de manières de réaliser la distribution donnée des rouges en séries qu’il y a de manières différentes de ranger ces séries, de distribuer entre elles indices indices indices etc., l’indice attribué à une série indiquant l’ordre auquel elle appartient. C’est, comme tout à l’heure, le nombre des permutations complètes des séries données :

(10)

La probabilité de la distribution donnée est proportionelle à cette quantité, au nombre de cas favorables, c’est à dire au nombre de manières dont on peut la réaliser, mais contrairement à ce qui se passait dans le problème précédent, les nombres ne sont pas seulement assujettis à la condition d’avoir une somme donnée égale ici à mais doivent encore satisfaire à la relation (8). C’est elle qui limite maintenant le nombre des cas possibles comme, dans le problème précédent, ce nombre était limité par la condition, absenté ici, qu’il y ait indices différents.

Un raisonnement simple montre que ce nombre total des cas possibles est égal au nombre des permutations complètes qu’on peut former avec les noires et les rouges, c’est à dire à

(11)

d’où l’on déduit aisément, en divisant (10) par (11), l’expression cherchée pour la probabilité.

La distribution la plus probable. – Dans le problème précédent, la probabilité maximum correspondait à la distribution uniforme ; à cause de la liaison imposée par la relation (8), la distribution la plus probable des séries entre les divers ordres ne sera pas uniforme. Pour l’obtenir il nous faut chercher les valeurs de satisfaisant à la fois aux relations (8) et (9) et donnant la plus grande valeur possible à l’expression (10) de

Cette question peut être résolue de manière simple quand on suppose les nombres assez grands pour que chaque factorielle puisse être remplacée par la formule de Stirling :

Prenant le logarithme de et laissant de côté des termes négligeables dans l’hypothèse où les sont grands, plus exactement en remarquant que le logarithme d’un grand nombre est négligeable devant celui-ci, on obtient :

(12)

étant une constante qui a la même valeur pour toutes les distributions dont on veut comparer les probabilités. Puisque les et par conséquent sont très grands, nous pouvons négliger l’unité dans la condition (9) et chercher le maximum de (12) sous les conditions (8) et (9).

On trouve immédiatement que ce maximum correspond à la distribution représentée par la loi

(13)

pouvant prendre les valeurs entières

On voit que la distribution la plus probable des rouges en séries correspond à des nombres de séries qui varient suivant une progression géométrique décroissante de raison à mesure que l’ordre de la série augmente. Quel que soit le nombre moyen des coups dans les séries, ce sont toujours les petites séries qui seront les plus fréquentes, mais la diminution de fréquence avec l’ordre est d’autant plus lente que ordre moyen des séries, augmente, puisque la raison tend vers l’unité quand augmente.

Si le jeu de roulette est tel que sur un grand nombre de coups il y ait autant de rouges que de noires, la raison de la progression est égale à et l’on a, en faisant

Il est donc probable que les coups rouges isolés seront deux fois plus fréquents que les séries de deux coups, celles-ci deux fois plus fréquentes que les séries de trois coups, et ainsi de suite. La vérification de ce résultat pourra servir à ceux qui jouent la série à s’assurer que le jeu est honnête et conforme aux postulats que nous avons admis. Si le jeu est combiné de manière que soit différent de si par exemple le nombre des cases rouges est différent de celui des noires, la distribution la plus probable des séries se fera avec une raison différente de

Si nous avions eu uniquement en vue la recherche de la distribution la plus probable des séries entre les diverses valeurs possibles et non celle de la probabilité d’une distribution quelconque, nécessaire pour l’étude des fluctuations autour de la plus probable, nous aurions pu aboutir beaucoup plus rapidement en raisonnant de la manière suivante :

Chaque fois qu’un nouveau coup est joué, les chances de sortie de la rouge et de la noire sont entre elles comme est à Une série étant commencée, elle se prolonge si la rouge sort et se termine si c’est la noire. Les chances qu’à une série quelconque de se prolonger sont donc à celles qu’elle a de se terminer comme est à Ceci se traduit par l’équation, valable quel que soit dans la distribution la plus probable des séries :

ou

et comme

on obtient par division la relation de récurrence :

d’où la relation (13) si l’on tient compte de (9).

Probabilités continues et probabilités discontinues. – Nous pouvons mettre encore nos résultats sous une autre forme qui va nous permettre de passer au cas limite des probabilités continues.

Supposons que les coups de roulette soient joués uniformément dans le temps ; l’intervalle de temps entre deux coups consécutifs étant constant et égal à La durée d’une série d’ordre sera et la durée totale de nos séries est donnée égale à autrement dit la durée moyenne est donnée égale à

Chaque série ne pouvant contenir qu’un nombre entier de coups, sa durée ne peut être qu’un multiple entier de Nous avons bien affaire à un problème de probabilités discontinues avec un domaine élémentaire de probabilités fini.

La relation (13) peut encore s’écrire

(14)

en posant

(15)

Ceci revient à remarquer que les points obtenus en portant en abscisses les valeurs de et en ordonnées les valeurs correspondantes de dans la distribution la plus probable se trouvent sur une courbe exponentielle dont l’équation est donnée par (14). La valeur du module est déterminée par la relation (15). Nous verrons que ce module joue dans la question actuelle le même rôle que joue la température dans les distributions les plus probables que prévoit la mécanique statistique et nous pourrions l’appeler la température de notre distribution probable des séries. Ceci va nous apparaître en examinant de plus près la relation entre ce module et la durée moyenne des séries. On peut en effet écrire la relation (15), en la résolvant par rapport à

(16)

Cette relation est représentée par la courbe I (fig. 6) qui part de l’origine avec une tangente hori-

Probabilités continues – discontinues ; Loi de Dulong et Petit ; Loi de Rayleigh, Loi de Planck
Probabilités continues – discontinues ; Loi de Dulong et Petit ; Loi de Rayleigh, Loi de Planck
zontale et monte ensuite en tendant vers l’asymptote

Cette courbe présente une analogie frappante avec celle qui représente la variation en fonction de la température de l’énergie thermique nécessaire pour porter un corps solide du zéro absolu à la température telle qu’elle résulte des recherches expérimentales de M. Nernst et de ses collaborateurs ; au lieu de l’énergie thermique totale on peut envisager aussi bien l’énergie moyenne d’une molécule en fonction de la température (courbe II, fig. 6).

Plus exacte encore quantitativement est l’identité de notre courbe avec celle qui représente la distribution de l’énergie du rayonnement noir en fonction de la longueur d’onde et de la température. On sait que l’énergie contenue dans l’unité de volume d’une cavité en équilibre thermique est représentée, d’après les lois de Boltzmann et de Wien, pour la partie comprise entre les longueurs d’onde et par

Les mesures les plus précises faites dans un intervalle considérable de longueurs d’onde ont conduit pour la fonction à la forme :

et étant des constantes.

Si nous portons en abscisses la variable et en ordonnées la fonction telle que l’expérience la fournit, nous obtenons une courbe qui, pour un choix convenable d’échelle, coïncide exactement avec la nôtre (courbe III, fig. 6).

L’analogie devient encore plus frappante quand on passe au cas limite des probabilités continues.

Si nous supposons que les coups de roulette se précipitent de plus en plus, se succèdent à des intervalles de plus en plus petits, les séries de durée observable contiendront un très grand nombre de coups et n’existeront que si est très grand par rapport à c’est à dire et par conséquent par rapport à Notre problème devient celui de la distribution la plus probable des intervalles de temps entre événements consécutifs (les coups noirs) qui se produisent au hasard, la valeur de l’intervalle moyen entre eux étant donnée.

Si dans la formule (16) nous faisons tendre vers nous obtenons

et (14) devient

(17)

étant le nombre des intervalles dont la longueur est comprise entre et

La loi exponentielle subsiste ainsi dans le cas des probabilités continues ; ce sont toujours les intervalles les plus courts qui sont les plus fréquents, mais nous avons ce caractère particulier que la durée moyenne devient égale au module et que la courbe est remplacée par la droite parallèle à l’asymptote précédente.

Or nous verrons que l’application des probabilités continues à la Thermodynamique conduit à prévoir, pour l’énergie moyenne d’une molécule dans un solide, une valeur proportionnelle à la température, conforme à la loi de Dulong et Petit, et représentée par une droite analogue à la précédente, parallèle à l’asymptote de la courbe expérimentale.

De même, l’application des probabilités continues à la théorie du rayonnement conduit à une loi, donnée par Lord Rayleigh, d’après laquelle la fonction est proportionnelle à et l’expérience confirme cette loi pour les grandes valeurs de c’est à dire que la droite passant par l’origine que prévoit la probabilité continue est encore parallèle à l’asymptote de la courbe expérimentale.

La conclusion qui s’impose, et dont M. Planck y a eu la gloire de montrer la nécessité en créant sa théorie des quanta, c’est que nous ne pouvons espérer représenter les faits relatifs au rayonnement noir ou aux chaleurs spécifiques des solides qu’en introduisant la discontinuité jusque dans l’application des probabilités à la Physique, en tenant compte de l’étendue finie que doivent avoir les domaines élémentaires de probabilité. Bien d’autres faits sont venus depuis confirmer cette conclusion. Nous verrons tout à l’heure quelles doivent être la nature et la grandeur de ces domaines élémentaires.

La distribution des libres parcours. – Faisons de suite quelques applications à la Physique de la loi de distribution (17) relative aux probabilités continues. Nous aurions pu obtenir cette loi de manière plus directe et plus rapide si je n’avais eu le souci, pour les raisons qui précèdent, de la raccorder avec la loi plus générale des probabilités discontinues.

Si points sont distribués au hasard sur une droite, sous la condition que leur intervalle soit égal à le nombre d’intervalles entre deux points consécutifs dont la longueur est comprise entre et devra être, dans la distribution la plus probable donnée par (17) :

Le hasard correspond ici aux postulats que la position d’un point quelconque peut se trouver indifféremment dans l’un quelconque des intervalles égaux, si petits qu’ils soient, dans lesquels on peut décomposer la droite, et que les positions des divers points sont considérées comme absolument indépendantes les unes des autres. Des écarts pourront se produire autour de cette distribution la plus probable, mais, comme toujours, leur importance relative diminuera à mesure que le nombre des points considérés sera plus grand.

La même formule nous donnera la distribution des libres parcours d’une molécule gazeuse entre les diverses valeurs possibles lorsque le libre parcours moyen est égal à Les postulats qui la rendent applicable sont ici que chaque choc contre une molécule particulière peut se produire indifféremment en un point quelconque du parcours total et qu’un choc n’influe en rien sur le temps qui peut s’écouler avant qu’un autre se produise.

Les intervalles d’émission des particules – Une application importante de cette même formule est

intervalles d’émission des particules alpha
intervalles d’émission des particules alpha

relative à la distribution des intervalles de temps entre les émissions radioactives lorsque l’intervalle

moyen est égal à c’est à dire lorsque émissions se distribuent sur un temps total donné Le moyen le plus simple pour vérifier l’exactitude de la loi est d’enregistrer au moyen d’un électromètre, comme l’a fait Mme Curie, les arrivées des particules individuelles sur une bande photographique déroulée à vitesse constante. On compte le nombre de ceux des intervalles d’une série dont la longueur est supérieure à Si la formule est exacte, c’est à dire si le hasard seul, interne ou externe, détermine l’explosion radioactive, on doit avoir pour ce nombre :

dans la distribution la plus probable. L’expérience montre qu’il en est bien ainsi avec des écarts qui ne dépassent pas en moyenne ce que peut prévoir le calcul des probabilités. Si l’on porte en abscisses et en ordonnées le logarithme de les points obtenus se rangent bien sur une droite dont l’inclinaison détermine et l’ordonnée à l’origine le logarithme de (fig. 10). Seuls ceux qui sont relatifs aux très petites valeurs de restent quelquefois au dessous de la droite et ceci s’explique par le fait que, les émissions consécutives devenant indiscernables quand les intervalles sont trop petits, il a été en réalité émis un peu plus de particules qu’on n’en a comptées. On peut corriger cette erreur et déterminer exactement le nombre total des particules émises en se servant de la loi précédente puisque l’ordonnée à l’origine doit donner la valeur exacte de log On peut ainsi vérifier l’importante et remarquable loi du hasard interne qui régit les explosions radioactives et apporter plus de précision dans les numérations de particules qui fournissent actuellement la meilleure méthode pour la détermination des grandeurs moléculaires.

La série représentée par la figure 2 comprenait intervalles.

La loi des transformations radioactives. – En réalité, les substances radioactives que nous avons supposées constantes, dans les applications faites jusqu’ici, se détruisent par les explosions atomiques et leur activité diminue au cours du temps suivant une loi exponentielle qui est celle des réactions chimiques monomoléculaires. Si atomes radioactifs sont présents à l’origine du temps, le nombre de ceux qui se détruisent entre les instants et est donné par :

étant la période de la transformation ou la vie moyenne d’un atome, ou, ce qui revient au même en raison de la forme particulière de la loi, sa durée moyenne comptée à partir d’un instant quelconque et non plus à partir de sa production par un atome générateur. Ce fait, qui semble paradoxal, tient précisément à l’intervention du hasard, au fait que la durée ultérieure probable d’un atome est indépendante du temps pendant lequel il a déjà vécu. La concordance de la loi expérimentale avec notre formule (17) montre que la destruction d’un nombre donné d’atomes radioactifs se fait suivant la loi la plus probable qui soit compatible avec une vie moyenne donnée.

La formule du nivellement barométrique. – Considérons une colonne cylindrique de gaz que nous supposerons à température uniforme Si aucune condition n’est imposée à la distribution du gaz dans le volume qui lui est offert, celle qui s’établira sera la plus probable au sens de notre premier problème elle sera uniforme aux fluctuations près dont nous avons parlé et qui seront sensibles seulement dans de très petites portions du volume total en raison du nombre énorme des molécules. La densité du gaz sera la même partout et indépendante de l’altitude au dessus du fond.

Mais, si le gaz est pesant, nous savons que la densité variera avec l’altitude suivant une loi bien connue qu’on obtient de la manière suivante : Si est la pression en un point où la concentration est en molécules-gramme par unité de volume, on a :

étant la constante des gaz parfaits. Si est la masse moléculaire la densité au point considéré est et la loi fondamentale de statique des fluides donne :

d’où :

Si est le nombre d’Avogadro, nombre de molécules dans une molécule-gramme, et la masse d’une molécule, on peut écrire, en posant

la relation précédente :

(18)

étant la concentration pour l’altitude zéro. Le nombre de molécules comprises en moyenne entre les altitudes et sera de la forme

L’analogie de cette loi avec notre formule (17) nous montre que la distribution qui s’établit dans un gaz sous l’action de la pesanteur est la plus probable qui soit compatible avec une altitude moyenne donnée (quand la colonne est supposée limitée en hauteur), c’est à dire avec une hauteur donnée du centre de gravité, si l’on introduit comme postulats de probabilité que la présence d’une molécule est indifféremment possible dans des couches d’égale épaisseur et que la présence d’une molécule à une certaine hauteur n’exerce aucune influence sur la possibilité de présence des autres, ce qui suppose le gaz assez rare, comme nous avons dû le faire d’ailleurs pour appliquer la loi des gaz parfaits.

Si nous remarquons que représente l’énergie potentielle de pesanteur d’une molécule située à l’altitude la formule devient :

(18')

L’expérience nous montre, sur le cas particulier de la distribution d’un gaz pesant en hauteur, que celui-ci se distribue spontanément de la manière la plus probable qui soit compatible avec une énergie potentielle donnée.

LA MÉCANIQUE STATISTIQUE

La loi de Boltzmann. – C’est l’œuvre essentielle de Boltzmann que d’avoir généralisé de manière complète le résultat précédent et montré que la configuration d’équilibre prévue par la Thermodynamique pour un système matériel quelconque est toujours la plus probable qui soit compatible avec son énergie totale, potentielle et cinétique.

Pour donner un sens précis à cet énoncé, il faut indiquer nettement quels sont les postulats fondamentaux dans la définition des probabilités. On y parvient par la notion d’extension en phase qu’introduisirent Boltzmann et Gibbs et qui est à la base de la mécanique statistique. La configuration et la position d’un système matériel, qui peut d’ailleurs ne contenir qu’une seule molécule, sont déterminées par certaines coordonnées en nombre égal à celui des degrés de liberté du système, et son état de mouvement par les moments ou quantités de mouvement correspondants, En prenant les coordonnées et les moments comme déterminant la position d’un point dans un espace généralisé à dimensions, où extension en phase, on peut représenter chaque configuration dynamique d’un tel système par un point de cet espace et ses changements au cours du temps par une ligne ou trajectoire ; par chaque point passe d’ailleurs une trajectoire et une seule. Les diverses configurations possibles du système correspondent aux différents points de l’extension en phase comme les diverses positions possibles du centre d’une molécule dans un récipient correspondaient aux différents points du volume intérieur à ce récipient. Pour définir les probabilités dans le cas de la distribution en volume, nous avons considéré comme équivalentes des portions d’égale étendue du volume total.

Nous pouvons aussi partager notre espace généralisé en éléments d’égale extension et un théorème fondamentale dû à Liouville montre que, si notre système est régi par des équations analogues à celles de la Dynamique et réductibles à la forme Hamiltonienne, ces éléments d’égale extension, comme tout à l’heure nos éléments égaux de volume, doivent être considérés comme équivalents au point de vue de la probabilité, au point de vue de la présence possible à leur intérieur du point représentatif de la configuration de notre système.

En effet, le théorème de Liouville consiste en ceci que, si nous suivons au cours du temps des systèmes dont les points représentatifs sont situés initialement dans un élément donné de l’extension en phase, l’élément se déplace et se déforme dans l’espace généralisé, mais en conservant une étendue constante. Donc la présence initiale du point représentatif dans un élément est exactement aussi probable que sa présence ultérieure dans un élément d’égale étendue ; deux éléments d’égale étendue doivent être considérés comme équivalents au point de vue de la présence possible du point représentatif, au même titre que deux éléments égaux du volume ordinaire au point de vue de la présence possible des molécules. Ce sera là notre postulat fondamental de définition des probabilités et, comme toujours, il trouvera sa justification complète dans l’accord de ses conséquences avec les faits.

Considérons un ensemble composé d’un grand nombre de systèmes identiques au précédent, comme un gaz est composé d’un grand nombre de molécules semblables.

À tout état dynamique de l’ensemble, à toute distribution des systèmes qui le composent entre les diverses configurations possibles, correspond une distribution donnée des points représentatifs dans l’extension en phase. Pour calculer la probabilité de cette distribution, découpons l’extension en phase en éléments équivalents d’égale étendue que nous supposerons pouvoir diminuer indéfiniment dans l’hypotèse des probabilités continues. Si sont les nombres de points représentatifs présents dans ces éléments pour la distribution considérée, et si nous faisons de plus le postulat, analogue à celui de la rareté du gaz, de l’indépendance mutuelle des positions des divers points, nous obtenons pour le nombre de manières dont la distribution considérée peut être réalisée, nombre proportionnel à sa probabilité :

(19)

Si maintenant nous supposons donnée l’énergie totale de l’ensemble, somme des énergies individuelles dont la valeur est déterminée pour chaque système par le point représentatif de sa configuration, les distributions possibles sont assujetties à la condition, comparable à (8) :

(20)

étant les énergies qui correspondent à la position de points représentatifs dans les différents éléments équivalents d’extension.

La distribution de probabilité maximum sera représentée, comme il résulte d’un calcul comparable à celui qui nous a donné la relation (14), par

La densité en phase qui correspond à la distribution la plus probable de nos systèmes est donc donnée par la loi des ensembles canoniques de Gibbs.

(21)

Le module de la distribution et le coefficient sont déterminés par les conditions équivalentes à (8) et (9) et que j’écris en notation différentielle pour passer au cas limite des probabilités continues

(22)

Nous allons montrer que cette distribution la plus probable compatible avec les conditions imposées à notre ensemble de systèmes est précisément celle qui correspond à la configuration d’équi libre prévue par la Thermodynamique. En même temps se dégagera la signification profonde au point de vue statistique des diverses notions fondamentales de la Thermodynamique de même que l’énergie totale représente l’énergie interne de notre ensemble de systèmes (de molécules par exemple), nous allons être conduits à considérer la température absolue comme proportionnelle au module de la distribution ; l’entropie et l’énergie utilisable seront proportionnelles respectivement aux logarithmes de la probabilité et de la constante

Cas d’un gaz pesant. – Appliquons tout d’abord notre loi génerale de distribution la plus probable au cas d’un gaz pesant composé de molécules identiques les unes aux autres et de masse Chaque molécule représentera l’un de nos systèmes et le gaz tout entier représentera l’ensemble dont nous cherchons la distribution. Admettons de plus qu’il s’agisse d’un gaz monoatomique dans lequel nous n’aurons pas à introduire de rotations des molécules ; chacune de celles-ci sera assimilable à un point matériel avec seulement trois degrés de liberté de translation auxquels correspondront les coordonnées et les composantes de la vitesse.

L’énergie d’un système, somme de l’énergie cinétique et de l’énergie potentielle de pesanteur d’une molécule, a pour expression

L’espace généralisé ou extension en phase est ici à six dimensions, trois pour les coordonnéee et trois pour les moments ou quantités de mouvement correspondants, de sorte que chaque état possible d’une molécule, comme position et mouvement, est représenté par un point distinct dans cet espace généralisé dont l’élément a pour valeur

La distribution des points qui dans cet espace représentent à un moment donné l’état des molécules de l’ensemble nous donne à la fois la répartition de ces molécules entre les diverses positions et les diverses vitesses possibles. Dans la distribution la plus probable, compatible avec une énergie totale donnée, la densité de ces points est donnée par

(23)

On reconnaît, pour ce qui concerne les vitesses, la loi de distribution de Maxwell. On déduit immédiatement de cette formule que l’énergie cinétique correspondant à un degré de liberté, par exemple, a pour valeur moyenne quel que soit le degré de liberté considéré. Il en serait encore de même si nous avions supposé la molécule susceptible de rotations ou de déformations : l’énergie cinétique d’une molécule étant mise sous forme d’une somme de carrés correspondant chacun à un degré de liberté, la valeur moyenne, dans la distribution la plus probable, est la même pour chacun de ces termes et a pour valeur C’est le théorème bien connu d’équipartition, qu’on étendrait sans peine au cas d’un mélange de diverses espèces de molécules par des considérations de probabilités analogues aux précédentes.

Il est à remarquer que l’énergie cinétique moyenne pour un degré de liberté reste la même quand, au lieu de la calculer pour l’ensemble de toutes les molécules, on considère seulement celles qui sont contenues dans un élément de volume de l’espace ordinaire ou dans une tranche dz de la colonne cylindrique dans laquelle nous pouvons supposer notre gaz renfermé. La distribution des vitesses entre les molécules d’un gaz pesant, et par conséquent l’énergie cinétique moyenne, est la même à toutes les altitudes.

D’après la théorie cinétique, la pression d’un gaz est proportionnelle à l’énergie cinétique moyenne de ses molécules. Si est la concentration du gaz à l’altitude en molécules-gramme par unité de volume, et le nombre d’Avogadro, la valeu pour l’énergie moyenne d’un degré de liberté conduit pour la pression à

L’identification avec la loi des gaz donne la relation

(24)

Le module de la distribution la plus probable est donc proportionnel à la température absolue et donne la signification statistique de la notion de température. La distribution la plus probable d’un gaz, comme d’un ensemble quelconque d’ailleurs, est la distribution isotherme.

Si nous cherchons maintenant la variation de densité du gaz avec l’altitude dans la distribution donnée par la formule (23), en tenant compte de la relation (24), après intégration de par rapport à entre les limites et nous retrouvons précisément la loi représentée par la formule (18), c’est à dire la loi du nivellement barométrique. C’est là une justification, sur cet exemple particulier, de la manière dont nous avons défini la probabilité d’une configuration de notre ensemble de systèmes, à partir du postulat d’équivalence des éléments égaux d’extension en phase.

Entropie et probabilité. – Pour obtenir l’interprétation statistique du principe de Carnot, examinons tout d’abord le cas des transformations réversibles. Pour réaliser une semblable transformation, nous supposerons qu’on fait varier les conditions imposées à notre ensemble de systèmes (grandeur de l’énergie totale forces extérieures exercées sur chaque système) assez lentement pour qu’à chaque instant l’ensemble ait le temps de prendre la distribution la plus probable qui soit compatible avec les conditions actuelles. Nous aurons donc à chaque instant une distribution de la forme (21) avec des constantes et qui varieront d’un instant à l’autre. La quantité donnée par la formule (19) et que nous appellerons la probabilité, aura à chaque instant la plus grande valeur compatible avec les conditions imposées, et cette valeur variera au cours de la transformation. Cherchons de quelle manière. L’extension en phase étant partagée en éléments tous égaux entre eux, très petits mais cependant assez grands pour que chacun d’eux renferme un grand nombre de points représentatifs, nous pouvons, en appliquant la formule de Stirling à chacune des factorielles qui entrent dans l’expression de et en ne conservant que les termes importants, écrire :

Le premier terme est constant au cours de la transformation, le second varie avec la distribution. En remplaçant par une intégrale la somme qui figure dans ce terme et qui est étendue à tous les éléments d’extension en phase, nous obtenons, en représentant le premier terme par une constante

Si nous admettons qu’à chaque instant soit réalisée la distribution la plus probable, nous pouvons remplacer par l’expression (21) et il vient, en tenant compte des conditions (22) :

(25)

Différentions cette dernière relation

Différentions également la seconde des conditions (22); elle donne :

d’où :

Or l’intégrale

représente l’accroissement d’énergie potentielle de l’ensemble résultant du changement des conditions extérieures, c’est à dire le travail fourni à l’ensemble pendant l’élément de transformation réversible. Donc :

La différence entre l’accroissement d’énergie interne et le travail fourni est la quantité de chaleur fournie à l’ensemble ; en tenant compte de la relation (24), il vient :

Donc, pour une transformation consistant en une succession d’états de probabilité maximum, le quotient de la chaleur fournie par la température absolue est une différentielle exacte. C’est un des énoncés du principe de Carnot appliqué aux transformations réversibles. Nous démontrons ainsi que les distributions moléculaires de probabilité maximum jouissent de toutes propriétés imposées par la Thermodynamique aux configurations d’équilibre, et donnons, grâce à la définition dynamique des probabilités par l’introduction de l’extension en phase, un sens précis à la notion intuitive que la distribution moléculaire la plus probable, se réalisant par là même incomparablement plus souvent que toutes les autres en raison de la complexité de l’ensemble, doit représenter la configuration d’équilibre de celui-ci sous les conditions données.

On déduit aussi la signification statistique de l’entropie des résultats précédents :

ou, à une constante près :

(26)

L’entropie, dans le cas où la Thermodynamique permet de la définir, c’est à dire dans le cas des transformations réversibles, se trouve donc proportionnelle au logarithme de la probabilité de la configuration d’équilibre, c’est à dire de la configuration la plus probable compatible avec les conditions imposées à l’ensemble considéré.

Nous obtenons en même temps le moyen de généraliser la notion quantitative d’entropie et de l’étendre aux configurations qui ne peuvent faire partie d’une transformation réversible. Comme nous savons par (19) définir la probabilité pour une configuration quelconque de notre ensemble, il suffit de considérer comme générale la relation (26) pour obtenir une définition générale de l’entropie et pour atteindre la signification profonde, purement statistique, de cette notion autrement si obscure. Le fait qu’un ensemble tend spontanément vers la configuration la plus probable compatible avec les conditions qui lui sont imposées généralise et éclaire profondément le théorème de Clausius d’après lequel l’entropie tend vers un maximum à énergie interne donnée.

La conséquence la plus importante peut-être de ce résultat est que la configuration d’équilibre prévue par la Thermodynamique, la configuration d’entropie maximum, nous apparaît maintenant comme la plus probable, mais non la seule possible pour l’ensemble. Celui-ci prend au cours du temps toutes les configurations possibles dans la proportion de leurs probabilités. La plus probable est seulement la plus fréquente et prédomine d’autant plus que l’ensemble est plus complexe, que le nombre des systèmes qui le composent est plus grand. Mais des fluctuations doivent se produire autour de cette configuration la plus probable ; nous verrons tout à l’heure comment la relation (26) généralisée permet d’en prévoir l’importance dans tous les cas et comment l’observation directe de ces fluctuations est venue confirmer de la manière la plus complète ces conséquences du point de vue statistique et apporter des moyens nouveaux, en nombre illimité, pour atteindre les grandeurs moléculaires par l’intermédiaire de ces fluctuations. Le principe de Carnot perd ainsi sa signification absolue les configurations d’équilibre qu’il permet de prévoir et qu’il présente comme rigides ne correspondent en réalité qu’à un aspect moyen autour duquel la matière est en frémissement continuel et effectue des fluctuations d’autant plus importantes relativement que le nombre des molécules présentes est plus faible.

En tenant compte des relations (24) et (26) et en choisissant convenablement la constante arbitraire dans l’expression de l’entropie, nous pouvons écrire l’équation (25) sous la forme

si est la constante des gaz pour un nombre de molécules égal au nombre des systèmes de notre ensemble. Nous obtenons ainsi l’expression de l’énergie utilisable et sa relation avec la constante C de la loi de distribution la plus probable

Comme la température, l’énergie utilisable n’a de sens que pour une distribution d’équilibre, de probabilité maximum, puisque ces notions sont définies à partir des constantes et caractéristiques d’une telle distribution. L’entropie au contraire est susceptible d’une définition plus générale puisqu’elle est reliée à la probabilité dont la relation (19) donne l’expression pour une configuration quelconque de l’ensemble. Ceci montre l’importance particulière qui s’attache à cette notion d’entropie dont l’introduction s’est imposée longtemps avant qu’on en vit clairement les raisons profondes.

Il est bien évident, d’ailleurs, que l’orsqu’un ensemble complexe ne se trouve pas en équilibre thermodynamique, lorsque sa température n’est pas uniforme par exemple, on peut le décomposer en ensembles plus simples, en éléments de volume, au sens ordinaire du mot, pour chacun desquels l’équilibre est au moins approximativement réalisé, pour chacun desquels on peut définir une température et une énergie utilisable, et calculer l’entropie au sens thermodynamique de sa définition. Cette remarque trouve son application dans nombre de raisonnements relatifs aux fluctuations.

Nous venons d’obtenir une interprétation statistique de la Thermodynamique en suivant la voie ouverte par Boltzmann ; on peut avec Gibbs se placer à un point de vue un peu différent, mais le fond des raisonnements reste le même et je n’insisterai pas sur les différences entre les deux méthodes. Celle de Boltzmann me paraît, du reste, la plus claire et la plus féconde.

Les lois d’actions moléculaires. – Nous venons de voir dans la Thermodynamique un aspect des résultats de la Mécanique statistique. Celle-ci est beaucoup plus riche de contenu et beaucoup plus profonde que celle-là, puisqu’elle en complète les énoncés en même temps qu’elle en donne la signification véritable. Non seulement elle permet de prévoir les fluctuations spontanées que la Thermodynamique ignore complètement ou plus exactement dont la Thermodynamique nie la possibilité, mais encore elle seule permet d’atteindre les propriétés des ensembles moléculaires où se reflètent les lois profondes d’actions individuelles exercées sur les molécules ou par les molécules les unes sur les autres.

J’ai rappelé au début que certaines proprietés des ensembles sont indépendantes de ces lois individuelles et ne contiennent rien de plus que l’affirmation de la complexité de l’ensemble et du rôle qu’y joue la probabilité. Celles qu’on déduit de l’application du principe de Carnot, de la Thermodynamique, appartiennent à cette catégorie. Elles expriment uniquement ceci que la configuration d’équilibre ordinairement observée est la plus probable de toutes celles dont l’ensemble est susceptible, et la grossièreté habituelle de nos moyens d’observation fait que cette probabilité se change progressivement en certitude à mesure que l’ensemble devient plus complexe, ou plutôt parce que les ensembles observés sont généralement très complexes.

Ces propriétés thermodynamiques, en retour, ne permettent pas d’atteindre les lois individuelles dont elles sont indépendantes.

Au contraire, la loi de distribution la plus probable donnée par la formule (19) fait intervenir ces lois individuelles par l’intermédiaire de l’énergie relative à chaque système et permet d’obtenir par intégration des propriétés de la configuration d’équilibre, des lois accessibles à nos mesures où interviennent les lois d’actions moléculaires et dont l’observation doit nous permettre de remonter à celles-ci. De là résulte une puissance nouvelle d’investigation que nous commençons à peine à savoir mettre en valeur.

L’orientation moléculaire. – Je citerai, comme premier exemple, la théorie d’orientation moléculaire dont j’ai montré toute l’importance pour rendre compte des phénomènes de paramagnétisme et de biréfringence électrique et magnétique. Lorsque, sous l’action d’un champ extérieur, chaque molécule est soumise à un couple tendant à l’orienter, l’énergie relative à une molécule contient un terme qui représente le travail effectué par ce couple et la formule (21) détermine la manière dont les molécules s’orientent, dont elles se distribuent entre les diverses orientations possibles dans la configuration la plus probable de l’ensemble. Cette formule traduit l’effet superposé de l’agitation thermique tendant à réaliser la distribution isotrope et de l’action directrice du champ qui tend à disposer parallèlement toutes les molécules dans l’orientation d’énergie minimum. La distribution d’équilibre étant ainsi connue, une simple intégration donne la grandeur mesurable, moment magnétique résultant dans le cas du paramagnétisme ou indice de réfraction dans le cas de la biréfringence. On peut alors, ainsi que je l’ai montré, remonter de l’observation au moment magnétique moléculaire ou à la dissymétrie optique de chaque molécule.

Le cas est beaucoup plus complexe où le couple directeur qui s’exerce sur une molécule dépend, non plus seulement du champ extérieur et de l’orientation par rapport à lui de la molécule considérée, comme pour les substances paramagnétiques diluées par exemple, mais résulte des actions mutuelles entre molécules. L’énergie de l’ensemble fait alors intervenir des termes où figurent à la fois les orientations des deux ou plusieurs molécules, et le calcul de la configuration de probabilité maximum compatible avec une valeur donnée de devient beaucoup plus difficile.

C’est ainsi que la question se pose pour les substances ferromagnétiques ou pour les cristaux liquides où les actions directrices mutuelles jouent le rôle prépondérant. On sait quels progrès ont déjà été réalisés dans l’étude du ferromagnétisme, grâce à l’hypothèse du champ moléculaire par laquelle M. Pierre Weiss a proposé de traduire la résultante des actions mutuelles exercées sur une molécule. Les résultats donnés par cette simplification du problème font prévoir de quelle importance serait la solution complète.

Les équations d’état. – Les choses se présentent plus simplement lorsque au lieu d’actions mutuelles d’orientation on suppose seulement entre les molécules des forces centrales, s’exerçant suivant une loi donnée en fonction de leur distance. L’équation d’état d’un fluide composé de semblables molécules s’obtiendrait de manière complète par la voie statistique si l’on savait résoudre le problème suivant, de nature géométrique : points étant distribués au hasard dans un volume donné, quelle est la probabilité qué les distances mutuelles entre ces points, en nombre égal à soient distribuées d’une manière donnée entre les diverses valeurs possibles ? Ce problème résolu, l’équation d’état s’obtient immédiatement et fait intervenir, naturellement, la loi d’action mutuelle entre deux molécules. Cette équation permettrait, inversement, de remonter à la loi d’action à partir des isothermes obtenues expérimentalement pour le fluide considéré. Il y a là une question fondamentale de cohésion et je signale, à l’attention des mathématiciens, le problème de probabilités purement géométrique dont dépend toute sa solution.

Ce même problème domine également toute la théorie des mélanges de fluides et de la pression osmotique en particulier. De même que, par son intermédiaire, l’équation d’état d’un fluide pur donnerait la loi d’action entre molécules identiques, les propriétés bien connues des mélanges donneraient la loi d’action entre molécules d’espèces différentes.

Ici encore, les progrès de la Physique dépendent de la solution d’un problème de probabilités. Il s’agit toujours de trouver la distribution la plus probable compatible avec des conditions données.

Le problème général des fluctuations. – Dans ces premiers exemples d’applications des raisonnements généraux de la Mécanique statistique, nous avons considéré seulement la distribution la plus probable autour de laquelle nos ensembles effectuent constamment des fluctuations, généralement insensibles à cause de la grande complexité des ensembles de molécules sur lesquels portent nos observations.

Mais ces fluctuations peuvent devenir accessibles à l’expérience, lorsque le nombre des molécules contenues dans le système diminue (mouvement brownien de petites particules ou diffusion de la lumière, déterminée par les fluctuations de concentration dans des petits volumes de l’ordre du cube de la longueur d’onde). Nous avons vu comment on peut prévoir leur importance par des raisonnements très simples de probabilités dans le cas, des fluctuations de concentration de gaz peu denses ou de solutions diluées où les positions des diverses molécules peuvent être considérées comme indépendantes les unes des autres. La question est alors purement géométrique. Si les actions mutuelles interviennent pour diminuer les fluctuations quand ces actions sont répulsives ou pour les augmenter quand elles sont attractives, il n’y a plus indépendance, et la question, devenue dynamique, ne peut être résolue que par les considérations nouvelles de probabilités qu’introduit la Mécanique statistique.

Dans le problème général des fluctuations, il s’agit d’étudier les variations spontanées d’une grandeur observable caractéristique du système (altitude ou vitesse d’un granule brownien, densité du fluide dans un petit volume, intensité du courant dans un circuit, etc.) autour de la valeur qui correspond à l’état le plus probable (altitude du point le plus bas qu’il puisse occuper et vitesse nulle pour le granule, densité correspondante à la distribution uniforme d’un fluide, valeur nulle du courant si le circuit ne comporte pas de force électro-motrice, etc.).

La question revient en somme à chercher la probabilité pour que la grandeur considérée soit comprise entre et Cette probabilité connue, on en déduira aisément la valeur moyenne d’une fonction quelconque de ou les effets produits par les fluctuations sur la propagation de la lumière par exemple, la fréquence avec laquelle se présente l’écart étant, comme dans tout ce qui précède, proportionnelle au coefficient de probabilité

Deux procédés différents peuvent être employés pour atteindre cette probabilité. On peut tout d’abord supposer isolé le système complexe formé par notre ensemble de molécules, c’est à dire supposer son énergie interne constante et utiliser la formule (19) pour calculer la probabilité d’une configuration quelconque soumise à la condition d’énergie donnée. En ajoutant les probabilités ainsi obtenues pour toutes les configurations telles que la grandeur observable soit comprise entre et on aura précisément On obtient ainsi ce que nous pouvons appeler les fluctuations à énergie constante.

Bien qu’il soulève des difficultés, le raisonnement suivant, dû à M. Einstein, permet d’arriver rès vite au résultat. À chaque valeur de correspond, au sens thermodynamique, une valeur de l’entropie de notre système qui prend son maximum pour En généralisant la relation de Boltzmann (26) entre l’entropie et la probabilité, nous pouvons admettre, entre et la valeur correspondante du coefficient la relation

ou, ce qui élimine la constante arbitraire non écrite dans cette équation,

ou encore

(27)

On peut encore écrire cette formule autrement. Comme notre système est complexe et que la grandeur est un seul des paramètres en nombre énorme nécessaires pour la description complète de l’état du système, la variation de dans les limites que les fluctuations pourront atteindre ne modifiera pas appréciablement la température du système qui correspond à une énergie interne donnée. Autrement dit, la configuration la plus probable sous les conditions que ait la valeur donnée et que et correspond à un module et par conséquent à une température sensiblement indépendante de Dans ces conditions, si et sont les valeurs de l’énergie utilisable qui correspondent à et sous cette température, on a, l’énergie interne restant fixe :


et l’on peut écrire la relation (27) sous la forme

(28)

étant une constante.

Nous pouvons trouver ce même résultat par une autre voie, grâce à la remarque suivante : la très faible variation de température qui accompagne les fluctuations à énergie constante à cause de la complexité du système fait que ces fluctuations restent les mêmes quand ce système, au lieu d’être isolé, fait partie d’un ensemble de systèmes complexes analogues avec lesquels il peut changer de l’énergie, c’est à dire quand on considère les fluctuations comme isothermes au lieu de les considérer comme s’effectuant à énergie constante.

On voit immédiatement que l’étude de ces fluctuations isothermes se ramène à celle de la distribution la plus probable des diverses configurations possibles dans un ensemble de systèmes complexes. C’est un problème tout à fait analogue à celui que résout la formule (21), à ceci près que, au lieu d’avoir une seule molécule pour chacun des systèmes dont est composé l’ensemble, chaque système est lui-même composé d’un grand nombre de molécules. De sorte que l’extension en phase doit avoir maintenant un nombre énorme de dimensions, puisque chaque système complexe contient fois plus de paramètres que chacune des molécules dont il est composé.

La distribution cherchée est déterminée par une formule analogue à (21), mais où représente, non plus l’énergie d’une molécule, mais celle de notre ensemble de molécules en fonction de tous les paramètres qui fixent la configuration de cet ensemble. Si est un élément de la nouvelle extension en phase, la probabilité pour que le point représentatif se trouve contenu dans cet élément sera

(29)

Si nous voulons étudier les fluctuations relatives à un certain paramètre accessible à nos mesures, c’est à dire chercher la probabilité pour que ce paramètre soit compris entre et nous devons chercher la portion de l’extension qui contient les points représentatifs pour lesquels la grandeur est comprise entre les limites indiquées. En intégrant dans cette portion l’expression (29) nous obtiendrons la probabilité cherchée sous la forme

En se reportant à la définition statistique que nous avons obtenue pour l’énergie utilisable on démontre que la probabilité précédente peut s’écrire

dépendant de mais de façon à varier d’ordinaire très peu en valeur relative quand varie autour de On peut alors considérer comme une constante, et la connaissance de suffit, c’est à dire de l’énergie utilisable du système relative à la grandeur et à la température le module étant pris égal à Nous retrouvons bien la formule (28), obtenue en supposant les fluctuations adiabatiques.

On voit ainsi que l’étude des fluctuations isothermes d’un système complexe, comme notre ensemble primitif de molécules, autour de sa configuration la plus probable, se ramène à l’étude de la distribution la plus probable d’un ensemble de systèmes complexes, identiques au premier, entre les diverses configurations possibles. C’est là un fait général en calcul des probabilités, les écarts à partir d’une distribution probable s’obtenant par la considération de la distribution la plus probable d’un ensemble plus complexe que le premier.

Voyons maintenant quelques applications de la formule (28) à la Physique.

Mouvement Brownien et distribution de granules. – Si le système complexe est constitué par une granule et le fluide qui l’environne, nous pouvons prendre pour grandeur soit la vitesse du mouvement d’ensemble du granule suivant une direction, soit son altitude.

Dans le premier cas est égal à l’énergie cinétique correspondante à la direction considérée et proportionnelle au carré de la vitesse. L’application de (28) donne, pour valeur moyenne de cette énergie cinétique, ou Nous retrouvons ainsi sous un nouvel aspect, applicable aux mouvements visibles, le théorème d’équipartition de l’énergie cinétique entre les degrés de liberté d’un système complexe. J’ai montré comment ce théorème permet de retrouver très simplement la formule célèbre donnée par M. Einstein pour les déplacements d’un granule par mouvement Bro\nuien de translation ou de rotation.

On retrouve cette équipartition sous une forme généralisée toutes les fois que l’énergie utilisable est une fonction continue de la grandeur En effet valeur qui correspond à la configuration d’équilibre, devant être un minimum pour on peut écrire, en limitant le développement à cause de la faible amplitude des variations spontanées :

étant une constante. L’application de (28) montre encore que la valeur moyenne de est égale à c’est à dire que les fluctuations correspondent, pour chaque paramètre tel que à un écart moyen d’énergie utilisable égal à l’énergie cinétique moyenne d’une molécule par degré de liberté à la même température ; c’est dire la petitesse de telles fluctuations.

On conçoit la généralité des applications possibles de ce résultat aux déformations spontanées d’un corps élastique tel qu’un diapason, à la charge spontanée d’un condensateur dont les plateaux sont réunis par un fil et dont l’énergie électrostatique aura la valeur moyenne aux fluctuations de courant dans un circuit dont l’énergie de self-induction aura cette même valeur moyenne, etc. Dans tout système susceptible d’effectuer des vibrations périodiques comme le diapason ou le condensateur fermé, la valeur moyenne de l’énergie potentielle est égale à comme la valeur moyenne de l’énergie cinétique (ou magnétique). La valeur moyenne de l’énergie totale doit donc être égale à pour chaque mode possible de vibration.

Ce résultat cesse d’être exact quand l’énergie utilisable n’est pas une fonction continue de la variable Il en est ainsi par exemple dans le cas des fluctuations d’altitude d’un granule pesant. Si est sa masse, sa densité, celle du fluide dans lequel il est plongé et son altitude au dessus du fond du vase, on a

pour et pratiquement infini pour négatif puisqu’il faudrait déformer le fond du vase pour faire descendre le granule au dessous de est donc bien minimum pour mais le développement n’a plus la même forme que précédemment. est nul pour négatif en vertu de (28) et pour positif égal à

on reconnaît la loi de distribution vérifiée expérimentalement par M. Perrin. La Thermodynamique prévoit la position d’équilibre pour laquelle l’énergie utilisable est minimum et la présence des granules dans le liquide au dessus du fond correspond à des fluctuations d’altitude régies par la loi de probabilité que nous venons d’obtenir. On reconnaît encore, sur cet exemple, qu’un même problème peut être envisagé soit comme un problème de distribution la plus probable, soit comme un problème de fluctuations.

Si l’on calcule dans le cas actuel la valeur moyenne de ou des fluctuations d’énergie utilisable correspondant à la variable on trouve, à cause de la forme particulière de cette fonction, la valeur au lieu de

Fluctuations de concentration. – Le cas des fluctuations de concentration, dans un fluide dont les molécules agissent les unes sur les autres, rentre dans le cas général. Pour un petit volume donné au milieu d’un fluide, la concentration moyenne varie autour de celle qui correspond à la distribution uniforme du fluide. L’écart est proportionnel, en première approximation, au carré des variations de concentration et celles-ci sont donc telles que la valeur moyenne de soit égale à Cela suffit pour donner toute la théorie quantitative de l’opalescence critique puisque l’on connaît le degré de trouble du fluide à toutes les échelles de grandeur.

Probabilités continues et probabilités discontinues. – Nous avons vu qu’à tout mode possible de vibration périodique dans un système, la Mécanique statistique telle que nous l’avons obtenue prévoit une énergie moyenne totale égale à Ce résultat, appliqué aux molécules d’un solide, conduit à prévoir pour le solide une chaleur spécifique constante à toutes températures et, appliqué aux résonateurs électromagnétiques de M. Planck, conduit à la loi de Rayleigh pour la distribution d’énergie dans le rayonnement noir. L’expérience est en contradiction formelle avec ces conséquences.

D’où viennent ces difficultés ?

Dans nos raisonnements de Mécanique statistique, et en particulier dans le calcul des valeurs moyennes qui nous a conduits au théorème d’équipartition, nous avons implicitement admis qu’il s’agissait de probabilités continues et remplacé partout les sommations par des intégrations, ce qui revient à considérer comme infiniment petit le domaine élémentaire d’extension en phase que nous avons introduit pour définir la probabilité. Ọr ce passage à la limite soulève de grosses difficultés. En dehors du fait que des éléments d’extension en phase évanescents cesseront de contenir des nombres de points représentatifs assez grands pour qu’on puisse continuer à utiliser la formule de Stirling, nous pouvons remarquer que la constante de la formule (25) qui donne le logarithme de la probabilité contient le terme qui devient infini quand tend vers zéro.

On évite ces difficultés en même temps qu’on rend compte des lois expérimentales des chaleurs spécifiques et du rayonnement noir en admettant avec M. Planck une étendue finie et déterminée pour le domaine élémentaire c’est à dire en remplaçant les probabilités continues par des probabilités discontinues. La loi de distribution la plus probable est toujours donnée par la formule (21) de même que dans notre première partie la formule analogue (14) s’applique dans tous les cas. Mais la relation est changée entre le module ou et la valeur moyenne de la variable ou Les probabilités continues nous ont donné pour la durée moyenne des séries comme elles nous donnent pour l’énergie moyenne d’un résonateur. L’introduction des probabilités discontinues dans la formule (16) et M. Planck a montré que, dans le cas du résonateur, si est la valeur imposée au domaine élémentaire d’extension en phase, la variation d’énergie qui lui correspond est étant la fréquence du résonateur, et l’on obtient la formule tout à fait comparable à (16)

(30)

On peut, au moyen de ce résultat, représenter au degré de précision des mesures la variation de capacité calorifique des solides avec la température et la distribution de l’énergie dans le rayonnement noir. En effet, notre résonateur est en équilibre avec un rayonnement représenté exactement par la loi expérimentale rappelée antérieurement :

en posant

ou, si est la vitesse de la lumière :

La constante qui vient de s’introduire comme mesurant l’étendue du domaine élémentaire de probabilité dans le problème du résonateur, semble bien avoir une importance capitale en Physique et figurer dans les lois d’un grand nombre de phénomènes. On conçoit qu’il en doive être ainsi puisque cette même constante détermine probablement le domaine élémentaire de probabilité dans toutes les questions de Mécanique statistique, quelle que soit la complexité du système étudié. L’expérience a confirmé son intervention, non seulement dans la théorie du rayonnement noir, mais encore dans celles de l’émission des rayons de Röngten, des rayons cathodiques secondaires, des phénomènes photoélectriques et jusque dans les lois de la Mécanique chimique. Il paraît également certain qu’elle détermine la grandeur du magnéton ou élément discontinu de moment magnétique moléculaire.

Ainsi le discontinu semble de tous côtés dominer la Physique. Non seulement nous devons admettre des éléments structuraux discrets, électrons, atomes ou molécules, mais encore il semble bien que nous devions introduire un élément nouveau de discontinuité dans les raisonnements statistiques par lesquels nous passons pour construire une image du monde à partir de ces éléments.

  1. Conférence faite à la Société française de Physique le 27 novembre 1913.