Recherches sur la probabilité des jugements en matière criminelle et en matière civile/Chapitre II

La bibliothèque libre.

CHAPITRE II.

Suite des règles générales ; probabilités des causes et des événements futurs, déduites de l’observation des événements passés.

(27). Dans le chapitre précédent, les règles que nous avons considérées supposaient données les chances de certains événements, et avaient pour objet d’en déduire les probabilités d’autres événements composés des premiers. Dans celui-ci, on exposera les règles qui servent à calculer les probabilités des causes, d’après les événements observés, et, par suite, celles des événements futurs. Mais auparavant, il convient d’expliquer le sens précis que nous donnerons à ce mot cause, et qui n’est pas le même que celui qu’il a dans le langage ordinaire.

Quand on dit communément qu’une chose est la cause d’une autre, on attribue à la première le pouvoir de produire nécessairement la seconde, sans vouloir toutefois, exprimer par-là que l’on connaisse la nature de cette puissance, et comment elle s’exerce. Nous reviendrons à la fin de ce chapitre sur cette notion de la causalité. Il nous suffit, quant à présent, de dire que le mot cause a, dans le calcul des probabilités, une signification plus étendue : on y considère une cause C, relative à un événement quelconque E, comme étant la chose qui donne à l’arrivée de E, la chance déterminée qui lui est propre ; dans l’acception ordinaire du mot, C serait la cause de cette chance, et non de l’événement même ; et quand E arrive effectivement, c’est par le concours de C avec d’autres causes ou circonstances qui n’influent pas sur la chance propre de cet événement. Si est cette chance, connue ou inconnue, et distincte en général de la probabilité, C donne en même temps la chance à l’événement contraire F : dans le cas de , la chose C produit nécessairement l’événement E, et en est la cause proprement dite ; dans le cas de , elle est celle de F.

L’ensemble des causes qui concourent à la production d’un événement sans influer sur la grandeur de sa chance, c’est-à-dire, sur le rapport du nombre de cas favorables à son arrivée au nombre total des cas possibles, est ce qu’on doit entendre par le hasard. Ainsi, par exemple, aux jeux de dés, l’événement qui arrive à chaque coup, est la conséquence du nombre des faces, des irrégularités de formes et de densité que le peut présenter, et des agitations nombreuses qu’on lui fait subir dans le cornet. Or, ces agitations sont des causes qui n’influent nullement sur la chance de l’arrivée d’une face déterminée ; elles ont pour objet de faire disparaître l’influence de la position du dans le cornet avant ces mouvements, dans la crainte que cette position initiale ne soit connue de l’un des joueurs ; et quand ce but est atteint, la chance relative à l’arrivée de chaque face, ne dépend plus que du nombre des faces, et des défauts du qui peuvent rendre les chances inégales pour les faces différentes. On dira qu’une chose est faite au hasard, lorsqu’elle est exécutée sans rien changer aux chances respectives des divers événements qui peuvent arriver. Une urne renfermant des boules blanches et des boules noires, on en tirera une boule au hasard, si l’on ne regarde pas leur disposition dans l’intérieur de l’urne avant d’y porter la main : en supposant toutes les boules d’un même diamètre, la chance d’amener une boule blanche ne pourra évidemment dépendre que du nombre de boules blanches et du nombre de boules noires ; et l’on démontre qu’elle est égale au rapport du premier de ces deux nombres à leur somme.

La cause C peut être une chose physique ou une chose morale : au jeu de croix et pile, c’est la constitution physique de la pièce qui donne une chance généralement peu différente de 1/2 l’arrivée de croix ou à celle de pile ; dans un jugement criminel, la chance de la vérité ou de l’erreur du vote de chaque juré est déterminée par sa moralité, en comprenant, dans cette cause, sa capacité et sa conscience. Quelquefois la cause C résulte du concours d’une chose morale et d’une chose physique : par exemple, dans chaque espèce de mesures ou d’observations, la chance d’une erreur de grandeur donnée, dépend de l’habileté de l’observateur et de la construction, plus ou moins parfaite, de l’instrument dont il fait usage. Mais, dans tous les cas, les diverses causes des événements sont considérées, dans le calcul des probabilités, indépendamment de leurs nature particulière et sous le seul rapport de la grandeur des chances qu’elles produisent ; et c’est pour cela que ce calcul s’applique également aux choses morales et aux choses physiques. Toutefois, dans la plupart des questions, la chance que détermine une cause donnée C n’est pas connue à priori, et la cause même d’un événement ou de sa chance est quelquefois inconnue : si la chance est constante, on la détermine, comme on le verra par la suite, au moyen d’une série d’épreuves suffisamment prolongée ; mais dans le vote d’un juré, par exemple, la chance d’erreur varie d’un juré à un autre, et sans doute, pour un même juré, dans les différentes affaires ; et la répétition des épreuves, pour chaque juré et chaque espèce d’affaires, étant impossible, ce n’est pas la chance d’erreur propre à un juré que l’on peut déduire de l’observation, mais bien, comme on le verra par la suite, une certaine probabilité, relative à l’ensemble des jurés de tout le ressort d’une cour d’assises, et qu’il lui suffira de connaître pour la solution des problèmes qui sont l’objet spécial de cet ouvrage.

Il y a souvent plusieurs causes différentes qui peuvent amener, en se combinant avec le hasard, un événement donné E ou l’événement contraire F ; avant que l’un ou l’autre de ces deux événements ait eu lieu, chacune de ces causes a une certaine probabilité, qui change après que E ou F a été observé ; or, en supposant connue la chance que chacune des causes possibles donnerait, si elle était certaine, à l’arrivée de E ou de F, nous allons déterminer d’abord les probabilités de toutes ces causes après l’observation, et ensuite la probabilité de tout autre événement futur, dépendant des mêmes causes que E et F.

(28). Soit donc E un événement observé. On suppose que son arrivée peut être attribuée à un nombre de causes distinctes, que ces causes sont les seules possibles, qu’elles s’excluent mutuellement, et qu’avant l’observation, elles étaient toutes également probables. L’arrivée de E a rendu ces causes hypothétiques inégalement probables ; il s’agit de déterminer la probabilité de chacune d’elles, résultante de l’observation ; ce qu’on fera au moyen du théorème suivant.

La probabilité de chacune des causes possibles d’un événement observé est égale à celle que cette cause donnerait à l’événement, si elle était certaine, divisée par la somme des probabilités de cet événement qui résulteraient pareillement de toutes les causes auquel on peut l’attribuer.

Ainsi, appelons

C1, C2, C3,…C,…C,

les causes possibles de l’événement E ; soient

, , , , ,

les probabilités connues de son arrivée, relatives à ces diverses causes ; de manière que exprime la probabilité de E qui aurait lieu si la cause C était unique, ou, ce qui est la même chose, si elle était certaine, ce qui exclurait toutes les autres. Désignons ensuite par

, , , , ,

les probabilités inconnues de ces mêmes causes ; en sorte que soit la probabilité de la cause C, ou, autrement dit, la probabilité que c’est à cette cause qu’est due l’arrivée de E. Il s’agira de prouver qu’on doit avoir

.

Or, quel que soit l’événement E, on peut l’assimiler, pour fixer les idées, à l’arrivée d’une boule blanche, extraite d’une urne qui contenait des boules de cette couleur et des boules noires. On supposera, pour cette assimilation, qu’il y avait un nombre de semblables urnes

A1, A2, A3,…A,…A,

dont la boule blanche a pu sortir, et telles que dans l’urne quelconque A, le rapport du nombre de boules blanches au nombre total de boules, soit égal à la fraction . Chacune de ces urnes sur lesquelles la main a pu se porter au hasard pour en extraire la boule blanche, représente une des causes de son arrivée ; l’urne A répond à la cause C ; et la question consiste à déterminer la probabilité que la boule blanche est sortie de A.

Pour cela, supposons que l’on réduise les fractions , , , etc., au même dénominateur, et que l’on ait ensuite

,, ,  ;

et les numérateurs , , etc., étant des nombres entiers. On ne changera rien à la chance de tirer une boule blanche de l’urne A, en y remplaçant les boules qu’elle contient, par un nombre de boules blanches et un nombre de boules, tant blanches que noires ; et de même pour toutes les autres urnes. Le nombre total des boules étant actuellement le même dans toutes ces urnes, il résulte du lemme du no 10, que si on les réunit dans une même urne A, et que l’on donne le no 1 à celles qui proviennent de A1, le no 2 aux boules provenant de A2, etc., la probabilité qu’une boule blanche extraite de l’ensemble de ces urnes A1, A1, A3, etc. provient de A, est la même que la probabilité qu’une boule blanche sortie de A, portera le no  ; laquelle a pour valeur le rapport de à la somme des quantités , , , etc., puisque cette somme est le nombre total des boules blanches qui seront contenues dans A, et que dans cette somme, il y en aura un nombre qui portera le no . On aura donc aussi

.

quantité qui coïncide, en vertu des équations précédentes, avec l’expression de qu’il s’agissait de démontrer.

(29). En calculant les probabilités de plusieurs événements successifs, il faut non-seulement tenir compte de l’influence que peut avoir l’arrivée de l’un d’eux sur la chance de celui qui le suit (no 9) ; mais on doit aussi quelquefois avoir égard, dans l’évaluation de cette chance, aux probabilités des diverses causes de l’événement précédent, ou des différentes manières dont il a pu avoir lieu. C’est ce qu’on verra, par exemple, dans le problème suivant.

Je suppose qu’où ait un nombre d’urnes A, B, C, D, etc., contenant des boules blanches et des boules noires, et que les chances d’extraire une boule blanche soient , de l’urne A, de B, de C, etc. On tire au hasard une première boule de l’une de ces urnes, puis une seconde boule de l’une des urnes d’où la première n’est pas sortie, puis une troisième de l’une des urnes d’où les deux premières ne sont pas sorties, etc., c’est-à-dire, qu’après chaque tirage, on supprime l’urne d’où la boule a été extraite. On demande la probabilité d’amener, de cette manière, un nombre de boules blanches, dans un pareil nombre de tirages ; étant moindre que ou égal à .

Faisons, pour abréger,

,
,
,
,
etc. ;

de sorte que soit la somme des fractions , , , , etc., que représente la somme de leurs produits deux à deux dont le nombre est , que désigne la somme de leurs produits trois a trois dont le nombre est , etc. La probabilité d’amener une boule blanche au premier tirage, sera . Si la boule blanche ou noire, extraite à ce tirage, est sortie de A, la probabilité d’amener une boule blanche au second tirage aura pour valeur ; cette probabilité sera , si la première boule est sortie de B ; elle sera , si la première boule a été extraite de C ; et ainsi de suite. De là et des règles des nos 9 et 10, on conclut

,

pour la probabilité complète de l’arrivée d’une boule blanche au second tirage ; étant la probabilité que la boule extraite au premier est sortie de A, la probabilité qu’elle est sortie de B, qu’elle est sortie de C, etc. Or, ces probabilités , , , etc., ne sont point égales entre elles[1] : d’après ce qu’on a vu dans le numéro précédent, on a

,,, etc. ;

on a aussi, identiquement,

 ;

la probabilité d’amener une boule blanche au second tirage deviendra donc . De même, la probabilité d’amener une boule blanche au troisième tirage sera , si les deux boules blanches ou noires, extraites dans les deux premiers tirages, sont sorties de A et B ; cette probabilité sera , si ces deux boules ont été extraites de A et C ; et ainsi de suite. Donc la probabilité d’amener une boule blanche au troisième tirage, aura pour valeur complète

 ;

, , , etc., désignant les probabilités que les boules extraites dans les deux premiers tirages sont sorties de A et B, de A et C, de B et C, etc. ; lesquelles probabilités sont, d’après le numéro précédent,

,,, etc. ;

et comme on a identiquement

,

la probabilité de l’arrivée d’une boule blanche au troisième tirage deviendra .

On continuera sans difficulté ce raisonnement autant qu’on voudra. Il en résultera

,,, …, ,

pour les probabilités d’amener des boules blanches à chacun des premiers tirages ; la probabilité demandée sera donc le produit de ces fractions (no 5), qui se réduit à , en faisant

,

de sorte que soit le nombre des produits à des lettres , , , , etc., desquels est la somme.

On vérifie cette valeur , en observant que chacun de ces produits est la probabilité de tirer boules blanches de urnes déterminées, prises parmi A, B, C, D, etc., et que, par conséquent, la somme de tous ces produits divisée par leur nombre est la probabilité d’extraire boules blanches de de ces urnes, prises au hasard ; laquelle probabilité est évidemment la même que celle qu’il s’agissait d’obtenir. Dans le cas de , on a , et cette probabilité est , ce qui résulte immédiatement de la règle du no 5.

(30). Maintenant, soit E′ un autre événement, différent de E, mais dépendant des mêmes causes que l’on a désignées par C1, C2, C3, etc. Représentons par

, , , ,

les chances de E′ relatives à ces diverses causes, de sorte que soit la probabilité donnée que E′ arriverait si la cause C était certaine ; cette cause étant seulement probable, et sa probabilité ayant été représentée par , l’arrivée de E′ en vertu de cette cause, sera un événement composé dont la chance aura pour expression le produit de ces deux probabilités (no 5). De plus, la probabilité complète de E′ sera la somme des chances relatives aux manières différentes dont cet événement peut avoir lieu (no 10), c’est-à-dire, la somme des valeurs de qui se rapportent aux causes possibles C1, C2, C3, etc., de E et de E′. En désignant par cette probabilité complète de E′, nous aurons donc

,

ou bien, en mettant pour , , etc., leurs valeurs,

.

Telle est la formule qui sert à calculer la probabilité des événements futurs, d’après l’observation des événements passés. On parvient aussi à la même expression, sans l’intermédiaire des causes communes à E et E′, en les considérant comme deux événements composés qui dépendent d’un même événement simple ; les raisonnements qui nous y ont conduits, s’appliqueraient également à cette autre manière d’envisager la question ; mais on peut, si l’on veut, la faire rentrer immédiatement dans la précédente.

En effet, si E et E′ sont deux événements composés d’un même événement G, et que G soit susceptible de différentes chances

, , , ,

toutes également probables avant que l’événement E ait été observé, on pourra les considérer comme autant de causes distinctes de E et de E′ ; en prenant donc pour la cause que l’on a appelée précédemment C, la probabilité de sera la valeur de que nous avons trouvée, c’est-à-dire que sera la probabilité que la chance de G est égale à  : l’expression précédente de sera ensuite la probabilité de l’arrivée de E′, résultante de valeurs possibles de la chance de G. Dans cette formule, et exprimeront les probabilités données des arrivées de E et E′, si était certainement la chance de G.

(31). On ne doit pas confondre cette détermination de la probabilité de E′, d’après l’observation de E, avec une influence quelconque de l’arrivée des événements passés sur celle des événements futurs, qu’il serait absurde de supposer. Si je suis sûr, par exemple, qu’une urne A renferme trois boules blanches et une boule noire, il est certain pour moi que la chance de l’extraction d’une boule blanche est 3/4 ; par conséquent, si E′ est la sortie de deux boules blanches tirées de A, en y remettant la première boule qui sera extraite, la chance de E′ sera le carré de 3/4 ou 9/16, quel que soit l’événement E que j’aurai pu observer ; et en supposant que E soit la sortie d’un certain nombre de boules blanches, et d’un certain nombre de boules noires, extraites successivement de A et remises à chaque fois dans cette urne, je devrai toujours, sans avoir égard à la proportion de ces deux nombres, parier 9 contre 7 pour l’arrivée de E′. Mais lorsque la chance de l’événement simple G ne m’est pas connue, et que je sais seulement qu’elle n’est susceptible que de certaines valeurs, l’observation de E me fait connaître la probabilité de chacune d’elles, d’où je conclus ensuite la probabilité de E′. Cette observation augmente ou diminue la raison que j’avais de croire à l’arrivée de E′, sans influer aucunement sur cet événement futur, ou sur la chance qui lui est propre ; de telle sorte que pour quelqu’un qui aurait observé un autre événement E1, dépendant du même événement simple G, la raison de croire à l’arrivée de E′ pourrait être beaucoup plus forte ou beaucoup moindre que pour moi ; ce qui ne changerait rien à la chance propre de E′.

Relativement à ce cas de deux personnes, dont l’une a observé un événement E, et l’autre un événement E1, composés tous les deux d’un même événement G, il ne faut pas oublier que si E1 comprend E et quelque chose de plus, l’opinion de la seconde personne sur l’arrivée d’un nouvel événement E′, dépendant aussi de G, sera plus éclairée que celle de la première personne, et devra être adoptée préférablement (no 1). En supposant que l’observation de E1 ait conduit à une probabilité de l’événement futur E′, et celle de E à une probabilité du même événement, la seconde personne, sera plus fondée à parier contre que la première contre , pour l’arrivée de E′ ; quelles que soient d’ailleurs les fractions et , plus grandes ou moindres que 1/2, et la différence , positive ou négative.

(32). Il est bon, avant d’aller plus loin, de donner quelques exemples simples de l’usage des expressions précédentes de et , que nous mettrons d’abord sous la forme abrégée :

, ;

la caractéristique indiquant une somme qui s’étend aux valeurs de l’indice , depuis jusqu’à .

On sait qu’une urne B renferme boules blanches ou noires : on en a tiré une blanche ; et l’on demande la probabilité qu’elle contenait un nombre de boules de cette couleur.

Nous pouvons faire sur les nombres de boules blanches que l’urne contenait, hypothèses différentes qui consistent à supposer successivement qu’elle renfermait boules blanches, boules blanches et une noire, boules blanches et deux noires,… une boule blanche et noires. Toutes ces hypothèses étant également possibles et s’excluant mutuellement, on peut les prendre pour les causes C1, C2, C3, etc., de l’événement E, qui est ici l’extraction d’une boule blanche, sortie de B. Or, dans la supposition que parmi les boules contenues dans B, il y avait boules blanches, la probabilité de cette extraction serait le rapport de à , on a donc

 ;

d’où l’on conclut

,

et, par conséquent,

,

pour la probabilité que B contenait effectivement boules blanches. Elle ne peut être 1/2 que quand on a . En général, la probabilité que B ne contienne que des boules blanches, ou qu’on ait , après qu’on en a vu sortir une boule de cette couleur, aura pour valeur.

Si E′ est l’extraction d’une nouvelle boule blanche de B, sa probabilité sera différente, selon que la boule blanche déjà sortie aura été ou n’aura pas été remise dans cette urne.

Dans le premier cas, on aura

, ;

mais on a, comme on sait,

, ;

d’où l’on déduit

,

et, en conséquence,

.

Dans le second cas, le nombre de boules blanches et le nombre total de boules que B renferme, étant diminués d’une unité à la seconde épreuve, on aura

, ;

on aura toujours

,,

et à cause de

,

on en conclura

.

La probabilité d’extraire une boule blanche d’une urne, d’où il est déjà sorti une boule de cette couleur que l’on n’y a pas remise, est donc indépendante du nombre de boules blanches ou noires que l’urne renfermait, et toujours égale à 2/3. La valeur de relative au premier cas se réduit aussi à cette fraction 2/3, comme cela devait être, lorsque est un nombre très grand et qu’on le considère comme infini.

Sur un nombre quelconque de boules blanches ou noires que B renfermait primitivement, si l’on savait qu’il en a été extrait boules blanches, il y aurait la probabilité , que la boule restante est aussi blanche. On ne pourrait faire alors que deux hypothèses C1 et C2, savoir : la supposition C1 que les boules étaient blanches, et la supposition C2 qu’il y avait une seule boule noire. Dans la première hypothèse, la probabilité de l’événement observé est la certitude ; dans la seconde, cette probabilité, c’est-à-dire la chance d’extraire de B les boules blanches est la même que celle d’y laisser la boule noire ; et comme, à priori, la boule restante peut être également chacune des boules contenues dans B, la probabilité que c’est la boule noire a pour valeur. On a donc

, ;

d’où il résulte

,

pour la probabilité de la première hypothèse, ou, ce qui est la même chose, pour la probabilité que la boule restante dans l’urne soit blanche comme toutes celles qui en ont été extraites. Dans le cas de , cette valeur de se réduit à , ce qui est évident, à priori.

(33). Voici encore une application immédiate des formules précédentes, dans laquelle on ne connaît pas le nombre total de boules blanches ou noires que l’urne B renferme ; on sait seulement, par exemple, que ce nombre ne peut pas excéder trois. L’événement observé E est la sortie de boules blanches, dans une série de tirages où l’on a remis à chaque fois dans B, la boule blanche ou noire qui en était sortie. Si n’est ni zéro, ni égal à , on ne pourra faire sur les boules contenues dans B que trois hypothèses, savoir : l’hypothèse C1 d’une boule blanche et d’une noire, C2 de deux boules blanches et d’une noire, C3 de deux boules noires et d’une blanche. Les probabilités de E qui répondent à ces trois causes distinctes, seront

,,,

ou, ce qui est la même chose,

,, ;

en faisant pour abréger,

,

on aura donc

,,,

pour les probabilités de C1, C2, C3. En prenant pour l’événement futur E′, l’extraction d’une nouvelle boule blanche, les probabilités de E′ relatives à ces trois hypothèses seront

,,,

par conséquent, sa probabilité complète aura pour valeur

.

Dans le cas de , on aura

La valeur de est 1/2, comme cela devait être ; car les boules blanches et noires étant sorties en même nombre de B, il n’y a pas de raison pour croire plutôt à l’arrivée d’une boule blanche qu’à celle d’une boule noire dans un nouveau tirage. Néanmoins, il faudra que 9 surpasse le double de 8, ou que soit plus grand que cinq, pour que l’on puisse parier plus d’un contre un, que le nombre de boules blanches est le même que celui des boules noires dans B, ou que cette urne renferme une boule blanche et une boule noire. La probabilité de cette hypothèse diffère très peu de la certitude, lorsque est un très grand nombre.

Si est un nombre entier, et qu’on ait et , il en résultera

 ;

quantité qui différera très peu de 2/3, lorsque sera très grand. En même temps, la probabilité que B renferme deux boules blanches et une boule noire, différera aussi très peu de la certitude.

Supposons encore que l’on ait . La valeur correspondante de deviendra

 ;

lorsque sera très grand, elle se réduira à très peu près à 1/3, et la probabilité que B renfermera une boule blanche et deux boules noires, sera aussi à très peu près la certitude.

Dans les trois cas où le nombre de tirages a été supposé très grand, on voit que la probabilité de l’arrivée d’une nouvelle boule blanche a eu pour valeur très approchée, le rapport du nombre des boules blanches sorties de B au nombre total des épreuves, et que, dans chaque cas, ce rapport a aussi été, avec une probabilité très approchante de la certitude, celui du nombre de boules blanches au nombre total de boules contenues dans B, c’est-à-dire la chance propre de l’extraction d’une boule blanche de cette urne. On verra effectivement, dans la suite, que quand un événement, d’une nature quelconque, a été observé un certain nombre de fois, dans un très grand nombre d’épreuves, le rapport du premier nombre au second est la valeur très probable et très approchée de la chance connue ou inconnue de cet événement. Dans l’exemple que nous considérons, cette chance ne pouvant être que 1/2, 2/3, 1/3, il s’ensuit que les valeurs sont aussi les seules qu’on doive supposer, avec vraisemblance, quand et sont de très grands nombres.

(34). Nous avons supposé, dans ce qui précède, qu’avant l’arrivée de E toutes les causes C1, C2, C3, etc., auxquelles on peut attribuer cet événement étaient également possibles ; mais si l’on avait à priori quelque raison de croire plutôt à l’existence de l’une de ces causes qu’à celle d’une autre, il serait nécessaire d’avoir égard à cette inégalité des chances de C1, C2, C3, etc., antérieures à l’observation, dans l’évaluation des probabilités que ces diverses causes ont acquises après l’arrivée de E. Cette nécessité est un point important de la théorie des probabilités, surtout dans la question relative aux jugements des tribunaux, ainsi qu’on l’a expliqué dans le préambule de cet ouvrage. La démonstration du no 28 est d’ailleurs facile à étendre au cas général où les causes de E avaient, antérieurement à l’observation, des probabilités quelconques dont les valeurs sont données.

En effet, comme dans ce numéro, remplaçons l’événement E par l’extraction d’une boule blanche qui a pu sortir de l’une des urnes A1, A2, A3, etc., et supposons d’abord que la sortie de chacune d’elles a été également possible pour toutes. La probabilité qu’elle est sortie de l’urne A sera , en désignant toujours par le rapport du nombre de boules blanches au nombre total de boules contenues dans A, et étendant la somme à toutes les urnes A1, A2, A3, etc. Pour d’autres urnes A, A, etc., comprises parmi celles-là, cette probabilité sera de même , , etc. ; d’après la règle du no 10, la probabilité que la boule blanche est sortie de l’une des urnes A, A, A, etc., sera la somme

,

qui se réduira à l’une de ces fractions multipliée par leur nombre, lorsque les quantités , , , etc., seront égales entre elles.

Cela étant, concevons que les urnes A1, A2, A3, etc., se composent d’un nombre d’urnes A1 dans chacune desquelles soit le rapport de la quantité de boules blanches à celle des boules blanches ou noires, d’un nombre d’urnes A2 dans lesquelles ce rapport soit …, et enfin d’un nombre d’urnes A où ce même rapport soit  ;  ; de manière que exprime le nombre de ces groupes d’urnes semblables, et qu’en appelant le nombre de toutes les urnes, nous ayons

.

La somme étendue à toutes les urnes pourra être remplacée par celle-ci qui s’étendra à tous les groupes, ou à toutes les valeurs de l’indice , depuis jusqu’à . Si donc les urnes A, A, Aetc., forment un des groupes et sont en nombre , la probabilité que la boule blanche extraite de l’une des urnes, soit sortie de ce groupe, aura pour valeur le rapport , multiplié par  ; en sorte qu’en la désignant par , nous aurons

.

Mais avant l’observation, la probabilité que la boule blanche ou noire qui serait extraite, sortirait de ce même groupe, était évidemment  ; en la représentant par , on aura donc

, ;

et si l’on substitue cette valeur de dans celle de , et que l’on supprime le facteur qui sera commun au numérateur et au dénominateur, il en résultera

.

Cela posé, les différents groupes d’urnes que nous venons de considérer, représentent toutes les causes possibles C1, C2, C3, etc., de l’événement E, dont le nombre est , et qui étaient inégalement probables à priori. La fraction exprime la probabilité, avant l’observation, que l’événement qui arriverait serait dû à la cause C ; après l’observation, exprime la probabilité que l’événement E qui a eu lieu, a été produit par cette même cause ; et comme les causes C1, C2, C3, etc., s’excluent mutuellement, et sont les probabilités, antérieure et postérieure à l’observation, de l’existence de cette cause. L’expression de montre donc que la probabilité de chacune des causes possibles d’un événement observé, est égale au produit de la probabilité de cette cause avant l’observation et de la probabilité qu’elle donnerait à cet événement, si elle était certaine, divisé par la somme des produits semblables, qui se rapportent à toutes les causes auxquelles l’événement peut être attribué.

La probabilité de l’événement futur E′ qui dépend des mêmes causes que E, aura, comme plus haut, pour valeur, en employant dans cette somme l’expression de que l’on vient de déterminer ; ce qui donne

.

Supposons que E′ soit aussi observé après E. Soit E″ un troisième événement dépendant toujours des mêmes causes ; et désignons par , la chance que la cause C, si elle était certaine, donnerait à l’arrivée future de E″. La probabilité de cette cause était après l’observation de E et avant celle de E′ ; par la règle précédente, elle est devenue , après l’observation de E′ ; en mettant dans sa valeur celle de , elle devient  ; et en la multipliant par , on aura la probabilité de l’arrivée de E″, en vertu de la cause C. Par conséquent, si nous désignons par la probabilité complète de cette arrivée, nous aurons

 ;

expression qui se déduit aussi de celle de , par la substitution de au lieu de et de à la place de . Et, en effet, relativement à la cause C, ce produit est la chance de l’événement observé, c’est-à-dire, de la succession des événements E et E′.

(35). Pour donner un exemple très simple de la règle précédente, qui pourra servir à en vérifier l’exactitude et la nécessité, je suppose que l’on trouve sur une table deux cartes dont les couleurs sont inconnues, et qu’en en retournant une, on observe qu’elle est rouge. On ne pourra faire que deux hypothèses sur les couleurs de ces cartes : qu’elles sont toutes deux rouges, ou que l’une est rouge et l’autre noire. Si l’on ignore absolument d’où ces cartes proviennent, ces deux causes hypothétiques de l’événement observé seront également probables à priori ; et après l’observation, la probabilité de la première hypothèse aura 2/3 pour valeur, comme on l’a vu dans un des exemples du no 32 ; en sorte que l’on pourrait parier deux contre un, que la carte non-retournée est rouge comme la carte retournée. Mais il n’en sera plus de même, si l’on sait, par exemple, que les deux cartes ont été prises au hasard dans un jeu de piquet, composé de seize cartes rouges et d’autant de cartes noires. Avant l’observation, on aura (no 18)

,,

pour les probabilités de la première et de la seconde hypothèse ; on a, en même temps,

, ;

d’où l’on déduit

,

pour la probabilité de la première hypothèse, après l’observation ; de manière qu’au lieu de deux contre un, il y a, au contraire, moins de un contre un, et seulement 15 contre 16 à parier que la carte inconnue est rouge comme celle qui a été retournée. Cette valeur de se vérifie immédiatement ; car il est évident que la question est la même que si, après avoir tiré une carte rouge du jeu entier, on demandait la probabilité de tirer encore une carte rouge des 31 cartes restantes et qui n’en contiennent plus que 15 de cette couleur.

En général, si l’on a un tas de cartes dont rouges et noires, que l’on y prenne au hasard un nombre de cartes, et qu’en retournant un nombre de celles-ci, on en trouve rouges et noires, on obtiendra, par la règle précédente,

, ;

pour la probabilité que la ième carte est rouge, et pour la probabilité qu’elle est noire. Cette valeur de est aussi, comme cela devait être, la probabilité de tirer une carte rouge du tas primitif, réduit à cartes, dont rouges, par l’extraction de rouges et noires. La valeur de se vérifie de même ; à cause de et , on a d’ailleurs .

(36). La conséquence générale de la règle du no 34, est que si deux événements E et E′ dépendent d’une même cause, la probabilité de l’événement futur E′ ne résultera pas seulement de l’événement observé E : on devra avoir égard dans son évaluation aux connaissances antérieures à l’observation que l’on pouvait avoir sur ce qui concerne la cause commune de E et E′ ; de telle sorte que la probabilité de E′ pourra être différente pour deux personnes qui auront observé le même événement E, mais qui avaient auparavant des données différentes sur la question.

De même, dans les questions de doute ou de critique auxquelles s’applique aussi le calcul des probabilités (no 3) ; lorsqu’il s’agira de savoir si un fait attesté par un témoin est vrai ou faux, on devra tenir compte, non-seulement de la chance d’erreur du témoin, mais encore de nos connaissances antérieures à son témoignage.

Ainsi, en représentant par la probabilité que le témoin ne nous trompe pas, involontairement ou à dessein, et par la probabilité de la vérité du fait avant qu’il fût attesté par le témoin, sa probabilité après le témoignage dépendra de et , et se déterminera de la manière suivante.

L’événement observé est ici l’attestation d’un fait qui n’est point incontestable. Dans la supposition qu’il est vrai, le témoin ne nous trompe pas, et est, par conséquent, la probabilité de l’événement. Sa probabilité est dans l’hypothèse que le fait est faux, puisqu’alors le témoin nous trompe. Avant le témoignage, était la probabilité de la première hypothèse et celle de la seconde. En appelant la probabilité de la première hypothèse, ou de la vérité du fait, après le témoignage qui l’atteste, on aura donc, par la règle du no 34,

.

On tire de là

 ;

ce qui montre que la différence est de même signe que  ; d’où il résulte que le témoignage augmente ou diminue la probabilité de la vérité du fait, qui avait lieu auparavant, selon qu’on suppose ou  : la différence est nulle et le témoignage ne change rien à la probabilité antérieure, dans le cas de , où il y a un contre un à parier que le témoin dit ou ne dit pas la vérité. Lorsque, à priori, on n’a aucune raison de croire plutôt à la vérité qu’à la fausseté du fait que le témoin atteste, la probabilité est  ; il s’ensuit  ; et, dans ce cas, la probabilité que le fait est vrai, ne dépend plus que de la véracité et des lumières du témoin.

On ne peut pas supposer que l’une des deux quantités et soit l’unité et l’autre zéro ; mais si approche beaucoup de la certitude et que approche encore plus de l’impossibilité, de manière que le rapport de à soit une très petite fraction, la probabilité sera aussi très petite, et à peu près égale à ce rapport. C’est le cas d’un fait contraire aux lois générales de la nature, et attesté par un témoin auquel on accorderait, sans cette opposition, un grand degré de confiance. Ces lois générales sont pour nous le résultat de longues séries d’expériences ; ce qui leur donne, sinon une certitude absolue, du moins une très forte probabilité, encore augmentée par l’harmonie qu’elles présentent, et qu’aucun témoignage ne saurait balancer. Si donc le fait attesté est contraire à ces lois, la probabilité qu’il n’est point inexact sera à très peu près nulle avant le témoignage ; et en supposant même le témoin de bonne foi, il suffira qu’il ne soit point infaillible pour que sa chance d’erreur soit extrêmement grande par rapport à cette probabilité antérieure , et que la probabilité , après le témoignage, puisse encore être considérée comme insensible. En pareil cas, il serait raisonnable de rejeter notre propre témoignage, et de penser que nous sommes trompés par nos sens qui nous présenteraient comme vrai, quelque chose de contraire aux lois de la nature.

(37). Supposons que le fait dont nous venons de considérer la probabilité, soit aussi attesté par un second témoin ; désignons par la probabilité que ce témoin ne nous trompe pas, et par la probabilité de la vérité du fait, résultante du double témoignage ; en observant que la probabilité de la vérité de ce fait était déjà , indépendamment de la seconde attestation, on en conclura que l’expression de doit se déduire de celle de , par le changement de et , en et  ; ce qui donne

,

ou bien, en mettant pour et leurs valeurs,

.

Si le second témoin atteste la fausseté du fait dont la vérité a été affirmée par le premier, on remarquera qu’indépendamment du second témoignage, la probabilité que le fait est faux avait déjà pour valeur, en désignant donc par la probabilité de la fausseté du fait, résultante des deux attestations contraires, l’expression de devra se déduire de celle de du numéro précédent, par le changement de et , en et , et de cette manière, on aura

,

ou, ce qui est la même chose,

.

Dans le cas de , cette valeur de se réduit à  ; et, en effet, les deux témoignages contraires et de même poids se détruisent, et la probabilité de la fausseté du fait doit demeurer la même qu’auparavant.

On déterminera de même, sans difficulté, la probabilité qu’un fait est vrai ou faux, lorsqu’il est attesté par des témoins et nié par d’autres, en nombre quelconque. Si le fait est attesté par tous les témoins à la fois, l’expression de la probabilité qu’il est vrai prendra la forme suivante.

Soit toujours, antérieurement à tous les témoignages, la probabilité que le fait est vrai ; désignons par ce que devient cette probabilité après que le fait a été attesté par un nombre quelconque de témoins ; sera cette même probabilité, quand le fait est attesté seulement par un nombre de témoins ; et si l’on représente par avec un nombre d’accents, c’est-à-dire par , la probabilité que le témoin qui n’est pas compris dans ceux-ci, ne nous trompe pas, lorsqu’il atteste aussi la vérité du fait, l’expression de se déduira de celle de du numéro précédent, en y mettant et , au lieu de et , de sorte que l’on aura

.

La valeur de sera la probabilité primitive  ; et si l’on fait successivement , etc., on déduira de cette formule

, , etc. ;

d’où l’on conclura la valeur de par l’élimination de , celle de par l’élimination de , et ainsi de suite. Mais, si l’on fait, pour abréger,

,

l’équation précédente, aux différences finies du premier ordre, se changera en celle-ci :

,

dont l’intégrale complète est

,

en désignant par la constance arbitraire. En mettant au lieu de dans cette expression de , on en déduit effectivement

,
 ;

et ces valeurs jointes à celle de rendent identique l’équation donnée. On déterminera la constante au moyen d’une valeur particulière de , et, si l’on veut, au moyen de celle qui répond à  ; en prenant alors l’unité pour le produit , de facteurs, il en résultera , et, pour un nombre quelconque de témoins, nous aurons ensuite

,

Relativement au témoin qui répond à l’indice quelconque , la quantité est le rapport de la probabilité qu’il nous trompe à la probabilité qu’il ne nous trompe pas, de sorte qu’on a ou selon que la première probabilité est supérieure ou inférieure à la seconde et quand elles sont égales. Si le nombre des témoins est très grand et considéré comme infini, et que surpasse l’unité pour tous les témoins, la probabilité de la vérité du fait qu’ils attestent sera zéro à une exception près ; et au contraire, dans ce cas de infini, cette probabilité sera l’unité ou la certitude, aussi à une exception près, lorsque sera moindre que l’unité pour tous les témoins. L’exception aura lieu, quand les quantités , , , etc., décroîtront ou croîtront continuellement, mais en s’approchant indéfiniment de l’unité. Prenons, par exemple, pour leur terme général,

,

désignant le rapport de la circonférence au diamètre, et une constante donnée qui ne surpassera pas l’unité, afin qu’aucune des quantités , , , etc., ne soit négative. Par une formule connue, leur produit sera égal à  ; on aura donc

 ;

quantité qui différera beaucoup de l’unité, quand différera de même de . Si l’on fait , la nouvelle constante pourra être plus petite ou plus grande que l’unité. En désignant par la hase des logarithmes népériens, il en résultera

 ;

et si ne surpasse pas l’unité, ou seulement si n’est pas un très grand nombre, cette probabilité ne sera pas très petite. Toutefois, il sera facile de s’assurer que la première valeur de , sera toujours supérieure à la probabilité antérieure aux témoignages, et la seconde toujours inférieure.

Ces formules supposent que tous les témoignages soient directs ; nous examinerons tout à l’heure le cas ou un seul est direct, et tous les autres sont traditionnels.

(38). Quand un témoin ne se borne point à dire qu’une chose soit vraie ou fausse, mais qu’il atteste l’arrivée d’un événement, dans un cas où il y en avait plusieurs qui fussent possibles ; l’événement qu’il peut annoncer, quand il se trompe ou qu’il veut tromper, n’est point unique, et doit être seulement un de ceux qui n’ont point eu ou qu’il ne croit point avoir eu lieu ; or, cette circonstance influe, comme on va le voir, sur la probabilité de l’événement après le témoignage, indépendamment de celle qu’il avait auparavant.

Je suppose, pour fixer les idées, qu’une urne A renferme un nombre de boules, dont portent le no 1, le no 2,… le no , de sorte qu’on ait

,

et que soit le nombre de numéros différents que cette urne renferme ; si une boule en est sortie, on pourra aussi faire hypothèses différentes C1, C2, C3,… C, sur le numéro de cette boule ; leurs probabilités avant aucun témoignage, étant désignées par , , ,… , on aura

, ,  ;

et si un témoin annonce que la boule sortie de A porte le no , les probabilités de ces hypothèses prendront les valeurs . qu’il s’agira de déterminer par la règle du no 34. Ici l’événement observé sera l’annonce, par le témoin, de la sortie du no  ; chacune des hypothèses donnera une certaine probabilité à cet événement, dont il faudra d’abord former l’expression ; on représentera par , ses probabilités résultantes des hypothèses ; et d’après ces diverses notations, C, , , , répondront à la sortie d’un numéro quelconque , et, en particulier, C, , , , a la sortie du no  annoncé par le témoin.

Je désigne par la probabilité que ce témoin ne se trompe pas, et par la probabilité qu’il ne veut pas tromper ; sera la probabilité qu’il se trompe, et qu’il veut tromper. Dans la ième hypothèse, c’est-à-dire, dans la supposition que est réellement le numéro extrait de A, le témoin annoncera la sortie de ce numéro, s’il ne trompe pas et s’il ne veut pas tromper, combinaison dont la probabilité est par la règle du no 5. S’il se trompe, il croira que la boule sortie de A porte un numéro quelconque différent de  ; et en même temps, s’il veut tromper, il annoncera un numéro différent de , ou pris parmi les autres numéros ; la chance qui en résultera pour le no  d’être précisément celui que le témoin annoncera, sera donc , en admettant, toutefois, que le témoin n’ait aucune prédilection pour un numéro plutôt que pour un autre ; par conséquent, d’après la règle citée, la probabilité que ce numéro sera annoncé par un témoin qui se trompe et qui veut tromper, aura pour valeur le produit des trois fractions , , . Soit que le témoin se trompe et ne veuille pas tromper, soit qu’il ne se trompe pas et veuille tromper, le témoin n’annoncera pas la sortie du no  ; car, dans le premier cas, il voudra annoncer le numéro qu’il croira sorti et qui ne sera pas le no , et, dans le second, il saura que ce numéro est sorti et ne voudra pas l’annoncer. De toute cette discussion et d’après la règle du no 10, on conclut

,

pour la probabilité complète que l’hypothèse C, si elle était certaine, donnerait à l’événement observé.

Dans l’hypothèse C, correspondante à la sortie d’un no  différent de , le témoin n’annoncera pas le no , s’il ne se trompe pas et ne veut pas tromper. S’il ne se trompe pas et qu’il veuille tromper, il saura que le no  est sorti, mais il annoncera la sortie de l’un des autres numéros ; et la chance pour que ce soit le no , sera  : d’où il résulte pour la probabilité que ce no  sera effectivement annoncé par le témoin. S’il se trompe et qu’il ne veuille pas tromper, cette probabilité sera égale à  ; car le témoin pourra croire que le numéro sorti est un des numéros différents de  ; il annoncera celui qu’il croira sorti ; et sera la chance pour que soit ce numéro. Enfin, si le témoin se trompe et qu’il veuille tromper, il faudra d’abord qu’il croie sorti de A, un des numéros différents de celui qu’il annonce ; sera donc la probabilité qu’il croira sorti un numéro déterminé  ; cette fraction exprimera aussi la probabilité qu’il annoncera le no , parmi les numéros différents de  ; on aura donc pour la probabilité que le témoin croira sorti le no  et qu’il annoncera la sortie de . La chance qui en résultera pour ce no  d’être annoncé sera, par conséquent, la fraction multipliée par le nombre des numéros tels que , que le témoin a pu croire sortis de A ; lequel nombre est seulement , puisque le témoin qui se trompe et qui veut tromper, ne peut croire sorti ni le no  qui l’est réellement, ni le no  qu’il annonce. D’un autre côté, la probabilité de cette double erreur est le produit  ; la probabilité que le no  sera effectivement annoncé par ce témoin, aura donc pour valeur le produit multiplié par la chance . Je réunis les probabilités de cette annonce dans les trois cas distincts où elle peut avoir lieu, il en résulte

,

pour la probabilité complète de l’événement observé, dans une des hypothèses contraires à la vérité de cet événement. Cette valeur de  ; est d’ailleurs liée à celle de par l’équation

,

résultante de ce que la somme des probabilités que le témoin annoncera la sortie du no , correspondante aux hypothèses C1, C2, C3,… C, doit être égale à l’unité.

Maintenant, par la règle du no 34, nous aurons

, ;

les sommes s’étendant à toutes les valeurs de l’indice , depuis jusqu’à , excepté . Et comme la quantité est indépendante de , et que la somme des valeurs de , moins celle qui répond à , est , l’expression de deviendra

après qu’on y aura substitué les valeurs de , , , , et multiplié son numérateur et son dénominateur par . Ce sera donc la probabilité que le numéro annoncé par le témoin est réellement sorti de A ; la probabilité qu’il ne l’est pas aura pour valeur ; et, en particulier, celle de la sortie d’un tout autre numéro déterminé se déduira de l’expression de , en la multipliant par le rapport de à ou de à  ; en sorte que l’on aura

.

On doit remarquer que pour obtenir ces résultats, nous avons admis que quand le témoin se trompe ou qu’il veut tromper, le numéro qu’il annonce est déterminé par le hasard seulement, et non par quelque cause particulière. Il n’en serait pas de même, lorsqu’il veut tromper, s’il avait une raison quelconque pour faire croire à l’arrivée d’un numéro plutôt qu’à celle d’un autre, ni quand il se trompe, si son erreur était produite, par exemple, par la ressemblance du numéro qu’il croit sorti et qu’il annonce, avec le numéro réellement extrait de A. Ces circonstances difficiles à apprécier et dont nous avons fait abstraction pourraient influer beaucoup sur la probabilité de la sortie du numéro annoncé par le témoin.

Au lieu de boules portant un nombre de numéros différents, l’urne A pourrait contenir des boules d’un pareil nombre de couleurs diverses. Si elle renferme seulement des boules blanches et des boules noires, les premières en nombre et les secondes en nombre , et que la sortie d’une boule blanche soit annoncée par le témoin, on fera et , dans l’expression de  ; en désignant par , ce qu’elle devient alors, on aura

,

pour la probabilité qu’il est effectivement sorti une boule blanche de A.

On peut assimiler à ce cas particulier, celui d’un fait vrai ou faux, attesté par un témoin : on prendra pour ce fait l’extraction de la boule blanche ; sera la probabilité qu’il est vrai ; et son expression devra coïncider avec celle du no 36. Nous aurons d’abord

,

pour la probabilité que le témoin ne nous trompe pas ; car cela peut avoir lieu parce qu’il ne se trompe pas et ne veut pas tromper, ou bien aussi parce qu’il se trompe et veut tromper, c’est-à-dire parce que entre les deux seules choses possibles, l’extraction d’une boule blanche et celle d’une boule noire, représentant la vérité et la fausseté du fait attesté, le témoin croit le contraire de ce qui est, ou dit le contraire de ce qu’il croit, La probabilité qu’il nous trompe sera, en même temps,

 ;

ce qui se déduit de la valeur de , ou s’obtient directement en observant que le témoin peut nous tromper, soit qu’il ne se trompe pas et veuille tromper, soit qu’il se trompe et ne veuille pas tromper. On aura encore

,,

pour les probabilités avant le témoignage, de la vérité et de la fausseté du fait que le témoin atteste. Ces diverses valeurs rendent, en effet, l’expression de du no 36 identique avec celle que l’on vient d’écrire.

Quand l’urne A ne renferme qu’une seule boule portant chaque numéro, depuis le no 1 jusqu’au no , on a et  ; ce qui simplifie beaucoup l’expression générale de , et la réduit à

.

Cette probabilité que le no  annoncé par le témoin est réellement sorti de l’urne A, ne diffère pas, dans ce cas, de celle qui a été désignée plus haut par , c’est-à-dire de la probabilité que le témoin annoncera le no , dans la supposition de la sortie de ce numéro. Elle diminue à mesure que le nombre des numéros contenus dans l’urne devient plus grand, et serait égale à la probabilité que le témoin ne se trompe ni ne veut tromper, si ce nombre pouvait devenir infini.

(39). Il resterait à considérer le cas général où il existe plusieurs témoins dont les uns ont une connaissance directe du fait qu’ils attestent, et les autres le connaissent seulement par tradition ; mais pour ne pas donner une trop grande étendue à cette digression sur la probabilité des témoignages, nous nous bornerons à résoudre une question particulière de cette espèce.

Nous appellerons T, T1, T2,… T, T les témoins dont le nombre sera . Comme dans le problème précédent, une boule a été extraite de l’urne A, son numéro est à la connaissance directe de T, chacun des autres témoins tient de celui qui le précède que cette boule portait le no  ; en sorte que ce fait est transmis du premier témoin T au dernier T, et de celui-ci à nous, par une chaîne traditionnelle, non interrompue. Le témoin T étant donc le seul que nous ayons entendu, l’événement observé, dans cette question, est l’attestation, par ce témoin, qu’il tient de T, que le no  est sorti de A ; et il s’agit de déterminer la probabilité que ce numéro soit effectivement celui qui a été extrait de cette urne.

Soient la probabilité de l’événement observé, dans l’hypothèse C de la sortie du no  de A, et , dans l’hypothèse C de l’extraction d’un autre no . En désignant toujours par et les nombres de boules no  et no  contenus dans A, et par le nombre total de boules que cette urne renferme, la fraction sera, à priori, la chance de la sortie du no , et celle de la sortie du no . Par la règle du no 34, nous aurons

,

pour la probabilité de l’hypothèse C ; la somme s’étendant à tous les indices , depuis jusqu’à , excepté . On verra tout à l’heure que l’expression de est indépendante de  ; et la somme des valeurs de , excepté , étant , cette valeur de est la même chose que

.

On en déduira la probabilité de toute autre hypothèse C, en multipliant , par le rapport de à .

Le problème se réduit donc à la détermination des inconnues et en fonctions de . Pour cela, je représente par la probabilité que le témoin T ne nous trompe pas, de sorte que soit la probabilité qu’il nous trompe, involontairement ou à dessein. Le témoin T annoncera la sortie du no  de A, s’il ne nous trompe pas et que T, ait aussi annoncé l’extraction de ce  ; combinaison dont la probabilité est le produit , dans l’hypothèse C, en observant que exprime à l’égard de T, ce que représente relativement à T. Il pourra encore annoncer la sortie du no , s’il nous trompe, et qu’en même temps T ait annoncé celle d’un autre numéro ; dans l’hypothèse C, la probabilité de cette combinaison est le produit  ; mais la chance que sera le numéro qu’annoncera T parmi les numéros qu’il ne croit pas annoncés par T, étant seulement , cette considération réduira à la probabilité de l’annonce du no . Enfin, le témoin T n’annoncera pas la sortie de ce numéro, soit quand il nous trompera et que T l’aura annoncé, soit quand il ne nous trompera pas et que T aura annoncé la sortie d’un autre numéro. Nous aurons donc

,

pour la probabilité complète de l’événement observé, dans l’hypothèse C. On trouvera de même

,

pour cette probabilité dans toute autre hypothèse C ; en sorte que les deux inconnues et dépendront d’une même équation aux différences finies du premier ordre, et ne différeront l’une de l’autre que par la constante arbitraire.

En considérant et désignant cette constante par , l’intégrale complète de l’équation donnée sera

 ;

car en y mettant au lieu de , on en déduit

et ces valeurs jointes à celle de rendent identique l’équation donnée. Pour déterminer la constante , je fais dans l’intégrale, et j’observe que la probabilité qui se rapporte au témoin direct T, doit être celle que l’on a désignée par dans le numéro précédent. En prenant, dans ce cas de , l’unité pour le produit des facteurs que l’intégrale renferme, on aura donc

, .

Pour une valeur quelconque de , on aura donc ensuite

,

où l’on a fait, pour abréger,

.

En observant que la probabilité relative au témoin direct T, dans une hypothèse quelconque C différente de C, doit aussi être celle que l’on a exprimée par dans le numéro précédent, nous aurons de même

,

quantité indépendante de , puisque ne dépend pas de ce nombre.

Je substitue ces valeurs dans celle de  ; il en résulte

,

pour la probabilité que le no  annoncé par le dernier témoin T est réellement sorti de l’urne A ; ce qu’il s’agissait de déterminer.

Le produit représenté par peut être remplacé par celui-ci :

,

en faisant, pour abréger,

.

Le nombre étant toujours plus grand que un, et désignant une fraction positive qui ne peut pas surpasser l’unité, il s’ensuit que chacun des facteurs de pourra être positif ou négatif, sans sortir jamais des limites . Lorsque le nombre des facteurs sera très grand, ce produit sera insensible, et tout-à-fait nul, si ce nombre était infini, en exceptant toutefois les cas particuliers où les facteurs , , , etc., formeront une série de fractions continuellement convergentes vers l’unité. Cela étant, si l’on néglige dans l’expression de , les termes qui contiennent , elle se réduira à  ; d’où il résulte qu’en général, la probabilité d’un événement qui nous est transmis par une chaîne traditionnelle d’un très grand nombre de témoins, ne diffère pas sensiblement de la chance propre de cet événement, ou indépendante du témoignage ; tandis que l’attestation d’un grand nombre de témoins directs d’un événement rend sa probabilité très approchante de la certitude, lorsqu’il y a pour chacun de ces témoins plus d’un contre un à parier qu’il ne nous trompe pas (no 37).

Dans le cas particulier où l’urne A ne contient qu’une seule boule de chaque numéro, et où l’on a, en conséquence, et , la valeur de se réduit à

,

en vertu de l’équation du numéro précédent

.

Cette probabilité coïncide donc alors avec , c’est-à-dire, avec la probabilité de l’annonce du no  par le témoin T, dans l’hypothèse C que ce numéro est réellement celui qui a été extrait de A. Mais on ne pouvait pas, comme dans la solution que Laplace a donnée de ce problème[2], prendre à priori l’une pour l’autre, ces deux probabilités et , qui ne sont d’ailleurs identiques que quand le rapport de à est égal à celui de à l’unité.

(40). On peut, si l’on veut, exprimer chacune des quantités , , , etc., au moyen du nombre et des probabilités que le témoin auquel elle se rapporte, ne se trompe pas et ne veut pas tromper. J’appellerai la probabilité que le témoin quelconque T appartenant à la chaîne traditionnelle, ne s’est pas trompé, et la probabilité qu’il n’a pas voulu tromper. Si ces deux circonstances ont concouru, le témoin n’aura pas trompé ; il aura pu aussi ne pas tromper, s’il s’est trompé et qu’il ait voulu tromper ; mais dans ce second cas, est la chance qu’il aura annoncé le no , parmi les numéros qu’il ne croyait pas sortis de A ; et ces deux cas étant les seuls où il n’aura pas trompé, en annonçant ce numéro, la valeur complète de sera

 :

pour , elle coïncide avec la valeur de du numéro précédent, en prenant et pour les quantités et que celle-ci renferme.

Cette quantité est la probabilité qu’on doit attacher au témoignage de T, ou la valeur de ce témoignage, considéré en lui-même, c’est-à-dire, la raison qu’on a de croire à la sortie d’un no , d’une urne A, qui peut contenir un nombre d’espèces de numéros différents, lorsque l’on sait seulement que cette sortie est attestée par un témoin T, pour lequel et sont les probabilités qu’il ne se trompe pas et qu’il ne veut pas tromper. Si l’on est certain que T se trompe et veut tromper, on aura et , et la probabilité que le no  est sorti, résultante de son témoignage, sera néanmoins égale à . Ce sera la certitude, dans le cas de  : et, en effet, le témoin annonçant celui des deux numéros qu’il ne croit pas sorti, et croyant sorti le numéro qui ne l’est pas, se trouvera avoir annoncé nécessairement la vérité. Dans le cas de , il y aura un contre un à parier pour la sortie de celui des trois numéros que le témoin aura annoncé ; ce qu’on vérifiera aisément par l’énumération de toutes les combinaisons possibles : et l’on vérifiera de même la valeur de la probabilité relative à un nombre quelconque .

On ne doit pas confondre le cas d’un témoin qui se trompe et veut certainement tromper, avec celui où la chaîne traditionnelle est interrompue, de manière que le témoin T qui précède T n’existe pas. Il est certain qu’alors le témoin T veut tromper, puisqu’il suppose l’existence de T ; on a donc  ; mais la probabilité que T ne se trompe pas, n’est point nulle : ce témoin n’ayant, dans ce cas, aucune notion sur l’événement arrivé, la probabilité qu’il annonce le numéro réellement sorti, est  ; par la même raison, c’est aussi la valeur de son témoignage ; et en effet, si l’on fait et , dans la formule précédente, il vient . Cette valeur de rend nul le facteur de , et réduit, par conséquent, la probabilité de la sortie du no  à , c’est-à-dire, à la chance propre de cet événement, comme cela doit être évidemment.

(41). Au moyen de la règle relative à la probabilité des causes, nous pouvons actuellement compléter ce qui a été dit à la fin du no 7, sur la tendance de notre esprit à ne pas douter que certains événements n’aient une cause spéciale, indépendante du hasard.

Lorsque nous avons observé un événement qui avait en lui-même une très faible probabilité ; s’il présente quelque symétrie, ou quelque autre chose de remarquable, nous sommes naturellement portés à penser qu’il n’est pas l’effet du hasard, ou plus généralement de la cause unique qui lui donnerait cette faible chance, mais qu’il est dû à une cause plus puissante, telle que la volonté de quelqu’un qui aurait eu un but particulier en le produisant. Si, par exemple, nous trouvons sur une table, en caractères d’imprimerie, les 26 lettres de l’alphabet, rangées dans l’ordre naturel a, b, c,… x, y, z, nous ne faisons aucun doute que quelqu’un ne les ait ainsi disposées par un acte de sa volonté ; cependant cet arrangement n’est pas en lui-même plus improbable que tout autre qui ne nous présenterait rien de remarquable, et que pour cette raison nous n’hésiterions pas à attribuer au seul hasard. Si ces 26 lettres devaient être tirées successivement et au hasard, d’une urne où elles seraient renfermées, il y aurait la même chance qu’elles arriveraient dans l’ordre naturel, ou dans un ordre déterminé d’avance, comme celui-ci b, p, w,… q, a, t, que je choisis arbitrairement : cette chance serait aussi petite, mais pas moindre, pour le premier arrangement que pour le second. De même, si une urne renferme, en nombres égaux, des boules blanches et des boules noires, et qu’on en doive extraire successivement 30 boules, en y remettant à chaque fois la boule extraite, la probabilité que ces 30 boules seront blanches, aura pour valeur la 30e puissance de 1/2, c’est-à-dire, à peu près l’unité divisée par un milliard. Mais la probabilité de la sortie de 30 boules, les unes blanches et les autres noires, dans tel ordre et dans telle proportion que l’on voudra assigner d’avance, ne sera ni plus grande ni plus petite que celle de l’extraction de 30 boules blanches ; et il y aura également environ un milliard à parier contre un que cet autre arrangement déterminé n’arrivera pas. Cependant, si nous voyons sortir de l’urne 30 fois de suite une boule blanche, nous ne pourrons pas croire que cet événement soit dû au hasard, tandis que nous lui attribuerons sans difficulté l’arrivée de 30 boules qui ne nous offrira rien de régulier et de remarquable.

Ce que nous appelons hasard (no 27), produit, pour ainsi dire, avec la même facilité, un événement que nous trouvons remarquable et celui qui ne l’est pas. Les événements de la première espèce sont beaucoup plus rares que ceux de la seconde, lorsque tous les événements également possibles sont très nombreux. Pour cette raison, l’arrivée des premiers frappe d’avantage notre esprit ; ce qui nous porte à leur chercher une cause spéciale. L’existence de cette cause est, en effet, très probable ; mais sa grande probabilité ne résulte pas de la rareté des événements remarquables : elle est fondée sur un autre principe auquel nous allons appliquer les règles précédemment démontrées.

(42). Appelons E1, E2, E3, etc., les événements remarquables qui peuvent avoir lieu, et F1, F2, F3, etc., les événements non remarquables. Lorsqu’il s’agira, par exemple, de 30 boules extraites d’une urne qui contient des nombres égaux de boules blanches et de boules noires, les événements E1, E2, E3, etc., seront l’arrivée de 30 boules de la même couleur, celle de 30 boules alternativement blanches et noires, celle de 15 boules d’une couleur suivies de 15 boules de l’autre couleur, etc. Dans le cas d’une trentaine de caractères d’imprimerie, rangés à la suite l’un de l’autre, les événements E1, E2, E3, etc., etc., seront ceux où ces lettres se trouveront disposées, soit dans l’ordre alphabétique, soit dans l’ordre inverse, ou bien ceux où elles formeront une phrase de la langue française, ou d’une autre langue. Dans tous les cas, désignons par leur nombre, et par celui des autres événements F1, F2, F3,  etc. ; supposons qu’ils soient tous également possibles, lorsqu’ils sont dus uniquement au hasard ; de sorte qu’en représentant alors par la probabilité de chacun d’eux, on ait

,

aussi bien quand il appartient à la première série, que quand il fait partie de la seconde ; Il n’en sera plus de même, si ces événements doivent être produits par une cause particulière C, indépendante de la probabilité , et qui sera, pour fixer les idées, la volonté d’une personne et le choix qu’elle fera de l’un d’entre eux. Nous admettrons que ce choix sera déterminé par les diverses circonstances qui rendent remarquable une partie des événements possibles. Ainsi, il y aura une certaine probabilité , que le choix de cette personne se portera sur E1, une autre probabilité qu’il se portera sur E2, etc. ; il n’y aura aucune probabilité qu’il doive se porter sur un des événements F1, F2, F3, etc. ; et ces divers événements étant les seuls possibles, il faudra qu’on ait

.

Si les probabilités , , , etc., sont toutes égales, leur valeur commune sera , et, par conséquent, très grande relativement à , quand le nombre total des cas possibles sera très grand en lui-même et par rapport au nombre des cas remarquables. Généralement, ces probabilités pourront être fort inégales ; nous n’avons aucun moyen de les connaître ; mais il nous suffira qu’elles soient très grandes eu égard à la probabilité  ; ce qui ne peut manquer d’avoir lieu, lorsque celle-ci est extrêmement petite, ou le nombre excessivement grand, comme dans les exemples qu’on vient de citer.

Tel est le principe dont nous partirons pour déterminer la probabilité de la cause C, d’après l’observation de l’un des événements E1, E2, E3, etc., F1, F2, F3, etc., ou, du moins, pour faire voir qu’elle est très grande, quand l’événement observé appartient à la première série.

Supposons que E1 soit cet événement. On pourra faire deux hypothèses, la première qu’il est dû à la cause C, la seconde qu’il est le résultat du hasard. Si la première hypothèse était certaine, serait la probabilité de l’arrivée de E1 ; si c’était la seconde qui le fût, cette probabilité aurait pour valeur ; en appelant donc la probabilité de la première hypothèse après l’observation, et regardant les deux hypothèses comme également probables à priori, nous aurons, par la règle du no 28,

.

Or, il suffit que la probabilité soit très grande eu égard à la très petite chance , pour que cette valeur de diffère très peu de l’unité ou de la certitude. Dans l’un des exemples précédents, où le nombre des événements possibles surpassait un milliard, et où était au-dessous de l’unité divisée par mille millions ; si l’on suppose que 1000 soit le nombre des événements assez remarquables pour déterminer une personne à choisir l’un d’entre eux, et si l’on prend l’unité divisée par ce nombre pour la valeur de , celle de différera de l’unité, de moins d’un millionième, et de beaucoup moins encore, si, comme on peut le croire, la probabilité est au-dessus d’un millième. Lors donc que l’un de ces événements remarquables, aura été observé, par exemple, l’extraction de 30 boules d’une même couleur, tirées d’une urne qui contient, en égale proportion, des boules de deux couleurs différentes, on devra l’attribuer, sans aucun scrupule, comme on le fait naturellement, à la volonté de quelqu’un, ou à toute autre cause spéciale, et ne pas le considérer comme un simple effet du hasard.

Toutefois, la probabilité de la cause C serait beaucoup diminuée, si avant l’observation, son existence et sa non-existence n’étaient pas également possibles, comme le suppose la formule précédente, et que ce soit sa non-existence qui fût primitivement la plus probable. C’est ce qui aura lieu dans l’exemple qu’on vient de citer, lorsqu’on aura pris, avant le tirage, beaucoup de précautions pour soustraire l’extraction des boules à l’influence d’aucune volonté. En ayant égard à cette circonstance, antérieure à l’observation, la règle du no 34 rendra sensible la diminution de la valeur de . Cette probabilité sera aussi augmentée ou diminuée, quelquefois dans de très grands rapports, quand tous les événements E1, E2, E3, etc., F1, F2, F3, etc., ne seront point également possibles : augmentée, si la chance propre de chaque événement est plus petite pour ceux de la première série que pour les événements de la seconde série ; diminuée, dans le cas contraire.

L’harmonie que nous observons dans la nature n’est sans doute pas l’effet du hasard ; mais par un examen attentif et long-temps prolongé, on est parvenu, pour un très grand nombre de phénomènes, à en découvrir les causes physiques qui donnent à leur arrivée, sinon une certitude absolue, du moins une probabilité très approchante de l’unité. En les regardant comme des choses E1, E2, E3, etc., qui présentent des circonstances remarquables, ce serait le cas où ces choses ont par elles-mêmes une assez forte probabilité, pour rendre très improbable et tout-à-fait inutile à considérer, l’intervention de la cause que nous avons appelée C. Quant aux phénomènes physiques, dont les causes nous sont encore inconnues, il est raisonnable de les attribuer à des causes analogues à celles que nous connaissons, et soumises aux mêmes lois. Leur nombre diminue au reste de jour en jour, par le progrès des sciences : aujourd’hui, par exemple, nous savons ce qui produit la foudre, et comment les planètes sont retenues dans leurs orbites, connaissances que n’avaient pas nos prédécesseurs ; et ceux qui viendront après nous, connaîtront les causes d’autres phénomènes, actuellement inconnues.

(43). Lorsque le nombre de causes distinctes auxquelles on peut attribuer un événement observé E est infini, leurs probabilités, soit avant, soit après l’arrivée de E, deviennent infiniment petites, et les sommes contenues dans les formules des nos 32 et 34, se changent en des intégrales définies.

Pour effectuer cette transformation, supposons que l’événement observé E soit l’extraction d’une boule blanche, d’une urne A qui contenait une infinité de boules blanches ou noires. On pourra faire sur le rapport inconnu du nombre de boules blanches au nombre total des boules, une infinité d’hypothèses que l’on prendra pour autant de causes distinctes de l’arrivée de E, et exclusives les unes des autres. Désignons ce rapport par , de sorte que soit une quantité susceptible de toutes les valeurs croissantes par degrés infiniment petits, et comprises depuis infiniment petit, qui répond au cas où la boule extraite serait la seule boule blanche que A renfermait, jusqu’à , qui répond à l’autre cas extrême où cette urne ne contiendrait que des boules blanches.

Représentons aussi par la probabilité que ce rapport, si sa valeur était certaine, donnerait à l’arrivée de E, de manière que soit, dans chaque question, une fonction connue de . En considérant donc cette valeur comme une des causes possibles de E, il s’agira de déterminer la probabilité infiniment petite de , soit quand toutes ces causes sont également probables avant l’observation, soit quand elles ont, à priori, des chances différentes.

Dans le premier cas, la probabilité demandée se déduira de la quantité du no 28, en y supposant infini, et y mettant pour , ,  etc., les valeurs de relatives à toutes celles de .

En faisant d’abord usage du signe , comme dans le no 32, et appelant la probabilité de , nous aurons donc

.

Mais, d’après le théorème fondamental des intégrales définies, on aura aussi

 ;

par conséquent, si l’on suppose constante la différentielle , et qu’on multiplie par les deux termes de la fraction précédente, il en résultera

.

En même temps, si l’on désigne par la probabilité correspondante à , d’un événement futur E′ qui dépend des mêmes causes que E, et par la probabilité complète de l’arrivée de E′, on aura, d’après la règle du no 30,

,

ou, ce qui est la même chose,

,

en substituant pour sa valeur précédente, et changeant la somme en une intégrale. La quantité sera dans chaque exemple une fonction donnée de .

Dans le cas où les diverses valeurs de seront inégalement probables avant l’observation de E, on désignera par la probabilité infiniment petite et antérieure à cette observation, de la chance de E ; et en mettant au lieu de dans les formules du no 34, on en conclura

,

pour la probabilité de cette chance après l’arrivée de E, et

,

pour la probabilité de l’arrivée future de E′.

(44). Si l’on est certain, à priori, que la valeur de ne peut pas s’étendre depuis jusqu’à , et qu’elle doit être comprise entre des limites données, on prendra ces limites pour celles des intégrales définies que ces formules renferment, ou bien, si l’on veut conserver leurs limites zéro et l’unité, on supposera que soit une fonction discontinue de , qui sera nulle en dehors des limites données de cette variable. Soit que soit susceptible de toutes les valeurs depuis zéro jusqu’à l’unité, soit que cette variable doive être renfermée entre des limites données ; si l’on appelle la probabilité que sa valeur inconnue est effectivement comprise, d’après l’événement observé E, entre d’autres limites plus resserrées que les premières, sera la somme des valeurs de relatives à celles de qui sont contenues entre ces autres limites ; en sorte qu’en désignant celles-ci par et , on aura

.

Dans un calcul d’approximation, on pourra employer cette formule, lorsque le nombre de causes auxquelles l’événement E peut être attribué, au lieu d’être infini, sera seulement très considérable. Supposons, par exemple, que E soit la sortie de boules blanches, tirées successivement et sans interruption, d’une urne B qui contient un très grand nombre de boules, tant blanches que noires, et dans laquelle, on remet à chaque fois la boule qui en a été extraite. La probabilité de E, correspondante à un rapport du nombre de boules blanches au nombre total de boules contenues dans B, sera la puissance de ce rapport. Si l’on demande la probabilité que le nombre de boules blanches qu’elle renferme excède celui des boules noires, ou prendra et , dans l’expression de cette probabilité . Si, de plus, toutes les valeurs possibles de étaient également probables avant les tirages, ne variera pas avec , et disparaîtra, en conséquence, de cette expression. On aura donc

,,,

et, par conséquent,

,

avec d’autant plus d’exactitude que B contiendra un plus grand nombre de boules noires ou blanches. Avant les tirages, il y avait un contre un à parier que le nombre des blanches excédait celui des noires ; il suffira qu’en tirant une boule de B, elle soit blanche pour qu’on ait , ou qu’il y ait trois à parier contre un pour la supériorité du nombre de boules de cette couleur ; et quand on aura tiré de B un nombre un peu considérable de boules blanches, sans en amener de noires, la probabilité que les blanches y sont en plus grand nombre que les noires, approchera beaucoup de la certitude.

(45). Ainsi que je l’ai déjà dit (no 30), on peut considérer E et E′ comme des événements composés d’un même événement simple G, et liés l’un à l’autre par leur dépendance commune de cet événement.

La chance de G est inconnue ; la probabilité qu’elle a pour valeur est avant l’arrivée de E, et après cette arrivée ; et comme cette chance a certainement une des valeurs comprises depuis jusqu’à , il faut que la somme des valeurs correspondantes de soit l’unité, comme cela a déjà lieu pour la somme des valeurs de . La fonction donnée de , quelle qu’elle soif d’ailleurs, continue ou discontinue, devra donc toujours satisfaire à la condition

.

D’après la règle de l’espérance mathématique (no 25), appliquée à la chance de G, on devra prendre pour sa valeur, avant l’observation de E, la somme de toutes ses valeurs possibles, multipliées par leurs probabilités respectives, c’est-à-dire, la somme de tous les produits de et de , depuis jusqu’à a . En désignant par , cette chance de G, ou, plus exactement, ce qu’on doit prendre pour sa valeur inconnue, avant que E ait été observé, on aura donc :

 ;

et l’on peut remarquer que si l’on considère et comme l’abscisse et l’ordonnée d’une courbe plane, et si l’on observe que l’aire entière de cette courbe, ou l’intégrale est l’unité, sera l’abscisse du centre de gravité de cette même aire. C’est d’après cette valeur de prise pour la chance de G, que l’on devrait parier pour une première arrivée de cet événement, mais non pas pour plusieurs arrivées successives ; car selon que G aura eu lieu ou n’aura pas eu lieu dans une première épreuve, la probabilité de son arrivée sera augmentée ou diminuée dans les épreuves suivantes.

Si, par exemple, toutes les valeurs de sont également probables à priori, la quantité devra être indépendante de  ; d’après les deux équations précédentes, on aura donc

, ;

et, en effet, nous n’avons alors aucune raison de croire, dans une première épreuve, à l’arrivée de G plutôt qu’à celle de l’événement contraire. Mais si l’on prend pour chacun des événements E et E′ l’événement simple G, auquel cas on aura,

,,

il en résultera

,

pour la probabilité que G étant arrivé une première fois, arrivera encore une seconde fois, de manière que la probabilité de son arrivée, aura augmenté de 1/6, de la première à la seconde épreuve. Elle diminuera de la même fraction, et se réduira à 1/21/6, ou 1/3, à la seconde épreuve, lorsque l’événement contraire aura eu lieu à la première ; car en prenant celui-ci pour E, et toujours G pour E′, c’est-à-dire en faisant

,,

on en conclura

,

pour la probabilité que G n’ayant point eu lieu la première fois, arrivera à la seconde épreuve.

À priori, la probabilité que G arrivera deux fois de suite sera, par la règle du no 9, le produit de la probabilité 1/2 qu’il aura lieu une première fois, et de la probabilité 2/3 qu’étant arrivé cette fois-là, il arrivera encore à la seconde épreuve ; elle sera donc 1/3, au lieu de 1/4, qui serait sa valeur si la probabilité de G était 1/2 à la seconde épreuve comme à la première. La similitude des deux événements qui arriveront dans les deux premières épreuves, aura une probabilité double ou égale à 2/3 ; car cette similitude aura lieu, soit par la répétition de G, soit par celle de l’événement contraire, qui sont toutes deux également probables.

En comparant 2/3 ou 1/2 (1 + 1/3), à la probabilité de la similitude, que nous avons trouvée dans le no 27, on aura . Lors donc qu’à priori nous n’avons aucune donnée sur la chance d’un événement G, de sorte que nous puissions supposer également à toutes les valeurs possibles, la probabilité de la similitude dans deux épreuves consécutives, est la même que s’il y avait, entre les chances de G et de l’événement contraire, une différence , sans que l’on connût la chance la plus favorable. Nous déterminerons tout à l’heure la probabilité de la similitude dans les cas où l’on sait à priori que toutes les valeurs possibles de , au lieu d’être également possibles, s’écartent très probablement fort peu d’une fraction connue ou inconnue.

(46). Maintenant, l’événement simple dont la chance est inconnue, étant toujours désigné par G, appelons H l’événement contraire dont la chance sera l’unité diminuée de celle de G, et supposons : 1o, que l’événement observé E soit l’arrivée de G un nombre de fois et de H un nombre de fois, dans un ordre quelconque ; 2o, que l’événement futur E′ soit l’arrivée de G un nombre m' de fois et de H un nombre de fois, aussi dans un ordre quelconque.

Pour la valeur de la chance de G et de celle de H, les probabilités et de E et E′ seront (no 14)

, ;

et désignant des nombres indépendants de . On aura donc

,

pour la probabilité de E′ après l’observation de E. Le nombre a disparu de cette formule ; la valeur qu’on y mettra pour , sera

.

Si E′ était l’arrivée de et événements G et H dans un ordre déterminé, il faudrait remplacer par l’unité.

Lorsque avant l’observation de E, on n’aura aucune raison de croire aucune des valeurs de plus probable qu’une autre, on prendra l’unité pour la quantité . Au moyen de l’intégration par partie, on a d’ailleurs

,

ou, plus simplement,

,

en faisant, pour abréger,

,

pour un nombre quelconque . On aura de même

 ;

et à cause de

,

il en résultera, dans le cas dont il s’agit,

.

Afin que cette formule comprenne les cas où l’un des nombres , , , , est zéro, il y faudra faire . Cela étant, si l’on a et , on aura simplement

 ;

ce qui exprimera la probabilité que G arrivera fois sans interruption, après être déjà arrivé fois sans que l’événement contraire H ait eu lieu.

Pour et , la valeur de relative à , se réduira à

 ;

et pour et , elle devient

.

La somme de ces deux fractions est l’unité ; ce qui doit être effectivement, puisque la première exprime la probabilité qu’après épreuves, G arrivera à l’épreuve suivante, et la seconde la probabilité que cet événement n’arrivera pas. La première est plus grande ou moindre que la seconde, selon qu’on a ou , c’est-à-dire selon que dans les premières épreuves, G est arrivé plus souvent ou moins souvent que l’événement contraire H : elles sont égales entre elles et à 1/2, comme avant les épreuves, quand ces deux événements ont eu lieu le même nombre de fois. Mais il n’en sera plus de même, en général, lorsque l’on saura à priori, soit par la nature de l’événement G, soit par le résultat d’épreuves antérieures à l’événement E, que les valeurs de la chance inconnue de G ne sont pas toutes également probables, de telle sorte que l’on n’ait pas  ; non-seulement dans ce cas, la fraction du numéro précédent que l’on devra prendre pour la chance de G avant les nouvelles épreuves ne sera point 1/2, mais à l’épreuve suivante, la probabilité de G pourra être moindre que , quoique G soit arrivé plus souvent que l’événement contraire H, ou plus grande, quoique ce soit G qui aura eu lieu le moindre nombre de fois ; c’est ce que l’on verra dans l’exemple suivant.

(47). Je suppose qu’il soit très probable, à priori, que la chance de G s’écarte fort peu, en plus ou en moins, d’une certaine fraction , de sorte qu’en faisant

,

la quantité soit une fonction de , qui n’a de valeurs sensibles que pour de très petites valeurs de cette variable, positives ou négatives. La courbe plane dont et sont les coordonnées courantes, ne s’écartera sensiblement de l’axe des abscisses , que dans un très petit intervalle, de part et d’autre de l’ordonnée qui répond à  ; le centre de gravité de l’aire de cette course tombera donc dans cet intervalle ; par conséquent l’abscisse de ce point diffèrera très peu de  ; et en négligeant cette différence, sera la valeur de la quantité du no 45.

Cela posé, les limites des intégrales relatives à seront les valeurs et , qui répondent à et  ; si donc on fait , , , dans la première expression de du numéro précédent, il en résultera

,

pour la probabilité que G arrivera une fois, après avoir eu lieu fois, et l’événement contraire fois, dans épreuves. Mais, par la nature du facteur Y compris sous les signes , on peut, si l’on veut, borner ces intégrales à des valeurs très petites de . Alors, en développant les autres facteurs en séries ordonnées suivant les puissances de  ; ces séries seront généralement très convergentes : il n’y aurait d’exception que si ou était aussi une très petite fraction ; dans tout autre cas, il nous suffira d’en conserver les premiers termes ; et en négligeant le carré de , nous aurons

d’où l’on déduira la valeur de , en y mettant au lieu de .

Je substitue ces valeurs de et de dans l’expression de  ; j’observe que l’on a

, ;

et je fais, pour abréger,

.

En négligeant le carré de , qui ne pourra être qu’une très petite fraction, il vient

 ;

ce qui montre que la probabilité de l’arrivée de G après les épreuves, est plus petite ou plus grande que la fraction ou , que l’on aurait dû prendre pour la chance de G avant ces épreuves : plus grande, quand surpasse  ; plus petite, dans le cas contraire. S’il était certain que fût la chance de G, et que et fussent de grands nombres, G et H seraient très probablement arrivés proportionnellement à leurs chances respectives et , et l’égalité des l’apports et rendrait la probabilité égale à la chance , comme cela devrait être.

(48). En faisant et dans la valeur précédente de , il vient

,

pour la probabilité que G ayant eu lieu dans une première épreuve, arrivera encore dans la suivante ; et comme était la probabilité de l’arrivée de cet événement à la première épreuve, le produit de et de , ou , exprimera la probabilité de sa répétition dans les deux épreuves. En y mettant à place de , on aura pour la probabilité de la répétition de l’événement contraire ; et si l’on ajoute cette quantité à , il en résultera

,

pour la probabilité de la similitude des résultats dans les deux épreuves.

Si l’on fait et dans la valeur de du numéro précédent, on aura

,

pour la probabilité que G n’ayant pas eu lieu à la première épreuve, ce sera cet événement qui arrivera à la seconde ; le produit de cette valeur de et de , exprimera donc la probabilité de la succession des deux événements contraires G et H ; et en la doublant, on aura

,

pour la probabilité de la dissimilitude des résultats dans les deux épreuves, que l’on déduit aussi de celle de la similitude, en retranchant celle-ci de l’unité.

L’excès de la probabilité de la similitude sur celle de la dissimilitude sera donc

 ;

où l’on voit que cet excès se trouve augmenté par la circonstance que n’est pas précisément la chance de G, et que l’on sait seulement que cette chance s’écarte très peu de  ; de telle sorte que si l’on savait aussi que fût 1/2, il y aurait encore de l’avantage à parier un contre un pour la similitude. C’est ce qui a lieu au jeu de croix et pile où l’on emploie une pièce de monnaie pour la première fois : l’égalité de chance pour les deux faces de cette pièce est physiquement impossible ; mais d’après le mode de sa fabrication, il est très probable que la chance de chaque face s’écarte très peu de 1/2.

(49). Je vais énoncer dès à présent un théorème dont la démonstration sera donnée dans le chapitre suivant, et qui servira à déterminer, par l’expérience, non pas avec certitude et rigoureusement, la chance d’un événement, mais avec une très grande probabilité, une valeur de cette chance, aussi très approchée.

Soit la chance connue ou inconnue d’un événement G, c’est-à-dire le rapport du nombre de cas favorables à cet événement et également possibles, au nombre de tous les cas qui peuvent avoir lieu et sont aussi également possibles. Supposons que l’on fasse un nombre d’épreuves, pendant lesquelles cette chance propre de G et distincte de sa probabilité (no 1), demeurera constante. Soit le rapport du nombre de fois que G arrivera dans cette série d’épreuves, à leur nombre total . Tant que ne sera pas très considérable, le rapport variera avec , et pourra différer beaucoup de , en plus ou en moins ; mais quand sera devenu un grand nombre, la différence diminuera de plus en plus, abstraction faite du signe, à mesure que augmentera encore davantage ; de telle sorte que si pouvait devenir infini, on aurait rigoureusement , et qu’en désignant par une fraction aussi petite qu’on voudra, on pourra toujours atteindre un nombre assez grand pour que la probabilité de moindre que , approche autant qu’on voudra de la certitude. Nous donnerons par la suite l’expression de la probabilité de , en fonction de et de .

Ainsi l’urne A renfermant boules blanches et boules noires ; si l’on en extrait successivement un très grand nombre de boules, en remettant dans A la boule extraite à chaque fois, et si dans ce nombre de boules extraites, est celui des boules blanches et le nombre des boules noires, on aura

,,,

avec d’autant plus d’exactitude et de probabilité que , ou , sera un plus grand nombre. Réciproquement, si le rapport du nombre de boules blanches au nombre de boules noires contenues dans A, est inconnu, et que dans un très grand nombre d’épreuves pendant lesquelles ce rapport n’ait pas varié, il soit sorti de cette urne, boules blanches et boules noires, on pourra prendre, avec une très grande probabilité, pour les valeurs approchées de ce rapport inconnu et de la chance inconnue de l’extraction d’une boule blanche, les quantités et quel que soit d’ailleurs le nombre de boules contenues dans A. Toutefois, on doit remarquer que si le nombre de boules blanches que cette urne renferme, est très petit par rapport au au nombre de boules noires, sera aussi très petit par rapport à , et réciproquement ; mais le rapport de l’une des fractions et à l’autre, pourra différer beaucoup de l’unité, à moins que la série des épreuves n’ait été poussée excessivement loin : quand la chance connue ou inconnue de l’extraction d’une boule blanche est très faible, l’équation approchée signifie seulement que et sont l’une et l’autre de très petites fractions.

La règle que l’on vient d’énoncer convient également aux chances de diverses causes, qui s’excluent mutuellement et auxquelles on peut attribuer un événement E, observé un très grand nombre de fois. Si est la chance counue ou inconnue de l’une de ces causes C, le rapport sera, avec une grande approximation et une grande probabilité, celui du nombre de fois que E est effectivement arrivé en vertu de C, au nombre de fois qu’il aura été produit par toute autre cause ; ce qui fera connaître le rapport de ces deux nombres, quand la chance sera connue à priori, ou la valeur de cette chance, si l’on parvenait à déterminer ce rapport par l’expérience.

L’événement E étant, par exemple, la sortie d’une boule blanche qui a pu être extraite d’une urne A contenant boules blanches et boules noires, ou d’une urne B renfermant boules blanches et boules noires ; la chance de A, d’avoir été la cause de E ou l’urne d’où l’on a extrait la boule blanche, a pour valeur, d’après la règle du no 28,

,

et la chance contraire, ou celle qui se rapporte à B, est de même

,

Or, si l’on a tiré un très grand nombre de boules blanches, de l’une ou de l’autre des deux urnes, en remettant à chaque épreuve, dans l’urne dont elle est sortie, la boule blanche ou noire qui en a été extraite, le rapport du nombre de boules blanches sorties de A à celui des boules blanches extraites de B, s’écartera très probablement fort peu du rapport de à , de sorte qu’en appelant le premier de ces deux rapports, on pourra prendre

.

Cette valeur de se réduit à , lorsque les nombres et de boules blanches ou noires, sont égaux dans A et dans B. Dans ce cas, on peut réunir toutes ces boules dans une même urne D (no 10), sans changer le rapport du nombre de boules blanches provenant de A au nombre de boules blanches provenant de B, qui seront extraites de D : sur une très grande quantité de boules de cette couleur, le premier de ces deux nombres sera donc à très peu près au second, commet est à  ; ainsi qu’on pourrait le vérifier en faisant une marque particulière aux boules provenant de A ou de B, et remettant après chaque tirage dans D, la boule blanche ou noire qui en aura été extraite.

(50). On trouve dans les œuvres de Buffon[3] les résultats numériques d’une expérience sur le jeu de croix et pile, qui nous fourniront un exemple et une vérification de la règle précédente.

À ce jeu, la chance d’amener l’une ou l’autre des deux faces de la pièce dépend de sa constitution physique qui ne nous est pas bien connue ; et quand bien même nous la connaîtrions, ce serait un problème de mécanique que personne ne pourrait résoudre, d’en conclure la chance de croix ou de pile. C’est donc de l’expérience que la valeur approchée de cette chance doit être déduite pour chaque pièce en particulier ; de sorte que si dans un très grand nombre d’épreuves, croix est arrivée un nombre de fois, le rapport devra être pris pour la chance de croix. Ce sera aussi la probabilité ou la raison de croire que cette face arrivera dans une nouvelle épreuve faite avec la même pièce ; et, d’après le résultat de cette série d’épreuves, on pourra parier à jeu égal, contre pour l’arrivée de croix. C’est aussi au moyen de cette probabilité de l’événement simple que l’on devra calculer les probabilités des événements composés, du moins quand elles ne seront pas très faibles par la nature de ces événements.

Cela étant, supposons que l’on ait fait un très grand nombre de séries d’épreuves, en continuant chaque série, comme dans l’expérience citée, jusqu’à ce que croix ait eu lieu. Soient , , , etc., les nombres de fois que croix est arrivée au premier coup, au deuxième, au troisième, etc. Le nombre total des coups ou des épreuves, sera

 ;

le nombre des arrivées de croix sera, en même temps,

 ;

et si l’on appelle la chance de cette face, on aura

,

avec d’autant plus d’approximation et d’exactitude que sera un plus grand nombre.

Les probabilités de croix au premier coup, au deuxième coup sans avoir eu lieu au premier, au troisième coup sans être arrivée aux deux premiers, etc., seront , , , etc. Or, les nombres de fois que ces événements ont eu lieu étant par hypothèse , , , etc., dans un nombre de séries d’épreuves, on devra donc avoir, à très peu près,

,,, etc.,

si ce nombre est très grand, et lorsque ces probabilités ne seront pas devenues de très petites fractions. En divisant chacune de ces équations par la précédente, on en conclut différentes valeurs de , et, par suite,

,,, etc.

Ces valeurs de , ou du moins un certain nombre des premières, différeront d’autant moins entre elles et du rapport , que et seront de plus grands nombres : pour qu’elles fussent nécessairement égales, il faudrait que ces nombres fussent infinis. En employant pour , la moyenne de ces fractions très peu inégales, ou bien en faisant usage de la valeur de , résultante de l’ensemble des épreuves, on aura

,,, etc.

pour les valeurs calculées des nombres , , , etc., qui devront très peu s’écarter des nombres observés, du moins dans les premiers termes de cette progression géométrique décroissante.

Dans l’expérience de Buffon, le nombre des séries d’épreuves était

2048.

On peut conclure de la manière dont elle est rapportée par l’auteur, que l’on a eu

1061, 494, 232, 137, 56,
29, 25, 8, 6.

Les nombres , , etc., n’ont point eu lieu, c’est-à-dire que le nombre des séries d’épreuves n’a pas été assez grand pour que croix n’arrivât pas dans une ou plusieurs séries. Ce nombre est la somme des valeurs de , , , etc. ; on en déduit aussi

4040,

et, par conséquent,

0,50693.

Au moyen de cette valeur de , on trouve

1038, 512, 252, 124, 61,
30, 15, 7, 4, 1,

en négligeant les fractions : les nombres suivants , , etc., seraient au-dessous de l’unité. Or, si l’on compare cette série des valeurs calculées, à celles des nombres , , , etc., qui résultent de l’observation, on voit qu’elles s’écartent peu l’une de l’autre dans leurs premiers termes. Les écarts sont plus grands dans les termes suivants ; par exemple, la valeur calculée de n’est que les trois cinquièmes de la valeur observée ; mais ce nombre répond à un événement dont la probabilité est au-dessous d’un centième. En s’arrêtant aux trois premiers termes de la série des nombres observés, on en déduit

0,51806, 0,53441, 0,53033 ;

quantités qui diffèrent très peu entre elles, et dont la moyenne, ou le tiers de leur somme, est

0,52760,

qui diffère à peine de 0,02, de la valeur de , résultante de l’ensemble des épreuves.

J’ai choisi cette expérience à cause du nom de l’auteur, et parce que l’ouvrage où elle se trouve, la rend authentique. Chacun en peut faire beaucoup d’autres de la même espèce, soit avec une pièce de monnaie, soit avec un à six faces. Dans ce dernier cas, le nombre de fois que chaque face arrivera, sur un très grand nombre d’épreuves, sera à très peu près un sixième de celui-ci, à moins que le ne soit faux ou mal construit.

(51). Le théorème sur lequel est fondée la règle précédente est dû à Jacques Bernouilli, qui en avait médité la démonstration pendant vingt années. Celle qu’il a donnée se déduit de la formule du binôme au moyen des propositions suivantes.

Soient, à chaque épreuve, et les chances données des deux événements contraires E et F ; soient aussi , , , des nombres entiers. tels que l’on ait

,,, ;

désignons par , , , d’autres nombres entiers, liés à , , , par les équations

,,,

de manière que les chances et soient entre elles comme les nombres et , que l’on pourra rendre aussi grands qu’on voudra en augmentant convenablement , , , sans changer leur rapport. Cela posé :

1o. Dans le développement de , le terme le plus grand sera celui qui répond au produit , et comme ce terme est la probabilité de l’arrivée de fois E et de fois F (no 14), il s’ensuit que cet événement composé, c’est-à-dire, l’arrivée des événements en raison directe de leurs chances respectives, est le plus probable de tous les événements composés qui peuvent avoir lieu dans un nombre quelconque d’épreuves.

2o. Si ce nombre est très grand, le rapport du plus grand terme du développement de à la somme de tous les termes, ou à l’unité, sera une très petite fraction, qui diminuera indéfiniment à mesure que augmentera encore davantage ; par conséquent, dans une longue série d’épreuves, l’événement composé le plus probable, le sera cependant très peu, et de moins en moins à mesure que les épreuves seront plus long-temps prolongées.

3o. Mais si l’on considère dans le développement de , son plus grand terme, les termes qui le suivent et les termes qui le précèdent, et si l’on désigne par la somme de ces termes consécutifs, on pourra toujours, sans changer ni ni , prendre , assez grand pour que la fraction diffère de l’unité, d’aussi peu qu’on voudra ; et à mesure que augmentera encore davantage, approchera de plus eu plus d’être égal à un. On conclut de là que dans une longue série d’épreuves, il y a toujours une grande probabilité que l’événement E arrivera un nombre de fois compris entre les limites , et F un nombre de fois compris entre  ; de telle sorte que sans changer l’intervalle des limites de ces deux nombres, on pourra rendre le nombre des épreuves assez grand pour que la probabilité soit aussi approchante qu’on voudra de la certitude. Si l’on prend les rapports de ces limites au nombre des épreuves, que l’on ait égard aux équations précédentes, et qu’on fasse

,,,

ces rapports seront et  ; et comme la fraction diminuera indéfiniment à mesure que augmentera, il s’ensuit que ces rapports, variables avec , approcheront aussi indéfiniment, et avec une très grande probabilité, des chances et de E et F ; ce qui est l’énonce du beau théorème de Jacques Bernouilli.

Nous renverrons pour la démonstration de ces propriétés des termes du développement de aux ouvrages où elle est exposée[4]. Celle du théorème même, que l’on trouvera dans le chapitre suivant, est fondée sur l’emploi du calcul intégral. En attendant, on ne doit pas perdre de vue que ce théorème suppose essentiellement l’invariabilité des chances des événements simples E et F, pendant toute la durée des épreuves. Or, dans les applications du calcul des probabilités, soit à divers phénomènes physiques, soit à des choses morales, ces chances varient le plus souvent d’une épreuve à une autre, et le plus souvent aussi, d’une manière tout-à-fait irrégulière. Le théorème dont il s’agit ne suffirait donc pas dans ces sortes de questions ; mais il existe d’autres propositions plus générales, qui ont lieu quelle que soit la variation des chances successives des événements, et sur lesquelles sont fondées les plus importantes applications de la théorie des probabilités. Elles seront également démontrées dans les chapitres suivants ; on en va maintenant donner l’énoncé, et en déduire la loi des grands nombres, que l’on a considérée dans le préambule de cet ouvrage, comme un fait général, résultant d’observations de toutes natures.

(52). Dans un très grand nombre d’épreuves consécutives, représentons la chance de l’événement E de nature quelconque, par à la première épreuve, par à la seconde,… par à la dernière. Soit aussi la moyenne de toutes ces chances, ou leur somme divisée par leur nombre, c’est-à-dire,

 ;

en même temps, la chance moyenne de l’événement contraire F sera la somme des fractions , divisée par  ; et en la désignant par , on aura . Cela étant, l’une des propositions générales que nous voulons considérer, consiste en ce que si l’on appelle et les nombres de fois que E et F arriveront ou sont arrivés pendant la série de ces épreuves, les rapports de et au nombre total ou , seront, à très peu près et avec une très grande probabilité, les valeurs des chances moyennes et , et réciproquement, et seront les valeurs approchées de et .

Lorsque ces rapports auront été déduits d’une longue série d’épreuves, ils feront donc connaître les chances moyennes et , de même qu’ils déterminent, par la règle du no 49, les chances mêmes et de E et F, quand elles sont constantes. Mais pour que ces valeurs approchées de et puissent servir, aussi par approximation, à évaluer les nombres de fois que E et F arriveront dans une nouvelle série d’un grand nombre d’épreuves, il faut qu’il soit certain, ou du moins très probable, que les chances moyennes de E et F seront exactement, ou à fort peu près les mêmes, pour cette seconde série, et pour la première. Or, c’est ce qui a lieu effectivement en vertu d’une autre proposition générale dont voici l’énoncé.

Je suppose que par la nature des événements E et F, celui qui arrivera à chaque épreuve puisse être dû à l’une des causes C1, C2, C3,… C, dont est le nombre, qui s’excluent mutuellement, et que je regarderai d’abord comme également possibles. Je désigne par la chance que la cause quelconque C donnera à l’arrivée de l’événement E ; de manière qu’à une épreuve déterminée, à la première, par exemple, la chance de E soit quand ce sera la cause C1 qui interviendra, quand ce sera C2, etc. S’il n’y avait qu’une seule cause possible, la chance de E serait nécessairement la même à toutes les épreuves ; mais dans notre hypothèse, elle sera susceptible, à chaque épreuve, d’un nombre de valeurs également probables, et variera, en conséquence, d’une épreuve à une autre. Or, si l’on fait

,

la somme des chances que E aura eu, dans un très grand nombre d’épreuves déjà effectuées, ou que cet événement aura dans une longue série d’épreuves futures, divisée par leur nombre, sera, à très peu près et très probablement, égale à la fraction , dont la grandeur est indépendante de ce nombre ; par conséquent, la chance moyenne de E pourra être regardée comme étant la même dans deux ou plusieurs séries, dont chacune sera composée d’un très grand nombre d’épreuves.

En combinant cette seconde proposition générale avec la première, on en conclut que si est le nombre de fois que l’événement E arrivera ou est arrivé dans un très grand nombre d’épreuves, et dans un autre très grand nombre , on aura, à très peu près et très probablement,

.

Ces deux rapports seraient rigoureusement égaux entre eux, et à la quantité inconnue , si les nombres et pouvaient être infinis. Lorsque leurs valeurs données par l’observation différeront notablement l’une de l’autre, il y aura lieu de penser que dans l’intervalle des deux séries d’épreuves, quelques-unes des causes C1, C2, C3, etc., auront cessé d’être possibles, et que d’autres le seront devenues ; ce qui aura changé les chances , , , etc., et par suite la valeur de . Toutefois, ce changement ne sera pas certain, et nous donnerons dans la suite l’expression de sa probabilité, en fonction de la différence observée , et des nombres d’épreuves et .

On fera rentrer cette conséquence des deux propositions précedentes, dans le théorème même de Jacques Bernouilli, en observant que dans l’hypothèse sur laquelle la seconde est fondée, la fraction est la chance de E, inconnue, mais constante pendant les deux séries d’épreuves. En effet, cet événement peut arriver à chaque épreuve, en vertu de chacune des causes C1, C2, C3, etc., qui ont toute une même probabilité  ; la chance de son arrivée en vertu de la cause quelconque C, sera le produit d’après la règle du no 5 ; et d’après celle du no 10, sa chance complète aura pour valeur la somme des produits , , , etc., égale à la quantité .

Pour plus de simplicité, nous avons regardé toutes les causes C1, C2, C3, etc., comme également possibles ; mais ou peut supposer que chacune d’elles entre une ou plusieurs fois dans leur nombre total  ; ce qui les rendra inégalement probables. On désignera alors par le nombre de fois que la cause quelconque C sera répétée dans ce nombre  ; la fraction exprimera la probabilité de cette cause ; et l’expression de deviendra

,

On aura, en même temps,

,

puisque l’une des causes auxquelles ces probabilités se rapportent, devra avoir lieu certainement à chaque épreuve. Lorsque le nombre des causes possibles sera infini, la probabilité de chacune d’elles deviendra infiniment petite ; en représentant, dans ce cas, par l’une des chances , dont la valeur pourra s’étendre depuis jusqu’à , et par , la probabilité de la cause qui donne cette chance quelconque à l’événement E, on aura, comme dans le no 45,

,.

(53). Supposons actuellement qu’au lieu de deux événements possibles E et F, il y en ait un nombre donné , dont un seul devra arriver à chaque épreuve. Ce cas est celui où l’on considère une chose A d’une nature quelconque, susceptible d’un nombre de valeurs, connues ou inconnues, que je représenterai par , et parmi lesquelles une seule devra avoir lieu à chaque épreuve, de sorte que celle qui sera arrivée ou qui arrivera sera, dans cette question, l’événement observé ou l’événement futur. Soit aussi la chance que la cause C, si elle était certaine, donnerait à la valeur de A. Les valeurs de , relatives aux divers indices et , depuis jusqu’à et depuis jusqu’à , seront connues ou inconnues ; mais pour chaque indice , on devra avoir

 ;

car si la cause C était certaine, l’une des valeurs , arriverait certainement en vertu de cette cause. Désignons, en outre, par , la somme des chances de , qui auront ou qui ont eu lieu dans un très grand nombre d’épreuves consécutives, divisée par ce nombre, c’est-à-dire, la chance moyenne de cette valeur de A, dans cette série d’expériences. En considérant comme un événement E, et l’ensemble des autres valeurs de A comme l’événement contraire F, on pourra prendre, d’après la seconde proposition générale du numéro précédent,

 ;

étant toujours les probabilités des diverses causes, qui peuvent amener les événements pendant la série d’épreuves, ou autrement dit, qui peuvent produire les valeurs de A que l’on a observées ou que l’on observera. Cela posé, la troisième proposition générale qui nous reste à faire connaître, consiste en ce que la somme de ces valeurs de A, divisée par leur nombre, ou la valeur moyenne de cette chose, différera très probablement fort peu de la somme de toutes ses valeurs possibles, multipliées respectivement par leurs chances moyennes. Ainsi, en appelant la somme des valeurs effectives de A, on aura, à très peu près et avec une grande probabilité,

 ;

de telle sorte que si l’on désigne par une fraction aussi petite que l’on voudra, on pourra toujours supposer le nombre assez grand pour rendre aussi peu différente que l’on voudra de l’unité, la probabilité que la différence des deux membres de cette équation sera moindre que . Observons de plus que d’après l’expression précédente de , et les valeurs de , , , etc., qui s’en déduisent, le second membre est indépendant de  ; quand ce nombre est très grand, la somme lui est donc sensiblement proportionnelle ; par conséquent, si l’on représente par la somme des valeurs de A dans une autre série d’un très grand nombre d’épreuves, la différence des rapports et sera très probablement fort petite ; et en la négligeant, on aura

.

Dans la plupart des questions, le nombre des valeurs possibles de A est infini ; elles croissent par degrés infiniment petits, et sont comprises entre des limites données ; et la probabilité que la cause quelconque C donne à chacune de ces valeurs devient, par conséquent, infiniment petite. En représentant ces limites par et , et par la chance que donnera C à une valeur quelconque , qui pourra s’étendre depuis jusqu’à , on aura

 ;

la chance totale de cette valeur , ou à très peu près sa chance moyenne pendant la série des épreuves, sera , en faisant, pour abréger,

 ;

et il en résultera

.

La quantité sera une fonction connue ou inconnue de  ; mais la somme des fractions , , , etc., étant l’unité, ainsi que chacune des intégrales , , , etc., on aura toujours

,

soit qu’il n’y ait qu’un nombre limité de causes possibles, soit qu’il y en ait un nombre illimité, ou qu’on ait .

(54). Maintenant, la loi des grands nombre réside dans ces deux équations

,,

applicables à tous les cas d’éventualité des choses physiques et des choses morales. Elle a deux significations différentes dont chacune répond à l’une de ces équations, et qui se vérifient constamment l’une et l’autre, comme on a pu le voir par les exemples variés que j’ai cités dans le préambule de cet ouvrage. Ces exemples de toute espèce ne pouvaient laisser aucun doute sur sa généralité et son exactitude ; mais il était bon, à cause de l’importance de cette loi, qu’elle fût démontrée à priori ; car elle est la base nécessaire des applications du calcul des probabilités, qui nous intéressent le plus ; et d’ailleurs sa démonstration, fondée sur les propositions des deux numéros précédents, a l’avantage de nous faire connaître la raison même de son existence.

En vertu de la première équation, le nombre de fois qu’un événement E, de nature quelconque, a lieu dans un très grand nombre d’épreuves, peut être regardé comme proportionnel à . Pour chaque nature de chose, le rapport a une valeur spéciale , qu’il atteindrait rigoureusement, si pouvait devenir infini ; et la théorie nous montre que cette valeur est la somme des chances possibles de E à chaque épreuve, multipliées respectivement par les probabilités des causes qui leur correspondent. Ce qui caractérise l’ensemble de ces causes, c’est la relation qui existe pour chacune d’elles entre sa probabilité et la chance qu’elle donnerait, si elle était certaine, à l’arrivée de E. Tant que cette loi de probabilité ne change pas, nous observons la permanence du rapport , dans diverses séries composées d’un grand nombre d’épreuves ; si, au contraire, entre deux séries d’épreuves, cette loi a changé, et qu’il en soit résulté dans la chance moyenne , un changement notable, nous en serons avertis par un changement semblable dans la valeur de  : lorsque, dans l’intervalle de deux séries d’observations, des circonstances quelconques auront rendu plus probables les causes, physiques ou morales, qui donnent les plus grandes chances à l’arrivée de E, il en résultera une augmentation de la valeur de dans cet intervalle, et le rapport se trouvera plus grand dans la seconde série qu’il n’était dans la première ; le contraire arrivera, quand les circonstances auront augmenté les probabilités des causes qui donnent les moindres chances à l’arrivée de E. Par la nature de cet événement, si toutes ses causes possibles sont également probables, on aura et  ; et très probablement, le nombre de fois que E arrivera dans une longue série d’épreuves s’écartera très peu de la moitié de leur nombre. De même, si les causes de E ont des probabilités proportionnelles aux chances que ces causes donnent à son arrivée, et que leur nombre soit encore infini, on aura  ; pour que l’intégrale soit l’unité, il faudra que l’on ait  ; il en résultera donc  ; par conséquent dans une longue série d’épreuves, il y aura une probabilité très approchante de la certitude, que le nombre des arrivées de E sera à très peu près double de celui des arrivées de l’événement contraire. Mais dans la plupart des questions, la loi de probabilité des causes nous est inconnue, la chance moyenne ne peut être calculée à priori, et c’est l’expérience qui en donne la valeur approchée et très probable, en prolongeant la série des épreuves assez loin pour que le rapport devienne sensiblement invariable, et prenant alors ce rapport pour cette valeur.

L’invariabilité presque parfaite de ce rapport pour chaque nature d’événements, est un fait bien digne de remarque, si l’on considère toutes les variations des chances pendant une longue séries d’épreuves. On serait tenté de l’attribuer à l’intervention d’une puissance occulte, distincte des causes physiques ou morales des événements, et agissant dans quelque vue d’ordre et de conservation ; mais la théorie nous montre que cette permanence a lieu nécessairement tant que la loi de probabilité des causes, relative à chaque espèce d’événements, ne vient point à changer ; en sorte qu’on doit la regarder, dans chaque cas, comme étant l’état naturel des choses, qui subsiste de lui-même sans le secours d’aucune cause étrangère, et aurait, au contraire, besoin d’une pareille cause pour éprouver un notable changement. On peut le comparer à l’état de repos des corps, qui subsiste en vertu de la seule inertie de la matière tant qu’aucune cause étrangère ne vient le troubler.

(55). Avant de considérer la seconde des deux équations précédentes, il est bon de donner quelques exemples relatifs à la première, et propres à éclairer la question.

Supposons qu’on ait un nombre d’urnes C1, C2, C3,… C, contenant des boules blanches et des boules noires. Désignons par , la chance d’amener une boule blanche en tirant dans l’urne quelconque C ; laquelle chance pourra être la même pour plusieurs de ces urnes. On prend au hasard une de ces urnes que l’on remplace par une urne semblable ; on en prend ensuite une seconde, aussi au hasard et que l’on remplace également par une semblable ; puis une troisième que l’on remplace de même ; et ainsi de suite, de manière que l’ensemble des urnes C1, C2, C3, etc., demeure toujours le même. On forme ainsi une série d’urnes B1, B2, B3, etc., indéfiniment prolongée, qui ne renferme que les urnes données C1, C2, C3, etc., plus ou moins répétées. Désignons la chance d’extraire une boule blanche de B1 par , de B2 par , de B3 par , etc., de sorte que la série indéfinie , ,  etc., ne contienne aussi que les chances données , , , etc., qui pourront y être répétées. Cela étant, on tire une boule de B1, une de B2, une de B3, etc., jusqu’à l’urne B inclusivement. En appelant la chance moyenne de l’extraction d’une boule blanche dans ces tirages successifs, on aura

.

Or, les urnes C1, C2, C3, etc., représentent les seules causes possibles de l’arrivée d’une boule blanche à chaque épreuve ; par conséquent, si est un très grand nombre, que l’on fasse, comme plus haut,

,

et que l’on désigne par le nombre de boules blanches qui seront extraites, on aura, d’après ce qui précède,

,,,

à très peu près et avec une grande probabilité. Ainsi le nombre ne changera pas sensiblement si l’on répète les tirages sur les mêmes urnes B1, B2, B3,… B, ou sur un nombre d’autres urnes consécutives, et si on les effectue sur un autre très grand nombre d’urnes, le nombre de boules blanches qui arriveront aura pour valeur approchée et très probable.

Si l’on extrait fois de suite au hasard, une boule de l’ensemble des urnes C1, C2, C3, etc., en remettant à chaque fois la boule extraite dans l’urne dont elle est sortie, la chance d’extraire une boule blanche sera la même à toutes les épreuves, et égale à d’après la règle du no 49 ; lorsque leur nombre sera très grand, celui des boules blanches que l’on amènera sera donc, en vertu de la règle du no 49, à très peu près et très probablement égal au produit , comme dans la question précédente ; mais ces deux questions sont essentiellement distinctes ; et les deux résultats ne coïncident que dans le cas où est un très grand nombre. Quand il ne l’est pas, la chance d’amener un nombre donné de boules blanches dépend, dans la première question, non-seulement du système des urnes données C1, C2, C3, etc., mais aussi du système des urnes B1, B2, B3, etc., que l’on en a déduit au hasard. Je réduis, par exemple, les urnes données à trois C1, C2, C3, et je prends et , de sorte qu’il s’agisse de savoir quelle est la chance de tirer une boule blanche de l’une des deux urnes B1 et B2, et une boule noire de l’autre. Relativement à ces deux urnes, il peut arriver neuf combinaisons différentes que j’indiquerai de cette manière :

B1 = B2 = C1,B1 = B2 = C2,B1 = B2 = C3,
B1 = C1 et B2 = C2, B1 = C1 et B2 = C3, B1 = C2 et B2 = C3,
B1 = C2 et B2 = C1, B1 = C3 et B2 = C1, B1 = C3 et B2 = C2.

Pour chacune de ces neuf combinaisons, la chance demandée aura une valeur déterminée ; ses neuf valeurs possibles selon la combinaison qui aura eu lieu, seront

,,,

pour les trois premières ;

,,,

pour les trois intermédiaires ; et les mêmes que celles-ci, pour les trois dernières. Il est aisé de voir que la valeur moyenne de ces neuf chances, ou leur somme divisée par neuf, doit être la chance d’amener une blanche et une noire, en tirant une première fois au hasard dans le groupe des trois urnes C1, C2, C3, puis une seconde fois après avoir remis la première boule extraite dans l’urne d’où elle serait sortie. Et, en effet, cette chance serait le double du produit de et de  ; quantité égale au neuvième de la somme des neuf chances précédentes.

Avant que le système des urnes B1, B2, B3, etc., soit formé et déduit du système des urnes données, nous n’aurions aucune raison de croire que la ième urne B sera plutôt l’une que l’autre des urnes C1, C2, C3, etc. ; pour nous, la probabilité de l’extraction d’une boule blanche au ième tirage serait donc la somme des chances , , , etc., divisée par leur nombre, c’est-à-dire la quantité  ; mais quoique elle soit la même pour tous les tirages, et que leur nombre fût aussi grand qu’on voudra, nous ne serions pas autorisés à en conclure, en vertu de la seule règle du no 49, que le nombre des extractions de boules blanches, des urnes B1, B2, B3, etc., devra s’écarter très probablement fort peu du produit  ; car on ne doit pas perdre de vue que cette règle est fondée sur la chance propre de l’événement que l’on considère, et non sur sa probabilité, ou la raison que nous pouvons avoir de croire qu’il arrivera.

(56). Pour second exemple, je suppose que l’on ait un très grand nombre de pièces de cinq francs, que j’appellerai A1, A2, A3, etc., et dont chacune présentera une de ses deux faces, en retombant à terre après avoir été projetée en l’air. Relativement à la pièce quelconque A, je désignerai par la chance de l’arrivée de tête, qui dépendra de la constitution physique de cette pièce. La valeur de sera inconnue à priori ; on la déterminera par l’expérience en projetant A un très grand nombre de fois  ; et comme cette chance demeurera constante pendant cette série d’épreuves, si tête arrive un nombre de fois, on pourra prendre, par la règle du no 49,

,

pour sa valeur approchée et très probable. On s’en servira ensuite pour calculer les probabilités des divers événements futurs, relatifs à la projection de la même pièce A : on pourra parier à jeu égal, contre que tête arrivera dans une nouvelle épreuve, contre qu’il arrivera deux fois dans deux épreuves successives, contre que tête aura lieu une fois seulement dans ces deux épreuves, etc. Dans une nouvelle série d’un très grand nombre d’épreuves, le nombre de fois que tête arrivera, aura, à très peu près et avec une grande probabilité, le produit , pour valeur, toujours d’après la règle du no 49 ; les deux rapports et , devront donc s’écarter très peu l’un de l’autre ; mais, toutefois à raison de ce que cette valeur de donnée par l’expérience, est seulement très probable et non pas certaine, la probabilité du peu de différence de ces deux rapports ne sera pas si grande, comme on le verra par la suite, que si la valeur de cette chance était certaine et donnée à priori.

Au lieu de projeter la même pièce un très grand nombre de fois, supposons que l’on emploie successivement un très grand nombre de pièces de cinq francs, prises au hasard parmi celles qui proviennent d’un même mode de fabrication, et soit le nombre de fois que tête arrivera. Appelons la chance moyenne de l’arrivée de tête, non pas seulement pour toutes les pièces dont on aura fait usage, mais pour toutes les pièces de la même espèce et provenant de la même fabrication. En vertu des deux propositions générales du no 52, nous aurons, à très peu près et très probablement,

,

comme si les chances inconnues , , , etc., étaient toutes égales entre elles.

Selon que l’on trouvera ou , on en conclura que dans les pièces de cinq francs de cette fabrication, la chance de l’arrivée de tête est généralement plus grande ou moindre que celle de l’arrivée de la face opposée. À l’égard d’une pièce A en particulier, la chance étant différente de , il pourra arriver que l’on ait en même temps que , ou bien en même temps que .

Si l’on projette de nouveau les mêmes pièces de cinq francs, ou, plus généralement, un très grand nombre d’autres pièces de la même espèce, provenant de la même fabrication, et à la même effigie, la quantité , telle qu’elle a été définie, ne changera pas ; par conséquent, étant le nombre de fois que tête arrivera dans cette nouvelle série d’épreuves, on devra avoir

,

de même que l’on a

,

pour une même pièce A dans deux séries d’épreuves différentes. Mais ces rapports et , seront inégaux en général, lorsque les pièces employées dans les deux séries d’épreuves ne seront pas d’une même espèce, ou proviendront d’une fabrication différente, de même que le rapport varie d’une pièce A à une autre.

(57). Quoique les chances constantes et les chances moyennes des événements se déterminent de la même manière et avec la même probabilité par l’expérience, il y a cependant des différences essentielles dans les usages que l’on en peut faire. La chance moyenne comme la chance constante fait connaître immédiatement la probabilité de l’arrivée, dans une nouvelle épreuve isolée, de l’événement que l’on considère ; mais il n’en est pas toujours de même, quand il s’agit de l’arrivée d’un événement composé de celui-là.

Je prends pour exemple la similitude des résultats dans deux projections successives d’une pièce de cinq francs. Il y aura alors deux cas différents à examiner. On pourra supposer que ce couple d’épreuves aura lieu avec deux pièces, différentes ou non, prises au hasard parmi toutes les pièces A1, A2, A3, etc., d’une même fabrication et dont je désignerai par le nombre total, ou bien avec une même pièce prise également au hasard ; dans le premier cas, la probabilité de la similitude ne dépendra que de la quantité du numéro précédent, et sera la même que s’il s’agissait de chances constantes ; dans le second cas, elle dépendra, en outre, d’une autre quantité inconnue, par laquelle elle différera de sa valeur relative à des chances invariables.

Pour le faire voir, j’observe que relativement à deux pièces quelconques A et A, la probabilité de la similitude des résultats dans deux épreuves consécutives, a pour valeur

.

Dans le premier des deux cas que nous voulons considérer, chacune des pièces A1, A2, A3, etc., pouvant être combinée avec elle-même et avec toutes les autres, le nombre de ces combinaisons également possibles sera le carré de , et en désignant par la probabilité complète de la similitude, nous aurons, d’après la règle du no 10,

 ;

les sommes s’étendent depuis et jusqu’à et . Je fais

,, ;

, , , , , désignant des fractions positives ou négatives, dont la première se déduira du rapport du numéro précédent, donné par l’observation, et les autres varieront d’une pièce à une autre, de telle sorte que l’on ait

,.

On aura, en même temps,

, ;

au moyen des équations précédentes, les sommes qui entrent dans l’expression de se réduiront à

, ;
, ;

et il en résultera

 ;

quantité qui ne dépend que de , ou de la chance moyenne de l’arrivée de tête, et nullement des inégalités de chances , , , etc.

Si l’on répète la projection de deux pièces prises au hasard, un très grand nombre de fois, sera aussi la chance moyenne de la similitude dans cette série d’épreuves doubles ; en désignant par le nombre de fois que la similitude arrivera, on aura donc approximativement, d’après le no 52,

 ;

ce qu’on pourra vérifier par l’expérience.

Dans le second cas, où chaque couple d’épreuves doit être fait avec une même pièce, la probabilité de la similitude relativement à la pièce quelconque A, aura pour expression

 ;

et si l’on appelle la probabilité complète de la similitude, on en conclura

 ;

équation qui se réduit à

,

en ayant égard à l’expression de , et faisant, pour abréger,

.

Or, on voit que cette probabilité surpasse la probabilité qui avait lieu dans le premier cas, et qu’elle dépend d’une nouvelle inconnue , dépendante elle-même des inégalités , , , etc.

Si l’on répète un très grand nombre de fois , la projection deux fois de suite d’une même pièce prise au hasard, exprimera la probabilité de la similitude dans cette série d’épreuves doubles ; en représentant par le nombre de fois que la similitude arrivera, nous aurons donc à très peu près,

 ;

ce qui servira à déterminer la valeur de , celle de étant déjà connue.

(58). Je ferai remarquer que si l’on projette trois fois de suite une même pièce prise au hasard parmi A1, A2, A3, etc., la probabilité de la similitude des trois résultats s’exprimera au moyen de la probabilité précédente , et sera connue, par conséquent, sans recourir à de nouvelles expériences. En effet, relativement à la pièce quelconque A, cette probabilité sera

 ;

en appelant sa valeur complète, on aura donc

 ;

et d’après les notations précédentes, il en résultera

,

ou, ce qui est la même chose,

.

Cette quantité sera aussi la chance moyenne de la similitude dans une très longue série de triples épreuves ; si donc on désigne par leur nombre, et par le nombre de fois que la similitude arrivera, nous aurons

.

En mettant et , au lieu de et dans l’équation précédente, on en déduira cette relation

,

entre les nombres , , , , qui sera d’autant plus approchée et d’autant plus probable qu’ils seront plus grands.

Puisqu’elle est indépendante de la loi des quantités , , , etc., elle subsistera également quand elles seront toutes les mêmes, c’est-à-dire, lorsqu’au lieu de changer de pièce à chaque épreuve double et à chaque épreuve triple, ou emploiera toujours la même ; par conséquent, si l’on projette une même pièce un très grand nombre de fois que je représenterai par  ; que l’on partage cette série d’épreuves simples, en épreuves doubles composées de la première épreuve simple et de la seconde, de la troisième et de la quatrième, et ainsi de suite ; qu’on la divise aussi en épreuves triples, composées de la première, la deuxième, la troisième, épreuves simples, de la quatrième, la cinquième, la sixième, et ainsi de suite ; et qu’on applique l’équation précédente à ces deux séries d’épreuves doubles et triples, on aura

,,

ce qui réduira cette équation à celle-ci

,

qui signifie que le nombre des similitudes doubles moins celui des similitudes triples, sera égal au sixième du nombre total des épreuves simples.

On obtiendrait des relations analogues entre les nombres de ces similitudes et de celles qui seraient composées de plus de deux ou trois épreuves simples.

(59). Ces considérations s’appliquent immédiatement aux naissances masculines et féminines ; il suffit, pour cela, de remplacer les pièces A1, A2, A3, etc., par autant de mariages différents, et de prendre pour , la chance de la naissance d’un garçon dans le mariage quelconque désigné par A.

En France, le nombre des naissances des deux sexes s’élève annuellement à près d’un million ; et dans ce nombre total, l’observation montre que le rapport des naissances masculines aux naissances féminines excède l’unité d’environ un quinzième ; pendant les dix années écoulées depuis 1817 jusqu’à 1826, sa valeur moyenne a été de 1,0656, dont ses valeurs extrêmes se sont à peine écartées d’un demi-centième, en plus ou en moins. C’est sur les observations de cet intervalle de temps que sont fondés les résultats de mon mémoire sur la proportion des naissances des deux sexes[5]. De 1817 à 1833 inclusivement, le rapport moyen a été 1,0619 ; ce qui ne diffère pas non plus d’un demi-centième de sa valeur pendant les dix premières de ces dix-sept années.

La cause de la prépondérance des naissances masculines nous est inconnue ; il y a lieu de croire qu’elle varie beaucoup d’un mariage à un autre, et que les chances , , , etc., sont très inégales, de telle sorte que beaucoup d’entre elles s’abaissent, sans doute, au-dessous de 1/2. Cependant, comme on voit, la proportion des naissances annuelles des deux sexes a très peu varié pendant une période de dix-sept ans ; ce qui présente une vérification remarquable de la loi des grands nombres.

En prenant 16/31 pour le rapport d’un grand nombre de naissances masculines au nombre correspondant des naissances des deux sexes, ce rapport sera aussi la chance moyenne de la naissance d’un garçon, et l’on aura 1/31 pour la valeur de la quantité du no 57. Nous ignorons si la chance d’une naissance masculine restera la même à chaque enfant qui naîtra d’un même mariage, ou bien si elle variera, par exemple, comme elle variera d’un mariage à un autre. Dans le second cas, la chance moyenne de la similitude du sexe des deux premiers nés sera , et n’excédera 1/2 que d’à peu près un demi-millième. Par conséquent, le nombre de fois que cette similitude aura lieu, dans un très grand nombre de couples de premiers nés, surpassera d’un demi-millième la moitié de celui-ci. Dans le premier cas, le premier de ces deux nombres pourra surpasser de beaucoup plus la moitié du second, à raison de la quantité inconnue que renfermera alors l’expression de la chance moyenne de la similitude. La relation du numéro précédent aura toujours lieu entre les nombres des similitudes de sexe des deux premiers-nés et des trois premiers-nés, observées dans un très grand nombre de mariages.

(60). En vertu de la seconde équation du no 54, si A est une chose quelconque, qui soit susceptible de différentes valeurs à chaque épreuve, la somme de ses valeurs que l’on observera dans une longue série d’épreuves, sera à très peu près et très probablement, proportionnelle à leur nombre. Le rapport de cette somme à ce nombre, pour une chose déterminée A, convergera indéfiniment, à mesure que ce nombre augmentera encore davantage, vers une valeur spéciale qu’il atteindrait si ce nombre pouvait devenir infini, et qui dépend de la loi de probabilité des diverses valeurs possibles de A. On fera sur ce rapport des remarques semblables à celles que nous avons faites dans le no 54, en considérant la première équation de ce numéro.

La seconde équation, ou plutôt celle-ci

,

donnera lieu comme la première, à de nombreuses et utiles applications.

Je suppose, par exemple, que soit un angle que l’on veut mesurer. Cet angle existe ; sa grandeur est unique et déterminée ; mais l’angle que l’on mesure à chaque opération, est une chose susceptible d’un nombre infini de valeurs différentes, à raison des erreurs inévitables et variables des observations. Je prends cet angle, qui sera mesuré successivement un grand nombre de fois, pour la chose A, de sorte que exprime la chance d’une valeur quelconque de A, résultante de la construction de l’instrument et de l’adresse de l’observateur. Soit l’abscisse du centre de gravité de l’aire d’une courbe plane, dont et sont l’abscisse et l’ordonnée, et qui s’étend depuis jusqu’à , en désignant, comme dans le no 53, par et les limites des valeurs possibles de A. Faisons

,, ;

et représentons par ce que devient quand on y met au lieu de  ; nous aurons

,,

et par conséquent, à très peu près,

,

en vertu de l’équation citée, dans laquelle est la somme des valeurs de A que l’on obtiendra dans un grand nombre d’épreuves. C’est donc vers la constante que sa valeur moyenne convergera de plus en plus, à mesure que augmentera davantage ; mais lors même que ce rapport sera devenu sensiblement constant, c’est-à-dire, lorsqu’il sera sensiblement le même dans plusieurs séries d’autres grands nombres de mesures, il pourra quelquefois arriver que cette moyenne diffère beaucoup de l’angle qu’on veut déterminer : elle sera toujours la valeur approchée de la constante qui peut ne point coïncider avec cet angle.

En effet, soit

,, ;

appelons ce que devient quand on y met au lieu de  ; nous aurons

,.

La différence , entre l’angle et une valeur possible de l’angle mesuré A, est l’une des erreurs possibles de l’instrument et de l’observateur ; elle peut être positive ou négative, et s’étendre depuis jusqu’à  ; sa probabilité infiniment petite est . Or, s’il n’y a dans la construction de l’instrument aucune cause qui donne aux erreurs positives de plus grandes chances qu’aux erreurs négatives, ou réciproquement, et qu’il en soit de même pour la manière d’opérer de l’observateur, les limites et seront égales et de signes contraires, la fonction sera égale pour des valeurs de la variable égales et de signes contraires, et il en résultera

,.

Dans ce cas, qui est le plus commun, le rapport sera donc la valeur approchée de . Mais, si l’instrument par sa construction, ou l’observateur par sa manière de viser, donne quelque prépondérance, soit aux chances des erreurs positives, soit à celles des erreurs négatives, l’intégrale précédente ne sera plus nulle, les constantes et diffèreront l’une de l’autre, et le rapport s’écartera notablement, en général, de la véritable valeur de . On ne pourra s’apercevoir de cette circonstance, qu’en mesurant le même angle, soit avec d’autres instruments, soit par d’autres observateurs. Je me bornerai ici à indiquer cette application du calcul des probabilités : en ce qui concerne les erreurs des observations, et les méthodes de calcul propres à en diminuer et évaluer l’influence, je renverrai à la Théorie analytique des probabilités et aux mémoires sur ce sujet que j’ai insérés dans la Connaissance des tems[6].

(61). Pour second exemple de l’équation citée au commencement du numéro précédent, supposons que les causes désignées par C1, C2, C3, etc., soient toutes celles qui déterminent les chances de durée de la vie humaine dans un pays et à une époque déterminés. Ces causes sont, entre autres, les diverses constitutions physiques des enfants qui naissent, le bien-être des habitants, les maladies qui abrègent cette durée, et sans doute aussi quelques causes résultantes de la vie elle-même, qui l’empêchent de se prolonger au-delà de limites qu’elles n’a jamais dépassées : il y a lieu de croire, en effet, que si les maladies étaient les seules causes de mort, et qu’elle fut, pour ainsi dire, accidentelle, quelques-uns des hommes parmi le nombre immense de ceux qui ont vécu, auraient échappé à ces dangers pendant plus de deux siècles ; ce qu’on n’a jamais observé. La chose A sera alors le temps que vivra un enfant qui vient de naître ; exprimera une valeur possible de A, et la chance de résultante de toutes les causes, quelles qu’elles soient, qui peuvent la déterminer, non pas pour un enfant en particulier, mais pour l’espèce humaine, dans le lieu et à l’époque que l’on considère. Ainsi, concevons qu’une certaine constitution physique en naissant, donne une chance de vivre précisément un temps égal à , qu’une autre constitution donne une chance de vivre jusqu’au même âge, etc. ; soient aussi , , etc., les probabilités de ces diverses constitutions : à raison de ces causes, la fonction sera la somme , étendue à toutes les constitutions possibles ; et si ce nombre est infini, se changera en une intégrale définie, qui aura une valeur inconnue, mais déterminée. Dans le pays où les hommes naissent le plus forts ou le mieux constitués, cette intégrale aura sans doute la plus grande valeur ; dans chaque pays, elle pourra n’être pas la même pour les deux sexes ; sans doute aussi les valeurs de , , , etc., dépendront d’ailleurs des maladies possibles et du bien-être des habitants : la fonction sera différente, et par suite, l’intégrale de le sera aussi, à deux époques éloignées l’une de l’autre, si dans l’intervalle quelque maladie a disparu, ou que le bien-être du peuple ait augmenté par le progrès de la société. On pourra, si l’on veut, prendre zéro et l’infini pour les limites et de cette intégrale, en considérant comme une fonction qui s’évanouit au-delà d’une valeur de , inconnue aussi bien que la forme de . Cela étant, les valeurs observées de A seront les âges auxquels sont morts un très grand nombre d’individus nés dans un même pays et vers la même époque ; et en appelant la somme de ces âges, on aura, à très peu près et très probablement,

 ;

par conséquent, ce rapport , ou ce qu’on appelle la vie moyenne, demeurera constant pour chaque pays, tant qu’aucune des causes C1, C2, C3, etc., connues ou inconnues, n’éprouvera pas un changement notable.

En France, on suppose la vie moyenne d’environ 29 ans ; mais cette évaluation est fondée sur des observations antérieures à l’usage de la vaccine, et déjà très anciennes ; elle doit être aujourd’hui sensiblement plus longue ; et il serait à désirer qu’on la déterminât de nouveau, séparément pour les hommes et pour les femmes, pour les différents états, et pour les diverses parties du royaume. On considère aussi la vie moyenne à partir d’un âge donné : est alors le nombre des années qu’ont vécu au-delà de cet âge, un très grand nombre d’individus ; le rapport est la vie moyenne relative à cet âge, avec lequel elle varie, en demeurant constante pour un même âge : on suppose qu’elle atteint son maximum entre 4 et 5 ans, et qu’elle s’élève alors à 43 ans. Les tables de mortalité ont un autre objet : sur un très grand nombre d’individus nés dans un même pays et à la même époque, elle font connaître les nombres de ceux qui vivent encore au bout d’un an, de deux ans, de trois ans, etc., jusqu’à ce qu’aucun n’existe plus. En désignant par le nombre des vivants qui ont un âge donné, c’est en vertu de la première équation du no 54, que le rapport est sensiblement invariable, du moins tant qu’il ne s’agit pas d’un âge très avancé, et que n’est pas devenu un nombre très petit : vers cent ans, par exemple, cette invariabilité consiste en ce que le rapport est toujours une très petite fraction.

Dans l’intégrale , au lieu de faire varier par degrés infiniment petits, si l’on fait croître cette variable par des intervalles très petits ; que l’on prenne, pour fixer les idées, chacun de ces intervalles de temps pour unité ; et que l’on désigne par , , , etc., la série des valeurs de , et par , , , etc., les valeurs correspondantes de , la somme des produits , , , etc., sera, comme on sait, la valeur approchée de cette intégrale. En désignant par la vie moyenne, à partir de la naissance, on aura donc aussi

Or, exprimant ici la chance de mourir à un âge , il s’ensuit que relativement à la durée de la vie humaine, on peut considérer la vie moyenne comme l’espérance mathématique (no 23) d’un enfant qui vient de naître, et dont la constitution physique nous est inconnue ; mais d’après les tables de mortalité, sur un très grand nombre d’enfants, plus de la moitié meurt avant d’avoir atteint cet âge .

(62). Supposons, pour dernier exemple, que pour un lieu donné et pour un jour de l’année aussi donné, on ait calculé l’excès de la haute sur la basse mer qui aurait lieu en vertu des actions simultanées du soleil et de la lune. Prenons pour la chose A, la différence entre cet excès calculé et celui qui est observé dans le même lieu et à la même époque de chaque année. Les valeurs de A varieront d’une année à une autre, à raison des vents qui peuvent souffler en ce lieu et à cette époque, et qui déterminent les chances de ces diverses valeurs. Or, si l’on considère toutes les directions et les intensités possibles de ces vents, leurs probabilités respectives, et les chances que ces causes donnent à une valeur quelconque de A, l’intégrale aura une valeur inconnue, mais déterminée, et qui demeurera constante, tant que la loi de probabilité de chaque vent possible ne changera pas. Le rapport sera donc aussi à très peu près invariable ; étant la somme des valeurs de A, observées pendant une longue suite d’années.

Nous ne savons pas à priori, si est zéro ou une fraction qu’on puisse négliger, c’est-à-dire, si l’influence des vents sur les lois générales des marées est insensible ; l’expérience seule peut nous faire connaître la valeur de ce rapport, et nous apprendre s’il varie aux différentes époques de l’année, et pour les lieux différents où les observations sont faites, sur la côte, dans les ports, en pleine mer. Pour connaître l’influence de tel ou tel vent en particulier, il faudrait n’employer que des valeurs de A observées sous cette influence ; toutefois, afin de n’avoir pas besoin d’un trop grand nombre d’années d’observations, ces valeurs pourraient répondre à plusieurs jours consécutifs, pendant lesquels la direction du vent aurait peu changé. Plusieurs savants s’occupent maintenant de cet examen, qui exigera un long travail, et ne manquera pas de conduire à des résultats intéressants.

(63). L’exposition des règles du calcul des probabilités et de leurs conséquences générales, qui a été faite dans ce chapitre et dans le précédent, étant actuellement complète, je reviens sur la notion de cause et d’effet, qui est seulement indiquée dans le no 27.

La cause propre d’une chose E est, comme on l’a dit dans ce numéro, une autre chose C qui possède une puissance de produire nécessairement E, quelles que soit d’ailleurs la nature de ce pouvoir et la manière dont il s’exerce. Ainsi, ce qu’on appelle l’attraction de la terre est une certaine chose qui a la puissance de faire tomber les corps situés à la surface du globe, dès qu’il ne sont pas soutenus ; et de même, dans notre volonté, réside un pouvoir de produire, par l’intermédiaire des muscles et des nerfs, une partie de ces mouvements que l’on nomme, pour cette raison, mouvements volontaires. Quelquefois, dans la nature, la chose E n’a qu’une seule cause C qui puisse la produire, de sorte que l’observation de E suppose toujours l’intervention de C. Dans d’autres cas, cette chose peut être attribuée à plusieurs causes distinctes, qui concourent ensemble, ou qui s’excluent mutuellement de manière qu’une seule ait dû produire E.

Telles sont, en ce qui concerne le principe de la causalité, les idées les plus simples et que je crois généralement admises. Cependant l’illustre historien de l’Angleterre a émis sur ce point de métaphysique, une opinion différente qu’il convient d’examiner, et sur laquelle le calcul des probabilités peut jeter un grand jour.

Selon Hume[7], nous ne pouvons avoir d’autre idée de la causalité que celle d’un concours et non d’une connexion nécessaire entre ce que nous appelons cause et effet ; et ce concours n’est pour nous qu’une forte présomption, résultant de ce que nous l’avons observé un grand nombre de fois : si nous l’eussions observé un nombre de fois peu considérable, ce serait juger de la nature sur un trop petit échantillon, que de présumer qu’il se reproduira désormais. D’autres ont partagé la même opinion, et l’ont appuyée sur les règles de la probabilité des événements futurs, d’après l’observation des événements passés. Mais Hume va plus loin ; et sans même recourir à ces lois de probabilité, il pense que l’habitude de voir l’effet succéder à la cause, produit dans notre esprit une sorte d’association d’idées qui nous porte à croire que l’effet va arriver quand la cause a eu lieu ; ce qui peut être effectivement vrai pour la plupart des hommes, qui n’examinent pas le principe de leur croyance et son degré de probabilité : pour eux, cette association d’idées doit être comparée à celle qui se fait dans notre esprit, entre le nom d’une chose et la chose même, et qui est telle, que le nom nous rappelle la chose, indépendamment de notre réflexion et de notre volonté.

Un des exemples que l’auteur choisit pour expliquer son opinion est le choc d’un corps en mouvement contre un corps libre et en repos, et le mouvement de ce second corps à la suite de sa rencontre par le premier. Ce concours du choc et du mouvement du corps choqué est, en effet, un événement que nous avons observé un très grand nombre de fois, sans que l’événement contraire se soit jamais présenté ; ce qui suffit, abstraction faite de toute autre considération, pour que nous ayons une forte raison de croire, ou, pour qu’il y ait une très grande probabilité que le concours dont il s’agit aura encore lieu désormais. Il en est de même de tous les concours de causes et d’effets que nous observons journellement et sans exception : leur probabilité s’alimente, pour ainsi dire, par cette expérience continuelle, et la raison ou le calcul, d’accord avec l’habitude, nous donne une grande assurance qu’à l’avenir ces causes seront toujours suivies de leurs effets. Mais dans le cas d’un phénomène que nous avons seulement observé un nombre de fois peu considérable, à la suite de la cause que nous lui assignons, il n’y aurait, d’après les règles précédemment exposées, qu’une probabilité qui ne serait pas très grande, pour le concours futur de cette cause et de cet effet. Néanmoins, il arrive souvent que nous ne faisons aucun doute de la reproduction de ce phénomène, lorsque sa cause aura lieu de nouveau. Or, cette assurance suppose que notre esprit attribue à la cause une puissance quelconque de produire son effet, et qu’il admet une liaison nécessaire entre ces deux choses, indépendamment du nombre, plus ou moins grand, de leurs concours observés.

Ainsi, lorsque M. Œrsted découvrit qu’en faisant communiquer les deux pôles d’une pile de Volta, au moyen d’un fil métallique, il arrivait qu’une aiguille aimantée, suspendue librement dans le voisinage de ce circuit voltaïque, déviait de sa direction naturelle ; l’illustre physicien fut sans doute convaincu, après avoir répété un petit nombre de fois cette expérience capitale, que le phénomène ne manquerait pas de se reproduire constamment par la suite. Cependant, si notre raison de croire à cette reproduction était uniquement fondée sur le concours du circuit voltaïque et de la déviation de l’aiguille aimantée, observé une dixaine de fois, par exemple, la probabilité que le phénomène arriverait encore dans une nouvelle épreuve, ne serait que 11/12 (no 46) : dans une nouvelle série de 10 épreuves, il y aurait à parier 11 contre 10, ou à peu près un contre un, que l’événement aurait encore lieu sans interruption ; et dans une plus longue série d’expériences futures, il deviendrait raisonnable de penser que le phénomène ne se reproduirait pas à toutes les épreuves.

Je citerai encore pour exemple l’heureuse application à la composition chimique des corps, que M. Biot a faite récemment de la polarisation progressive de la lumière dans un sens déterminé, dont il avait depuis long-temps constaté l’existence dans des milieux homogènes et non cristallisés[8]. Lorsque dans un nombre peu considérable d’observations faites avec soin, on a reconnu qu’une substance donnée, dévie le rayon polarisé à droite de l’observateur, pour fixer les idées, et que les déviations observées ont été assez grandes pour ne laisser aucune incertitude sur le sens dans lequel elles ont eu lieu, cela suffit pour que nous soyons assurés, comme on l’est d’une chose dont personne ne doute, que dorénavant la même substance fera toujours dévier la lumière à droite ; et cependant le concours de cette substance et d’une déviation à droite, observé un nombre de fois qui n’est pas très grand, ne donnerait qu’une faible probabilité, et même une probabilité inférieure à 1/2, que dans un pareil nombre ou un nombre un peu plus grand d’épreuves nouvelles, aucune déviation à gauche n’aurait lieu.

Ces exemples et d’autres que l’on imaginera aisément montrent, ce me semble, que la confiance de notre esprit dans le retour des effets à la suite de leurs causes ne peut avoir pour unique fondement l’observation antérieure de cette succession, plus ou moins répétée. On va voir, en effet, qu’indépendamment d’aucune habitude de notre esprit, la seule possibilité d’une certaine aptitude de la cause à produire nécessairement son effet, augmente de beaucoup la raison de croire à ce retour, et peut rendre sa probabilité très approchante de la certitude, quoique les observations antérieures soient en nombre peu considérable.

(64). Avant qu’un phénomène P ait été observé et qu’on sache s’il arrivera ou s’il n’arrivera pas dans toute une série d’expériences que l’on va faire, nous admettons donc que l’existence d’une cause C capable de le produire nécessairement ne soit pas impossible. Nous concevons aussi qu’avant ces expériences, l’existence d’une telle cause avait une certaine probabilité, résultant de considérations particulières qui la rendaient plus ou moins vraisemblable, et que nous représenterons par . Supposons ensuite que P soit observé à toutes ces expériences dont le nombre sera désigné par . Après cette observation, la probabilité de l’existence de C aura changé ; il s’agira de la déterminer, et nous la désignerons par .

Quelque soin que l’on ait mis à diminuer l’influence des causes autres que C, susceptibles de produire le phénomène P à chaque épreuve, si C n’existait pas ; on peut croire, néanmoins, que l’on n’a pas rendu cette influence tout-à-fait nulle. Supposons donc qu’il existe certaines causes B1, B2,… B, connues ou inconnues, qui ont pu aussi, à défaut de C, donner naissance à ce phénomène en se combinant avec le hasard (no 27), savoir : B1 dans la première expérience, B2 dans la seconde,… B dans la dernière. Soit généralement la probabilité de l’existence de B, multipliée par la chance que cette cause, si elle était certaine, donnerait à l’arrivée de P. En faisant, pour abréger,

,

ce produit serait la probabilité de l’arrivée de ce phénomène dans toutes les expériences, résultante de l’ensemble des causes B1, B2, B3, etc., et si la cause C n’existait pas ; et comme est la probabilité de la non-existence de C, il en résulte, dans l’hypothèse que C n’existe pas, pour la probabilité de l’événement observé, qui est ici l’arrivée constante de P. Dans la supposition contraire, sa probabilité est , c’est-à-dire, qu’elle n’est autre chose que celle de l’existence de C, antérieurement à l’observation, puisque cette cause produirait nécessairement l’arrivée de P à toutes les épreuves. Par conséquent, d’après la règle du no 28, la probabilité de cette seconde hypothèse, ou de l’existence de C après l’observation, a pour valeur

,

et celle de sa non-existence est

.

On parvient également à ce résultat, en ayant égard successivement aux expériences, au lieu de les considérer toutes à la fois, comme nous venons de le faire. En effet, la probabilité de l’existence de C étant , par hypothèse, avant la première expérience, désignons ce qu’elle devient successivement, par après cette expérience et avant la seconde, par après la seconde et avant la troisième, etc. ; nous aurons


etc. ;

et en éliminant d’abord et des valeurs de et , ensuite et des valeurs de et , etc., on obtiendra les expressions précédentes de et , pour les probabilités de l’existence et de la non-existence de C après la ième expérience.

Maintenant, soit la probabilité que le phénomène P arrivera, sans interruption, dans une nouvelle série de expériences. Quel que soit ce nombre , la probabilité pour que cela ait lieu en vertu de la cause C, si elle était certaine, est la probabilité de l’existence de C, conclue des premières expériences. À défaut de cette cause, l’arrivée de P pourra aussi être due à d’autres causes B′1, B′2,… B′, pareilles à celles que nous avons désignées tout à l’heure par B1, B2,… B, et dont on ne pourra pas éviter entièrement l’influence. Représentons, relativement à ces causes futures, par , ce que deviennent les quantités précédentes , de sorte que soit à l’égard de B′, ce que était par rapport à B Faisons aussi

.

La probabilité de l’arrivée de P dans les expériences futures, sera , si la cause C n’existe pas. Nous en concluons donc

,

pour l’expression complète de , ou bien, en mettant pour et leurs valeurs précédentes,

.

Cela posé, ces expressions de et montrent comment la probabilité de l’existence de C, qui pouvait être très faible avant l’observation de P, a pu devenir très grande après que ce phénomène a été observé un nombre de fois peu considérable, et donner ensuite une probabilité très approchante de la certitude, à l’arrivée constante de ce phénomène dans les expériences futures. Supposons, par exemple, que par des raisons quelconques, et, si l’on veut, par une prévention de notre esprit, la probabilité de C à priori, n’était qu’un cent-millième ; admettons aussi que l’influence des causes accidentelles, malgré les précautions prises pour l’éviter, puisse encore être telle que chacune des quantités , , , etc., soit un dixième, ou une fraction moindre ; si P a été observé seulement dix fois sans interruption, on aura

,,

et, en même temps,

.

Par conséquent, la probabilité de l’existence de C, après l’observation, différerait de l’unité, de moins d’un cent-millième, et la non-existence de cette cause serait devenue moins probable que son existence ne l’était auparavant. Quel que soit le nombre , la probabilité que P aura lieu constamment dans une série de expériences futures, surpasserait encore celle de l’existence de C, ou ne pourrait pas être moindre.

(65). Dans cette application du calcul des probabilités, la cause C est considérée d’une manière abstraite, c’est-à-dire, indépendamment d’aucune théorie qui ramènerait le phénomène P à des lois plus générales, et en fournirait une explication exacte, d’après la cause qu’on lui attribue, ce qui augmenterait encore la probabilité de l’existence de cette cause. Nous considérons ce phénomène P comme ayant eu lieu sans interruption ; et le calcul précédent a eu pour objet de montrer que notre croyance à sa reproduction future, quand il n’a été observé qu’un petit nombre de fois, ne peut être fondée que sur l’idée que nous avons d’une cause capable de produire nécessairement un phénomène de cette nature. Le calcul des probabilités ne peut d’ailleurs nous faire connaître quelle est cette cause efficace, ni déterminer quelle est la plus probable, parmi celles qui pourraient produire nécessairement le phénomène, quand il y en a plusieurs auxquelles on pourrait l’attribuer.

Lorsque P n’a pas eu lieu dans une ou plusieurs épreuves, et que l’on est certain, cependant, que la cause C capable de le produire nécessairement, si elle existait, aurait dû agir dans toutes ces expériences, il est évident que cette cause, ni aucune autre cause de cette espèce, n’existe pas. Mais outre les causes de cette nature, il en existe d’autres qui agissent à toutes les épreuves, et sont seulement capables de donner une certaine chance à l’arrivée d’un phénomène P (no 27), en se combinant, soit avec le hasard, soit avec des causes variables, qui tantôt agissent et tantôt n’agissent pas. Ces causes variables et irrégulières, que l’on ne doit pourtant pas confondre avec le hasard, peuvent influer sur la chance moyenne de l’arrivée de P dans une longue suite d’expériences, et par suite (no 52), sur le nombre de fois que P a eu lieu ou aura lieu, divisé par le nombre total des épreuves ; mais si l’on a pris soin de diminuer, autant qu’il est possible, l’influence des causes accidentelles, de sorte qu’on puisse la supposer sensiblement nulle, et si le phénomène P a été observé un nombre de fois dans un très grand nombre d’épreuves, il y aura une très grande probabilité qu’il existe une cause permanente, favorable ou contraire à la production de ce phénomène, selon que sera notablement plus grand ou plus petit que la moitié de .

Ainsi, en prenant pour exemple, le cas d’un corps à deux faces, projeté en l’air un très grand nombre de fois, l’existence d’une cause favorable ou contraire à l’arrivée d’une face déterminée, peut être regardée comme extrêmement probable, lorsque les nombres de fois que les deux faces sont arrivées diffèrent notablement l’un de l’autre, comme dans l’expérience de Buffon précédemment citée (no 50). Quelle est cette cause permanente ? Le calcul des probabilités nous en montre seulement la nécessité, et ne peut nous en indiquer la nature. Ce sont les lois de la mécanique qui nous font voir qu’elle doit être la supériorité du poids dans une des parties du corps projeté, sans nous apprendre toutefois, à raison de la complication du problème, à déterminer les effets d’une pareille cause, et la chance qu’elle donne à l’arrivée de chacune des deux faces, qui ne peut être connue que par l’expérience.

C’est par un semblable procédé que l’on pourrait constater, ainsi que Laplace l’a proposé[9], l’existence ou la non-existence de certaines causes occultes, qui ne sont pas absolument impossibles à priori, et n’ont pas, non plus, le pouvoir de produire nécessairement les phénomènes auxquels elles se rapportent. Pour cela, il faudrait de longues séries d’épreuves, en écartant, autant qu’il serait possible, l’influence des causes accidentelles, et tenant compte, avec exactitude, du nombre de fois qu’un phénomène a été observé et du nombre de fois qu’il n’a pas eu lieu : si le rapport du premier de ces nombres au second surpassait notablement l’unité, l’existence d’une cause quelconque et la chance qu’elle donne à la production de ce phénomène auraient une très grande probabilité.

Si deux joueurs A et B ont joué l’un contre l’autre un très grand nombre de parties, que A en ait gagné un nombre , et que le rapport excède 1/2, d’une fraction qui ne soit pas très petite ; l’existence d’une cause favorable à A peut être regardée comme à peu près certaine. Lorsqu’aucun des deux joueurs n’a fait un avantage à l’autre, cette cause est la supériorité de A sur B, dont le rapport donne, pour ainsi dire, la mesure. À un jeu de cartes, au piquet par exemple, le résultat de chaque partie ne peut dépendre que de la différence d’habileté des deux joueurs et de la distribution des cartes entre eux. Si aucun des deux n’a triché, cette distribution est l’effet du hasard ; elle peut influer sur la proportion des nombres de parties gagnées par les deux joueurs, quand ces nombres sont peu considérables : c’est ce qu’on peut appeler le bonheur ou le malheur, pourvu que l’on n’attache pas l’idée de l’un ou de l’autre aux personnes qui jouent ; car il serait absurde de supposer qu’il y eût un rapport quelconque entre ces personnes et les cartes que le seul hasard leur a distribuées : à chaque coup, celles qui sont échues à l’un des joueurs auraient pu également échoir à l’autre. Mais dans une série de parties suffisamment prolongée, il n’y a plus que la différence d’habileté des joueurs qui puisse influer sur les chances du jeu : à la longue, les joueurs habiles sont les seuls heureux, et réciproquement. Si A et B jouent de nouveau un très grand nombre de parties, il y aura une grande probabilité que le nombre de celles que A gagnera, différera très peu du produit , de sorte que si cela ne se vérifiait pas, on serait fondé à penser que dans l’intervalle des deux séries de parties, la supériorité de A sur B aurait augmenté ou diminué.

—
  1. Faute d’avoir eu égard à cette circonstance, la solution de ce problème qui se trouve dans le no 17 de mon mémoire sur la proportion des naissances des deux sexes, est inexacte, et j’en ai déduit une fausse conséquence.
  2. Théorie analytique des probabilités ; page 457.
  3. Arithmétique morale, article XVIII.
  4. Ars conjectandi ; pars quarta. Traité élémentaire des probabilités de M. Lafoix ; 1re section.
  5. Mémoires de l’Académie des Sciences, tome IX.
  6. Années 1827 et 1832.
  7. Essais philosophiques sur l’entendement humain ; septième essai : de l’idée de pouvoir ou de liaison nécessaire.
  8. Le principe de cette application est exposé clairement et en peu de mots dans la note suivante que M. Biot a bien voulu me communiquer :

    « Un rayon lumineux de réfrangibilité fixe a été polarisé par réflexion dans un certain plan. On l’analyse après sa réflexion, en lui laissant traverser un rhomboïde de chaux carbonatée rendu légèrement prismatique par sa face postérieure ; et l’on s’assure qu’il possède tous les caractères de la polarisation relativement au plan dont il s’agit. Ainsi, lorsque la section principale du prisme rhomboïdal est parallèle au plan de réflexion, le rayon passe simple subit tout entier la réfraction ordinaire. Mais, si l’on tourne cette section, soit à droite, soit à gauche, il se partage entre les deux réfractions, exactement comme s’il avait d’abord traversé un premier rhomboïde dont la section principale serait parallèle au plan dans lequel la réflexion a eu lieu. Et généralement toutes les propriétés du rayon polarisé sont symétriques autour de ce plan.

    » Ceci reconnu, on interpose dans le trajet du rayon polarisé, un tube creux terminé par des glaces minces, et successivement rempli de liquides divers, qui, tous, se présentent ainsi au rayon sous l’incidence normale. Puis on analyse de nouveau ce rayon après son émergence ; et l’on observe les phénomènes suivants.

    » L’eau, l’alcool, l’éther et beaucoup d’autres liquides ne troublent pas sensiblement la polarisation primitive du rayon. Car on lui retrouve toutes les propriétés physiques qui la caractérisaient.

    » Mais d’autres liquides, par exemple les essences de citron et de térébenthine, certains corps solides non cristallisés, et même certaines vapeurs, troublent cette polarisation. Car le rayon, qui les a traversés sous l’incidence normale, donne des images doubles, dans les mêmes positions du prisme rhomboïdal où il en donnait primitivement de simples. Alors, en tournant graduellement la section principale du prisme vers la droite ou vers la gauche de l’observateur, on trouve toujours une certaine position ou l’image extraordinaire disparaît. Et, pour cette position, le rayon présente de nouveau tous les caractères d’une polarisation complète. De sorte que le plan de polarisation primitif a été seulement dévié angulairement par l’action du corps interposé.

    » Pour chaque substance, prise dans un même état physique, et agissant sur un même rayon, la quantité absolue de la déviation est proportionnelle à l’épaisseur de matière traversée ; de sorte que le sens dans lequel elle croît, fait connaître de quel côté elle s’exerce. Certaines substances l’opèrent vers la droite, d’autres vers la gauche de l’observateur, pour les mêmes rayons ; et, si on les mêle ensemble, sans qu’il s’exerce entre elles de réaction chimique qui les dénature, la déviation résultante est toujours la somme des déviations partielles qui auraient été opérées isolément par les mêmes quantités pondérables de chaque substance.

    » Ces phénomènes de déviations progressivement croissantes, opérées dans un sens propre, par des milieux homogènes agissant sous l’incidence normale, ont été présentés à l’Institut le 28 octobre 1815. Ce sont les premiers faits de ce genre qui aient été découverts, et reconnus dans leur caractère progressif. La découverte de M. Œrsted, qui présente un semblable caractère, leur est postérieure de plusieurs années. »

  9. Essai philosophique sur les probabilités, page 133.