Page:Revue philosophique de la France et de l'étranger, III.djvu/348

La bibliothèque libre.
Le texte de cette page a été corrigé et est conforme au fac-similé.
338
revue philosophique

essaie de détruire jusque dans leurs derniers fondements toutes les forteresses où s’est réfugié l’absolu. Sa méthode a ainsi un caractère tout mathématique qui la distingue assez profondément de celle de Kant. Le principe du nombre, ou du déterminé, du fini, peut s’énoncer ainsi : « Tout ce qui est distinctement, soit actuellement, soit comme actuellement, à titre de passé, de présent ou de préexistant, est nombre. Tout nombre est tel, et non autre. Un nombre plus grand que tout nombre assignable n’est pas un nombre. Un nombre qui n’est pas un nombre est une contradiction. » Cette formule est la négation de tout infini réel, soit dans l’ordre et l’extension, soit dans celui de la division. L’infini qu’il vaudrait mieux appeler l’indéfini, est la loi du possible, le fini est la loi du réel donné effectivement et représenté sous les catégories. On allègue en vain le calcul de l’infini petit ou grand, le calcul du continu, le calcul de l’incommensurable. L’infini n’est en mathématique qu’un symbole au même titre que les valeurs imaginaires et les exposants négatifs. Leibniz, dont l’autorité est grande en ces matières, ne s’y est pas trompé. Il déclare nettement qu’il n’a pas voulu établir des grandeurs ni infinies ni infiniment petites, mais qu’il regarde les unes et les autres comme des fictions de l’esprit faites pour le calcul, telles que sont les racines imaginaires en algèbre, très-utiles pour l’abréviation de la pensée, par suite pour l’invention et n’exposant point à l’erreur[1]. Citons d’ailleurs ce passage topique, tiré de la Théodicée : « On s’embarrasse dans les séries des nombres qui vont à l’infini. On conçoit un dernier terme, un nombre infini ou infiniment petit, mais tout cela, ce sont des fictions. Tout nombre est fini et est assignable, toute ligne l’est de même, et les infinis ou infiniment petits n’y signifient que des grandeurs qu’on peut prendre aussi grandes ou aussi petites pour montrer qu’une erreur est moindre que celle qu’on a assignée, c’est-à-dire qu’il n’y a aucune erreur. » Dans ces sortes de calculs, en effet, l’erreur étant plus petite que tout nombre assignable, si petit qu’il soit, le raisonnement mathématique, quoique se fondant sur des symboles, est inattaquable : en supposant une commune mesure à deux quantités incommensurables on n’e leur en donne pas une, on commet une erreur voulue, mais dont l’importance est indéfiniment réductible à la volonté de l’opérateur. L’approximation indéfinie du calcul algébrique est dans ce cas, en théorie, équivalente à l’exactitude[2]. Mais les symboles n’en restent pas moins des symboles, ils ne sont ni des quantités, ni des fonctions. C’est introduire une funeste idologie dans la science mathématique que de vouloir transformer

  1. Leibniz, opp. Dutens, I, 267.
  2. Logique générale, I, 405.