Traité de la résolution des équations numériques de tous les degrés/Introduction

La bibliothèque libre.

INTRODUCTION.


La solution de tout problème déterminé se réduit, en dernière analyse, à la résolution d’une ou de plusieurs équations, dont les coefficients sont donnés en nombres, et qu’on peut appeler équations numériques. Il est donc important d’avoir des méthodes pour résoudre complètement ces équations, de quelque degré qu’elles soient. Celle que l’on trouve dans le Recueil des Mémoires de l’Académie de Berlin pour l’année 1767, est la seule qui offre des moyens directs et sûrs de découvrir toutes les racines tant réelles qu’imaginaires d’une équation numérique donnée, et d’approcher le plus rapidement et aussi près que l’on veut de chacune de ces racines. On a réuni dans le présent Traité le Mémoire qui contient cette méthode et les Additions qui ont paru dans le volume des Mémoires de la même Académie, pour l’année 1768. Et pour rendre ce Traité plus intéressant, on y a joint plusieurs Notes, dont les deux dernières paraissent pour la première fois dans cette nouvelle édition. Ces Notes contiennent des recherches sur les principaux points de la théorie des équations algébriques.

Il faut bien distinguer la résolution des équations numériques de ce qu’on appelle en Algèbre la résolution générale des équations. La première est, à proprement parler, une opération arithmétique, fondée à la vérité sur les principes généraux de la théorie des équations, mais dont les résultats ne sont que des nombres, où l’on ne reconnaît plus les premiers nombres qui ont servi d’éléments, et qui ne conservent aucune trace des différentes opérations particulières qui les ont produits. L’extraction des racines carrées et cubiques est l’opération la plus simple de ce genre ; c’est la résolution des équations numériques du second et du troisième degré, dans lesquelles tous les termes intermédiaires manquent. Aussi conviendrait-il de donner dans l’Arithmétique les règles de la résolution des équations numériques, sauf à renvoyer à l’Algèbre la démonstration de celles qui dépendent de la théorie générale des équations.

Newton a appelé l’Algèbre Arithmétique universelle. Cette dénomination est exacte à quelques égards ; mais elle ne fait pas assez connaître la véritable différence qui se trouve entre l’Arithmétique et l’Algèbre. Le caractère essentiel de celle-ci consiste en ce que les résultats de ses opérations ne donnent pas les valeurs individuelles des quantités qu’on cherche, comme ceux des opérations arithmétiques ou des constructions géométriques, mais représentent seulement les opérations, soit arithmétiques ou géométriques, qu’il faudra faire sur les premières quantités données pour obtenir les valeurs cherchées ; je dis arithmétiques ou géométriques, car on connaît depuis Viète les constructions géométriques par lesquelles on peut faire sur les lignes les mêmes opérations que l’on fait en Arithmétique sur les nombres.

L’Algèbre plane pour ainsi dire également sur l’Arithmétique et la Géométrie ; son objet n’est pas de trouver les valeurs mêmes des quantités cherchées, mais le système d’opérations à faire sur les quantités données pour en déduire les valeurs des quantités qu’on cherche, d’après les conditions du problème. Le tableau de ces opérations représentées par les caractères algébriques est ce qu’on nomme en Algèbre une formule ; et lorsqu’une quantité dépend d’autres quantités, de manière qu’elle peut être exprimée par une formule qui contient ces quantités, on dit alors qu’elle est une fonction de ces mêmes quantités.

L’Algèbre, prise dans le sens le plus étendu, est l’art de déterminer les inconnues par des fonctions des quantités connues, ou qu’on regarde comme connues et la résolution générale des équations consiste à trouver, pour toutes les équations d’un même degré, les fonctions des coefficients de ces équations qui peuvent en représenter toutes les racines.

On n’a pu jusqu’à présent trouver ces fonctions que pour les équations du second, du troisième et du quatrième degré ; mais, quoique ces fonctions expriment généralement toutes les racines des équations de ces mêmes degrés, elles se présentent néanmoins, dès le troisième degré, sous une forme telle qu’il est impossible d’en tirer les valeurs numériques des racines par la simple substitution de celles des coefficients, dans les cas mêmes où toutes les racines sont essentiellement réelles ; c’est cette difficulté que les analystes désignent sous le nom de cas irréductible ; elle aurait lieu à plus forte raison dans les équations des degrés supérieurs, s’il était possible de les résoudre par des formules générales.

Heureusement, on a trouvé le moyen de la vaincre dans le troisième et le quatrième degré, par la considération de la trisection des angles et par le secours des Tables trigonométriques ; mais ce moyen, qui dépend de la division des angles, n’est applicable dans les degrés plus élevés qu’à une classe d’équations très-limitée ; et l’on peut assurer d’avance que, quand même on parviendrait à résoudre généralement le cinquième degré et les suivants, on n’aurait par là que des formules algébriques, précieuses en elles-mêmes, mais très-peu utiles pour la résolution effective et numérique des équations des mêmes degrés, et qui, par conséquent, ne dispenseraient pas d’avoir recours aux méthodes arithmétiques qui sont l’objet de ce Traité.

Viète est le premier qui se soit occupé de la résolution des équations numériques d’un degré quelconque. Il a fait voir, dans le Traité De numerosa potestatum adfectarum resolutione, comment on peut résoudre plusieurs équations de ce genre par des opérations analogues à celles qui servent à extraire les racines des nombres.

Harriot, Oughtred, Pell, etc., ont cherché à faciliter la pratique de cette méthode, en donnant des règles particulières pour diminuer les tâtonnements, suivant les différents cas qui ont lieu dans les équations relativement aux signes de leurs termes. Mais la multitude des opérations qu’elle demande et l’incertitude du succès dans un grand nombre de cas l’ont fait abandonner entièrement.

En effet, il est aisé de se convaincre qu’elle ne peut réussir d’une manière certaine que pour les équations dont tous les termes ont le même signe, à l’exception du dernier tout connu ; car alors, ce terme devant être égal à la somme de tous les autres, on peut, par des tâtonnements limités et réglés, trouver successivement tous les chiffres de la valeur de l’inconnue, jusqu’au degré de précision qu’on aura fixé. Dans tous les autres cas, les tâtonnements deviendront plus ou moins incertains, à cause des termes soustractifs.

Il faudrait donc, pour l’emploi de cette méthode, qu’on pût, par une préparation préliminaire, réduire toutes les équations à cette forme. Nous prouverons, dans une des Notes[1], que cette réduction est toujours possible, pourvu qu’on ait deux limites d’une racine, l’une en plus, l’autre en moins, et qui soient telles que toutes les autres racines, ainsi que les parties réelles des racines imaginaires, s’il y en tombent hors de ces limites. Mais la difficulté de trouver ces limites est elle-même aussi grande, et peut-être quelquefois plus grande que celle de résoudre l’équation.

À la méthode de Viète a succédé celle de Newton, qui n’est proprement qu’une méthode d’approximation, puisqu’elle suppose que l’on ait déjà la valeur de la racine qu’on cherche, à une quantité près moindre que sa dixième partie ; alors on substitue cette valeur plus une nouvelle inconnue à l’inconnue de l’équation proposée, et l’on a une seconde équation dont la racine est ce qui reste à ajouter à la première valeur pour avoir la valeur exacte de la racine cherchée ; mais, à cause de la petitesse supposée de ce reste, on néglige dans la nouvelle équation le carré et les puissances plus hautes de l’inconnue ; et l’équation étant ainsi rabaissée au premier degré, on a sur-le-champ la valeur de l’inconnue. Cette valeur ne sera encore qu’approchée ; mais on pourra s’en servir pour en trouver une autre plus exacte, en faisant sur la seconde équation la même opération que sur la première, et ainsi de suite. De cette manière, on trouve à chaque opération une nouvelle quantité à ajouter ou à retrancher de la valeur déjà trouvée, et l’on a la racine d’autant plus exacte qu’on pousse le caleul plus loin.

Telle est la méthode que l’on emploie communément pour résoudre les équations numériques ; mais elle ne sert, comme l’on voit, que pour celles qui sont déjà à peu près résolues. De plus, elle n’est pas toujours sûre ; car, en négligeant à chaque opération des termes dont on ne connaît pas la valeur, il est impossible de juger du degré d’exactitude de chaque nouvelle correction, et il peut arriver, dans les équations qui ont des racines presque égales, que la série soit très-peu convergente, ou qu’elle devienne même divergente après avoir été convergente[2]. Enfin, elle a encore l’inconvénient de ne donner que des valeurs approchées des racines mêmes qui peuvent être exprimées exactement en nombres, et de laisser, par conséquent, en doute si elles sont commensurables ou non.

Le problème qu’on doit se proposer dans cette partie de l’Analyse est celui-ci : Étant donnée une équation numérique sans aucune notion préalable de la grandeur ni de l’espéce de ses racines, trouver la valeur numérique exacte, s’il est possible, ou aussi approchée qu’on voudra de chacune de ses racines. Ce problème n’avait pas encore été résolu ; il fait l’objet des recherches suivantes.

Depuis la première édition de cet Ouvrage[3], il a paru différentes méthodes pour la résolution des équations numériques ; mais la solution rigoureuse du problème dont il s’agit est restée au même point où je l’avais portée, et jusqu’ici on n’a rien trouvé qui puisse dispenser, dans tous les cas, de la recherche d’une limite moindre que la plus petite différence entre les racines, ou qui soit préférable aux moyens donnés dans la Note IV pour faciliter cette recherche.


Séparateur

  1. Voir la Note XII.
  2. Voir la Note V.
  3. En 1798.