Certains aspects du problème de la précision dans les calcules numériques

Abstrait

?

Auteurs

Tiberiu Popoviciu
(Institutul de Calcul)

Titre originale

Certains aspects du problème de la précision dans les calcules numériques

Traduction en anglais du titre

Some aspects of the problem of accuracy in numerical computations

Mots cle

??

Citer cette travail

T. Popoviciu, Certains aspects du problème de la précision dans les calcules numériques, Bull. Math. Soc. Sci. Math. Phys. R. P. Roumaine (N.S.), 1(49) (1957), pp. 473-478 (in French).

PDF

Information de cette travail

Journal

??

Publie par

??

DOI

??

Print ISSN

Online ISSN

Google Scholar citations

MR, ZBL

pas disponibles pour le moment

HTML

CERTAINS ASPECTS DU PROBLÈME DE LA PRÉCISION DANS LES CALGULES NUMÉRIQUES

TIBERIU POPOVICIU (Cluj)
(Communication au Congrès des mathématiciens roumains,
Bucarest, mai-juin 1956)

CERTAINS ASPECTS DU PROBLÈME DE LA PRÉCISION DANS LES CALGULES NUMÉRIQUES

  1. 1.

    Poussée par des nécessités d’ordre pratique, l’analyse numérique a pris un grand essor dans les dernières décades. Les problèmes de l’analyse numérique sont trés variés, mais tous peuvent être caractérisés par ce qu’ils cherchent à. obtenir les résultats jusqu’aux derniers calculs numériques.

Dans ce qui suit tous passons en revue, trés brievement, certains aspects tout à fait particuliers de quelques problèmes d’analyse numérique, d’ailleurs presentant une grande importance theorique et pratique, aspects qui rentrent dans le cadre des préocupations de la Section de Mathématique de la Filiale de Cluj, de l’Académie de la R.P.R.
2. Dans de nombreux problèmes d’analyse numérique on cherche à obtenir un nombre qui dépend d’une fonction tt, done on cherche la valeur d’une fonctionnelle A[f]A[f], d’argument ff. Pour fixer les idées et pour simplifier, nous supposerons pour l’instant, que ff est une fonction réelle de variable réelle. La fonctionnelle A[f]A[f] peut avoir différentes structures. On rencontre les cas les plus simples dans le calcul de la valeur d’une fonction ff ou de sa dérivée d’un ordre quelconque, sur un point donné, ainsi que dans le calcul de l’intégrale de ff dans un intervalle donné etc. Ces derniers cas particuliers se rencontrent souvent, par exemple, dans differentes methodes d’intégration numérique des équations différentielles ou d’autres équations fonctionnelles.

A cause de la trop grande complication ou bien de la connaissance généralement insuffisante de la fonction ff on ne peut pas obtenir exactement le nombre A[f]A[f]. Il faut alors se contenter d’une approximation de nombre. Ce qui rend importants ces problèmes de calculs approximatifs c’est qu’en pratique une approximation convenable du nombre A[f]A[f] est toujours suffisante.

Il y a différents procédes qui permettent d’obtenir une valeur approximative pour A[f]A[f]. Un procédé assez général peut être schématisé par l’égalité approximative

A[f]B[f],A[f]\approx B[f], (1)

donc on peut prendre comme approximation pour A[f]A[f] la valeur B[f]B[f] d’une autre fonctionnelle donnée-considérée comme plus simple que A[f]A[f] en ce sens
qu’effectivement le calcul du nombre B[f]B[f] peut s’effectuer jusqu’au bout et dans certains conditions imposées d’avance.

Un procédé général d’obtention d’une approximation pour la fonctionnelle A[f]A[f] consiste à remplacer la fonction ff par une fonction d’approximation φ\varphi

tφ.t\approx\varphi. (2)

On peut considérer le nombre A[φ]A[\varphi] comme une approximation pour A[f]A[f] donc

AtAφ.A\lceil t\rceil\approx A\lceil\varphi\rceil. (3)

D’ailleurs, l’éga’ité (3) est de la forme (1) si la fonction d’approximation dépend univoquement de la fonction tt, done si φ\varphi est la valeur d’un opérateur

φ(x)=Φ[fx]\varphi(x)=\Phi[f\mid x] (4)

d’argument ff. On peut prendre alors

B[f]=A[Φ[fx]].B[f]=A[\Phi[f\mid x]]. (5)

Dans ce qui suit, nous nous occuperons seulement de formules d’approximation telles que (5).
3. Dans l’utilisation pratique d’une approximation de la forme (1) il est particulièrement important d’apprécier l’erreur qu’on commet pour cette approximation. Dans la recherche d’une telle évaluation une délimitation satisfaisante du reste

R=R[f]=A[f]B[f]R=R[f]=A[f]-B[f] (6)

de la formule (1) présente une grande importance. Enfin, pour obterir une telle délimitation, une étude approfondie de la structure du reste R(f)R(f) est très utile.

Si par exemple, R[f]R[f] est une fonctionnelle linéaire (additive et homogène) on peut exprimer R[f]R[f] - dans des conditions assez générales - à l’aide d’une intégrale (’intégrale de Stieltjes si l’on se trouve dans les conditions du théorème de F. Riesz).

Il n’est pas suffisant d’exprimer le reste de cette façon, car dans les délimitations pratiques du reste interviennent des propriétés comme celles qui se réfèrent au degré d’exactitude de la formule d’approximation (ou de son reste). Le degré d’exactitude (par rapport à un polynôme) d’une fonctionnelle linéaire R[f]R[f] se définit comme étant le plus grand entier nn (s’il existe) tel que R[f]=0R[f]=0 pour tout polynôme ff de degré nn. Dans ce cas le reste peut s’exprimer par une fonctionnelle linéaire de la (n+1)ème (n+1)^{\text{ème }} dérivée de fsif\mathrm{si}, bien entendu, certaines conditions d’existence de ces expressions subsistent. Différentes expressions de ce type ont été étudiées par de nombreux auteurs, surtout pour le reste des formu:es de dérivation et de quadratures numériques.
4. Dans le cas d’une fonctionnelle linéaire R[f]R[f] la théorie des fonctions convexes d’ordre supérieur nous permet de trouver une forme remarquable pour R[f]R[f]. Si R[f]R[f] est du degré d’exactitude nn et si ff est une fonction continue dans un intervalle, l’on a

R[f]=c:[ξ1,,ξ2,,ξn+2;f]+β[ξ1,ξ2,,ξn+2;f].R[f]=c:\left[\xi_{1},,\xi_{2},\ldots,\xi_{n+2};f\right]+\beta\left[\xi_{1}^{\prime},\xi_{2}^{\prime},\ldots,\xi_{n+2}^{\prime};f\right]. (7)

Dans cette relation, valable sous des hypothèses très générales, où α,β\alpha,\beta sont des constantes ne dépendant pas de la fonction tt, on a utilisé le symbole bien connu des différences divisées, et ξ1,ξ2,,ξn+2\xi_{1},\xi_{2},\ldots,\xi_{n+2} et ξ1,ξ2,,ξn+2\xi_{1}^{\prime},\xi_{2}^{\prime},\ldots,\xi_{n+2}^{\prime} sont des groupements de (n+2)(n+2) points distincts qui dépendent, en général, de la fonction f[5]f[5].

Le cas où un des nombres α,β\alpha,\beta peut être pris égal à zéro est particulièrement intéressant. Ceci arrive si, et seulement si, R[f]0R[f]\neq 0 pour toute fonction (continue et) convexe d’ordre nn.

La forme (7) du reste précise beaucoup sa structure en le rattachant aux propriétés différentielles de la fonction \hbar. Le rapport entre les différences divisées et les propriétés différentielles d’une fonction est assuré par toute une série de propriétés "de moyenne" dont les plus simples sont connus, déjà depuis Cauchy [1], tandis que d’autres ont été établies plus récemment [7].
5. Nous n’insisterons plus sur la structure du reste R[f]R[f]; nous ferons seulement quelques remarques.
a) La structure (7) du reste R[f]R[f], que nous supposons une fonctionnelle linéaire, peut être étudiée dans un cadre plus général à l’aide d’une extension convenable de la notion de degré d’exactitude. Cette généralisation revient à supposer que R[f]R[f] s’annule sur l’enveloppe linéaire d’un nombre fini de fonctions linéairement indépendantes. On utilise bien entendu la généralisation correspondante de la notion de différence divisée.
b) Jusqu’à présent on ne connait rien d’analogue pour le cas où R[f]R[f] n’est plus une fonctionnelle linéaire. De telles fonctionnelles, comme restes, semblent être importantes. Par exemple, la méthode d’intégration numérique de RungRung eKutta des équations différentielles revient justement à un procédé d’approximation du type général signalé, dans lequel R[f]R[f] n’est plus une fonctionnelle linéaire. Danscecasfest une fonction à deux ou plusieurs variables indépendantes. Le fait que le reste dans la méthode de Rung\mathrm{R}u\mathrm{ng} e-Kut t a a été peu étudié jusqu’à présent, est dû à sa structure compliquée.

Il semble que le problème de la structure du reste R[f]R[f] dans le cas où R[f]R[f] n’est plus une fonctionnelle linéaire de ff, est en relation avec la généralisation de la notion de convexité par rapport à un système interpolateur de fonctions. Dans cette dernière direction il faut rappeler les travaux de M. I. Morozov [4], L. Tornheim [11], E. Moldovan [3].
c) Dans l’exemple déjà cité de la méthode de Runge-Kutta le reste dépend d’une fonction de plusieurs variables. Le reste des formules d’approximation de la forme (1) ou (3), dans lesquelles ff est une fonction à plusieurs variables reelles a été beaucoup moins étudiée jusqu’à présent. On connait - bien entendu de nombreux résultats en ce qui concerne le reste des formules de dérivation et de quadrature (cubature) numériques. Dans notre pays il faut citer les travaux de D. V. Ionescu [2] dans cette direction

Mais même dans le cas où R[f]R[f] est une fonctionnelle linéaire, une formule analogue à (7) n’a pas été encore étudiée dans le cas général. Nous omettons évidemment les cas simples où les résultats s’obtiennent en partant du cas d’une seule variable et en procédant par superposition successives des variables.
6. Pour obtenir une approximation du nombre A[f]A[f] il faut calculer effectivement le nombre B[f]B[f]. Supposons que ce nombre soit donné par la formule (5) par l’intermédiaire de la fonction d’approximation (4) de ff. Pour calculer effectivement B[f]B[f] il faut faire un certain nombre d’opérations qui consistent généralement en un nombre fini d’opérations arithmétiques élémentaires (addition, soustraction, multiplication et division).

Pour executer les calculs, indifféremment s’ils sont effectués à l’aide d’instruments de calcul ou d’une machine, on suit toujours un programme qui, en particulier, précise l’ordre dans lequel sont effectuées les différentes opérations.

Au cours de l’exécution de chaque opération (élémentaire) et tout spécialement des multiplications et divisions, on commet en général des erreures dues au fait qu’en pratique on utilise seulement certains nombres, les soit-disant nombres pratiques, qui s’expriment d’habitude par des fractions décimales limitées ou même limitées à un certain nombre de chiffre décimaux. De cette manière, pendant le calcul de B[f]B[f] s’accumulent plusieurs erreures de calcul qui modifieront le résultat final poursuivi. L’approximation calculée de cette façon sera, en définitive, l’approximation effectivement obtenue du nombre A[f]A[f].
7. Dans la pratique du calcul numérique, l’établissement pour chaque cas d’un certain programme de calcul joue un grand rôle. Du point de vue théorique de tels programmes pourrons être étudiés, au moins pour les cas concrets les plus simples, à l’aide des différentes expressions qui représentent B[f]B[f].

Pour montrer, dans une certaine mesure, la grande variété de problèmes qui se posent en connexion avec ces considérations nous allons exposer un cas concret simple.

Supposons que (4) soit le polynôme d’interpolation de Lagrange,

φ(x)=L(x1,x2,,xn+1;fx)\varphi(x)=L\left(x_{1},x_{2},\ldots,x_{n+1};f\mid x\right) (8)

relatif à la fonction ff et sur les noeuds d’interpolation (distincts) x1,x2,,xn+1x_{1},x_{2},\ldots,x_{n+1}, donc, c’est le polynôme de degré nn qui coïncide sur les nœuds xix_{i}; avec la fonction ff.

Supposons ensuite, qu’il s’agisse du problème de l’interpolation à l’aide du polynöme (8) de Lagrange, donc du calcul de valeur f(xi)f\left(x_{i}\right) de la fonction ff sur le point x0x_{0} (supposé différent des nœuds), connaissant les valeurs de la fonction sur les nœuds d’interpolation. Nous sommes donc, au cas où A[f]=f(x0)A[f]=f\left(x_{0}\right) et

B[f]=L(x1,x2,,xn+1;fx0).B[f]=L\left(x_{1},x_{2},\ldots,x_{n+1};f\mid x_{0}\right). (9)

Le calcul de la valeur (9) sur le point x0x_{0} du polynôme (8) peut se faire de différentes manières, d’aprés les différents programmes de calcul qui peuvent être indiqués et étudiés par les expressions explicites du polynôme de Lagrange.
8. Soit la formule

L(x1,x2,,xn+1;fx0)=i=1n+1j=1n+1(x0xj)j=1n+1(xixj)f(xi)L\left(x_{1},x_{2},\ldots,x_{n+1};f\mid x_{0}\right)=\sum_{i=1}^{n+1}\frac{\prod_{j=1}^{n+1}\left(x_{0}-x_{j}\right)}{\prod_{j=1}^{n+1}\left(x_{i}-x_{j}\right)}f\left(x_{i}\right) (10)

où l’indice ii au symbole (i)\prod^{(i)} indique que la valeur ii de jj est exclue. Par l’intermédiaire de la formule (10) on peut indiquer par exemple, qu’il faut effectuer une somme de n+1n+1 termes déjà calculés. Chaque terme de la somme se calcule en général par 2n12n-1 multiplications et une division. Remarquons que grâce aux résultats partiels, le nombre des multiplications peut être réduit. Ainsi, pour obtenir les produits

j=1n+1(x0xj)(i=1,2,,n+1)\prod_{j=1}^{n+1}\left(x_{0}-x_{j}\right)\quad(i=1,2,\ldots,n+1) (11)

il n’est pas nécessaire de faire (n+1)(n1)=n21(n+1)(n-1)=n^{2}-1 multiplications, mais en général, 3n33n-3 multiplications suffisent. Une telle réduction du nombre des opérations à effectuer présente un grand intérêt pratique, évidemment aussi en rapport avec d’autres conditions qu’un programme de calcul doit remplir.

Une autre remarque qu’on peut faire concernant le calcul précédent est que, dans l’obtention de chaque terme la multiplication par f(xi)f\left(x_{i}\right) peut être antérieure ou postérieure à l’opération de division qui doit être faite, en général, pour trouver ce terme.

La première manière de procéder, qui consiste à calculer en préalable les coefficients de f(xi),(i=1,2,,n+1)f\left(x_{i}\right),(i=1,2,\ldots,n+1) de la formule (10) est avantageuse si l’on doit appliquer la formule (10) à plusieurs fractions ayant les mêmes nœuds xix_{i} et le même point x0x_{0}. Le second procédé qui consiste à laisser à la fin l’effectuation de la division dans le calcul des termes (éventuellement seulement de certains termes) de la somme (10) peut présenter des avantages dans le cas de données particulières simples, permettant de profiter de certaines simplifications au cours du calcul, comme par exemple, des simplifications de fractions ordinaires etc. et qui ne sont pas avantageuses dans la première façon d’organiser les calculs. Il faut cependant souligner que de telles simplifications ne peuvent pas être prévues théoriquement et n’entrent pas dans le cadre des préoccupations théoriques du calcul numérique.
9. On connait les avantages que présente dans le problème de l’interpolation par polynômes, la formule de Newton:

L(x1,x2,,xn+1;f(x0)=\displaystyle L\left(x_{1},x_{2},\ldots,x_{n+1};f\left(x_{0}\right)=\right.
=i=0n(x0x1)(x0x2)(x0xi)[x1,x2,,xi+1;f]\displaystyle=\sum_{i=0}^{n}\left(x_{0}-x_{1}\right)\left(x_{0}-x_{2}\right)\left(x_{0}-x_{i}\right)\left[x_{1},x_{2},\ldots,x_{i+1};f\right] (12)

(le premier terme étant f(x1)f\left(x_{1}\right) ), où [x1,x2,,xi+1;f]\left[x_{1},x_{2},\ldots,x_{i+1};f\right] est la différence divisée de la fonction ff sur les noeuds x1,x2,,xi+1x_{1},x_{2},\ldots,x_{i+1}. Le programme de calcul indiqué d’habitude par la formule (12) consiste à obtenir successivement les nombres y1,y2,,yny_{1},y_{2},\ldots,y_{n}

yi=[x1,x2,,xni+1;f]+(x0xni+1)yi1(i=1,2,,n),\displaystyle y_{i}=\left[x_{1},x_{2},\ldots,x_{n-i+1};f\right]+\left(x_{0}-x_{n-i+1}\right)y_{i-1}(i=1,2,\ldots,n),
y0=[x,x2,,xn+1;f]yn=L(x1,x2,,xn+1;f(x0)\displaystyle y_{0}=\left[x,x_{2},\ldots,x_{n+1};f\right]y_{n}=L\left(x_{1},x_{2},\ldots,x_{n+1};f\left(x_{0}\right)\right. (13)

qui comporte en général nn multiplications, done moins (pour nn assez grand) que le programme indiqué pour la formule (10).

On ne doit pas oublier qu’ici ont été calculées au préalable les différences divisées [x1,x2,,xi+1;f](i=1,2,,n)\left[x_{1},x_{2},\ldots,x_{i+1};f\right](i=1,2,\ldots,n). Le calcul de ces différences divisées comporte généralement des erreurs de la nature de celles signalées à cause des divisions, par les différences des nouds qui interviennent. Il faut alors, comme nous l’avons fait dans une autre occasion [9], examiner l’influence des erreurs de calcul commises dans la formation du tableau des différences divisées sur le programme de calcul indiqué pour la formule (12).
10. Pour conclure, et concernant le programme de calcul signalé pour la formule (12) on peut faire les remarques suivantes:
a) En recherchant à réduire au minimum les erreurs de calcul qui s’accumulent par ce programme, on trouve une justification à l’emploi des différentes formules particulières d’interpolation d’après la position du point x0x_{0}, parmi les nouds. De cette façon, et par cette voie, se justifient comme nous l’avons montré
auparavant [6], l’application pratique de la formule de Newton à différences ascendantes ou descendantes, des formules d’Euler, Stirling, Bessel etc. suivant la position du point x0x_{0} près des extremités ou près du centre etc, du tableau des différences (les nœuds sont supposés équidistants et arrangés en ordre croissant ou décroissant).
b) Dans le cas des nozuds équidistants, au lieu des différences divisées on utilise les différences habituelles dont la formation ne nécessite pas de divisions. On peut donc admettre en général, que le tableau des différences ne présente pas des erreurs de calcul. Nous avons montré dans un autre travail [8], que pour le programme (13) modifié en cesens, on peut préciser une délimitatiton des erreurs de calcul accumulées, établissant aussi des tableaux suffisants en pratique pour trouver rapidement de telles délimitations.

BIBLIOGRAPHIE

  1. 1.

    A. Cauchy, Sur les fonctions interpolaires, C. R. de l’Acad. Sci. Paris 11 (1840), 775.

  2. 2.

    D. V. I o n es c u, Formule de cubatură în care domeniul de integrare este un triunghi oarecare, Stud. şi Cerc. Știinţ., Filiala Cluj, VI (1955), 7.

  3. 3.

    E. Moldovan, OO generalizare a noțiunii de convexitale, Stud. și Cerc. Știint.. Filiala Cluj, VI (1955), 65.

  4. 4.

    T. Popoviciu, Asupra formei restului in unele formule de aproximare ale analizei. Lucrările Sesiunii generale stiintifice din 2-12 iunie 1950, Ed. Acad. R.P.R., Bucureşti 1951, p. 183.

  5. 5.
    • Consideraţii teoretice asupra utilizării practice a unor formule de interpolare, Bul. știinţ. Acad. R.P.R., Secţ. Șt. Mat. Fiz., XII, 2 (1951), 441.

  6. 6.
    • Folytonos fuggvényel k zöpértéktételeiröl, A Magyar Tud. Akad. II Oszt. Közl. IV (1954), 353.

  7. 7.
    • Despre precizia calculului numeric in interpolarea prin polinomul lui Newton pe noduri echidistante, Stud. şi Cerc. Științ. Filiala Cluj VI (1956), 20.

  8. 8.
    • Despre precizia calculului numeric in interpolarea prin polinoame, Bul. Ştiint. Acad. R.P.R., Secţ. Șt. Mat. Fiz., VII, 4 (1955), 953.

  9. 9.

    J. Radon, Restausdrucke bei Interpolation und Quadraturformeln durch bestimmte Integrale, Monatshefte fur Math. v. Physik 42 (1935), 389.

  10. 10.

    L. Tornheim, On n-parameter Families of Functions and Associated Convex Fun-lions, Trans. Amer. Math. Soc. 69 (1950), 457.

Related Posts

No results found.