[FAQ] fr.sci.maths - partie 1/3
medtib@alussinan.org (Mehdi Tibouchi)
Archive-Name: fr/maths/maths-faq
Last modified: 2006-11-11
Version 2.12
#####################################################
# #
# FAQ fr.sci.maths (partie 1/3) #
# #
#####################################################
fr.sci.maths est un groupe de discussion destiné à recueillir les
discussions en français concernant les mathématiques.
Ce document rassemble les questions qui ont été fréquemment posées dans
ce forum.
Remarque sur la notation : le signe de multiplication utilisé ici est
l'astérisque *, comme souvent en informatique.
La version texte de ce document a été divisée en trois parties, afin de
faciliter sa difusion sur les forums francophones.
On trouvera, dans cette partie, les chapitres I et II.
Pour les chapitres III et IV, se referer au document intitulé :
"[FAQ] fr.sci.maths - partie 2/3".
Pour les chapitre V à VII, se referer au document intitulé :
"[FAQ] fr.sci.maths - partie 3/3".
Table des matières :
I Contradictions.
1. Est-ce que 0,9999... = 1 ?
2. J'ai réussi à montrer que 2=1.
3. Zéro puissance zéro égal un (0^0 = 1).
II Démonstrations.
1. Le petit théorème de Fermat.
2. ab et a+b premiers entre eux.
3. Irrationalité de la racine carrée de 2.
4. Irrationalité de la racine d'un nombre premier.
5. Irrationalité de e.
6. Transcendance de e.
7. Somme des puissances des premiers entiers.
8. Les nombres et les polynômes de Bernoulli.
9. Par combien de zéros le nombre 1998! se termine-t-il ?
10. Expression par radicaux des racines d'un polynôme de degré n.
-+- Début de la deuxième partie -+-
III Géométrie.
1. Problème de la chèvre.
2. Problème (dit) de Napoléon.
IV Énigmes.
1. Pièces et balance, traduit par Vincent Lefèvre.
2. Les âges du capitaine.
3. Quel est le nombre qui continue cette suite : 2, 12, 1112,...
4. Probabilité que 2 personnes soient nées le même jour.
5. Somme et produit de deux entiers.
6. Les deux échelles.
7. La cuve de vin.
-+- Début de la troisième partie -+-
V Questions fondamentales.
1. Les nombres premiers.
2. Pi.
3. Le grand théorème de Fermat.
4. La conjecture de Syracuse.
5. Les cardinaux des ensembles infinis - Partie I.
6. Les cardinaux des ensembles infinis - Partie II.
7. Qu'est-ce que le nombre e ?
VI Mathématiques et Ordinateur.
1. Logiciels de mathématiques.
2. L'algorithme de CORDIC sur les calculatrices.
VII Conclusion.
1. Références.
2. Remerciements.
========================================================================
Changements intervenus depuis la version précédente :
- Mises à jour ou suppression des liens morts.
- Rééquilibrage des trois parties pour tenir dans la limite de 64ko.
- Révision du paragraphe I.3.
- Suppression du paragraphe VI.1 de Frédéric Bastok (double-emploi
avec le document posté chaque quinzaine).
- Réécriture du paragraphe VI.2 (maintenant VI.1), qui était dépassé
et étrangement structuré.
- Autres détails cosmétiques.
Les changements sont précédés du caractère : |
========================================================================
I Contradictions.
===============
1. Est-ce que 0,9999... = 1 ?
--------------------------
On note 0.9999... (avec les points de suspension) pour désigner un
« nombre » qui se termine par une infinité de 9.
Et donc, est-ce que 0.999... (avec une infinité de 9) est égal à 1 ?
OUI ! Voici 5 arguments pour vous en convaincre. Les 3 premiers n'ont
absolument aucune rigueur et ne peuvent pas être considérés comme des
démonstrations mathématiques, mais ils sont plus simples et plus
convaincants pour les gens qui n'ont pas forcément les connaissances
mathématiques nécessaires pour accepter les 2 autres.
a) On part de :
1/3 = 0,33333...
On multiplie par 3 des deux côtés :
3 * 1/3 = 3 * 0,33333...
Ce qui donne :
1 = 0,99999...
b) On pose x = 0,99999...
On multiplie par 10 des deux côtés : 10 * x = 9,99999...
On soustrait les deux expressions côté par côté :
10 * x - x = 9,99999... - 0,99999... = 9,00000...
Donc 9 * x = 9, c'est-à-dire x = 1, d'où 0,99999... = 1
c) Un argument très court se déduit du fait suivant :
"si 2 nombres réels sont différents, alors il en existe au moins un
3ème entre les deux, différent des deux autres".
(ce troisième nombre peut être la moyenne entre les deux)
Or, on ne peut pas intercaler de nombre entre 0,99999... et 1 ; ils
sont donc égaux.
Pour les arguments plus rigoureux, il faut commencer par définir
proprement ce qu'est 0,99999...
En écrivant 0,99999... = 0,9 + 0,09 + 0,009 + ... , on définit 0,9999...
comme une série géométrique (c'est-à-dire une somme dont chaque terme
est égal au précédent multiplié par une constante, ici 1/10 -
on dit que c'est une série géométrique de raison 1/10), et on écrit:
(inf. signifie "infini")
n
___
\ 9
0,99999... := lim ) ---
n->inf. /__ i
i=1 10
d) On peut facilement montrer que la somme des n premiers termes d'une
série géométrique de raison q et de premier terme a vaut :
n
1 - q
S = a * -------
n 1 - q
Cette somme tend vers une limite pour n tendant vers l'infini si et
seulement si q est strictement plus petit que 1, et cette limite est
alors :
a
S = -----
1 - q
Ici, a=0,9, q=1/10, ce qui est plus petit que 1, donc
0,9 10
S = -------- = 0,9 * -- = 1
1 - 1/10 9
Donc 0,99999...=1
e) L'argument le plus direct est de vérifier directement, à partir de
la définition de la limite, que 1 est la limite pour n tendant vers
l'infini de la série
n
___ 9
\ ---
S = /__ i
n i=1 10
Cela signifie qu'à condition de prendre suffisamment de termes dans
la série, on peut s'approcher d'aussi près de 1 que l'on veut
(c'est-à-dire rendre la différence | 1 - S_n | aussi petite que l'on
veut).
Mathématiquement, cette définition de limite s'écrit :
(eps signifiant "epsilon")
Quel que soit eps, il existe n_0 tel que pour tout n>n_0,
on a |1 - S_n | < eps
En calculant
| n |
| ___ 9 | 1
| \ --- | = -----
| 1 - /__ i | n+1
| i=1 10 | 10
on voit facilement que si n (nombre de termes) est suffisamment
grand, alors notre somme peut s'approcher d'aussi près que l'on veut
de 1, puisque leur différence, 1/(10^(n+1)) devient de plus en plus
petite quand n augmente.
Pour être plus précis, si on se donne eps, la différence maximale
que l'on s'autorise, alors il suffit de prendre:
(log représentant le logarithme en base 10)
n_0 > - log(eps) - 1
Si n > n_0, on aura alors :
| n |
| ___ 9 | 1
| \ --- | = ----- < eps
| 1 - /__ i | n+1
| i=1 10 | 10
la condition est respectée, donc la limite vaut 1, et 0,99999...=1
2. J'ai réussi à montrer que 2=1.
------------------------------
Deux petites démonstrations, fausses, bien entendu, mais qui peuvent
induire en erreur. N'oublions pas le vieil adage latin:
| « ex falso, quodlibet »
(de quelque chose de faux, on peut trouver n'importe quoi)
a) Par la dérivée.
Soit x appartenant à R*
On a la relation: x^2 = x + x + x +...+ x , x fois.
On dérive: 2 * x= 1 + 1 + 1 + 1 +...+ 1 , x fois.
C'est-à-dire : 2*x = x. Et comme x<>0, on obtient 2=1.
L'erreur vient de la définition de la dérivée.
"x^2 = x + x + x + ... + x, x fois" n'a de sens que si x est entier.
Or, pour dériver en un point, il faut considérer un voisinage
de ce point (grosso-modo un intervalle ouvert contenant ce point)
qui, forcément, sera loin de ne contenir que des entiers.
Par exemple, si on essaye d'appliquer cela en x = 3 :
-- Il est exact que 3^2 = 3 + 3 + 3.
-- Par contre, pour x proche de trois mais x différent de 3,
x^2 est différent de 3 * x
-- la dérivée en x d'une fonction ne dépend pas de la valeur de la
fonction en x mais de son comportement local et le comportement
de x^2 en 3 est très différent de celui de 3 * x.
De plus, si tu dérives x+..+x (x fois), tu ne différencies pas le
'x fois', que tu considères donc comme une constante.
Quand j'étais au lycée on m'avait posé ce problème et j'avais trouvé
un moyen (tordu et absurde) de retomber sur ses pattes, en ajoutant
"x+..+x ('dérivée de x' fois)", comme ça on a aussi dérivé le
'x fois'.
b) Grâce aux polynômes.
Supposons que a et b soient des nombres réels non nuls tels que a=b.
Alors a^2=ab (on multiplie par a des deux côtés)
D'où a^2-b^2 = ab - b^2 (on soustrait b^2 des deux côtés)
D'où (a-b)(a+b)=b(a-b) (on met en évidence a-b)
D'où a+b=b (on simplifie par a-b)
D'où 2b=b (puisque a=b)
D'où 2=1 (puisque b est non nul)
Ici, l'erreur vient de la simplification par (a-b) qui est nul.
On a divisé par zéro, ce qui est impossible. Bien souvent, ces
démonstrations trouvent leur erreur dans une division par zéro.
c) En utilisant les puissances.
-1=(-1)^1=(-1)^(1/1)=(-1)^(2/2)=((-1)^2)^(1/2)=1^(1/2)=1
L'erreur vient du fait que l'on néglige, ici, la définition de la
puissance. En effet, on ne peut pas écrire a^q pour q rationnel et a
réel négatif.
Plus précisément, on peut expliquer le phénomène de la manière
suivante.
Définition 1:
Dans un ensemble stable par la loi multiplicative (pour être le plus
général possible), on note (pour un élément a de l'ensemble et pour
b entier naturel non nul) a^b pour désigner a multiplié b fois par
lui-même .
Définition 2:
Dans le cas ou on l'on veut mettre un rationnel en exposant, il faut
utiliser la définition de la puissance par l'exponentielle :
pour a réel strictement positif et b réel, a^b=exp(b*ln(a)).
On a en fait le droit d'écrire (-1)^(2/2). Mais pas d'utiliser la
loi a^(b*d)=(a^b)^d, car pour utiliser cette loi de composition, il
faut, du fait que d est ici rationnel, prendre la définition avec
l'exponentielle, qui interdit à a d'être négatif.
On a bien la loi de composition a^(b*d)=(a^b)^d pour la définition 1
et la définition 2, mais on peut l'appliquer (pour a, b et d réels):
-- Selon la définition 1, seulement si b et d entiers naturels
-- Selon la définition 2, seulement si a est strictement positif.
3. Zéro puissance zéro égal un (0^0 = 1).
--------------------------------------
| Les mathématiciens posent systématiquement que zéro à la puissance zéro
| est égal à un (0^0=1). Il arrive que cette convention intrigue certains
| non-mathématiciens, notamment à cause d'une confusion au sujet de
| l'expression « forme indéterminée » que l'on trouve parfois dans les
| ouvrages de lycée.
|
| En effet, rappelons que pour x et y réels, x > 0, l'expression x^y
| désigne le réel exp[y ln(x)]. Alors la fonction de deux variables
| (x,y)->x^y n'a pas de limite au point (0,0) : suivant la direction selon
| laquelle on tend vers (0,0), on peut obtenir des limites différentes, ou
| éventuellement pas de limite du tout. En particulier, si f et g sont deux
| fonctions continues sur R ayant pour limite 0 en +infty, disons, avec
| f>0, on ne peut pas calculer la limite :
|
| lim f(x)^g(x)
| x->+infty
|
| sans information supplémentaire sur le comportement asymptotique de f et
| g. Par exemple, si A est un réel positif quelconque et qu'on choisit
| f(x) = exp(-Ax) et g(x) = 1/x, la limite précédente vaut exp(-A).
| C'est en ce sens que l'on dit parfois, de manière assez malheureuse,
| que « 0^0 est une forme indéterminée ».
|
| Ce problème d'analyse n'a pas vraiment de rapport avec la question de
| savoir ce que vaut 0^0 à proprement parler. On pourrait naïvement
| souhaiter choisir une définition qui prolongerait par continuité la
| fonction (x,y)->x^y, mais précisément, un tel prolongement n'existe pas.
| Cela n'a rien de particulièrement choquant une fois qu'on s'est départi
| de l'idée que toutes les fonctions devraient être continues, et c'est une
| question par ailleurs relativement anecdotique.
|
| Il y a en revanche des raisons de notation considérablement plus
| importantes pour lesquelles on doit définir 0^0 comme égal à 1. Par
| exemple, on veut pouvoir écrire un polynôme a_n x^n + ··· + a_1 x + a_0
| sous la forme condensée :
|
| \sum_{k=0}^n a_k x^k
|
| et ce n'est vrai que dans la mesure où « a_0 x^0 » désigne bien la même
| chose que le monôme constant a_0. De même, on souhaite que la formule du
| binôme puisse s'écrire sous la forme :
|
| (a + b)^n = \sum_{k=0}^n C_n^k a^k b^{n-k}
|
| même quand a ou b vaut 0. Tout autre définition de 0^0 imposerait des
| restrictions déraisonnables à ces expressions très importantes.
|
| Un autre argument qu'on peut avance, d'importance peut-être plus modeste,
| relève du dénombrement. On voudrait que le résultat suivant soit
| vérifié :
|
| Théorème. Pour tous entiers naturels m et n, il existe exactement n^m
| applications d'un ensemble à m éléments dans un ensemble à n éléments.
|
| C'est certainement vrai pour m et n non nuls. Et par ailleurs, pour tout
| ensemble X, il existe une unique application de l'ensemble vide dans X
| (c'est en particulier le cas lorsque X est lui même l'ensemble vide,
| auquel cas l'application en question est l'identité), et si X est non
| vide, il n'existe aucune application de X dans l'ensemble vide. C'est
| cohérent avec le fait que pour tout entier naturel n :
|
| n^0 = 1 dans tous les cas, et 0^n = 0 si n n'est pas nul.
|
| Raison supplémentaire, donc, pour vouloir que 0^0 égale 1. Comme il
| n'existe par ailleurs pas de situation notable où une autre convention
| pourrait avoir un intérêt, c'est le choix universellement adopté.
|
| On pourra trouver une discussion alternative, notamment historique, de la
| question sur la FAQ du forum anglophone <news:sci.math>, à l'adresse :
|
| http://www.faqs.org/faqs/sci-math-faq/specialnumbers/0to0/
========================================================================
II Démonstrations.
===============
1. Le petit théorème de Fermat.
----------------------------
Enoncé :
Si p est un nombre premier, et x un entier quelconque non divisible
par p, alors le reste de la division de x^(p-1) par p est égal à 1.
Par exemple, si on prend p = 1999 qui est premier, et x = 1665, année de
la mort de Fermat, qui n'est pas divisible par 1999, alors le théorème
dit que le reste de la division de 1665^1998 par 1999 est égal à 1.
Ce théorème a sans aucun doute été démontré par Fermat. (Il me semble
qu'on n'a pas retrouvé la démonstration de Fermat, mais Euler en a
publié une dès le XVIIIe siècle).
a) Soient donc p un nombre premier et x un entier non divisible par p.
Modulo p, (x*1,x*2,...,x*(p-1)) est une permutation de (1,2...,p-1).
parce que x est inversible modulo p, car car il est premier avec p.
On a donc, modulo p,
(x*1)*(x*2)*(x*3)...*(x*(p-1)) = 1 * 2 * 3 * ... * (p-1)
C'est à dire (p-1)! * x^(p-1) = (p-1)!
Mais, comme p est premier, (p-1)! est inversible modulo p.
On obtient donc finalement
x^(p-1) = 1 modulo p.
b) Soit p un nombre premier.
Si 0 < k < p, comb(p,k) = p!/(k!*(p-k)!) est multiple de p.
Ainsi, le binôme de Newton donne tout de suite :
(1 + a)^p = 1 + a^p modulo p.
Sommons pour a variant de 0 à x-1. Les termes se détruisant deux à
deux, il reste seulement : x^p = x modulo p.
Si x n'est pas multiple de p, cela équivaut à x^(p-1) = 1 modulo p.
2. ab et a+b premiers entre eux.
-----------------------------
Enoncé:
Soient a et b deux nombres entiers relatifs tels qu'ils soient premiers
entre eux. Le problème est de montrer que ab et a+b sont premiers
entre eux.
a) Pour cette démonstration il faut connaître le lemme d'Euclide :
Soit p un nombre premier, et a, b deux nombres entiers relatifs.
Si p divise ab, alors p divise soit a soit b.
Soit p un nombre premier tel qu'il divise ab et a+b.
p divise ab, donc par le lemme d'Euclide, p divise soit a, soit b.
Supposons que p divise a, alors on a:
p divise a et p divise (a+b) donc p divise (a+b) - a = b.
Donc p divise a et p divise b. Or deux nombres premiers entre eux
n'ont pas de facteurs premiers communs. Comme a et b sont premiers
entre eux, il vient que ab et a+b sont premiers entre eux.
b) Voici une autre démonstration qui n'utilise pas les propriétés des
nombres premiers, mais uniquement la relation de Bézout :
a et b sont premiers entre eux, ssi il existe deux nombres entiers
relatifs u et v tels que au + bv = 1.
-- Lemme 1 : Si a et b sont premiers entre eux, alors a+b est premier
avec a et avec b.
De au + bv = 1, on déduit a(u-v) + (a+b)v = 1, donc a et a+b sont
premiers entre eux. De même pour b et a+b.
-- Lemme 2 : Si a est premier avec b et avec c, alors a est premier
avec bc.
De au + bv = 1, on déduit acu + bcv = c. Donc il existe deux nombres
entiers U=cu et V=v tels que (a)U + (bc)V = c donc tout diviseur
commun de a et bc divise c, donc divise pgcd(a,c)=1.
-- Conclusion : Soient a et b premiers entre eux ; alors, par
le lemme 1, a+b est premier avec a et avec b, donc, par le lemme 2,
a+b est premier avec ab.
c) En partant de la relation de Bézout, comme a et b sont premiers
entre eux, il existe u et v deux nombres entiers relatifs tels que
au + bv = 1 donc
1 = 1² = (au+bv)² = (au)² + 2abuv +(bv)²
= (au)² + abv² + abu² +(bv)²- abv² + 2abuv - abu²
= (a+b)(au² + bv²) - ab(u-v)²
Or (au² + bv²) et (u-v)² sont des nombres entiers relatifs, donc
par la relation de Bézout, on en déduit que a+b et ab sont
premiers entre eux.
3. Irrationalité de la racine carrée de 2.
---------------------------------------
La racine carrée de 2 est le premier exemple de nombre irrationnel
qu'aient rencontré les mathématiciens. Il est connu depuis l'Antiquité
grecque et cette découverte a suscité à l'époque beaucoup de perplexité.
Une preuve de ce résultat procède par l'absurde. Il semble que ce soit
le premier exemple de raisonnement par l'absurde dans l'histoire des
mathématiques.
Avant d'aborder la preuve proprement dite, nous devons établir ce petit
résultat intermédiaire :
Soit n un nombre entier. n est pair si et seulement si n^2 est pair
et n est impair si et seulement si n^2 est impair.
(Le lecteur familier des calculs modulo, reconnaîtra un cas
particulier du petit théorème de Fermat : n^2 = n [mod 2].)
Preuve :
Si n est pair, par définition, il existe un entier k tel que n = 2k.
On a alors n^2=4k^2 soit n^2=2*(2k^2). Ceci montre que n^2 est un
nombre pair.
Si n est impair, il existe un entier k tel que n=2k+1. Alors,
n^2=(2k+1)^2=4k^2+4k+1 et n^2=2(2k^2+2k)+1, ce qui montre que n^2 est
impair.
Munis de ce résultat, nous pouvons prouver l'irrationalité de sqrt(2).
Nous souhaitons raisonner par l'absurde, c'est-à-dire que nous supposons
que sqrt(2) est rationnel. Nous allons montrer que cette hypothèse
conduit à une contradiction. Nous en déduirons donc que l'hypothèse est
fausse, c'est-à-dire que sqrt(2) est irrationnel.
Si sqrt(2) est rationnel, on peut donc écrire sqrt(2)=m/n où m et n sont
deux nombres entiers strictement positifs. Nous pouvons supposer de plus
que l'écriture m/n est la forme irréductible de cette fraction, c'est-à-
dire que m et n n'ont pas de diviseurs communs. En particulier, m et n
ne sont pas simultanément pairs.
Élevons au carré l'égalité sqrt(2)=m/n. Il vient 2=m^2/n^2 ou encore
m^2=2n^2. Ainsi, m^2 est un nombre pair. Or, nous avons vu qu'un nombre
et son carré ont toujours la même parité. Il s'ensuit que m est lui-même
un nombre pair. Nous pouvons donc poser m=2m'.
Notre égalité devient alors 4m'^2=2n^2 ou encore 2m'^2=n^2. n^2 est donc
un nombre pair. Comme plus haut, nous en déduisons que n est lui-même
un nombre pair.
m et n sont donc simultanément pairs, ce qui est contradictoire avec nos
hypothèses. Il s'ensuit que la racine carrée de 2 est un nombre
irrationnel.
4. Irrationalité de la racine d'un nombre premier.
-----------------------------------------------
Sachant que la racine carrée de 2 est irrationnelle, on peut
s'interroger sur la racine cubique de 2, la racine carrée de 3, d'un
nombre premier quelconque.
Chacun de ces nombres est en fait irrationnel, mais pour établir un
résultat relativement général sur ces questions, il est utile de
recourir à des outils un peu plus élaborés que dans la section
précédente : la décomposition factorielle d'un nombre entier et la
valuation p-adique sur les entiers.
On rappelle que pour tout nombre premier p la valuation p-adique d'un
entier x est le nombre noté v_p(x) défini comme le plus grand entier
naturel a tel que p^a divise x. C'est aussi l'exposant de p dans la
décomposition de x, en facteurs premiers.
On voit facilement que la valuation p-adique possède la propriété de
morphisme suivante : v_p(x*y) = v_p(x)+v_p(y), pour tous entiers x et y,
et donc aussi v_p(x^a) = a*v_p(x) pour a entier positif.
Une généralisation du problème de l'irrationalité de la racine carrée de
2 peut se formuler comme suit :
Soit a un nombre entier strictement positif. A quelle condition sur
l'entier positif x le nombre x^(1/a) (racine a-ième de x) est-il
rationnel ?
Posons x^(1/a)=m/n. Il vient m^a=x*n^a. Pour tout nombre premier p, on a
donc v_p(m^a) = v_p(x*n^a) et donc a*v_p(m) = v_p(x)+a*v_p(n) ou encore
v_p(x) = a*(v_p(m)-v_p(n)). v_p(x) est ainsi un multiple de a quel que
soit le nombre premier p. Il s'ensuit que x est lui-même la puissance
a-ième d'un entier.
Il est par ailleurs évident que la racine a-ième d'un nombre qui est
puissance a-ième d'un entier est rationnelle. On peut donc affirmer :
x^(1/a) est un nombre rationnel si et seulement si x est la puissance
a-ième d'un entier.
Ainsi, en particulier, les nombres entiers dont la racine carrée est
rationnelle sont les carrés d'entiers.
5. Irrationalité de e.
-------------------
L'irrationalité de e fut prouvée dès 1737 par Euler, toujours lui !
(voir la remarque 2, ci-après), de la façon suivante.
e = série, pour k variant de 0 à l'infini, de 1/k!
Donc, une première évidence : la somme partielle (appelons-la S_n),
pour k variant de 0 à n de cette série est strictement inférieure à e.
Ensuite, on majore la "queue" de la série (k variant de n+1 à l'infini),
en y remplaçant chaque 1/k! = (1/n!) * 1/((n+1)*(n+2)*(n+3)*...*k)
par (1/n!)* 1/(n+1)^k.
Cela donne une "bête" série géométrique dont la somme vaut finalement
1/(n!*n).
Résumons : S_n < e < S_n + 1(n!*n)
(N.B. ceux qui ont quelque idée de l'approximation rationnelle savent
déjà que c'est gagné : voir la remarque 1 ci-après).
On peut écrire cela comme e = S_n + r(n)/(n!*n), avec r(n) dans ]0,1[.
Supposons maintenant que e soit rationnel, et soit alors a/b son
écriture canonique.
Dans ce qui précède, en choisissant le cas particulier n = b, on obtient
donc :
a/b = S_b + r(b)/(b!*b), avec toujours r(b) dans ]0,1[.
Multiplions par b!. On trouve
(b-1)! * a = (somme, pour k variant de 0 à b, de b!/k!) + r(b)/b.
C'est absurde, parce que le premier membre est entier, le premier terme
du second membre l'est aussi (somme de termes tous évidemment entiers),
tandis que le "terme d'erreur" r(b)/b ne l'est pas.
Remarque 1.
On sait (c'est d'ailleurs quasi évident) qu'un rationnel alpha n'est
jamais approchable par une suite (illimitée) de rationnels s/t avec
une "vitesse" v supérieure à 1.
(je veux dire par là : |alpha - s/t| < constante/t^v, avec v > 1).
L'encadrement obtenu par Euler était donc bien entendu trop minuscule
pour " être honnête ", c'est à dire pour cerner un rationnel.
Généralisation : Liouville a montré en 1844 qu'un nombre algébrique
d'ordre d n'est pas approchable à une vitesse strictement supérieure
à d.
Il s'est servi de ce résultat (de démonstration élémentaire) pour
construire effectivement une infinité (non dénombrable) de nombres
transcendants.
Exemple : somme, pour k variant de 0 à l'infini, de 1/10^(k!).
Roth a mis un point final à cette histoire en prouvant qu'aucun
nombre algébrique de degré > 1 (c-à-d irrationnel) n'est approchable
à un ordre strictement supérieur ***à 2***.
Comme par ailleurs les réduites de la fraction continue pour ce
nombre (leur suite est illimitée, puisqu'il s'agit d'un irrationnel)
l'approchent précisément à l'ordre 2, ce théorème est optimal.
Il a valu à Roth l'une des médailles Fields de 1955.
Remarque 2.
Une réclame de la Mathematical Association of America annonce
la parution du livre " Euler, the Master of us all ". (ce titre est
une citation de Laplace). Le livre est écrit par William Dunham,
dans la série " Dolciani Mathematical Expositions ", bien connue de
tous les familiers de la MAA.
6. Transcendance de e
------------------
La transcendance de e fut prouvée par Charles Hermite en 1873 (Lindemann
devait suivre avec pi en 1882, seulement). C'est beaucoup plus
difficile et horrible à écrire ici. Je résume donc brutalement.
Soit f(t) un polynôme (quelconque pour l'instant) et F(t) la somme de
toutes ses dérivées successives.
En intégrant par parties, on prouve d'abord (c'est très facile) que
exp(x) * (intégrale, de 0 à x, de exp(-t) * f(t)) =
- F(x) + exp(x) * F(0).
On suppose ensuite que e satisfait à l'équation algébrique à
coefficients entiers : somme, pour k variant de 0 à n, de a_k * exp(k)=0
(Ce n'est évidemment pas une restriction que de supposer a_0 non nul).
L'identité générale précédente donne alors :
somme, pour k variant de 0 à n,
de a_k * exp(k) * (intégrale, de 0 à k, de exp(-t) * f(t)) =
- somme, pour k variant de 0 à n, de a_k * F(k). (1)
Ici, coup de génie de Hermite : il choisit maintenant le polynôme
f(t) = (t^(p-1))/(p-1)!) * produit pour j variant de 1 à n, de (j-t)^p,
où p est un nombre premier supérieur à n et à |a_0|.
(C'est possible, puisqu'il existe une infinité de nombres premiers)
Il démontre ensuite que le second membre de (1) est un entier non
multiple de p (c'est élémentaire, mais subtil), donc non nul, donc de
valeur absolue valant au moins 1 (astuce classique en arithmétique !).
Par ailleurs, le premier membre de (1) -> 0 lorsque p -> +oo, selon la
suite des nombres premiers (par des majorations fort brutales).
C'est la contradiction cherchée.
7. Somme des puissances des premiers entiers.
------------------------------------------
On cherche à connaître la valeur de la somme de i=0 à n de i^k
en fonction de n.
k=1.
La formule est due à Léonard Euler. Il suffit d'écrire:
S = 1 + 2 +...+(n-1)+ n
S = n +(n-1)+...+ 2 + 1 et en additionnant:
2S=(n+1)+(n+1)+...+(n+1)+(n+1) c'est-à-dire
S = n(n+1)/2
k>1.
Il faut alors définir les nombres de Bernoulli, que l'on notera B_t.
On peut les définir comme suit:
les B_t sont les nombres de Bernoulli définis (par exemple) par
la série génératrice :
+oo
----- t
\ x x
) B_t - = ----------
/ t! exp(x) - 1
-----
t = 0
Alors on peut écrire:
n k
----- -----
\ k 1 \ t (k+1-t)
) i = --- ) B_i C (n+1)
/ k+1 / k+1
----- -----
i = 1 i = 0
Remarque.
Les C(t, k+1) représentent les coefficients du binôme de
Newton,
c'est-à-dire le nombre de combinaisons de t éléments d'un
ensemble
à k+1 éléments.
La définition des nombres de Bernoulli n'est pas tout à fait
standardisée : il y traîne chez certains auteurs des facteurs
(-1)^t; chez d'autres les indices t deviennent t/2, et j'en passe.
Il convient donc de toujours bien regarder la définition adoptée.
Avec celle-ci, on a :
B_0 = 1, B_1 = -1/2, B_2 = 1/6, B_4 = -1/30, B_6 = 1/42,
B_8 = -1/30, B_10 = 5/66, B_12 = -691/2730, B_14 = 7/6,...
et B_3 = B_5 = B_7 = ... = 0.
On connaît bien sûr des techniques de calcul rapide des nombres de
Bernoulli, la plupart récurrentes.
A propos de formules explicites pour calculer rapidement ces nombres, on
dispose tout de même du théorème de von Staudt - Clausen qui dit que
B_(2k) + la somme des 1/p, étendue aux nombre premiers p tels que
(p-1) divise (2*k) est un entier.
Sachant par ailleurs que, pour k > 0,
B_(2k) = (-1)^(k-1) * 2 * (2*k)! * zeta(2*k)/(2*pi)^(2*k),
zeta étant bien sûr la fonction de Riemann,
on peut programmer le problème par un procédé hybride sans utiliser de
récurrence (d'abord approcher, en multi-précision, puis obtenir
la valeur rationnelle exacte grâce à von Staudt).
On a alors comme valeurs pour k variant de 2 à 9 (inclus):
n
-----
\ 2
) i = 1/6 n (n + 1) (2 n + 1)
/
-----
i = 1
n
-----
\ 3 2 2
) i = 1/4 n (n + 1)
/
-----
i = 1
n
-----
\ 4 2
) i = 1/30 n (2 n + 1) (n + 1) (3 n + 3 n - 1)
/
-----
i = 1
n
-----
\ 5 2 2 2
) i = 1/12 n (2 n + 2 n - 1) (n + 1)
/
-----
i = 1
n
-----
\ 6 4 3
) i = 1/42 n (2 n + 1) (n + 1) (3 n + 6 n - 3 n + 1)
/
-----
i = 1
n
-----
\ 7 2 4 3 2 2
) i = 1/24 n (3 n + 6 n - n - 4 n + 2) (n + 1)
/
-----
i = 1
n
-----
\ 8 6 5 4 3 2
) i = 1/90 n (2 n + 1)(n + 1)(5 n +15 n +5 n - 15 n -n + 9 n- 3)
/
-----
i = 1
n
-----
\ 9 2 2 4 3 2 2
) i = 1/20 n (n + n - 1) (2 n + 4 n - n - 3 n + 3) (n + 1)
/
-----
i = 1
On peut également dévélopper une approche algébrique assez détaillée.
On montre dans un premier temps que cette somme S(r,n) peut s'écrire
somme des H(r,i)*n^(i+1) pour i variant de 0 à r.
Le fait qu'un tel polynôme existe découle de l'observation suivante:
Dans le sous espace vectoriel des polynômes de degrés inférieurs
ou égaux à r, les u_i (i variant de 0 à r) définis par :
u_i = (1+X)^(i+1) - X^(i+1)
constituent une base.
Si l'on nomme (H(r,i) ; i=0,...,r) le système des coordonnées de (1+X)^r
on retrouve que la somme des H(r,i)*n^(i+1) est égale à la somme des p^r
pour p variant de 1 à n.
L'utilisation de cette base permet de déduire que les H(r,i)
sont solution du système M*v=w.
où
( C(x,y) désignant le coefficient binômial bien connu...)
* M est la matrice triangulaire supérieure dont le terme
m(l,c) vaut C(c,l-1) pour c entre 1 et r+1
l entre 1 et c
par exemple dans le cas r=2, la matrice est :
C(1,0) C(2,0) C(3,0)
0 C(2,1) C(3,1)
0 0 C(3,2)
* v est le vecteur dont les composantes sont H(r,0) à H(r,r)
* w est le vecteur dont les composantes sont C(r,0) à C(r,r).
Le pivot de Gauss donne rapidement les premières valeurs:
H(r,r) = 1/(r+1)
H(r,r-1) = 1/2 (constant... c'est marrant)
H(r,r-2) = r/12
H(r,r-3) = 0
H(r,r-4) = C(r,3)/120
H(r,r-5) = 0
H(r,r-6) = C(r,5)/252
H(r,r-7) = 0
il y a là de quoi traiter rapidement jusqu'au cas r=7 mais...
En dérivant l'égalité polynômiale somme des u_i = (1+X)^r
on trouve H(r,i) = [r/(i+1)]*H(r-1,i-1)
on en déduit H(r,i) = [C(r,i)/(i+1)]*H(r-i,0).
Cette relation limite les recherches aux H(k,0) mais, dans le système
initial, c'est celui que le pivot de Gauss donne en dernier...
La relation donnant H(r,i) en fonction de H(r,i+1),...,H(r,r) devient
H(r,0) = 1 - somme_des{ [C(r+1,j)/(r+1)]*H(j,0) ; j variant de 0 à r-1 }
et l'on a H(0,0) =1.
Cette dernière relation permet de programmer rapidement le calcul des
coefficients dans les cas où r est assez grand...
Par ailleurs, on a remarqué qu'il y avait pas mal de 0...
En fait, on a : pour tout k : H(2k+3,0)=0.
Cela peut se montrer de plusieurs façons...
l'égalité polynômiale avec X=1 puis X=-1 donne :
somme des H(k,k-j) ; j pair entre 0 et k
est égale à
somme des H(k,k-j) ; j impair entre 0 et k
est égale à
1/2
en bricolant un peu avec les termes connus on trouve que
somme_des { C(k+1,j)*H(j,0) ; j impair entre 3 et k } est nulle.
cette égalité est valable pour tout k (au moins 3...) et l'on sait
que H(3,0) est nul ... donc, de proche en proche...
8. Les nombres et les polynômes de Bernoulli.
------------------------------------------
Cet article fournit des informations sur les nombres de Bernouilli ainsi
que quelques considérations sur les polynômes attribués au même
mathématicien. Les démonstrations ne sont pas réellement faites mais des
pistes sont fournies.
Les polynômes de Bernoulli jouent un rôle central dans la formule
d'Euler-Mac Laurin qui a de nombreuses applications en analyse numérique
(accélération de la convergence de certaines séries numériques,
intégration numérique... entre autres)
Je conseille à ceux qui veulent s'y plonger de le faire avec une feuille
de papier pour noter les choses au fur et à mesure...
... après avoir imprimé l'ensemble.
En effet le format texte constitue vite un frein à la compréhension...
Habituellement on définit les polynômes de Bernoulli B_n par
B_0(X) = 1
B_n(1) = B_n(0) pour n au moins égal à 2.
B_(n+1) a pour dérivé B_n
et l'on pose alors b_n = B_n(0)
On prouve facilement que B_n est ainsi parfaitement défini...
Les nombres de Bernoulli sont les i! * b_i
Notons que des définitions variantes existent.
On en déduit les propriétés suivantes :
1. B_n(X) = Somme{ b_(n-j) * (X^j)/j! ; j de 0 à n}
2. Pour tout n et tout X : B_n(1-X) = [(-1)^n]*B_n(X)
3. Pour tout p>0, tout n, tout X
B_n(X) = [p^(n-1)]*somme{ B_n( (x+j)/p) ) ; j de 0 à p-1 }
4. B_(n+1) (X+1) - B_(n+1) (X) = (X^n)/n!
5. 1^n + 2^n + ... . M^n = n! * [ B_(n+1) (m+1) - B_(n+1) (0) ]
Preuves:
1. Taylor pour les polynômes...
2. et 3. On veut que B_n soit égal à un certain polynôme...
On montre que ce polynôme vérifie la "définition" de B_n...
4. Par récurrence...
5. avec 4.
Les premiers nombres de Bernoulli sont
1 ; -1/2 ; 1/6 ; 0 ; -1/30 ; 0 ; 1/42 ; ...
De B_n(1) = B_n(0) on déduit
b_n = - somme{ b_(n-j) / (j+1)! ; j de 1 à n }
Égalité qui permet de trouver une formule de récurrence pour les
nombres de Bernoulli.
9. Par combien de zéros le nombre 1998! se termine-t-il ?
------------------------------------------------------
a) Le problème
Répondre à cette question n'est pas en soi très difficile, il s'agit
juste de bien poser le problème. On souhaite en fait mettre en facteur
dans le produit 1 x 2 x ... x 1998 la plus grande puissance entière de
10 possible.
On obtient alors une expression du type k x 10^n, où n est le plus grand
entier tel que k soit lui aussi un entier.
b) L'idée de la résolution
Il s'agit donc de compter le nombre de 10 que l'on peut mettre en
facteurs. Compter tous les 10 serait assez fastidieux : essayons de nous
ramener à un "comptage" de nombres premiers.
On remarque que 10 = 5 x 2.
2 a d'autres multiples inférieurs à 10 (4, 6 et 8), ce qui n'est pas
le cas de 5. On comptera donc le nombre de 5 présents dans la
décomposition de 1998! en produit de nombres premiers, puisque 1998! a
plus de facteurs 2 que de facteurs 5.
c) Solution
Isolons les facteurs 5 dans 1*2*3*4*...*1998.
On cherche les multiples de 5 dans {2,3,...,1998}: il y en a E(1998/5).
Aussi 1998! = 5^E(1998/5) * reste.
Dans le reste, il y a encore des facteurs 5, qui proviennent des
multiples de 25 dans {2,3,...,1998}: il y en a E(1998/25).
Donc 1998! = 5^(E(1998/5)+ E(1998/25)) * reste2
De même, il y a E(1998/125) multiples de 5^3, E(1998/625) multiples
de 5^4 et 0 de 5^5.
En clair, l'exposant N du nombre 5 dans le produit de nombres premiers
égal à 1998! est donné par la relation :
N = E(1998/5) + E(1998/25) + E(1998/125) + E(1998/625)
Or, on a :
E(1998/5)=399
E(1998/25)=79
E(1998/125)=15
E(1998/625)=3
Donc N vaut :
N = 399 + 79 + 15 + 3 = 496
On avait montré précédemment que N était égal au nombre de zéros.
Le nombre 1998! se termine donc par 496 zéros.
Le début de la décomposition de 1998! obtenue avec un logiciel
mathématique est la suivante :
(2)^1990 x (3)^996 x (5)^496 x (7)^330 x (11)^198 x (13)^164 x ...
Ce résultat confirme notre conclusion.
On peut donc, à partir de quelques considérations de dénombrement,
déterminer avec une étonnante simplicité le nombre de zéros par lequel
se termine tout nombre défini à partir d'une factorielle, bien que
la forme a! soit d'autant moins explicite que le nombre a est grand !
Le lecteur soucieux de vérifier par lui-même comment s'opère en détail
cette décomposition pourra par exemple écrire un algorithme permettant,
à partir d'un nombre n donné, de dénombrer les zéros terminant n! .
10. Expression par radicaux des racines d'un polynôme de degré n.
-------------------------------------------------------------
a) Historique.
i) Antiquité.
La notion moderne d'équation n'émerge, en fait, qu'assez tardivement
dans l'Histoire, et ce que l'on appelle "algèbre" dans l'Antiquité se
limite dans une large mesure à la résolution de problèmes de degré n,
c'est-à-dire de problèmes numériques concrets visant à déterminer une
certaine quantité, qui pour nous dépend algébriquement des données.
À cet égard, les mathématiciens Mésopotamiens sont particulièrement
avancés. Les Babyloniens, par exemple, sans pour autant dégager de
"formule générale", disposent de méthodes systématiques de résolution
des problèmes de degré 1 et 2, dont certains mettent même en jeu des
systèmes, linéaires (ou non). Dans quelques cas particuliers,
ils résolvent même des problèmes de degré 3 et 4.
Par comparaison, l'algèbre égyptienne de la même époque (début du IIè
millénaire avant notre ère) peut paraître assez rudimentaire.
Pénalisés par un système de numération inadapté et des notations
lourdes (pour les fractions par exemple), les Égyptiens résolvent au
cas par cas des problèmes du premier degré uniquement, et cela par des
méthodes qui nous sembleraient de peu de rigueur.
Les Grecs eux-mêmes, à cause peut-être de la fameuse crise des
irrationnels, se méfient, un peu, de l'algèbre et l'ont peu fait
progresser. Ni les Pythagoriciens (plus préoccupés des entiers), ni
les successeurs d'Euclide (qui se consacrent avant tout à la
géométrie) ne s'y sont beaucoup intéressés. Le dixième livre des
_Éléments_ constitue néanmoins le fondement de nombreuses recherches
algébriques du Moyen-Âge.
Exception éclatante : Diophante d'Alexandrie, mathématicien du IIIe
siècle après J.-C., dont les _Arithmétiques_ constituent peut-être le
premier traité "d'algèbre classique". Il y introduit en effet la
notion d'équation algébrique, c'est-à-dire la relation entre les
puissances successives d'un nombre inconnu (arithmos) qu'il s'agit de
déterminer par transformations successives de la relation. Sa démarche
déductive est certes en recul par rapport à la méthode axiomatique
d'Euclide, mais il se permet ainsi de considérer les fractions et les
irrationnels comme des nombres à part entière, ce qui renforce la
généralité de ses méthodes.
ii) Du IVe au XIVe siècle
S'inspirant peut-être de la numération chinoise, les Indiens inventent
un système décimal de position comportant le zéro et les relatifs
négatifs dès le IVe ou le Ve siècle après J.-C. et qui permet des
notations algébriques bien plus élégantes.
Ainsi, au VIIe siècle, le mathématicien Brahmagupta, dans son traité
_Brahmasphutasiddhanta_ énonce-t-il des règles générales de
transformation des expressions algébriques, contenant éventuellement
des quantités négatives ou nulles, et donne explicitement la solution
de l'équation générale de degré 2. Au XIIe siècle, Bhaskara (à ne pas
confondre avec son homonyme contemporain de Brahmagupta) généralise
ces méthodes, qu'il étend à des équations particulières de degré
supérieur à 2. Il tient compte, en outre, de la seconde racine des
équations de degré 2.
L'algèbre arabe fait, en quelque sorte, la synthèse des mathématiques
grecques et indiennes, et constitue le sujet de prédilection des
mathématiciens arabes. Au IXe siècle, al-Khwarizmi remarque que la
transformation des équations constitue une théorie à part entière,
dont il décrit les principes dans le _Kitab al jabr wa-l-muqabla_ dont
l'algèbre tire son nom. Il reprend les méthodes de Diophante et la
numération indienne, qu'il contribue à populariser. Néanmoins, il est
encore gêné par les nombres négatifs, ce qui n'est pas le cas de son
principal successeur, Abu Kamil.
Forts des progrès de l'algèbre arabe vers l'abstraction, al-Karaji à
la fin du Xe siècle et al-Samaw'al au XIIe siècle développent une
puissante arithmétique des polynômes et des fractions rationnelles :
multiplication, division, et même extraction de racines et une sorte
de développement limité en O(1/x^n). Dès le XIe siècle, l'équation
cubique suscite par ailleurs un vif intérêt. Le persan Umar al-Khayyam
donne notamment de nombreux éléments d'une étude géométrique, voire en
des termes modernes "analytique", du problème.
Les travaux de Léonard de Pise (le célèbre Fibonacci), au début du
XIIIe siècle diffusent en Europe le savoir algébrique arabe.
Son _Liber Abaci_ constitue la source principale des nombreuses
recherches de ses successeurs. De plus, il propose avec l'empereur
Frédéric II des sortes de "défis scientifiques" sous la forme de
problèmes réunis dans le _Liber Quadratorum_ et comprenant la
résolution de plusieurs équations de degré 3.
iii) La Renaissance
À la Renaissance, les mathématiques, et surtout l'algèbre, se
développent rapidement en Italie, sur la base de l'héritage gréco-
arabe. Les premiers progrès s'effectuent sur le terrain du symbolisme,
de plus en plus concis et suggestif. Nicolas Chuquet et Luca Pacioli
présentent sous une forme concise les résultats classiques. C'est
celui-ci qui introduit la notation "cossique" des équations
algébriques. Jusqu'au XVIIe siècle, beaucoup s'attachent à
perfectionner un symbolisme, qui atteint à peu près sa forme actuelle
avec Descartes... Mais le grand apport des mathématiciens italiens à
l'algèbre est la résolution par radicaux des équations de degré 3 et 4
À la toute fin du XVe siècle, Scipione dal Ferro parvient à
l'expression par radicaux des racines de l'équation cubique sans terme
en x^2 (ce qui est équivalent à la résolution complète, mais il
semblerait qu'il ne le savait pas). Quoi qu'il en soit, dans une
tradition médiévale un peu surannée, il choisit de garder sa
découverte secrète. Il la confie à sa mort à son élève Fior qui ne la
divulgue pas. En 1535, Tartaglia, établi à Venise comme professeur de
mathématiques, propose une méthode de résolution des équations
cubiques sans terme en x, mais Fior lui en conteste la priorité. Ce
genre de querelles se réglaient en des défis. Fior met Tartaglia au
défi de résoudre l'équation sans terme en x^2, et celui-ci y
parvient, assurant sa victoire.
Quelques années plus tard, un médecin et mathématicien milanais,
Cardan, vient trouver Tartaglia pour obtenir l'autorisation de publier
ses formules dans sa grande somme mathématique, l'_Ars Magna_ (1545).
Tartaglia refuse, mais devant l'insistance de Cardan, il consent à lui
exposer sa méthode, avec la promesse qu'elle ne sera pas publiée.
Malgré tout, les fameuses "formules de Cardan" apparaissent bien dans
l'_Ars Magna_, et une violente querelle s'ensuit qui ne prend fin
qu'en 1548. On trouve également dans le traité de Cardan la solution
de l'équation générale de degré 4 que l'on peut attribuer avec
certitude à l'élève de Cardan, Ferrari (auquel on pense en fait devoir
un grand nombre des résultats publiés par Cardan)...
Une particularité de la méthode de Tartaglia est de faire intervenir,
au cours du calcul, des racines carrés de nombres négatifs, ce qu'il
avait du mal à prendre en considération. Le premier à avoir
véritablement admis les complexes en tant que nombres, plutôt
qu'artifices calculatoires, est Bombelli. Il présente les règles
générales de calcul sur les complexes et toutes les récents progrès de
l'algèbre peu avant sa mort, dans _Algebra, parta maggiore
dell'arithmetica_ (1572).
iv) Vers l'algèbre moderne
Après le XVIe siècle, les mathématiciens semblent se désintéresser de
l'algèbre, pour se consacrer plutôt à la géométrie et à la toute jeune
analyse. Les diverses tentatives de résolution de l'équation de degré
5 sont infructueuses, de même que les essais de démonstration de la
"conjecture" de Girard, selon laquelle toute équation algébrique de
degré n admet exactement n racines complexes distinctes ou confondues.
Étrangement, le rigoureux Descartes semble avoir considéré ce résultat
comme évident.
En tous les cas, l'algèbre pure fait peu de progrès jusqu'à la seconde
moitié du XVIIe siècle. Il y a cependant des recherches liées à
l'analyse, sur l'approximation des racines par exemple (recherches de
Rolle, de Newton). Le tournant se situe néanmoins aux environs de
1770, lorsque Lagrange et Vandermonde entament des recherches sur la
Théorie des Substitutions.
Lagrange saisit, en particulier, l'importance de la notion de
permutations sur la famille des racines d'une équation algébrique, et
développe avec Waring l'idée selon laquelle, si la conjecture de
Girard est vraie, alors les coefficients d'une équation algébrique
sont au signe près *les fonctions symétriques élémentaires des
racines* (Viète, puis Girard avaient remarqué ce résultat longtemps
auparavant, dans quelques cas particuliers). Ce résultat lui permet de
présenter une méthode élégante de résolution des équations de degré 3
et 4. Vandermonde étudie les fonctions invariantes par permutations
circulaires, et en déduit les solutions par radicaux de certaines
équations particulières (au groupe de Galois cyclique) telles que
"x^11 - 1 = 0".
Une nouvelle étape est franchie avec la première démonstration
rigoureuse de la conjecture de Girard, publiée par Gauss en 1799.
D'Alembert s'y était essayé avant lui, mais sa démonstration était
incomplète. Gauss perçoit par ailleurs l'importance du "groupement des
opérations" (selon l'expression de Galois) et dans ses recherches sur
les formes quadratiques et sur l'arithmétique modulaire se dégagent
déjà les concepts qui fondent l'algèbre moderne. Il développe de plus
les idées de Vandermonde, et montre que le polygone à dix-sept côtés
est constructible à la règle et au compas.
Ruffini, appliqué à l'étude de la théorie des substitutions, effectue
des recherches sur les valeurs prises par une fonction de cinq
variables par toutes les permutations de ces variables. Il parvient à
des résultats, généralisés par Cauchy, qui l'amènent à conclure, en
1813, à l'impossibilité de résoudre l'équation de degré 5 par
radicaux. Ses arguments ne suffisent pas pour une démonstration
rigoureuse, cependant Abel apporte des arguments plus probants sur ce
point, et parvient, aux alentours de 1826, à l'impossibilité de la
résolution par radicaux de l'équation générale de degré premier
supérieur ou égal à 5.
Cependant, son raisonnement présente des difficultés, et il maîtrise
mal ses méthodes, qui ne se formalisent correctement que dans le cadre
de la théorie des corps (laquelle n'émerge que bien plus tard).
Galois est le premier à adopter une méthode complètement générale, en
introduisant la notion de groupe d'une équation (l'ensemble des
permutations[1] des racines conservant les relations algébriques entre
celles-ci). Dans des mémoires successifs rédigés à partir de 1830, il
dégage le critère général de résolubilité par radicaux d'une équation
algébrique. Ainsi Galois clôt-il définitivement la question
essentielle de l'algèbre classique, tout en posant, plus encore que
Gauss, les jalons de l'algèbre moderne.
[1] Pour ceux qui liraient Galois, il est intéressant de noter qu'il
appelle "permutation" une certaine disposition de n lettres, et
emploie le terme de substitution pour désigner l'opération de
changement de cette disposition.
b) Démonstration
Soit P_n(x) = x^n + Sum( a_k * x^ k, de k = 0 à k = n-1) un polynôme de
degré n. Les a_k sont soit des réels soit des complexes. On cherche à
exprimer les racines de P_n en fonction des a_k. C'est ce que l'on
appelle une résolution par radicaux.
Notes:
- Les a_k peuvent être réels ou complexes. Les racines des nombres
négatifs ou complexes sont "admises"
- Je ne traite que les cas où les polynomes sont unitaire (leur
coefficient de plus haut degré est 1. Si ce n'est pas le cas il suffit
de diviser le polynôme par son coeficient de plus haut degré et
d'appliquer la méthode que je développe plus bas.
- J'utilise pour ces démonstrations les notations sqrt(x) et cur(x) qui
désignent respectivement la racine carrée et cubique de x.
- J'utilise la notation <> pour signifier "différent de".
1) Le polynôme est de degré n = 1.
On part de l'équation: x + b = 0.
La solution est bien évidement x = -b.
2) Le polynôme est de degré n = 2.
On part de l'équation: x^2 + a*x + b = 0.
Deux possibiltés se présentent: (i) a = 0 et (ii) a <> 0
(i) a = 0. L'équation s'écrit x^2 = -b
Les deux solutions sont donc: x1 = sqrt(-b) et x2 = - sqrt(-b)
(ii) a <> 0. L'équation s'ecrit x^2 + a * x + b = 0
Cette équation peut s'écrire:
x^2 + a*x + (1/4)* a^2 + b - (1/4)* a^2 = 0
Or l'on a :
(x + a/2)^2 = x^2 + a*x + (1/4)* a^2
Donc on peut écrire dans la première équation:
(x + a/2)^2 = ( a^2 - 4b ) /4
Ce qui revient au cas (i). Donc l'équation s'écrit:
x + a/2 = sqrt( (1/4)*a^2 - b ) ou x + a/2 = - sqrt( (1/4)*a^2 - b )
On en déduit les solutions de l'equation:
x1 = -a/2 + sqrt( (1/4)*a^2 - b ) et x2 = -a/2 - sqrt( (1/4)*a^2 - b )
3) Le polynôme est de degré n = 3.
On part de l'équation: x^3 + a*x^2 + b*x + c = 0.
On effectue un changement de variable x = z - a/3.
On obtient alors une équation du type : z^3 + p*z + q = 0
Avec: p = b - (1/3)*a^2 et
q = (2/27)*a^3 - (1/3)*a*b + c
Note:
Une fois que l'on a une solution z0 de l'équation en z, alors
x0 = z0 - a/3 est solution de l'équation en x.
Pour l'équation en z, deux cas sont possibles : (i) p = 0, (ii) p <> 0.
(i) p = 0. L'équation s'écrit donc z^3 = -q
Cette équation a trois solutions dans C:
z1 = cur(-q) (cur(x) est la racine cubique de x)
z2 = j * z1
z3 = (j^2) * z1.
Où j = ( -1 + i*sqrt(3) )/2
(ii) p <> 0. L'équation est z^3 + p*z + q = 0.
On effectue un autre changement de variable z = u + v. Avec u non-nul.
Et l'équation s'écrit:
u^3 + v^3 + q + (3*u*v + p)*(u + v) = 0
on s'intéresse alors au système suivant:
{ u^3 + v^3 + q = 0 [S]
{ 3*u*v + p = 0
Note:
si (u0, v0) est solution du sytème [S], on remarque que z0 = u0 + v0 est
solution de l'équation 3.
Le système [S] est équivalent à:
{ u^6 + q* u^3 - (1/27)*p^3 = 0
{ v = - p /(3u)
Encore (!) un changement de variable dans la première équation.
On pose y = u^3, et celle-ci devient: y^2 + q*y -(1/27)*p^3.
De là, une solution est donc:
y = -q/2 + sqrt( (1/4)*q^2 +(1/27)*p^3 )
Donc, il ne reste plus qu'à trouver les solutions de u^3 = y. C'est le
cas (i). On a donc comme solutions:
u1 = cur(y). et v1 = -p / (3*u1)
u2 = j * u1. et v2 = j * v2
u3 = (j^2) * u1 et v3 = (j^2) * v3
De là, on a z1 = u1 + v1, z2 = u2 + v2 et z3 = u3 + v3. Ce qui nous
donne les solutions pour x...
4) Le polynôme est de degré n = 4
On part de l'équation x^4 + a * x^3 + b * x^2 + c * x + d = 0.
On effectue le changement de variable x = z - a/4.
On obtient une équation réduite de la forme:
z^4 + p * z^2 + q * z + r = 0
Avec p = b - (3/8)*a^2 ;
q = c - a*b/2 + (1/8)*a^3 et
r = d - a*c/4 + (1/16)*b*a^2 - (3/256)*a^4
On a deux cas pour l'équation en z: (i) q = 0 et (ii) q <>0.
(i) q = 0. L'équation s'écrit z^4 + p * z^2 + r = 0.
C'est ce que l'on appelle une équation bicarrée.
On pose y = z^2 et l'equation devient y^2 + p * y + r = 0
Les solutions sont donc:
y1 = -p/2 + sqrt( (1/4)*p^2 - r) et y2 = -p/2 - sqrt( (1/4)*p^2 - r)
De là les valeurs de z sont:
z1 = sqrt(y1) ; z2 = - sqrt(y1) ; z3 = sqrt(y2) et z4 = -sqrt(y2).
(ii) q <> 0. L'équation s'écrit z^4 + p * z^2 + q * z + r = 0
On pose alors 2*P - Q^2 = p ; -2*Q*R = q et P^2 - R^2 = r.
On a alors (z^2 + P)^2 - (Qz +R)^2 = 0. Ce qui est une autre façon
d'écrire z^4 + p * z^2 + q * z + r = 0.
Si l'on arrive à determiner le triplet (P0, Q0, R0) alors trouver les
solutions de l'équation réduite revient à résoudre:
z^2 + P0 + Q0 * z + R0 = 0 ou
z^2 + P0 - Q0 * z - R0 = 0
On peut donc trouver z.
Il reste donc à determiner P, Q et R. C'est à dire à résoudre le système
{ 2*P - Q^2 = p
{ -2*Q*R = q [S]
{ P^2 - R^2 = r
Ce système revient à:
{ Q^2 = q^2 / (4*P^2 - r)
{ R^2 = P^2 - r
{ Q*R = -q / 2
Ce qui revient à résoudre l'équation (en P) suivante:
p^3 - (p/2)*P^2 - r*P + p*r/2 - (1/8)*q^2 = 0
De là, on trouve (pas si) facilement P0. Et grâce au système [S] on peut
lui associer un couple (Q0, R0) et donc trouver z... (ouf !)
5) Le polynôme est de degré n > 4.
Au XIXè siècle, Abel a montré que la résolution par radicaux de
l'équation du cinquième degré était impossible dans le cas général.
Indépendamment, Galois a généralisé cette démonstration à l'ensemble
des cas où n est supérieur ou égal à 5.
Cette démonstration demande un recours à la théorie de Galois, elle ne
sera pas developpée ici. Cette théorie est très bien développée dans :
_Équations algébriques et théorie de Galois_ de Claude Mutafian,
(ed. Vuibert) et _Galois Theory_ de Ian Stewart (ed. Chapman and Hall)
(attention, ce dernier est en anglais).
========================================================================
Les autres parties de cette FAQ se trouve dans les documents intitulés :
[FAQ] fr.sci.maths - partie 2/3
[FAQ] fr.sci.maths - partie 3/3
Ces documents sont disponibles sur fr.sci.maths ou à l'adresse :
http://www.usenet-fr.net/fur/maths/maths-faq-2.html
http://www.usenet-fr.net/fur/maths/maths-faq-3.html
.
Traduit en HTML par faq2html.pl le Wed Nov 3 05:42:13 2010 pour le site Web Usenet-FR.