Des articles

4.4 : Orthogonalité et normalisation - Mathématiques


Considérez la série

[frac{a_0}{2} + sum_{n=1}igg[a_ncosigg(frac{npi x}{L}igg) + b_nsinigg(frac {npi x}{L}igg)igg], hspace{3cm} -L leq x leq L.]

C'est ce qu'on appelle une série trigonométrique. Si la série se rapproche d'une fonction F (comme on le verra) on l'appelle une série de Fourier et une et b sont les coefficients de Fourier de F.

Pour que tout cela ait un sens, nous étudions d'abord les fonctions

[{1,cosigg(frac{npi x}{L}igg), sinigg( frac{npi x}{L}igg)}, hspace {3 cm} n=1,2,points,]

et surtout leurs propriétés sous intégration. On trouve que

[ int_{-L}^L 1cdot 1 dx = 2L,]

[ int_{-L}^L 1 cdot cosigg(frac{npi x}{L}igg) dx = 0]

[ int_{-L}^L 1 cdot sinigg(frac{npi x}{L}igg) dx = 0]

[ egin{align} int_{-L}^L cosigg(frac{mpi x}{L}igg) cdot cosigg(frac{npi x}{ L}igg) dx & = frac{1}{2}int_{-L}^L cosigg(frac{(m+n)pi x}{L}igg) + cos igg(frac{(mn)pi x}{L}igg) dx & = igg{ egin{array}{lr} 0 & mbox{if } n leq m L & mbox{if } n=m end{array}end{align}, ]

[ egin{align} int_{-L}^L sinigg(frac{mpi x}{L}igg) cdot sinigg(frac{npi x}{ L}igg) dx & = frac{1}{2}int_{-L}^L cosigg(frac{(m+n)pi x}{L}igg) + cos igg(frac{(mn)pi x}{L}igg) dx & = igg{ egin{array}{lr} 0 & mbox{if } n leq m L & mbox{if } n=m end{array}end{align}, ]

[egin{align} int_{-L}^L cosigg(frac{mpi x}{L}igg) cdot sinigg(frac{npi x}{ L}igg) dx & = frac{1}{2}int_{-L}^L cosigg(frac{(m+n)pi x}{L}igg) + cos igg(frac{(mn)pi x}{L}igg) dx & = igg{ egin{array}{lr} 0 & mbox{if } n leq m L & mbox{if } n=m end{array} end{align},]

Si nous considérons ces intégrales comme une sorte de produit interne entre les fonctions (comme le produit interne vectoriel standard), nous voyons que nous pourrions appeler ces fonctions orthogonal. Il s'agit en effet d'une pratique courante, où pour les fonctions le général la définition du produit intérieur prend la forme

[(f,g) = int_a^b w(x)f(x)g(x)dx.]

Si c'est zéro on dit que les fonctions F et g sont orthogonaux sur l'intervalle [uneb] avec fonction de poids w. Si cette fonction vaut 1, comme c'est le cas pour les fonctions trigonométriques, on dit simplement que les fonctions sont orthogonales sur [uneb].

La norme d'une fonction est maintenant définie comme la racine carrée du produit scalaire d'une fonction avec elle-même (encore une fois, comme dans le cas des vecteurs),

[ orm{f} = sqrt{int_a^b w(x)f(x)^2dx}.]

Si nous définissons une forme normalisée de F (comme un vecteur unitaire) comme ( f/ orm{f}), nous avons

[ orm{frac{f}{ orm{f}}} = sqrt{frac{int_a^bw(x)f(x)^2dx}{ orm{f}^2}}= frac{sqrt{int_a^bw(x)f(x)^2dx}}{ orm{f}}=frac{ orm{f}}{ orm{f}}=1.]

Exercice (PageIndex{1})

Quelle est la forme normalisée de (ig{1, cosig(frac{npi x}{L}ig), sinig(frac{npi x}{L} gros gros}?)

Réponse

( ig{frac{1}{sqrt{2L}}, ig(frac{1}{sqrt{L}}ig)cosig(frac{n pi x} {L}ig),ig(frac{1}{sqrt{L}}ig)sinig(frac{n pi x}{L}ig) ig})

Un ensemble de fonctions mutuellement orthogonales qui sont toutes normalisées est appelé un ensemble orthonormé.


Chapitre 3 Orthogonalité

si vecteur (ar) est orthogonal à tout vecteur dans un sous-espace (W) de (mathbb) , puis (ar) est dit orthogonal à (W) . Le sous-espace qui contient l'ensemble des vecteurs orthogonaux à (W) est appelé le complément orthogonal, noté (W^) .

Cela correspond aux discussions de la section 2.4, où

Il est facile de vérifier que (W^) est fermé par multiplication scalaire, et par addition vectorielle, et que tout vecteur dans (W) a des composantes (n). Ainsi, (W^) est un sous-espace de (mathbb^n)

3.1.2 Ensembles orthogonaux et base orthogonale

Un ensemble orthogonal est un ensemble de vecteurs (<ar_1, points, ar_p>) dans (mathbb) , dans laquelle chaque paire de vecteurs distincts est orthogonale : (ar_je^ ar_j = 0 quad ipas = j) . Notez que l'ensemble ne couvre pas nécessairement l'ensemble (mathbb) , mais un sous-espace (W) .

Puisque les vecteurs dans les ensembles orthogonaux sont mutuellement perpendiculaires, ils doivent également être linéairement indépendants et pourraient former une base pour un sous-espace (W) . Dans ce cas, ils sont appelés base orthogonale.

Il y a un avantage particulier à utiliser une base orthogonale plutôt qu'une autre base, car nous pouvons trouver une représentation facile de n'importe quel vecteur dans (W) .

Théorème 3.1 Pour chaque (ar) dans (W) , il existe une combinaison linéaire

[ y = c_1ar_1 + cdots + c_par_p ]

[ c_i = frac <arcdot ar_i><ar_i cdot ar_i> quad i = 1, cdots, p ]

où (<ar_1, points, ar_p>) est une base orthogonale.

[ commencer ar_1 cdot ar &= ar_1 cdot (c_1ar_1 + cdots + c_par_p) &= c_1 ar_1 cdot ar_1 fin ] Alors:

Les dérivations pour les autres (c_i) sont similaires.

3.1.3 Décomposition orthogonale

Décomposition orthogonale diviser (ar) dans (mathbb) en deux vecteurs, un dans (W) et un dans son complément orthogonal (W^) .

Théorème 3.2 Soit (mathbb^n) être un espace produit interne et (W) et le sous-espace de (mathbb^n) . Ensuite, chaque (ar) dans (W) peut être écrit de manière unique sous la forme

Soit (ar_1, . ar_m) soit une base orthonormée pour (W) , il existe une combinaison linéaire selon la section 3.1.2

[ ar_w = (ar cdot ar_1)ar_1 + cdots + (ar cdot ar_m)ar_m ] et

[ ar_ = ar - ar_w ] Il est clair que (ar_W in W) . Et on peut aussi montrer que (ar_) est perpendiculaire à (W)

[ commencer ar_ cdot ar_i &= [ar- (ar cdot ar_1)ar_1 - cdots - (ar cdot ar_m)ar_m] cdot ar_i &= (ar cdot ar_1) - [(ar cdot ar_i)ar_i cdot ar_i] &= 0 end ]

Pour prouver que (ar_w) et (ar_) sont uniques (ne dépend pas du choix de la base), soit (ar_1', . ar_m') être une autre base orthonormée pour (W) , et définir (ar_w') et (ar_') de la même manière, nous voulons obtenir (ar_w' = ar_w) et (ar_' = ar_) .

[ underbrace<ar_w - ar_w'>_ = underbrace<ar_' - ar_>_> ] A partir de l'orthogonalité de ces sous-espaces, on a

L'existence et l'unicité de la décomposition ci-dessus signifient que


Méthodes de calcul pour la modélisation de systèmes non linéaires

Théorème 61

Laisser v1, …, vp être des vecteurs orthogonaux déterminés par le lemme 34 de la section 5.7.4. Alors f 0 et F 1 , … , 0 F p 0 , satisfaisant (7.140) – (7.141) , sont déterminés par

avec une matrice arbitraire Q k t × ( n − t ) .

La précision associée à la transformation T p 0 donné par (7.142) et (7.147)–(7.176) est telle que

Preuve. Si v1, …, vp sont déterminés par le lemme 34 , alors J (F,1, …,p) est toujours représenté par (7.150) . Considérons J0, J1 et J2 donné par

avec J (F,1, …,p) défini par (7.150) , on utilise les relations (voir Section 4.4.1)

en raison de l'orthogonalité des vecteurs v1, …, vsk.

Sur la base de (7.183)–(7.185) et de manière similaire à (7.157) – (7.157) , on établit que (7.182) est vraie. D'où,

Il résulte des deux derniers termes de (7.187) que le minimum contraint (7.140) – (7.141) est atteint si F = F 0 avec F 0 donné par (7.174) , et F k 0 est tel que

Par conséquent, le minimum contraint (7.140) – (7.141) est atteint si F = F 0 où F0 est défini par (7.174) , et si

Ce dernier découle du théorème 54 et des remarques 29 et 30 . Ainsi, (7.175) – (7.176) sont vrais.

Alors (7.178) découle de (7.187) , (7.189) , (7.174) et (7.190) .


Quelle est la différence entre la normalisation et la standardisation ?

Au travail, nous en discutions car mon patron n'a jamais entendu parler de normalisation. En algèbre linéaire, la normalisation semble faire référence à la division d'un vecteur par sa longueur. Et en statistique, la normalisation semble faire référence à la soustraction d'une moyenne puis à la division par son écart-type. Mais ils semblent également interchangeables avec d'autres possibilités.

Lors de la création d'une sorte de score universel, qui représente 2 $ de métriques différentes, qui ont des moyens différents et des SD différents, voudriez-vous normaliser, standardiser ou autre chose ? Une personne m'a dit qu'il s'agissait simplement de prendre chaque métrique et de les diviser par leur SD, individuellement. Puis additionner les deux. Et cela se traduira par un score universel qui peut être utilisé pour juger les deux mesures.

Par exemple, supposons que vous ayez le nombre de personnes qui prennent le métro pour se rendre au travail (à New York) et le nombre de personnes qui se rendent au travail en voiture (à New York).

$ exte longrightarrow x$ $ ext longrightarrow y$

Si vous souhaitez créer un score universel pour signaler rapidement les fluctuations de trafic, vous ne pouvez pas simplement ajouter $ ext(x)$ et $ exte(y)$ car il y aura BEAUCOUP plus de gens qui prendront le train. Il y a 8 millions de personnes vivant à New York, plus les touristes. C'est des millions de personnes qui prennent le train tous les jours contre des centaines de milliers de personnes dans des voitures. Ils doivent donc être transformés à une échelle similaire afin d'être comparés.

Normaliseriez-vous $x$ & $y$ puis somme ? Voudriez-vous standardiser $x$ & $y$ puis additionner ? Ou diviseriez-vous chacun par leur SD respectif puis additionnerez-vous? Afin d'obtenir un nombre qui, lorsqu'il fluctue, représente les fluctuations totales du trafic.

Tout article ou chapitre de livre de référence serait très apprécié. MERCI!

Voici également un autre exemple de ce que j'essaie de faire.

Imaginez que vous êtes doyen d'une université et que vous discutez des conditions d'admission. Vous voudrez peut-être des étudiants avec au moins une certaine moyenne cumulative et un certain score au test. Ce serait bien s'ils étaient tous les deux sur la même échelle, car vous pourriez alors simplement additionner les deux et dire : « toute personne ayant au moins un 7.0 peut être admise ». De cette façon, si un étudiant potentiel a une moyenne cumulative de 4,0, il pourrait obtenir un score de test aussi bas que 3,0 et toujours être admis. Inversement, si quelqu'un avait un GPA de 3,0, il pourrait toujours être admis avec un score de test de 4,0.

Mais ce n'est pas comme ça. L'ACT est sur une échelle de 36 points et la plupart des GPA sont sur 4.0 (certains sont 4.3, oui ennuyeux). Étant donné que je ne peux pas simplement ajouter un ACT et un GPA pour obtenir une sorte de score universel, comment puis-je les transformer afin qu'ils puissent être ajoutés, créant ainsi un score d'admission universel. Et puis en tant que doyen, je pouvais simplement accepter automatiquement n'importe qui avec un score supérieur à un certain seuil. Ou même accepter automatiquement tous ceux dont le score se situe dans les 95 % supérieurs. ce genre de choses.

Serait-ce la normalisation? standardisation? ou simplement en divisant chacun par leur SD puis en additionnant ?


La longueur (ou norme ) du vecteur ( extbf x = egin x_1 x_2 . . . x_n end ) écrit comme ( || extbf x || ) est donné par
[ || extbfx || = sqrt = sqrt < extbf x cdot extbf x>]
De la définition ci-dessus, nous pouvons facilement conclure que
( || extbf x || ge 0 ) et ( || extbf x ||^2 = extbf x cdot extbf x )
Un vecteur unitaire est un vecteur dont la longueur (ou norme) est égale à 1.

Les vecteurs ( extbf x ) et ( extbf y ) sont orthogonaux si et seulement si
[ ||x+y||^2 = ||x||^2 + ||y||^2 ]


Polynômes orthogonaux

où le degré de chaque polynôme $ P _ $ est égal à son indice $ n $, et la fonction de poids (poids) $ h( x) geq 0 $ sur l'intervalle $ ( a, b) $ ou (lorsque $ a $ et $ b $ sont finis) sur $ [a, b] $. Les polynômes orthogonaux sont dits orthonormés et sont notés $ < widehat

_ > $, si chaque polynôme a un coefficient dominant positif et si la condition de normalisation

$ intlimits _ < a >^ < b >widehat

<> _ ^ <2>( x) h( x) dx = 1 $

est remplie. Si le coefficient dominant de chaque polynôme est égal à 1, alors le système de polynômes orthogonaux est noté $ < widetilde

_ > $.

Le système de polynômes orthogonaux $ < widehat

_ > $ est défini de manière unique si la fonction de poids (poids différentiel) $ h $ est de Lebesgue intégrable sur $ ( a, b) $, n'est pas égale à zéro et, dans le cas d'un intervalle non borné $ ( a, b) $ , a des moments finis

$h _ = intlimits _ < a >^ < b >x ^ h(x)dx. $

Au lieu d'un poids différentiel $ h $, un poids intégral $ d sigma ( x) $ peut être examiné, où $ sigma $ est une fonction bornée non décroissante avec un ensemble infini de points de croissance (dans ce cas, le intégrale dans la condition d'orthogonalité s'entend au sens de Lebesgue-Stieltjes).

Pour le polynôme $ P _ $ de degré $ n $ pour faire partie du système $ < P _ > $ de poids $ h $, il est nécessaire et suffisant que, pour tout polynôme $ Q _ $ de degré $ m < n $, la condition

$ intlimits _ < a >^ < b >P _ ( x) Q _ ( x) h( x) dx = 0 $

est remplie. Si l'intervalle d'orthogonalité $ ( a, b) $ est symétrique par rapport à l'origine et que la fonction de poids $ h $ est paire, alors tout polynôme $ P _ $ ne contient que les degrés de $ x $ qui ont la parité du nombre $ n $, c'est-à-dire que l'on a l'identité

Les zéros des polynômes orthogonaux dans le cas de l'intervalle $ ( a, b) $ sont tous réels, différents et distribués dans $ ( a, b) $, tandis qu'entre deux zéros voisins du polynôme $ P _ $ il y a un zéro du polynôme $ P _ $. Les zéros des polynômes orthogonaux sont souvent utilisés comme points d'interpolation et dans les formules de quadrature.

Trois polynômes consécutifs d'un système de polynômes orthogonaux sont liés par une formule de récurrence

$ P _ ( x) = ( un _ x + b _ ) P _ ( x) - c _ P _ ( x), n = 1, 2 dots $

$ P _ <1>( x) = mu _ <1>x + u _ <1>dots $

$ P _ ( x) = mu _ x^ + u _ x^ + points , $

Le nombre $ d _ ^ <-1>$ est un facteur de normalisation du polynôme $ P _ $, tel que le système $ < d _ ^ <-1>P _ > $ est orthonormalisé, c'est-à-dire

$ d _ ^ <-1>P _ ( x) = widehat

_ ( X). $

Pour les polynômes orthogonaux on a la formule de Christoffel-Darboux :

Les polynômes orthogonaux sont représentés en termes de moments $ < h _ > $ de la fonction de poids $ h $ par la formule

$ psi _ ( x) = gauche | commencer h _ <0>&h _ <1>&points &h _ h _ <1>&h _ <2>&points &h _ cdot &cdot &dots &cdot h _ &h _ &dots &h _ <2n-1> 1 & x &dots &x ^ finir droit | , $

tandis que le déterminant $ Delta _ $ est obtenu à partir de $ psi _ ( x) $ en annulant la dernière ligne et colonne et $ Delta _ $ est défini de la même manière à partir de $ psi _ (x) $.

Sur un ensemble de polynômes $ widetilde _ $ de degré $ n $ avec coefficient dominant égal à un, le minimum de la fonctionnelle

$ F( widetilde _ ) = intlimits _ < a >^ < b >widetilde <> _ ^ <2>( x) h( x) dx $

est atteint si et seulement si

$ widetilde _ ( x) equiv widetilde

_ (x) $

de plus, ce minimum est égal à $ d _ ^ <2>$.

Si les polynômes $ < P _ > $ sont orthonormés de poids $ h $ sur le segment $ [ a, b] $, alors lorsque $ p > 0 $, les polynômes

$ widehat _ ( t) = sqrt p widehat

_ ( pt+ q), n = 0, 1 dots $

sont orthonormés de poids $ h( pt+ q) $ sur le segment $ [ A, B] $ qui se transfère sur le segment $ [ a, b] $ à la suite de la transformation linéaire $ x = pt + q $. Pour cette raison, lors de l'étude des propriétés asymptotiques des polynômes orthogonaux, le cas du segment standard $ [-1, 1] $ est considéré en premier, tandis que les résultats ainsi obtenus couvrent également d'autres cas.

Les polynômes orthogonaux les plus importants rencontrés dans la résolution des problèmes aux limites de la physique mathématique sont les polynômes orthogonaux dits classiques : les polynômes de Laguerre $ < L _ ( x alpha ) > $( pour lequel $ h( x) = x ^ alpha e ^ <-x>$, $ alpha > - 1 $, et avec intervalle d'orthogonalité $ ( 0, infty ) $ ) les polynômes d'Hermite $ < H _ ( x) > $( pour lequel $ h( x) = mathop < m exp>(- x ^ <2>) $, et avec intervalle d'orthogonalité $ (- infty , infty ) $) le Jacobi polynômes $ < P _ ( x alpha , eta ) > $( pour lequel $ h( x) = ( 1- x) ^ alpha ( 1+ x) ^ eta $, $ alpha > - 1 $, $ eta > - 1 $, et à intervalle d'orthogonalité $ [- 1, 1] $) et leurs cas particuliers : les polynômes ultrasphériques, ou polynômes de Gegenbauer, $ < P _ ( x, alpha ) > $( pour lequel $ alpha = eta $), les polynômes de Legendre $ < P _ ( x) > $( pour lequel $ alpha = eta = 0 $), les polynômes de Chebyshev de première espèce $ < T _ ( x) > $( pour lequel $ alpha = eta = - 1/2 $) et de seconde espèce $ < U _ ( x) > $( pour lequel $ alpha = eta = 1/2 $).

La fonction de poids $ h $ des polynômes orthogonaux classiques $ < K _ > $ satisfait l'équation différentielle de Pearson

où, aux extrémités de l'intervalle d'orthogonalité, les conditions

$ limlimits _ h( x) B( x) = limlimites _ h( x) B( x) = 0 $

Le polynôme $ y = K _ ( x) $ satisfait l'équation différentielle

$ B( x) y ^ + [ A( x) + B ^ prime ( x)] y ^ prime - n[ p _ <1>+ ( n+1) q _ <2> ] y = 0. $

Pour les polynômes orthogonaux classiques on a la formule de Rodrigues généralisée

où $ c _ $ est un coefficient de normalisation, et les formules de différenciation

$ frac L_ ( x alpha ) = - L _ ( x alpha + 1), frac H_ ( x) = 2nH _ (x), $

$ frac P _ ( x alpha , eta ) = frac<1> <2>( alpha + eta + n + 1 ) P _ ( x alpha + 1, eta + 1). $

Pour des cas particuliers des polynômes orthogonaux classiques on a des représentations utilisant la fonction hypergéométrique

$ P _ ( x alpha , eta ) = left ( egin n+ a n fin ight ) F left ( - n, n + alpha + eta + 1 alpha + 1 1- frac <2>droit ) , $

$ P _ ( x) = F gauche ( - n, n+ 1 1 1- frac <2>droit ) , $

$ T _ ( x) = F gauche ( - n, n frac<1> <2> 1- frac <2>droit ) , $

$ U _ ( x) = ( n+1) F gauche ( - n, n+ 2 frac<3> <2> 1- frac <2>droit ) $

$ L _ ( x alpha ) = gauche ( egin n fin ight ) Phi (- n alpha + 1 x), $

$ H _ <2n>( x) = (- 1) ^ (2n) ! plus de Phi left ( - n frac<1> <2> x ^ <2> ight ) , $

$ H _ <2n+1>( x) = (- 1) ^ (2n+1) ! plus de 2 x Phi left ( - n frac<3> <2> x ^ <2> ight ) . $

Historiquement, les premiers polynômes orthogonaux étaient les polynômes de Legendre. Viennent ensuite les polynômes de Chebyshev, les polynômes généraux de Jacobi, l'Hermite et les polynômes de Laguerre. Tous ces polynômes orthogonaux classiques jouent un rôle important dans de nombreux problèmes appliqués.

La théorie générale des polynômes orthogonaux a été formulée par P.L. Tchebychev. L'appareil de recherche de base utilisé était le développement en fraction continue de l'intégrale $ intlimits _ < a >^ < b >frac dt $ les dénominateurs des convergents de cette fraction continue forment un système de polynômes orthogonaux sur l'intervalle $ ( a, b) $ de poids $ h $.

Dans l'étude des polynômes orthogonaux, une grande attention est accordée à leurs propriétés asymptotiques, car les conditions de convergence des séries de Fourier dans les polynômes orthogonaux dépendent de ces propriétés.

Les propriétés asymptotiques des polynômes orthogonaux classiques ont été étudiées pour la première fois par V.A. Steklov en 1907 (voir [8]). Il a utilisé et perfectionné la méthode de Liouville, qui était auparavant utilisée dans l'étude des solutions de l'équation de Sturm-Liouville. La méthode de Liouville-Steklov a ensuite été largement utilisée, à la suite de laquelle les propriétés asymptotiques des polynômes orthogonaux de Jacobi, Hermite et Laguerre ont été largement étudiées.

Dans le cas général de l'orthogonalité sur $ [-1, 1] $ avec un poids arbitraire satisfaisant certaines conditions qualitatives, les formules asymptotiques pour les polynômes orthogonaux ont été découvertes pour la première fois par G. Szegö en 1920-1924. Il introduisit des polynômes orthogonaux sur le cercle, étudia leurs propriétés de base et trouva une formule extrêmement importante, représentant des polynômes orthogonaux sur $ [-1, 1] $ par des polynômes orthogonaux sur le cercle. Dans son étude des propriétés asymptotiques des polynômes orthogonaux sur le cercle, Szegö a développé une méthode basée sur une généralisation spéciale du théorème de Fejér sur la représentation des polynômes trigonométriques non négatifs en utilisant des méthodes et des résultats de la théorie des fonctions analytiques.

En 1930, S.N. Bernstein [S.N. Bernshtein] [2], dans ses recherches sur les propriétés asymptotiques des polynômes orthogonaux, a utilisé des méthodes et des résultats de la théorie de l'approximation des fonctions. Il a examiné le cas d'une fonction de poids de la forme

où la fonction $ h _ <0>( x) $, appelée poids trigonométrique, satisfait la condition

$ 0 < c _ <1>leq h _ <0>( x) leq c _ <2>< infty . $

Si sur tout le segment $ [- 1, 1] $ la fonction $ h _ <0>( x) $ satisfait une condition de Dini–Lipschitz d'ordre $ gamma = 1 + epsilon $, où $ epsilon > 0 $ , c'est à dire si

$ | h _ <0>( x + delta ) - h _ <0>( x) | leq frac <| mathop< m ln>| delta | | ^ gamma > , x, x+ delta in [- 1, 1], $

alors pour les polynômes $ < widehat

_ > $ orthonormé de poids (1) sur tout le segment $ [- 1, 1] $, on a la formule asymptotique

$ widehat

_ ( x) = sqrt < frac<2> ( x) > > cos ( n heta + q) + O left [ frac<1> <( mathop< rm ln>n ) ^ epsilon > ight ] , $

où $ heta = mathop < m arccos>x $ et $ q $ dépend de $ heta $.

Dans l'étude de la convergence des séries de Fourier dans les polynômes orthogonaux se pose la question des conditions de bornage des polynômes orthogonaux, soit en un seul point, sur un ensemble $ A subset [-1, 1] $ ou sur tout l'intervalle d'orthogonalité $ [- 1, 1] $, c'est-à-dire que l'on examine les conditions dans lesquelles une inégalité du type

$ ag <2 >| widehat

_ (x) | leq M, x in A subseteq [- 1, 1] , $

se produit. Steklov a posé cette question pour la première fois en 1921. Si le poids trigonométrique $ h _ <0>( x) $ est borné à partir de zéro sur un ensemble $ A $, c'est-à-dire si

$ ag <3 >h _ <0>( x) geq c _ <3>> 0, x in A subseteq [- 1, 1], $

et satisfait certaines conditions supplémentaires, alors l'inégalité (2) est vérifiée. Dans le cas général,

$ ag <4 >| widehat

_ (x) | leq epsilon _ sqrt n , epsilon _ ightarrow 0, x in [- 1, 1] , $

découle de (3), lorsque $ A=[- 1, 1] $, sans conditions supplémentaires.

Les zéros de la fonction poids sont des points singuliers dans le sens où les propriétés de la séquence $ < widehat

_ > $ sont essentiellement différents aux zéros et aux autres points de l'intervalle d'orthogonalité. Par exemple, supposons que la fonction de poids ait la forme

Si la fonction $ h _ <1>( x) $ est positive et satisfait une condition de Lipschitz sur $ [- 1, 1] $, alors la séquence $ < widehat

_ > $ est borné sur chaque segment $ [ a, b] subset [- 1, 1] $ qui ne contient pas les points $ < x _ > $, tandis que les inégalités

$ | widehat

_ ( X _ ) | leq c _ <4>( n+1) ^ /2 > , k = 1 dots m , $

Le cas où les zéros de la fonction poids sont positionnés aux extrémités du segment d'orthogonalité a été étudié par Bernstein [2]. L'un des résultats est que si la fonction de poids a la forme

$ h( x) = h _ <1>( x)( 1- x) ^ alpha ( 1+ x) ^ eta , x in [- 1, 1], $

où la fonction $ h _ <1>( x) $ est positive et satisfait une condition de Lipschitz, alors pour $ alpha > - 1/2 $, $ eta > - 1/2 $, les polynômes orthogonaux permettent l'estimation pondérée

tandis qu'aux points $ x = pm 1 $ ils augmentent à un taux de $ n ^ $ et $ n ^ <eta + 1/2 >$, respectivement.

Dans la théorie des polynômes orthogonaux, les théorèmes dits de comparaison sont souvent étudiés. L'un d'eux est le théorème de comparaison de Korous : Si les polynômes $ < widehat omega _ > $ sont orthogonaux de poids $ p $ sur le segment $ [ a, b] $ et sont uniformément bornés sur un ensemble $ A subset [ a, b] $, alors les polynômes $ < widehat

_ > $, orthogonaux de poids $ h = p cdot q $, sont également bornés sur cet ensemble, à condition que $ q $ soit positif et satisfasse à une condition de Lipschitz d'ordre $ alpha = 1 $ sur $ [ a, b] $ . De même, étant donné certaines conditions sur $ q $, des formules asymptotiques ou d'autres propriétés asymptotiques peuvent être transférées du système $ < widehat omega _ > $ au système $ < widehat

_ > $. De plus, si $ q $ est un polynôme non négatif de degré $ m $ sur $ [ a, b] $, alors les polynômes $ < widehat

_ > $ peut être représenté par les polynômes $ < widehat omega _ > $ en utilisant des déterminants d'ordre $ m+ 1 $( voir [8]). Des formules efficaces pour les polynômes orthogonaux ont également été obtenues pour des fonctions de poids de la forme

où $ Q _ $ est un polynôme positif arbitraire sur $ [- 1, 1] $( voir [8]). Dans la plupart des cas, le calcul de polynômes orthogonaux à poids arbitraire est difficile pour les grands nombres $ n $.

Les références

[1] PL. Chebyshev, " uvres complètes rassemblées " , 2 , Moscou-Leningrad (1947) pp. 103-126 314-334 335-341 357-374 (En russe)
[2] S.N. Bernshtein, "Oeuvres collectives" , 2 , Moscou (1954) pp. 7-106 (En russe)
[3] Ya.L. Geronimus, "Polynômes orthogonaux" Trad. Amer. Math. Soc. , 108 (1977) p. 37-130
[4] PAQUET. Suetin, "Polynômes orthogonaux classiques", Moscou (1979) (En russe)
[5] V.B. Uvarov, "Fonctions spéciales de la physique mathématique", Birkhäuser (1988) (Traduit du russe)
[6] H. Bateman (éd.) A. Erdélyi (éd.) et al. (éd.) , Fonctions transcendantales supérieures , 2. Fonctions de Bessel, fonctions de cylindre parabolique, polynômes orthogonaux , McGraw-Hill (1953)
[7] D. Jackson, "Séries de Fourier et polynômes orthogonaux" , Carus Math. Monogr. , 6 , Math. Assoc. Amer. (1971)
[8] G. Szegö, "Polynômes orthogonaux", Amer. Math. Soc. (1975)
[9] , Guide des fonctions spéciales , Moscou (1979) (En russe traduit de l'anglais)
[10] J.A. Shohat, E. Hille, J.L. Walsh, "A bibliography on orthogonal polynomials" , Nat. Acad. Sci. États-Unis (1940)

Commentaires

Voir aussi les séries de Fourier dans les polynômes orthogonaux. Deux autres manuels sont [a3] et [a2]. Voir [a1] pour plus d'informations sur l'histoire des polynômes orthogonaux classiques. Concernant les propriétés asymptotiques des polynômes orthogonaux classiques, il faut remarquer que de nombreux travailleurs (PS Laplace, E. Heine, G. Darboux, TJ Stieltjes, E. Hilb, etc.) ont précédé Stekov, mais il a été le premier à adapter la méthode de Liouville .

Voir [a5] pour des études de pointe sur de nombreux aspects des polynômes orthogonaux. En particulier, la théorie générale des polynômes orthogonaux avec des fonctions de poids sur des intervalles non bornés a fait de gros progrès, voir aussi [a4].


Vous ne pouvez saisir que des nombres entiers ou des fractions dans cette calculatrice en ligne. Des informations plus détaillées sont lues dans ces règles.

Les vecteurs a et b sont orthogonaux si

Vous ne pouvez saisir que des nombres entiers, des décimales ou des fractions dans cette calculatrice en ligne (-2,4, 5/7, . ). Des informations plus détaillées sont lues dans ces règles.

Bienvenue sur OnlineMSschool. Le propriétaire de ce site Web est le mathématicien Dovzhyk Mykhailo. J'ai conçu ce site Web et écrit toute la théorie mathématique, les exercices en ligne, les formules et les calculatrices.


Opérateurs hermitiens

Puisque les valeurs propres d'un opérateur de mécanique quantique correspondent à des quantités mesurables, les valeurs propres doivent être réelles, et par conséquent un opérateur de mécanique quantique doit être hermitien. Pour le prouver, nous commençons par les prémisses que (&psi) et (&phi) sont des fonctions, (int d au) représente l'intégration sur toutes les coordonnées, et l'opérateur (hat ) est Hermitien par définition si

Cette équation signifie que le complexe conjugué de  peut opérer sur (&psi^*) pour produire le même résultat après intégration que  opérant sur (&phi), suivi de l'intégration. Pour prouver qu'un opérateur de mécanique quantique (hat ) est hermitien, considérons l'équation aux valeurs propres et son conjugué complexe.

Notez que (a^* = a) car la valeur propre est réelle. Multipliez l'équation ( ef<4-38>) et ( ef<4-39>) à partir de la gauche par (&psi^*) et (&psi), respectivement, et intégrez sur la totalité plage de toutes les coordonnées. Notez que (&psi) est normalisé. Les résultats sont

Puisque les deux intégrales sont égales à (a), elles doivent être équivalentes.

L'opérateur agissant sur la fonction,

produit une nouvelle fonction. Puisque les fonctions commutent, l'équation ( ef<4-42>) peut être réécrite comme

Les fonctions propres d'un opérateur hermitien sont orthogonales si elles ont des valeurs propres différentes. Grâce à ce théorème, nous pouvons identifier facilement des fonctions orthogonales sans avoir à intégrer ou à effectuer une analyse basée sur la symétrie ou d'autres considérations.

(&psi) et (&phi) sont deux fonctions propres de l'opérateur  avec des valeurs propres réelles (a_1) et (a_2), respectivement. Les valeurs propres étant réelles, (a_1^* = a_1) et (a_2^* = a_2).

Multipliez la première équation par (&phi^*) et la seconde par (&psi) et intégrez.

Soustraire les deux équations de l'équation ef <4-45>pour obtenir

Le membre de gauche de l'équation ef <4-46>est nul car (hat ) est hermitien

[ 0 = (a_1 - a_2 ) int psi ^* psi , d au label <4-47>]

Si (a_1) et (a_2) dans l'équation ef <4-47> ne sont pas égaux, alors l'intégrale doit être nul. Ce résultat prouve que fonctions propres non dégénérées du même opérateur sont orthogonales.

Deux fonctions d'onde, (psi_1(x)) et (psi_2(x)), sont dites orthogonal si

En multipliant le conjugué complexe de la première équation par (psi_(x)), et la deuxième équation par (psi^*_(x)), puis en intégrant sur tout (x), on obtient

[ int_<-infty>^infty (A psi_a)^ast psi_ dx = a int_<-infty>^inftypsi_a^ast psi_ dx, label< 4.5.4>]

Cependant, à partir de l'équation ( ef<4-46>), les membres de gauche des deux équations ci-dessus sont égaux. On peut donc écrire

Par hypothèse, (a eq a'), donnant

En d'autres termes, les états propres d'un opérateur hermitien correspondant à différent les valeurs propres sont automatiquement orthogonal.

Les valeurs propres des opérateurs associés aux mesures expérimentales sont toutes réel.

Tracez des graphiques et utilisez-les pour montrer que les fonctions d'onde de particules dans une boîte pour (psi(n = 2)) et (psi(n = 3)) sont orthogonales l'une à l'autre.

Les deux fonctions d'onde PIB sont qualitativement similaires lorsqu'elles sont tracées

Ces fonctions d'onde sont orthogonales lorsque

et lorsque les fonctions d'onde PIB sont substituées, cette intégrale devient

[commencer int_0^L sqrt> sin left( dfrac<2n>x ight) sqrt> sin left( dfrac<2n>x ight) dx &= ? [4pt] dfrac<2> int_0^L sin left( dfrac<2>x ight) sin left( dfrac<3>x ight) &= ? finir]

Nous pouvons développer l'intégrande en utilisant des identités trigonométriques pour aider à résoudre l'intégrale, mais il est plus facile de tirer parti de la symétrie de l'intégrande, en particulier, la fonction d'onde (psi(n=2)) est paire (courbes bleues ci-dessus figure) et le (psi(n=3)) est impair (courbe violette). Leur produit (pair fois impair) est une fonction impaire et l'intégrale sur une fonction impaire est nulle. Par conséquent, les fonctions d'onde (psi(n=2)) et (psi(n=3)) sont orthogonales.

Ceci peut être répété un nombre infini de fois pour confirmer que l'ensemble des fonctions d'onde PIB sont mutuellement orthogonales comme le garantit le théorème d'orthogonalité.


De mon point de vue, deux états sont orthogonaux si vous avez 0 probabilité d'en mesurer un sur les états lorsque le système est préparé dans l'autre.

Prenons un système à 3 niveaux $<|psi_1 angle,|psi_2 angle,|psi_3 angle>$ et considérons un état $|psi angle=sqrt<10> >|psi_1 angle + sqrt<10>>|psi_2 angle$. L'état n'est pas orthogonal à $|psi_1 angle$ ou $|psi_2 angle$, une mesure donnerait 30% et 70% de chance de trouver ces états. En revanche, il n'y a aucun moyen d'obtenir $|psi_3 angle$ par la mesure, correspondant à $|psi angle$ et $|psi_3 angle$ étant orthogonaux.

Quelle est l'interprétation physique de l'orthogonalité ?

Pensez au système de coordonnées $x$, $y$ et $z $ que vous utilisez tous les jours. Quelle que soit la manipulation mathématique que nous faisons, nous ne pouvons pas exprimer une direction en fonction des deux autres. Ils sont orthogonaux et linéairement indépendants.

Le physique Le résultat de l'orthogonalité est que des systèmes peuvent être construits, dans lesquels les composants de ce système ont leur spécificité individuelle préservée.

Un autre exemple sont les fonctions d'harmoniques sphériques, qui sont un ensemble complet de fonctions orthogonales. Ils peuvent être considérés comme une représentation mathématique du fait physique que l'ensemble des orbitales électroniques autour, disons un atome d'hydrogène, conservera toujours leur disposition distinctive.

This is just one example of the physical consequences of orthogonality, since as the previous answers state, it means that the states are independent from each other, that is we can always tell them apart.


4.7 Applications of Linear Algebra to Dynamical Systems: Markov Chains

Before going to the formal definition of Markov Chains in the textbook, let us introduce the topic with an example from a real life situation. Consider a city with two kinds of populations: the inner city population and the suburb population. We assume that every year 40% of the inner city population moves to the suburbs, while 30% of the suburb population moves to the inner part of the city. Let I 0 and S 0 denote the initial population of the inner city and the suburban area, respectively. Thus, after one year, the population of the inner city is given by

while the population of the suburbs is given by

After two years, the population of the inner city is given by

I 2 = 0 . 6 I 1 + 0 . 3 S 1 = 0 . 6 ( 0 . 6 I 0 + 0 . 3 S 0 ) + 0 . 3 ( 0 . 4 I 0 + 0 . 7 S 0 )

and the suburban population is given by

S 2 = 0 . 4 I 1 + 0 . 7 S 1 = 0 . 4 ( 0 . 6 I 0 + 0 . 3 S 0 ) + 0 . 7 ( 0 . 4 I 0 + 0 . 7 S 0 )

Representing these expressions in matrix notation, the populations after one year are given by

( I 1 S 1 ) = ( 0.6 0.3 0.4 0.7 ) ( I 0 S 0 ) ,

( I 2 S 2 ) = ( 0.6 0.3 0.4 0.7 ) ( I 1 S 1 )

= ( 0.6 0.3 0.4 0.7 ) ( 0.6 0.3 0.4 0.7 ) ( I 0 S 0 )

( I n S n ) = ( 0.6 0.3 0.4 0.7 ) n ( I 0 S 0 ) .

has particular characteristics, namely, the entries of each column vector are positive and their sum equals 1 . Such vectors are called probability vectors, and a matrix for which all the column vectors are probability vectors is called transition ou alors stochastic matrix. Andrei Markov (1856&ndash1922), a Russian mathematician, was the first one to study these matrices. At the beginning of twentieth century he developed the fundamentals of the Markov Chain Theory. In this section we learn about some applications of this theory.

Reading Assignment

Read, and study, pages 332-340 of the textbook (to &ldquoExercise Set 5.5&rdquo).

Read the definition of Dynamical Systems on page 332. This concept describes the state of a particular variable with respect to time. On pages 332 and 333 you will learn about dynamical systems through an example in market shares.

Familiarize yourself, through pages 334-340 and the examples therein, with the definition of Markov Chains.

After you have read and understood the reading assignment, start working on the following exercises.

Des exercices

Work on the following textbook exercises from &ldquoExercise Set 5.5&rdquo (p. 340-342):


Voir la vidéo: Sous-espace orthogonal (Octobre 2021).