Des articles

11.5 : E- Dynamique des équations de Hamilton


Dans cette annexe, nous donnons une brève introduction à certaines des caractéristiques et des résultats associés aux équations différentielles hamiltoniennes (ou aux équations de Hamilton ou aux champs de vecteurs hamiltoniens). .

Notre but ici n'est pas de dériver les équations de Hamilton des équations de Newton. Des discussions à ce sujet peuvent être trouvées dans de nombreux manuels de mécanique (bien que cela soit souvent considéré comme une « mécanique avancée »). Par exemple, une exposition classique de ce sujet peut être trouvée dans le livre classique de Landau, et des expositions plus modernes peuvent être trouvées dans Abraham et Marsden et Arnold. Notre approche consiste plutôt à commencer par les équations de Hamilton et à comprendre certains aspects et conséquences simples de la structure spéciale associée aux équations de Hamilton. À cette fin, notre point de départ sera les équations de Hamilton. En gardant l'approche simple tout au long de ces conférences, notre discussion des équations de Hamilton sera pour les systèmes à deux dimensions.

Nous commençons par une fonction à valeur scalaire définie sur (mathbb{R}^2)

[H = H(q, p), (q, p) in mathbb{R}^2. label{E.1}]

Cette fonction est appelée hamiltonien. A partir de l'hamiltonien, les équations de Hamilton prennent la forme suivante :

(dot{q} = frac{partiel H}{partial p} (q, p)),

[dot{p} = frac{partial H}{partial q}(q, p), (q, p) in mathbb{R}^2. label{E.2}]

La forme des équations d'Hamilton implique que l'Hamiltonien est constant sur les trajectoires. Cela ressort du calcul suivant :

(frac{dH}{dt} = frac{partial H}{partial q} dot{q} +frac{partial H}{partial p} dot{p})

[= frac{partial H}{partial q} frac{partial H}{partial p} - frac{partial H}{partial p} frac{partial H}{partial q} = 0. label{E.3}]

De plus, ce calcul implique que les level sets de l'hamiltonien sont des variétés invariantes. On note la level set de l'hamiltonien par :

[H_{E} = {(q, p) in mathbb{R}^2 | H(q, p) = E} label{E.4}]

En général, la level set est une courbe (ou éventuellement un point d'équilibre). Ainsi, dans le cas bidimensionnel, les trajectoires des équations de Hamilton sont données par les level sets de l'hamiltonien.

Le Jacobien du champ de vecteurs Hamiltonien (E.2), noté J, est donné par :

[J(p, q) = egin{pmatrix} {frac{partial^{2}H}{partial q partial p}}&{frac{partial^{2}H}{ partiel p^2}} {-frac{partial^{2}H}{partial q^2}}&{-frac{partial^{2}H}{partial p partial q }} end{pmatrix}, label{E.5}]

en un point arbitraire ((q, p) in mathbb{R}^2). Notons que la trace de J(q, p), notée trJ(q, p), est nulle. Ceci implique que les valeurs propres de J(q, p), notées (lambda_{1, 2}), sont données par :

[lambda_{1, 2} = pm sqrt{-det J(q, p)}, label{E.6}]

où detJ(q, p) désigne le déterminant de J(q, p). Par conséquent, si ((q_{0}, p_{0})) est un point d'équilibre de (E.1) et (detJ(q_{0}, p_{0}) = 0), alors le le point d'équilibre est un centre pour (detJ(q_{0}, p_{0}) > 0) et une selle pour (detJ(q_{0}, p_{0}) < 0).

Ensuite, nous décrivons quelques exemples de champs de vecteurs hamiltoniens autonomes linéaires à deux dimensions.

Exemple (PageIndex{41}) (La selle hamiltonienne )

On considère l'hamiltonien :

[H(q, p) = frac{lambda}{2} (p^{2}-q^{2}) = frac{lambda}{2} (pq)(p+q), (q, p) in mathbb{R}^2, label{E.7}]

avec (lambda > 0). De cet hamiltonien, nous dérivons les équations de Hamilton :

(dot{q} = frac{partial H}{partial p} (q, p) = lambda p),

[dot{p} = frac{partial H}{partial p} (q, p) = lambda q, label{E.8}]

ou sous forme matricielle :

[egin{pmatrix} {dot{q}} {dot{p}} end{pmatrix} = egin{pmatrix} {0}&{lambda} {lambda}&{ 0} end{pmatrix} egin{pmatrix} {q} {p} end{pmatrix}. label{E.9}]

L'origine est un point fixe, et les valeurs propres associées à la linéarisation sont données par (pm lambda). Par conséquent, l'origine est un point de selle. La valeur de l'hamiltonien à l'origine est zéro. On voit aussi d'après (E.7) que l'hamiltonien est nul sur les droites (p - q = 0) et p + q = 0. Ce sont respectivement les variétés instable et stable de l'origine. Le portrait de phase est illustré à la Fig. E.1.

Le flux généré par ce champ de vecteurs est donné au chapitre 2, Problem Set 2, problem 6.

Exemple (PageIndex{42}) (Le centre hamiltonien)

On considère l'hamiltonien :

[H(q, p) = frac{omega}{2} (p^{2}+q^{2}), (q, p) in mathbb{R}^2, label{ E.10}]

avec (omega > 0). De cet hamiltonien, nous dérivons les équations de Hamilton :

(dot{q} = frac{partial H}{partial p} (q, p) = omega p),

[dot{p} = frac{partial H}{partial p} (q, p) = -omega q, label{E.11}]

ou sous forme matricielle :

[egin{pmatrix} {dot{q}} {dot{p}} end{pmatrix} = egin{pmatrix} {0}&{omega} {-omega}& {0} end{pmatrix} egin{pmatrix} {q} {p} end{pmatrix}. label{E.12}]

Les level sets de l'hamiltonien sont des cercles, et sont illustrés sur la figure E.2.

Le flux généré par ce champ de vecteurs est donné au chapitre 2, Problem Set 2, problem 5.

Nous allons maintenant considérer deux exemples de bifurcation d'équilibres dans des systèmes hamiltoniens à deux dimensions. La bifurcation associée à une valeur propre nulle (comme nous l'avons étudié au chapitre 8) n'est pas possible puisque, d'après (E.6), s'il y a une valeur propre nulle, l'autre valeur propre doit également être nulle. Nous considérerons des exemples de bifurcations hamiltoniennes nœud-selle et fourche hamiltonienne. Des discussions sur les versions hamiltoniennes de ces bifurcations peuvent également être trouvées dans Golubitsky et al.

Exemple (PageIndex{43}) (bifurcation hamiltonienne en selle)

On considère l'hamiltonien :

[H(q, p) = frac{p^2}{2} - lambda q+frac{q^{3}}{3}), (q, p) in mathbb{R}^ 2, label{E.13}]

où (lambda) est considéré comme un paramètre qui peut être modifié. De cet hamiltonien, nous dérivons les équations de Hamilton :

(dot{q} = frac{partiel H}{partiel p} (q, p) = p),

[dot{p} = -frac{partial H}{partial p} (q, p) = lambda - q^2, label{E.14}]

Les points fixes pour (E.14) sont :

[(q, p) = (pm sqrt{lambda}, 0), label{E.15}]

d'où il suit qu'il n'y a pas de points fixes pour (lambda < 0), un point fixe pour (lambda = 0), et deux points fixes pour (lambda > 0). C'est le scénario d'une bifurcation nœud-selle.

Ensuite, nous examinons la stabilité des points fixes. Le Jacobien de (E.14) est donné par :

[egin{pmatrix} {0}&{1} {-2q}&{0} end{pmatrix}. label{E.16}]

Les valeurs propres de cette matrice sont :

(lambda_{1, 2} = pm sqrt{-2q}).

Donc ((q, p) = (-sqrt{lambda}, 0)) est une selle, ((q, p) = (sqrt{lambda}, 0)) est un centre, et (q, p) = (0, 0) a deux valeurs propres nulles. Les portraits de phase sont représentés sur la Fig. E.3.

Exemple (PageIndex{44}) (bifurcation hamiltonienne en fourche)

On considère l'hamiltonien :

[H(q, p) = frac{p^2}{2} - lambda frac{q^2}{2}+frac{q^{4}}{4}), (q, p) in mathbb{R}^2, label{E.17}]

où (lambda) est considéré comme un paramètre qui peut être modifié. De cet hamiltonien, nous dérivons les équations de Hamilton :

(dot{q} = frac{partiel H}{partiel p} (q, p) = p),

[dot{p} = -frac{partial H}{partial p} (q, p) = lambda q - q^3, label{E.18}]

Les points fixes pour (E.18) sont :

[(q, p) = (0, 0), (pm plambda, 0), label{E.19}]

d'où il suit qu'il y a un point fixe pour (lambda < 0), un point fixe pour (lambda = 0), et trois points fixes pour (lambda > 0). C'est le scénario d'une bifurcation en fourche.

Ensuite, nous examinons la stabilité des points fixes. Le Jacobien de (E.18) est donné par :

[egin{pmatrix} {0}&{1} {lambda-3q^2}&{0} end{pmatrix}. label{E.20}]

Les valeurs propres de cette matrice sont :

(lambda_{1,2} = pm sqrt{lambda-3q^2}).

Donc (q, p) = (0, 0) est un centre pour (lambda < 0), une selle pour (lambda > 0) et a deux valeurs propres nulles pour (lambda = 0) . Les points fixes ((q, p) = (plambda, 0)) sont les centres de (lambda > 0). E.4.

Nous remarquons qu'avec un peu de réflexion, il devrait être clair qu'en deux dimensions il n'y a pas d'analogue de la bifurcation de Hopf pour les champs de vecteurs hamiltoniens similaire à la situation que nous avons analysée plus tôt dans le contexte non hamiltonien. Il existe une situation appelée bifurcation hamiltonienne de Hopf, mais cette notion requiert au moins quatre dimensions, voir Van Der Meer.

Dans les systèmes hamiltoniens, un paramètre de bifurcation naturel est la valeur de l'ensemble de niveaux de l'hamiltonien, ou « énergie ». De ce point de vue, un candidat peut-être plus naturel pour une bifurcation de Hopf dans un système hamiltonien est décrit par le théorème du sous-centre de Lyapunov, voir Kelley. Le cadre de ce théorème nécessite également au moins quatre dimensions, mais les phénomènes associés se produisent assez souvent dans les applications.


12. L'équation de Hamilton-Jacobi

∂ S x , t ∂ t + 1 2 x 2 + 1 2 ∂ S x , t ∂ x 2 = 0.

(Notez que cela a une certaine ressemblance avec l'équation de Schrödinger pour le même système.)

Si l'hamiltonien n'a pas de dépendance temporelle explicite ∂ S / ∂ t + H q , p = 0 devient simplement ∂ S / ∂ t = − E , donc l'action a la forme S = S 0 q − E t , et l'équation de Hamilton-Jacobi est

(Ceci est analogue au indépendant du temps équation de Schrödinger pour les états propres de l'énergie.)

L'équation de Hamilton-Jacobi est donc une troisième description complète de la dynamique, équivalente aux équations de Lagrange et aux équations de Hamilton.

Puisque S n'apparaît que différencié, si nous avons une solution à l'équation, nous pouvons toujours ajouter un terme constant arbitraire, pour donner une solution également valable. Pour le cas général, il y aura une autre constante d'intégration s, donc une solution complète a la forme

S q i , t = f t , q 1 , … , q s     α 1 , … , α s + A ,

les α et A étant les constantes d'intégration. Nous ne disons pas qu'il est facile de résoudre cette différence en général, mais que nous savons combien de constantes d'intégration il doit y avoir dans une solution finale. Puisque l'action détermine complètement le mouvement du système, les constantes d'intégration seront déterminées par les coordonnées initiales et finales données, ou, elles pourraient également être considérées comme des fonctions des coordonnées et des moments initiaux (les moments initiaux eux-mêmes étant déterminés par le coordonnées initiales et finales données).


11.5 : E- Dynamique des équations de Hamilton

En 1980, Andersen a introduit l'utilisation du « système étendu » comme moyen d'explorer par simulation de dynamique moléculaire l'espace des phases d'un modèle physique selon une distribution d'ensemble souhaitée différente de la fonction microcanonique standard. À la suite de ses travaux originaux sur l'enthalpie à pression constante, un grand nombre d'équations de mouvement différentes, non directement dérivables d'un hamiltonien, ont été proposées ces dernières années, dont la plus notable est la formulation dite de Nosé-Hoover pour " ” simulation de dynamique moléculaire. En utilisant une généralisation de la forme symplectique des équations du mouvement de Hamilton, nous montrons ici qu'il existe une structure générale unique qui sous-tend la plupart, sinon toutes les équations du mouvement pour les « systèmes étendus ». Nous établissons un formalisme unificateur qui permet d'identifier et de contrôler séparément la quantité conservée, communément appelée « énergie totale » du système, et la compressibilité dans l'espace des phases. De plus, nous définissons une procédure standard pour construire des flux non hamiltoniens conservateurs qui échantillonnent l'espace des phases selon une fonction de distribution choisie [Tuckerman et al., Europhys. Lett. 45, 149 (1999)]. Pour illustrer le formalisme, nous dérivons de nouvelles équations du mouvement pour deux exemples de cas. Tout d'abord, nous modifions les équations du mouvement du thermostat Nosé-Hoover appliquées à un oscillateur harmonique unidimensionnel, et nous montrons comment surmonter le problème d'ergodicité et obtenir un échantillonnage canonique de l'espace des phases sans avoir recours à des degrés de liberté supplémentaires. Enfin, nous reprenons une idée récemment avancée par Marchi et Ballone [J. Chem. Phys. 110, 3697 (1999)] et dériver un schéma dynamique pour l'échantillonnage de l'espace des phases avec des biais statistiques arbitraires, montrant comme application explicite une transition de démixtion dans un simple mélange binaire de Lennard-Jones.

©2001 Société américaine de physique

Auteurs et affiliations

  • 1 Groupe de théorie de la physique chimique, Département de chimie, Université de Toronto, Toronto, Canada ON M5S 3H6
  • 2 Istituto Nazionale per la Fisica della Materia (INFM) et Università degli Studi di Modena e Reggio Emilia, Dipartimento di Fisica, Via Campi 213 A, 41100 Modène, Italie

Références (abonnement requis)

Publier
Options d'accès

COVID-19 a eu un impact sur de nombreuses institutions et organisations à travers le monde, perturbant les progrès de la recherche. En cette période difficile, l'APS et le Examen physique le bureau de la rédaction est entièrement équipé et travaille activement pour soutenir les chercheurs en continuant d'exercer toutes les fonctions éditoriales et d'examen par les pairs et de publier les recherches dans les revues tout en minimisant les perturbations de l'accès aux revues.

Nous apprécions vos efforts et votre engagement continus à faire avancer la science et à nous permettre de publier les meilleures revues de physique au monde. Et nous espérons que vous et vos proches restez en sécurité et en bonne santé.

De nombreux chercheurs se retrouvent maintenant à travailler loin de leurs institutions et, par conséquent, peuvent avoir des difficultés à accéder aux revues Physical Review. Pour résoudre ce problème, nous avons amélioré l'accès via plusieurs mécanismes différents. Voir Accès hors campus à Examen physique pour plus d'instructions.


Modèle

Nous commençons notre discussion en utilisant le modèle épidémique sensible-infectieux-sensible (SIS). Le modèle SIS décrit la dissémination d'une seule maladie transmissible dans une population sensible de taille N. La transmission de l'agent pathogène se produit lorsque des hôtes infectieux transmettent l'agent pathogène à des individus sains et sensibles. La période infectieuse s'étend tout au long de l'évolution de la maladie jusqu'à la guérison du patient, ce qui justifie un modèle en deux étapes : soit infecté, soit sensible. L'essence du modèle est résumée par l'encart dans la Fig. 1.

Simulations numériques du modèle SIS. (encadré) Les hôtes infectés (I) retrouvent l'état sensible (S) avec le taux γ (la gauche). L'interaction adéquate entre un hôte infecté et un hôte sensible peut déclencher une nouvelle infection, avec un taux α (droite). Les effets stochastiques sont beaucoup plus pertinents pour les petites tailles de population (N = 50, γ/α = 1/2), réduisant la précision des équations compartimentales. Le dérivé à terme / à partir des données (croisement) est d'accord avec l'équation. (5a) (trait plein), tandis que l'équation compartimentale Eq. (1) ne parvient pas à reproduire les données (ligne pointillée). Le dérivé à terme 2 / à partir des données (cercles) est également d'accord avec la formule de l'équation. (5b) (ligne). Toutes les lignes sont tracées en utilisant les données simulées pour 〈ρ(τ)〉, σ 2 (τ), et3(τ).

La formulation traditionnelle du problème suppose que l'hypothèse de mélange aléatoire (voir Introduction) est valable pour une population de grande taille N (gg ) 1, compromis d'individus statistiquement équivalents. Dans ces circonstances, la seule variable pertinente est la densité instantanée d'éléments infectés ρ(t), ce qui signifie que les fluctuations peuvent être négligées en toute sécurité. Par ailleurs, ρ(t) diminue avec le taux γρ, où γ est le taux de récupération. Les nouvelles infections par unité de temps (incidence de la maladie) sont proportionnelles à αρ(1 − ρ), c'est-à-dire qu'ils dépendent de la probabilité que les éléments infectés interagissent avec les éléments sensibles, avec une intensité donnée par le taux de transmission α. Cette image fournit une interprétation où ρ(t) est échangé en continu entre deux compartiments, conduisant à une description simple appelée équation compartimentale : (t)/dt = αρ(1 − ρ) − γρ. Pour des raisons de commodité, redéfinissez l'échelle de temps comme τc'est et ρ0 ≡ 1 − γ/α, pour que

Il est clair que la densité d'équilibre peut être soit ρéq = 0 ou ρéq = ρ0. Aussi, ρ0 est lié au numéro de reproduction de base R0 = N(α/γ) qui fournit une estimation du nombre de nouvelles infections par génération 27 .

Compte tenu de son ancienneté, les équations compartimentales ont rencontré un succès considérable dans la prédiction de l'évolution temporelle des épidémies, fournissant des informations précieuses pour les stratégies d'intervention et l'allocation des fonds 28 . Cependant, les épidémies qui ne répondent pas aux hypothèses sous-jacentes (mélange aléatoire et grande population d'éléments statistiquement équivalents) peuvent contredire les équations compartimentales. Ces incohérences sont largement attribuées aux effets stochastiques et à leurs fluctuations inhérentes 2 .


Équation de Hamilton-Jacobi

En physique, le Équation de Hamilton-Jacobi, du nom de William Rowan Hamilton et Carl Gustav Jacob Jacobi, est une formulation alternative de la mécanique classique, équivalente à d'autres formulations telles que les lois du mouvement de Newton, la mécanique lagrangienne et la mécanique hamiltonienne. L'équation de Hamilton-Jacobi est particulièrement utile pour identifier les quantités conservées pour les systèmes mécaniques, ce qui peut être possible même lorsque le problème mécanique lui-même ne peut pas être complètement résolu.

L'équation de Hamilton-Jacobi est également la seule formulation de la mécanique dans laquelle le mouvement d'une particule peut être représenté comme une onde. En ce sens, il a rempli un objectif de longue date de la physique théorique (datant au moins de Johann Bernoulli au XVIIIe siècle) de trouver une analogie entre la propagation de la lumière et le mouvement d'une particule. L'équation d'onde suivie par les systèmes mécaniques est similaire, mais pas identique, à l'équation de Schrödinger, comme décrit ci-dessous pour cette raison, l'équation Hamilton-Jacobi est considérée comme l'« approche la plus proche » de la mécanique classique à la mécanique quantique. [1] [2]

En mathématiques, l'équation de Hamilton-Jacobi est une condition nécessaire décrivant la géométrie extrême dans les généralisations des problèmes du calcul des variations. Il peut être compris comme un cas particulier de l'équation de Hamilton-Jacobi-Bellman de la programmation dynamique. [3]


Bienvenue!

C'est l'un des plus de 2400 cours sur OCW. Explorez les matériaux de ce cours dans les pages liées le long de la gauche.

MIT OpenCourseWare est une publication gratuite et ouverte de matériel provenant de milliers de cours du MIT, couvrant l'ensemble du programme du MIT.

Aucune inscription ni inscription. Parcourez et utilisez librement les documents OCW à votre rythme. Il n'y a pas d'inscription, ni de date de début ou de fin.

La connaissance est votre récompense. Utilisez OCW pour guider votre propre apprentissage tout au long de la vie ou pour enseigner aux autres. Nous n'offrons pas de crédit ou de certification pour l'utilisation d'OCW.

Fait pour le partage. Téléchargez des fichiers pour plus tard. Envoyez à vos amis et collègues. Modifier, remixer et réutiliser (n'oubliez pas de citer OCW comme source.)


Sir William Rowan Hamilton (1805-1865) : Documents de mathématiques

Cette collection se compose des articles mathématiques de Sir William Rowan Hamilton publiés de son vivant, transcrits et édités par David R. Wilkins. À une exception près, ces articles sont disponibles ici dans une édition basée sur le texte original publié. (L'exception est l'article Remarques de M. Hamilton, Directeur de l'Observatoire de Dublin, sur un Mémoire de M. Plana inséré dans le Tome VII de la Correspondance Math. )

Les articles mathématiques de Hamilton ont également été republiés dans les quatre volumes de The Mathematical Papers of Sir William Rowan Hamilton, édités pour la Royal Irish Academy par JL Synge, AW Conway, AJ McConnell, H. Halberstam, RE Ingram et BKP Scaife, et publié par Cambridge University Press. (Le volume 4 a été publié par Cambridge University Press en décembre 2000.) Ces volumes comprennent également une quantité substantielle d'articles et de manuscrits inédits de Hamilton.

Voici les papiers de Sir William Rowan Hamilton disponibles ici :


Programme

La mécanique hamiltonienne est née de l'optique. Sir William Rowan Hamilton a développé une théorie pour étudier la propagation de la phase dans les systèmes optiques guidés par le principe de Fermat pour les rayons lumineux (c'est-à-dire les systèmes à haute fréquence). Peu de temps après, il se rendit compte qu'en se basant sur la similitude du principe de Fermat avec le principe d'action, on pouvait adapter la machinerie à la mécanique. Les méthodes hamiltoniennes sont désormais un sujet central en dynamique et en mécanique.

De nombreuses EDP intéressantes apparaissent comme une limite de systèmes mécaniques de nombreuses petites particules (par exemple, les ondes d'eau, la mécanique des fluides, les équations de la physique des plasmas), et donc le cadre hamiltonien est essentiel pour étudier ces types d'EDP. Il est intéressant de noter que Maxwell a passé un certain temps à développer des modèles mécaniques pour ses équations du champ électromagnétique.

Les scientifiques pratiques apprécient les annulations magiques dans le cadre hamiltonien qui conduisent à des calculs efficaces.

La nature interdisciplinaire des systèmes hamiltoniens est profondément ancrée dans son histoire. Il est remarquable que la découverte dans les années 1980 de la célèbre théorie Aubry-Mather (l'un des développements les plus importants depuis des décennies) ait été accomplie simultanément par un physicien Serge Aubry et un mathématicien John Mather.

Beaucoup de personnes travaillant dans ce domaine peuvent parler à la fois aux mathématiciens et aux physiciens.

Ce programme est conçu pour mélanger le point de vue mathématique pur avec des applications en physique, mécanique spatiale et chimie théorique. Les deux communautés seront complètement intégrées pour une synergie. Les ateliers sont conçus avec la priorité de favoriser les interactions. Nous prévoyons que pendant tout le semestre, les visiteurs présenteront des tutoriels destinés également aux personnes de différents horizons scientifiques. La sélection de la majorité des visiteurs sera basée sur les interactions potentielles.

Les sujets mathématiques comprennent :

1) Diffusion d'Arnold (en utilisant à la fois les méthodes géométriques et variationnelles, y compris des exemples de diffusion en mécanique céleste).

2) Mécanique céleste (avec un accent particulier sur la minimisation des orbites, et autres trajectoires surprenantes).

3) Liens entre les solutions faibles (viscosité) de l'équation de Hamilton-Jacobi et la théorie Aubry-Mather des systèmes lagrangiens (théorie KAM faible).

4) PDE&rsquos qui peuvent être considérés comme des systèmes hamiltoniens de dimension infinie, auxquels les méthodes KAM peuvent être appliquées.


Les références

Abraham, R. et J.E. Marsden (1978). Fondements de la mécanique. Lecture, Benjamin.

Arnold, V. I. (1963). « Preuve d'un théorème de A.N. Kolmogorov sur l'invariance des mouvements quasi-périodiques sous de petites perturbations de l'hamiltonien. Russ. Math. Sondages 18 :5 : 9-36.

Arnold, V.I. (1978). Méthodes mathématiques de la mécanique classique. New York, Springer.

MacKay, R.S. et J.D. Meiss, Eds. (1987). Systèmes dynamiques hamiltoniens : une sélection de réimpression. Londres, Adam-Hilgar Press.

McDuff, D. et D. Salamon (1995). Introduction à la topologie symplectique. Oxford, Clarendon Press.

Meyer, K.R. et G.R. Hall (1992). Introduction à la théorie des systèmes hamiltoniens. New York, Springer-Verlag.

Moser, J.K. (1962). "Sur les courbes invariantes des cartographies préservant la zone d'un anneau." Nachr. Akad. Wiss. Göttingen, II Maths. Phys. 1: 1-20.

Siegel, C.L. et J.K. Moser (1971). Cours de mécanique céleste. New York, Springer-Verlag.


J. P. Ryckaert, G. Ciccotti et H. J. C. Berendsen, Intégration numérique des équations cartésiennes du mouvement d'un système avec contraintes : Dynamique moléculaire dem-alcanes,J. Comp. Phys. 23:327 (1977).

J. Orban et J.P. Ryckaert, non publié (1974) [cité dans réf. 1].

G. Ciccotti et J. P. Ryckaert, Simulation de dynamique moléculaire de molécules rigides,Comp. Phys. représentant 4:345 (1986).

R. Edberg, D. J. Evans et G. P. Morriss, Dynamique moléculaire contrainte : Simulation d'alcanes liquides avec un nouvel algorithme,J. Chem. Phys. 84:6933 (1986).

M.P. Allen et D.J. Tildesley,Simulation informatique de liquides (Oxford University Press, 1987).

J. W. Perram et H. G. Petersen, Nouvelles équations du mouvement des corps rigides pour la dynamique moléculaire,Mol. Simul. 1:239 (1988).

J. W. Perram et H. G. Petersen, Algorithmes de calcul des trajectoires dynamiques des corps flexibles,Mol. Phys. 65:861 (1988).

C. Lanczos,Les principes variationnels de la mécanique (University of Toronto Press, 1949).

R. Weinstock,Calcul des Variations (McGraw-Hill, 1952).

G. Gallivotti,Les éléments de la mécanique (Springer-Verlag, 1983).

M. Fixman, Mécanique statistique classique des contraintes : Un théorème et application aux polymères,Proc. Natl. Acad. Sci. Etats-Unis 71:3050 (1974).

C.J. Thompson,Mécanique statistique mathématique (Macmillan, 1972).

E.T. Whittaker,Un traité sur la dynamique analytique des particules et des corps rigides (Cambridge University Press, 1917).

H. Goldstein,Mécanique classique (Addison-Wesley, 1950).

E.C.D. Sudarshan et N. Mukunda,Dynamique classique : une perspective moderne (Wiley, 1974).

P. A. M. Dirac, Dynamique hamiltonienne généralisée,Pouvez. J. Maths. 2:129 (1950).

P. A. M. Dirac, Dynamique hamiltonienne généralisée,Proc. R. Soc. UNE 246:326 (1958).

J. L. Anderson et P. G. Bergmann, Contraintes dans les théories des champs covariants,Phys. Tour. 83:1018 (1951).


Voir la vidéo: Hamilton Jacobi Bellman equation (Octobre 2021).