Approche Edp Classique De La Programmation Dynamique
Résumé: Dans ce mémoire, nous étudions la méthode de la programmation dynamique pour résoudre un problème de contrôle stochastique. Le cadre adopté dans la deuxième chapitre (partie 1) est celui des processus de diffusions contrôlés à valeurs dans Rn et le problème formulé est en horizon fini ou en horizon infini. L'idée basique de la méthode est de considérer une famille de problèmes de contrôle e différents états initiaux et d’établir des relations entre les fonctions valeurs associées. Ce principe, appelé principe de la programmation dynamique, est énoncé précisément dans la deuxième chapitre (partie 2). L'équation de Ia programmation dynamique dans la troisième chapitre conduit à une équation aux dérivées partielles "EDP" non linéaire du second ordre, appelée Hamilton-Jacobi-Bellman"HJB".
Mots-clès:
Nos services universitaires et académiques
Thèses-Algérie vous propose ses divers services d’édition: mise en page, révision, correction, traduction, analyse du plagiat, ainsi que la réalisation des supports graphiques et de présentation (Slideshows).
Obtenez dès à présent et en toute facilité votre devis gratuit et une estimation de la durée de réalisation et bénéficiez d'une qualité de travail irréprochable et d'un temps de livraison imbattable!