Markov Entscheidungsprozess (MDP)

Autor: Laura McKinney
Erstelldatum: 5 April 2021
Aktualisierungsdatum: 22 Juni 2024
Anonim
Markov Decision Processes (MDPs) - Structuring a Reinforcement Learning Problem
Video: Markov Decision Processes (MDPs) - Structuring a Reinforcement Learning Problem

Inhalt

Definition - Was bedeutet Markov Decision Process (MDP)?

Ein Markov-Entscheidungsprozess (MDP) wird von Fachleuten als "diskreter stochastischer Zeitsteuerungsprozess" bezeichnet. Er basiert auf der Mathematik, die der russische Akademiker Andrey Markov im späten 19. und frühen 20. Jahrhundert entwickelt hat.


Eine Einführung in Microsoft Azure und die Microsoft Cloud | In diesem Handbuch erfahren Sie, worum es beim Cloud-Computing geht und wie Microsoft Azure Sie bei der Migration und Ausführung Ihres Unternehmens aus der Cloud unterstützen kann.

Techopedia erklärt Markov Decision Process (MDP)

Eine Möglichkeit, einen Markov-Entscheidungsprozess und die damit verbundenen Markov-Ketten zu erklären, besteht darin, dass dies Elemente der modernen Spieltheorie sind, die auf einfacheren mathematischen Forschungen beruhen, die der russische Wissenschaftler vor einigen hundert Jahren durchgeführt hat. Die Beschreibung eines Markov-Entscheidungsprozesses besteht darin, dass ein Szenario untersucht wird, in dem sich ein System in einem bestimmten Satz von Zuständen befindet, und basierend auf den Entscheidungen eines Entscheidungsträgers in einen anderen Zustand übergegangen wird.

Eine Markov-Kette als Modell zeigt eine Folge von Ereignissen, bei denen die Wahrscheinlichkeit eines bestimmten Ereignisses von einem zuvor erreichten Zustand abhängt. Fachleute sprechen bei der Beschreibung des Markov-Entscheidungsprozesses möglicherweise von einem „zählbaren Zustandsraum“. Einige verbinden die Idee des Markov-Entscheidungsmodells mit einem „Random-Walk“ -Modell oder einem anderen stochastischen Modell, das auf Wahrscheinlichkeiten basiert (dem auf Wall häufig zitierten Random-Walk-Modell) Street, modelliert die Bewegung eines Eigenkapitals nach oben oder unten in einem Marktwahrscheinlichkeitsbetrag.


Im Allgemeinen werden Markov-Entscheidungsprozesse häufig auf einige der fortschrittlichsten Technologien angewendet, an denen Fachleute heute arbeiten, z. B. in der Robotik, der Automatisierung und in Forschungsmodellen.