Stochastischer Prozess - Stochastic process

Eine computersimulierte Realisierung eines Wiener- oder Brownschen Bewegungsprozesses auf der Oberfläche einer Kugel. Der Wiener-Prozess gilt weithin als der am besten untersuchte und zentrale stochastische Prozess in der Wahrscheinlichkeitstheorie.

In der Wahrscheinlichkeitstheorie und verwandten Bereichen, eine stochastische ( / s t k æ s t ɪ k / ) oder Zufallsprozess ist ein mathematisches Objekt in der Regel als eine definierte Familie von Zufallsvariablen . Stochastische Prozesse werden häufig als mathematische Modelle von Systemen und Phänomenen verwendet, die scheinbar zufällig variieren. Beispiele hierfür sind das Wachstum eines Bakterienpopulation, einen elektrischen Strom fluktuierenden aufgrund thermischen Rauschens , oder um die Bewegung eines Gasmoleküls . Stochastische Prozesse finden Anwendung in vielen Disziplinen wie Biologie , Chemie , Ökologie , Neurowissenschaften , Physik , Bildverarbeitung , Signalverarbeitung , Regelungstheorie , Informationstheorie , Informatik , Kryptographie und Telekommunikation . Darüber hinaus haben scheinbar zufällige Veränderungen an den Finanzmärkten den umfassenden Einsatz stochastischer Prozesse im Finanzwesen motiviert .

Anwendungen und das Studium von Phänomenen haben wiederum den Vorschlag neuer stochastischer Prozesse inspiriert. Beispiele für solche stochastischen Prozesse sind der Wiener-Prozess oder Brownsche Bewegungsprozess, der von Louis Bachelier verwendet wird , um Preisänderungen an der Pariser Börse zu untersuchen , und der Poisson-Prozess , der von AK Erlang verwendet wird , um die Anzahl der Telefongespräche in einem bestimmten Zeitraum zu untersuchen . Diese beiden stochastischen Prozesse gelten als die wichtigsten und zentralsten in der Theorie der stochastischen Prozesse und wurden sowohl vor als auch nach Bachelier und Erlang in verschiedenen Umgebungen und Ländern wiederholt und unabhängig voneinander entdeckt.

Der Begriff Zufallsfunktion wird auch verwendet, um sich auf einen stochastischen oder zufälligen Prozess zu beziehen, da ein stochastischer Prozess auch als zufälliges Element in einem Funktionsraum interpretiert werden kann . Die Begriffe stochastischer Prozess und Zufallsprozess werden synonym verwendet, oft ohne spezifischen mathematischen Raum für die Menge, die die Zufallsvariablen indiziert. Aber oft werden diese beiden Begriffe verwendet, wenn die Zufallsvariablen durch die ganzen Zahlen oder ein Intervall der reellen Linie indiziert werden . Wenn die Zufallsvariablen durch die kartesische Ebene oder einen höherdimensionalen euklidischen Raum indiziert werden , wird die Sammlung von Zufallsvariablen stattdessen normalerweise als Zufallsfeld bezeichnet . Die Werte eines stochastischen Prozesses sind nicht immer Zahlen und können Vektoren oder andere mathematische Objekte sein.

Aufgrund ihrer mathematischen Eigenschaften können stochastische Prozesse in verschiedene Kategorien eingeteilt werden, darunter Random Walks , Martingale , Markov-Prozesse , Lévy-Prozesse , Gauß-Prozesse , Zufallsfelder, Erneuerungsprozesse und Verzweigungsprozesse . Die Studie der stochastischen Prozesse verwendet mathematische Kenntnisse und Techniken aus der Wahrscheinlichkeit , Zahnstein , der linearen Algebra , Mengenlehre und Topologie sowie Zweige der mathematischen Analyse , wie echte Analyse , Maßtheorie , Fourier - Analyse , und die funktionelle Analyse . Die Theorie stochastischer Prozesse gilt als wichtiger Beitrag zur Mathematik und ist sowohl aus theoretischen Gründen als auch aus Anwendungen ein aktives Forschungsthema.

Einführung

Ein stochastischer oder zufälliger Prozess kann als eine Sammlung von Zufallsvariablen definiert werden, die durch eine mathematische Menge indiziert wird, was bedeutet, dass jede Zufallsvariable des stochastischen Prozesses eindeutig einem Element in der Menge zugeordnet ist. Die zum Indexieren der Zufallsvariablen verwendete Menge wird als Indexmenge bezeichnet . Historisch gesehen war die Indexmenge eine Teilmenge der reellen Linie , wie die natürlichen Zahlen , die der Indexmenge die Interpretation der Zeit gaben. Jede Zufallsvariable in der Sammlung übernimmt Werte aus demselben mathematischen Raum, der als Zustandsraum bekannt ist . Dieser Zustandsraum kann beispielsweise die ganzen Zahlen, die reelle Gerade oder der -dimensionale euklidische Raum sein. Ein Inkrement ist der Betrag, um den sich ein stochastischer Prozess zwischen zwei Indexwerten ändert, was oft als zwei Zeitpunkte interpretiert wird. Ein stochastischer Prozess kann aufgrund seiner Zufälligkeit viele Ergebnisse haben , und ein einzelnes Ergebnis eines stochastischen Prozesses wird unter anderem als Stichprobenfunktion oder Realisierung bezeichnet .

Eine einzelne computersimulierte Stichprobenfunktion oder Realisierung ua eines dreidimensionalen Wiener- oder Brownschen Bewegungsprozesses für die Zeit 0 ≤ t ≤ 2. Die Indexmenge dieses stochastischen Prozesses sind die nicht-negativen Zahlen, während sein Zustandsraum ist der dreidimensionale euklidische Raum.

Klassifizierungen

Ein stochastischer Prozess kann auf unterschiedliche Weise klassifiziert werden, beispielsweise nach seinem Zustandsraum, seiner Indexmenge oder der Abhängigkeit zwischen den Zufallsvariablen. Eine übliche Art der Klassifizierung ist die Kardinalität der Indexmenge und des Zustandsraums.

Als Zeit interpretiert, wenn die Indexmenge eines stochastischen Prozesses eine endliche oder abzählbare Anzahl von Elementen hat, wie eine endliche Menge von Zahlen, die Menge der ganzen Zahlen oder die natürlichen Zahlen, dann heißt der stochastische Prozess diskret Zeit . Wenn der Indexsatz ein Intervall der reellen Linie ist, dann wird die Zeit als kontinuierlich bezeichnet . Die beiden Arten von stochastischen Prozessen werden jeweils als stochastische Prozesse mit diskreter Zeit und zeitkontinuierlicher bezeichnet . Zeitdiskrete stochastische Prozesse gelten als leichter zu studieren, da zeitkontinuierliche Prozesse fortgeschrittenere mathematische Techniken und Kenntnisse erfordern, insbesondere weil die Indexmenge unzählbar ist. Wenn die Indexmenge die ganzen Zahlen oder eine Teilmenge davon sind, kann der stochastische Prozess auch als Zufallsfolge bezeichnet werden .

Wenn der Zustandsraum ganze Zahlen oder natürliche Zahlen sind, wird der stochastische Prozess als diskreter oder ganzzahliger stochastischer Prozess bezeichnet . Ist der Zustandsraum die reelle Gerade, dann wird der stochastische Prozess als reellwertiger stochastischer Prozess oder als Prozess mit kontinuierlichem Zustandsraum bezeichnet . Wenn der Zustandsraum ist -dimensionalen euklidischer Raum, dann wird der stochastische Prozeß ist ein sogenanntes - dimensionale Vektorverfahren oder - Vektorverfahren .

Etymologie

Das Wort stochastisch im Englischen wurde ursprünglich als Adjektiv mit der Definition "zu Mutmaßungen" verwendet und stammt von einem griechischen Wort ab, das "auf eine Markierung zielen, raten" bedeutet, und das Oxford English Dictionary gibt das Jahr 1662 als frühestes Vorkommen an . Jakob Bernoulli verwendete in seinem ursprünglich 1713 in lateinischer Sprache veröffentlichten Werk zur Wahrscheinlichkeit Ars Conjectandi den Ausdruck "Ars Conjectandi sive Stochastice", der mit "die Kunst des Mutmaßens oder der Stochastik" übersetzt wurde. Dieser Ausdruck wurde in Bezug auf Bernoulli von Ladislaus Bortkiewicz verwendet, der 1917 auf Deutsch das Wort stochastik mit einer Bedeutung für zufällig schrieb. Der Begriff stochastischer Prozess tauchte 1934 erstmals auf Englisch in einem Artikel von Joseph Doob auf . Für den Begriff und eine spezifische mathematische Definition zitierte Doob eine weitere Veröffentlichung aus dem Jahr 1934, in der der Begriff stochastischer Prozess im Deutschen von Aleksandr Khinchin verwendet wurde , obwohl der deutsche Begriff früher beispielsweise von Andrei Kolmogorov im Jahr 1931 verwendet wurde.

Laut dem Oxford English Dictionary stammen die frühen Vorkommen des Wortes zufällig im Englischen mit seiner aktuellen Bedeutung, die sich auf Zufall oder Glück bezieht, auf das 16. Jahrhundert zurück, während frühere aufgezeichnete Verwendungen im 14. große Geschwindigkeit, Kraft oder Gewalt (beim Reiten, Laufen, Schlagen usw.)". Das Wort selbst kommt von einem mittelfranzösischen Wort und bedeutet "Geschwindigkeit, Hast", und es ist wahrscheinlich von einem französischen Verb abgeleitet, das "laufen" oder "galoppieren" bedeutet. Das erste schriftliche Erscheinen des Begriffs Random Process geht auf den stochastischen Prozess zurück , den das Oxford English Dictionary auch als Synonym angibt, und wurde in einem Artikel von Francis Edgeworth aus dem Jahr 1888 verwendet.

Terminologie

Die Definition eines stochastischen Prozesses variiert, aber ein stochastischer Prozess wird traditionell als eine Sammlung von Zufallsvariablen definiert, die durch eine bestimmte Menge indiziert sind. Die Begriffe Zufallsprozess und stochastischer Prozess gelten als Synonyme und werden synonym verwendet, ohne dass die Indexmenge genau spezifiziert wird. Sowohl "Sammlung" als auch "Familie" werden verwendet, während anstelle von "Indexsatz" manchmal die Begriffe "Parametersatz" oder "Parameterraum" verwendet werden.

Der Begriff Zufallsfunktion wird auch verwendet, um sich auf einen stochastischen oder zufälligen Prozess zu beziehen, obwohl er manchmal nur verwendet wird, wenn der stochastische Prozess reale Werte annimmt. Dieser Begriff wird auch verwendet, wenn die Indexmengen andere mathematische Räume als die reelle Linie sind, während die Begriffe stochastischer Prozess und zufälliger Prozess normalerweise verwendet werden, wenn die Indexmenge als Zeit interpretiert wird, und andere Begriffe wie Zufallsfeld verwendet werden, wenn der Index Menge ist ein -dimensionaler euklidischer Raum oder eine Mannigfaltigkeit .

Notation

Ein stochastischer Prozess kann unter anderem mit , , oder einfach als oder bezeichnet werden , wird jedoch als Missbrauch der Funktionsnotation angesehen . Zum Beispiel oder werden verwendet, um auf die Zufallsvariable mit dem Index zu verweisen , und nicht auf den gesamten stochastischen Prozess. Wenn die Indexmenge ist , kann man beispielsweise schreiben, um den stochastischen Prozess zu bezeichnen.

Beispiele

Bernoulli-Prozess

Einer der einfachsten stochastischen Prozesse ist der Bernoulli-Prozess , der eine Folge unabhängiger und identisch verteilter (iid) Zufallsvariablen ist, wobei jede Zufallsvariable entweder den Wert eins oder null annimmt, sagen wir eins mit Wahrscheinlichkeit und null mit Wahrscheinlichkeit . Dieser Vorgang kann mit dem wiederholten Werfen einer Münze verbunden werden, wobei die Wahrscheinlichkeit, einen Kopf zu erhalten, und ihr Wert eins ist, während der Wert einer Zahl null ist. Mit anderen Worten, ein Bernoulli-Prozess ist eine Folge von iid Bernoulli-Zufallsvariablen, wobei jeder Münzwurf ein Beispiel für einen Bernoulli-Versuch ist .

Zielloser Spaziergang

Random Walks sind stochastische Prozesse, die normalerweise als Summen von iid- Zufallsvariablen oder Zufallsvektoren im euklidischen Raum definiert werden, also Prozesse sind, die sich in diskreter Zeit ändern. Einige verwenden den Begriff jedoch auch, um sich auf Prozesse zu beziehen, die sich in kontinuierlicher Zeit ändern, insbesondere den Wiener-Prozess, der im Finanzwesen verwendet wird, der zu einiger Verwirrung geführt hat und zu seiner Kritik geführt hat. Es gibt andere verschiedene Arten von Random Walks, die so definiert sind, dass ihre Zustandsräume andere mathematische Objekte wie Gitter und Gruppen sein können, und im Allgemeinen sind sie eingehend untersucht und haben viele Anwendungen in verschiedenen Disziplinen.

Ein klassisches Beispiel für einen Random Walk ist der einfache Random Walk , ein stochastischer Prozess in diskreter Zeit mit den ganzen Zahlen als Zustandsraum, und basiert auf einem Bernoulli-Prozess, bei dem jede Bernoulli-Variable entweder den Wert positiv eins oder . annimmt negativ ein. Mit anderen Worten, die einfache Zufallswanderung findet auf den ganzen Zahlen statt, und ihr Wert steigt mit Wahrscheinlichkeit um eins, sagen wir , oder sinkt mit Wahrscheinlichkeit um eins , so dass die Indexmenge dieser Zufallswanderung die natürlichen Zahlen sind, während ihr Zustandsraum sind die ganzen Zahlen. Wenn der , wird dieser Random Walk als symmetrischer Random Walk bezeichnet.

Wiener-Prozess

Der Wiener-Prozess ist ein stochastischer Prozess mit stationären und unabhängigen Inkrementen , die basierend auf der Größe der Inkremente normalverteilt sind . Der Wiener Prozess ist nach Norbert Wiener benannt , der seine mathematische Existenz bewiesen hat, aber der Prozess wird aufgrund seiner historischen Verbindung als Modell für die Brownsche Bewegung in Flüssigkeiten auch Brownscher Bewegungsprozess oder einfach Brownsche Bewegung genannt .

Realisierungen von Wiener-Prozessen (oder Brownschen Bewegungsprozessen) mit Drift ( blau ) und ohne Drift ( rot ).

Der Wiener-Prozess spielt eine zentrale Rolle in der Wahrscheinlichkeitstheorie und wird oft als der wichtigste und untersuchte stochastische Prozess mit Verbindungen zu anderen stochastischen Prozessen angesehen. Sein Indexsatz und sein Zustandsraum sind die nicht-negativen Zahlen bzw. reellen Zahlen, sodass er sowohl einen kontinuierlichen Indexsatz als auch einen Zustandsraum hat. Aber der Prozess kann allgemeiner definiert werden, sodass sein Zustandsraum ein -dimensionaler euklidischer Raum sein kann. Wenn der Mittelwert eines Inkrements Null ist, dann wird der resultierende Wiener- oder Brownsche Bewegungsprozess als Nulldrift bezeichnet. Wenn der Mittelwert des Inkrements für zwei beliebige Zeitpunkte gleich der Zeitdifferenz multipliziert mit einer Konstanten ist , die eine reelle Zahl ist, dann spricht man von einer Drift des resultierenden stochastischen Prozesses .

Fast sicher ist ein Musterpfad eines Wiener-Prozesses überall stetig, aber nirgends differenzierbar . Es kann als kontinuierliche Version des einfachen Random Walks betrachtet werden. Der Prozess entsteht als mathematischer Grenzwert anderer stochastischer Prozesse, wie z. B. bestimmter Random Walks reskaliert, die Gegenstand des Donsker-Theorems oder Invarianzprinzips, auch bekannt als funktionaler zentraler Grenzwertsatz, sind.

Der Wiener-Prozess gehört zu einigen wichtigen Familien stochastischer Prozesse, darunter Markov-Prozesse, Lévy-Prozesse und Gauß-Prozesse. Der Prozess hat auch viele Anwendungen und ist der wichtigste stochastische Prozess, der in der stochastischen Berechnung verwendet wird. Es spielt eine zentrale Rolle in der quantitativen Finanzwirtschaft, wo es beispielsweise im Black-Scholes-Merton-Modell verwendet wird. Das Verfahren wird auch in verschiedenen Bereichen, darunter den meisten Naturwissenschaften sowie einigen Zweigen der Sozialwissenschaften, als mathematisches Modell für verschiedene Zufallsphänomene verwendet.

Poisson-Prozess

Der Poisson-Prozess ist ein stochastischer Prozess, der verschiedene Formen und Definitionen hat. Es kann als Zählprozess definiert werden, der ein stochastischer Prozess ist, der die zufällige Anzahl von Punkten oder Ereignissen bis zu einem bestimmten Zeitpunkt darstellt. Die Anzahl der Punkte des Prozesses, die sich im Intervall von Null bis zu einer bestimmten Zeit befinden, ist eine Poisson-Zufallsvariable, die von dieser Zeit und einem bestimmten Parameter abhängt. Dieser Prozess hat die natürlichen Zahlen als seinen Zustandsraum und die nicht-negativen Zahlen als seine Indexmenge. Dieses Verfahren wird auch Poisson-Zählverfahren genannt, da es als Beispiel für ein Zählverfahren interpretiert werden kann.

Wenn ein Poisson-Prozess mit einer einzigen positiven Konstanten definiert ist, dann wird der Prozess als homogener Poisson-Prozess bezeichnet. Der homogene Poisson-Prozess gehört zu wichtigen Klassen stochastischer Prozesse wie den Markov-Prozessen und Lévy-Prozessen.

Der homogene Poisson-Prozess kann auf verschiedene Weise definiert und verallgemeinert werden. Er kann so definiert werden, dass seine Indexmenge die reelle Gerade ist, und dieser stochastische Prozess wird auch als stationärer Poisson-Prozess bezeichnet. Wenn die Parameterkonstante des Poisson-Prozesses durch eine nicht negative integrierbare Funktion von ersetzt wird , wird der resultierende Prozess als inhomogener oder inhomogener Poisson-Prozess bezeichnet, bei dem die durchschnittliche Dichte der Punkte des Prozesses nicht mehr konstant ist. Als grundlegender Prozess in der Warteschlangentheorie ist der Poisson-Prozess ein wichtiger Prozess für mathematische Modelle, wo er Anwendungen für Modelle von Ereignissen findet, die zufällig in bestimmten Zeitfenstern auftreten.

Auf der reellen Linie definiert, kann der Poisson-Prozess neben anderen zufälligen Objekten als stochastischer Prozess interpretiert werden. Aber dann kann es auf dem -dimensionalen euklidischen Raum oder anderen mathematischen Räumen definiert werden, wo es oft als zufällige Menge oder als zufälliges Zählmaß interpretiert wird, anstatt als stochastischer Prozess. In diesem Kontext ist der Poisson-Prozess, auch Poisson-Punkt-Prozess genannt, sowohl aus anwendungstechnischen als auch aus theoretischen Gründen eines der wichtigsten Objekte der Wahrscheinlichkeitstheorie. Es wurde jedoch bemerkt, dass der Poisson-Prozess nicht so viel Aufmerksamkeit erhält, wie er sollte, teilweise weil er oft nur auf der reellen Linie und nicht auf anderen mathematischen Räumen betrachtet wird.

Definitionen

Stochastischer Prozess

Ein stochastischer Prozess als eine Ansammlung von Zufallsvariablen auf einem gemeinsamen definierten definiert ist Wahrscheinlichkeitsraum , wo a Probenraum , ist eine - Algebra , und ist ein Wahrscheinlichkeitsmaß ; und die Zufallsvariablen, die durch eine Menge indiziert sind , nehmen alle Werte im gleichen mathematischen Raum an , der in Bezug auf eine -Algebra messbar sein muss .

Mit anderen Worten, für einen gegebenen Wahrscheinlichkeitsraum und einen messbaren Raum ist ein stochastischer Prozess eine Sammlung von -wertigen Zufallsvariablen, die wie folgt geschrieben werden können:

Historisch gesehen hatte in vielen naturwissenschaftlichen Fragestellungen ein Punkt die Bedeutung von Zeit, also eine Zufallsvariable, die einen zu einem Zeitpunkt beobachteten Wert repräsentiert . Ein stochastischer Prozess kann auch so geschrieben werden , dass er widerspiegelt, dass er tatsächlich eine Funktion von zwei Variablen ist, und .

Es gibt andere Möglichkeiten, einen stochastischen Prozess zu betrachten, wobei die obige Definition als die traditionelle betrachtet wird. Zum Beispiel kann ein stochastischer Prozess interpretiert oder als definiert wird -wertige Zufallsvariable, wobei der Raum aller möglichen -wertige Funktionen von dieser Karte aus dem Satz in den Raum .

Indexsatz

Die Menge wird Indexmenge oder Parametermenge des stochastischen Prozesses genannt. Oft ist diese Menge eine Teilmenge der reellen Linie , wie die natürlichen Zahlen oder ein Intervall, die der Menge die Interpretation der Zeit geben. Zusätzlich zu diesen Mengen kann die Indexmenge eine andere Menge mit einer Gesamtordnung oder eine allgemeinere Menge sein, wie die kartesische Ebene oder der -dimensionale euklidische Raum, wo ein Element einen Punkt im Raum darstellen kann. Allerdings sind viele Ergebnisse und Sätze nur für stochastische Prozesse mit einer vollständig geordneten Indexmenge möglich.

Zustandsraum

Der mathematische Raum eines stochastischen Prozesses wird als Zustandsraum bezeichnet . Dieser mathematische Raum kann unter Verwendung von ganzen Zahlen , reellen Linien , -dimensionalen euklidischen Räumen , komplexen Ebenen oder abstrakteren mathematischen Räumen definiert werden. Der Zustandsraum wird unter Verwendung von Elementen definiert, die die verschiedenen Werte widerspiegeln, die der stochastische Prozess annehmen kann.

Beispielfunktion

Eine Stichprobenfunktion ist ein einzelnes Ergebnis eines stochastischen Prozesses, daher wird sie gebildet, indem ein einzelner möglicher Wert jeder Zufallsvariablen des stochastischen Prozesses genommen wird. Genauer gesagt, wenn es sich um einen stochastischen Prozess handelt, dann ist für jeden Punkt die Abbildung

heißt Stichprobenfunktion, Realisierung oder, insbesondere wenn sie als Zeit interpretiert wird, Stichprobenpfad des stochastischen Prozesses . Das bedeutet, dass es für eine feste eine Beispielfunktion gibt, die den Indexsatz auf den Zustandsraum abbildet . Andere Namen für eine Beispielfunktion eines stochastischen Prozesses sind Trajektorie , Pfadfunktion oder Pfad .

Zuwachs

Ein Inkrement eines stochastischen Prozesses ist die Differenz zwischen zwei Zufallsvariablen desselben stochastischen Prozesses. Bei einem stochastischen Prozess mit einem Indexsatz, der als Zeit interpretiert werden kann, ist ein Inkrement, wie stark sich der stochastische Prozess über einen bestimmten Zeitraum ändert. Wenn es sich beispielsweise um einen stochastischen Prozess mit Zustandsraum und Indexsatz handelt , dann ist die Differenz für zwei beliebige nicht-negative Zahlen und so, dass die Differenz eine -wertige Zufallsvariable ist, die als Inkrement bekannt ist. Wenn Sie sich für die Inkremente interessieren, ist der Zustandsraum oft die reelle Linie oder die natürlichen Zahlen, aber er kann ein euklidischer Raum oder abstraktere Räume wie Banach-Räume sein .

Weitere Definitionen

Gesetz

Für einen auf dem Wahrscheinlichkeitsraum definierten stochastischen Prozess ist das Gesetz des stochastischen Prozesses als Bildmaß definiert :

wobei ist ein Wahrscheinlichkeitsmaß, das Symbol bezeichnet die Funktionszusammensetzung und ist das Urbild der messbaren Funktion oder äquivalent die -wertige Zufallsvariable , wo ist der Raum aller möglichen -wertigen Funktionen von , also das Gesetz einer Stochastik Prozess ist ein Wahrscheinlichkeitsmaß.

Für eine messbare Teilmenge von gibt das Vorbild von gibt

also kann das Gesetz von a geschrieben werden als:

Das Gesetz eines stochastischen Prozesses oder einer Zufallsvariablen wird auch Wahrscheinlichkeitsgesetz , Wahrscheinlichkeitsverteilung oder Verteilung genannt .

Endlichdimensionale Wahrscheinlichkeitsverteilungen

Für einen stochastischen Prozess mit Gesetz ist seine endlichdimensionale Verteilung für definiert als:

Dieses Maß ist die gemeinsame Verteilung des Zufallsvektors ; es kann als "Projektion" des Gesetzes auf eine endliche Teilmenge von angesehen werden .

Für jede messbare Teilmenge der -fachen kartesischen Potenz können die endlichdimensionalen Verteilungen eines stochastischen Prozesses wie folgt geschrieben werden:

Die endlichdimensionalen Verteilungen eines stochastischen Prozesses erfüllen zwei mathematische Bedingungen, die als Konsistenzbedingungen bekannt sind.

Stationarität

Stationarität ist eine mathematische Eigenschaft, die ein stochastischer Prozess besitzt, wenn alle Zufallsvariablen dieses stochastischen Prozesses identisch verteilt sind. Mit anderen Worten, wenn es sich um einen stationären stochastischen Prozess handelt, dann hat die Zufallsvariable für alle die gleiche Verteilung, was bedeutet, dass für jede Menge von Index-Setzwerten die entsprechenden Zufallsvariablen

alle haben die gleiche Wahrscheinlichkeitsverteilung . Die Indexmenge eines stationären stochastischen Prozesses wird normalerweise als Zeit interpretiert, kann also die ganzen Zahlen oder die reelle Linie sein. Das Konzept der Stationarität existiert aber auch für Punktprozesse und Zufallsfelder, bei denen die Indexmenge nicht als Zeit interpretiert wird.

Wenn die Indexmenge als Zeit interpretiert werden kann, heißt ein stochastischer Prozess stationär, wenn seine endlichdimensionalen Verteilungen invariant gegenüber Zeitverschiebungen sind. Diese Art von stochastischem Prozess kann verwendet werden, um ein physikalisches System zu beschreiben, das sich im stationären Zustand befindet, aber dennoch zufälligen Schwankungen unterliegt. Die Intuition hinter der Stationarität ist, dass die Verteilung des stationären stochastischen Prozesses im Laufe der Zeit gleich bleibt. Eine Folge von Zufallsvariablen bildet nur dann einen stationären stochastischen Prozess, wenn die Zufallsvariablen gleich verteilt sind.

Ein stochastischer Prozess mit der obigen Definition der Stationarität wird manchmal als streng stationär bezeichnet, aber es gibt auch andere Formen der Stationarität. Ein Beispiel ist, wenn ein zeitdiskreter oder zeitkontinuierlicher stochastischer Prozess im weiteren Sinne als stationär bezeichnet wird, dann hat der Prozess ein endliches zweites Moment für alle und die Kovarianz der beiden Zufallsvariablen und hängt nur von der Zahl für alle ab . Khinchin führte das verwandte Konzept der Stationarität im weiteren Sinne ein , das auch andere Namen hat, darunter Kovarianz-Stationarität oder Stationarität im weiteren Sinne .

Filtration

Eine Filtration ist eine wachsende Folge von Sigma-algebras in Bezug auf einig Wahrscheinlichkeitsraum und einen Indexsatz definiert hat , die etwas Gesamtauftragsbeziehung, wie in dem Fall des Index gesetzt wird , eine Teilmenge der reellen Zahlen. Formaler, wenn ein stochastischer Prozess eine Indexmenge mit einer Gesamtordnung hat, dann ist eine Filterung auf einem Wahrscheinlichkeitsraum eine Familie von Sigma-Algebren, so dass für alle , wobei und die Gesamtordnung der Indexmenge bezeichnet . Mit dem Konzept einer Filtration ist es möglich, die in einem stochastischen Prozess enthaltene Informationsmenge zu untersuchen , die als Zeit interpretiert werden kann . Die Intuition hinter einer Filterung ist, dass im Laufe der Zeit immer mehr Informationen bekannt oder verfügbar sind, die in erfasst werden , was zu immer feineren Unterteilungen von führt .

Änderung

Eine Modifikation eines stochastischen Prozesses ist ein weiterer stochastischer Prozess, der eng mit dem ursprünglichen stochastischen Prozess verwandt ist. Genauer gesagt wird ein stochastischer Prozess , der dieselbe Indexmenge , denselben Mengenraum und denselben Wahrscheinlichkeitsraum wie ein anderer stochastischer Prozess hat, eine Modifikation von if für alle folgenden Punkte genannt

hält. Zwei stochastische Prozesse, die Modifikationen voneinander sind, haben das gleiche endlichdimensionale Gesetz und werden als stochastisch äquivalent oder äquivalent bezeichnet .

Anstelle von Modifikation wird auch der Begriff Version verwendet, jedoch verwenden einige Autoren den Begriff Version, wenn zwei stochastische Prozesse die gleichen endlichdimensionalen Verteilungen haben, aber auf unterschiedlichen Wahrscheinlichkeitsräumen definiert sein können, also zwei Prozesse, die Modifikationen voneinander sind, sind im letzteren Sinne auch Versionen voneinander, aber nicht umgekehrt.

Wenn ein zeitkontinuierlicher reellwertiger stochastischer Prozess bestimmte Momentbedingungen für seine Inkremente erfüllt, dann sagt der Kolmogorov-Kontinuitätssatz , dass es eine Modifikation dieses Prozesses gibt, die kontinuierliche Abtastpfade mit Wahrscheinlichkeit eins hat, also hat der stochastische Prozess eine kontinuierliche Modifikation oder Ausführung. Der Satz kann auch auf Zufallsfelder verallgemeinert werden, so dass die Indexmenge der -dimensionale euklidische Raum ist, sowie auf stochastische Prozesse mit metrischen Räumen als Zustandsräumen.

Nicht zu unterscheiden

Zwei stochastische Prozesse und definiert auf dem gleichen Wahrscheinlichkeitsraum mit dem gleichen Indexsatz und Satz Raum sind gesagt werden nicht zu unterscheiden , wenn die folgenden

hält. Wenn zwei und Modifikationen voneinander sind und fast sicher kontinuierlich sind, dann sind und nicht zu unterscheiden.

Trennbarkeit

Die Trennbarkeit ist eine Eigenschaft eines stochastischen Prozesses basierend auf seiner Indexmenge in Bezug auf das Wahrscheinlichkeitsmaß. Die Eigenschaft wird so angenommen, dass Funktionale stochastischer Prozesse oder Zufallsfelder mit unzähligen Indexmengen Zufallsvariablen bilden können. Damit ein stochastischer Prozess trennbar ist, muss neben anderen Bedingungen seine Indexmenge ein trennbarer Raum sein , was bedeutet, dass die Indexmenge eine dichte zählbare Teilmenge hat.

Genauer gesagt ist ein reellwertiger zeitkontinuierlicher stochastischer Prozess mit einem Wahrscheinlichkeitsraum separierbar, wenn seine Indexmenge eine dichte abzählbare Teilmenge hat und es eine Menge der Wahrscheinlichkeit Null gibt, so dass für jede offene Menge und jede abgeschlossene Menge die zwei Ereignisse und unterscheiden sich höchstens in einer Teilmenge von . Die Definition der Trennbarkeit kann auch für andere Indexmengen und Zustandsräume angegeben werden, beispielsweise im Fall von Zufallsfeldern, bei denen sowohl die Indexmenge als auch der Zustandsraum ein -dimensionaler euklidischer Raum sein können.

Das Konzept der Trennbarkeit eines stochastischen Prozesses wurde von Joseph Doob eingeführt . Die zugrundeliegende Idee der Trennbarkeit besteht darin, eine abzählbare Menge von Punkten der Indexmenge die Eigenschaften des stochastischen Prozesses bestimmen zu lassen. Jeder stochastische Prozess mit einer abzählbaren Indexmenge erfüllt bereits die Trennbarkeitsbedingungen, sodass zeitdiskrete stochastische Prozesse immer trennbar sind. Ein Theorem von Doob, manchmal auch als Doobs Trennbarkeitstheorem bekannt, besagt, dass jeder reellwertige stochastische Prozess mit kontinuierlicher Zeit eine separierbare Modifikation hat. Versionen dieses Theorems existieren auch für allgemeinere stochastische Prozesse mit anderen Indexmengen und Zustandsräumen als der reellen Linie.

Die Unabhängigkeit

Zwei stochastische Prozesse und definiert auf dem gleichen Wahrscheinlichkeitsraum mit dem gleichen Index werden gesagt werden unabhängig , wenn für alle und für jede Wahl von Epochen , die Zufallsvektoren und unabhängig sind.

Unkorreliertheit

Zwei stochastische Prozesse und werden als unkorreliert bezeichnet, wenn ihre Kreuzkovarianz für alle Zeiten null ist. Formal:

.

Unabhängigkeit impliziert Unkorreliertheit

Sind zwei stochastische Prozesse und unabhängig voneinander, so sind sie auch unkorreliert.

Orthogonalität

Zwei stochastische Prozesse und heißen orthogonal, wenn ihre Kreuzkorrelation für alle Zeiten null ist. Formal:

.

Skorokhod-Raum

Ein Skorokhod-Raum , auch als Skorohod-Raum geschrieben , ist ein mathematischer Raum aller Funktionen, die rechtsstetig mit linken Grenzen sind, in einem Intervall der reellen Linie wie oder definiert sind und Werte auf der reellen Linie oder einer Metrik annehmen Platz. Solche Funktionen sind als càdlàg- oder cadlag-Funktionen bekannt, basierend auf dem Akronym des französischen Ausdrucks continue à droite, limite à gauche . Ein von Anatoliy Skorokhod eingeführter Skorokhod-Funktionsraum wird oft mit dem Buchstaben bezeichnet , daher wird der Funktionsraum auch als Raum bezeichnet . Die Notation dieses Funktionsraums kann auch das Intervall enthalten, auf dem alle càdlàg-Funktionen definiert sind, also beispielsweise den Raum von càdlàg-Funktionen, die auf dem Einheitsintervall definiert sind .

Skorokhod-Funktionsräume werden häufig in der Theorie stochastischer Prozesse verwendet, da oft davon ausgegangen wird, dass die Beispielfunktionen zeitkontinuierlicher stochastischer Prozesse zu einem Skorokhod-Raum gehören. Solche Räume enthalten stetige Funktionen, die Beispielfunktionen des Wiener-Prozesses entsprechen. Der Raum hat aber auch Funktionen mit Unstetigkeiten, was bedeutet, dass auch die Beispielfunktionen stochastischer Prozesse mit Sprüngen, wie zum Beispiel des Poisson-Prozesses (auf der reellen Geraden), zu diesem Raum gehören.

Regelmäßigkeit

Im Zusammenhang mit der mathematischen Konstruktion stochastischer Prozesse wird der Begriff Regularität verwendet, wenn bestimmte Bedingungen für einen stochastischen Prozess diskutiert und angenommen werden, um mögliche Konstruktionsprobleme zu lösen. Um beispielsweise stochastische Prozesse mit unzähligen Indexmengen zu untersuchen, wird davon ausgegangen, dass der stochastische Prozess eine Art von Regelmäßigkeitsbedingung einhält, z. B. dass die Stichprobenfunktionen stetig sind.

Weitere Beispiele

Markov-Prozesse und -Ketten

Markov-Prozesse sind stochastische Prozesse, traditionell in diskreter oder kontinuierlicher Zeit , die die Markov-Eigenschaft haben, was bedeutet, dass der nächste Wert des Markov-Prozesses vom aktuellen Wert abhängt, aber bedingt unabhängig von den vorherigen Werten des stochastischen Prozesses ist. Mit anderen Worten, das Verhalten des Prozesses in der Zukunft ist angesichts des aktuellen Zustands des Prozesses stochastisch unabhängig von seinem Verhalten in der Vergangenheit.

Der Brownsche Bewegungsprozess und der Poisson-Prozess (in einer Dimension) sind beide Beispiele für Markov-Prozesse in kontinuierlicher Zeit, während Random Walks auf den ganzen Zahlen und das Ruin- Problem des Spielers Beispiele für Markov-Prozesse in diskreter Zeit sind.

Eine Markov-Kette ist eine Art von Markov-Prozess, der entweder einen diskreten Zustandsraum oder eine diskrete Indexmenge (die oft die Zeit darstellt) hat, aber die genaue Definition einer Markov-Kette variiert. Zum Beispiel ist es üblich, eine Markov-Kette als Markov-Prozess in diskreter oder kontinuierlicher Zeit mit einem abzählbaren Zustandsraum zu definieren (also unabhängig von der Natur der Zeit), aber es war auch üblich, eine Markov-Kette als diskrete Zeit im abzählbaren oder kontinuierlichen Zustandsraum (also unabhängig vom Zustandsraum). Es wurde argumentiert, dass die erste Definition einer Markov-Kette, bei der sie eine diskrete Zeit hat, jetzt tendenziell verwendet wird, obwohl die zweite Definition von Forschern wie Joseph Doob und Kai Lai Chung verwendet wurde .

Markov-Prozesse bilden eine wichtige Klasse stochastischer Prozesse und finden in vielen Bereichen Anwendung. Sie sind beispielsweise die Grundlage für eine allgemeine stochastische Simulationsmethode namens Markov-Kette Monte Carlo , die zur Simulation zufälliger Objekte mit bestimmten Wahrscheinlichkeitsverteilungen verwendet wird und in der Bayesschen Statistik Anwendung gefunden hat .

Das Konzept der Markov-Eigenschaft war ursprünglich für stochastische Prozesse in kontinuierlicher und diskreter Zeit gedacht, aber die Eigenschaft wurde für andere Indexmengen wie den -dimensionalen euklidischen Raum angepasst , was zu Sammlungen von Zufallsvariablen führt, die als Markov-Zufallsfelder bekannt sind.

Martingal

Ein Martingal ist ein zeitdiskreter oder zeitkontinuierlicher stochastischer Prozess mit der Eigenschaft, dass zu jedem Zeitpunkt bei gegebenem aktuellen Wert und allen vergangenen Werten des Prozesses die bedingte Erwartung jedes zukünftigen Wertes gleich dem aktuellen Wert ist. Wenn diese Eigenschaft in diskreter Zeit für den nächsten Wert gilt, gilt sie für alle zukünftigen Werte. Die genaue mathematische Definition eines Martingals erfordert zwei weitere Bedingungen in Verbindung mit dem mathematischen Konzept einer Filterung, die mit der Intuition zusammenhängt, die verfügbare Informationen im Laufe der Zeit zu erhöhen. Martingale werden normalerweise als reellwertig definiert, können aber auch komplexwertig oder noch allgemeiner sein.

Ein symmetrischer Random Walk und ein Wiener-Prozess (mit Nulldrift) sind beides Beispiele für Martingale in diskreter bzw. kontinuierlicher Zeit. Für eine Folge von unabhängigen und identisch verteilten Zufallsvariablen mit einem Mittelwert von Null, der stochastische Prozess von den aufeinanderfolgenden Teilsummen gebildet ist , ein zeitdiskretes martingale. In diesem Aspekt verallgemeinern zeitdiskrete Martingale die Idee von Teilsummen unabhängiger Zufallsvariablen.

Martingale können auch aus stochastischen Prozessen erzeugt werden, indem einige geeignete Transformationen angewendet werden, was beim homogenen Poisson-Prozess (auf der reellen Linie) der Fall ist, was zu einem Martingal führt, das als kompensierter Poisson-Prozess bezeichnet wird . Martingale können auch aus anderen Martingalen aufgebaut werden. Zum Beispiel gibt es Martingale, die auf dem Martingal nach dem Wiener-Verfahren basieren und zeitkontinuierliche Martingale bilden.

Martingale formalisieren mathematisch die Idee eines fairen Spiels und wurden ursprünglich entwickelt, um zu zeigen, dass es nicht möglich ist, ein faires Spiel zu gewinnen. Aber jetzt werden sie in vielen Bereichen der Wahrscheinlichkeit verwendet, was einer der Hauptgründe dafür ist, sie zu studieren. Viele Wahrscheinlichkeitsprobleme wurden gelöst, indem man ein Martingal im Problem fand und es untersuchte. Martingale konvergieren unter bestimmten Bedingungen für ihre Momente, daher werden sie häufig verwendet, um Konvergenzergebnisse abzuleiten, hauptsächlich aufgrund der Martingal-Konvergenzsätze .

Martingale haben viele Anwendungen in der Statistik, aber es wurde angemerkt, dass ihre Verwendung und Anwendung nicht so weit verbreitet sind, wie sie im Bereich der Statistik, insbesondere der statistischen Inferenz, sein könnten. Sie haben Anwendungen in Bereichen der Wahrscheinlichkeitstheorie wie der Warteschlangentheorie und der Palm-Kalküle und in anderen Bereichen wie Wirtschaft und Finanzen gefunden.

Abgabeverfahren

Lévy-Prozesse sind Arten von stochastischen Prozessen, die als Verallgemeinerungen von Random Walks in kontinuierlicher Zeit betrachtet werden können. Diese Prozesse haben viele Anwendungen in Bereichen wie Finanzen, Strömungsmechanik, Physik und Biologie. Die wichtigsten definierenden Merkmale dieser Prozesse sind ihre Stationaritäts- und Unabhängigkeitseigenschaften, daher wurden sie als Prozesse mit stationären und unabhängigen Inkrementen bezeichnet . Mit anderen Worten, ein stochastischer Prozess ist ein Lévy-Prozess, wenn für nicht-negative Zahlen die entsprechenden Inkremente

sind alle unabhängig voneinander, und die Verteilung jedes Inkrements hängt nur von der Zeitdifferenz ab.

Ein Lévy-Prozess kann so definiert werden, dass sein Zustandsraum ein abstrakter mathematischer Raum ist, wie beispielsweise ein Banach-Raum , aber die Prozesse werden oft so definiert, dass sie Werte im euklidischen Raum annehmen. Die Indexmenge sind die nicht-negativen Zahlen, also , die die Zeitinterpretation angibt. Wichtige stochastische Prozesse wie der Wiener-Prozess, der homogene Poisson-Prozess (in einer Dimension) und Subordinatoren sind allesamt Lévy-Prozesse.

Zufallsfeld

Ein Zufallsfeld ist eine Sammlung von Zufallsvariablen, die durch einen -dimensionalen euklidischen Raum oder eine Mannigfaltigkeit indiziert sind . Im Allgemeinen kann ein Zufallsfeld als Beispiel für einen stochastischen oder zufälligen Prozess angesehen werden, bei dem die Indexmenge nicht notwendigerweise eine Teilmenge der reellen Linie ist. Es gibt jedoch eine Konvention, dass eine indizierte Sammlung von Zufallsvariablen als Zufallsfeld bezeichnet wird, wenn der Index zwei oder mehr Dimensionen hat. Wenn die spezifische Definition eines stochastischen Prozesses erfordert, dass die Indexmenge eine Teilmenge der reellen Linie ist, dann kann das Zufallsfeld als eine Verallgemeinerung des stochastischen Prozesses betrachtet werden.

Punktprozess

Ein Punktprozess ist eine Sammlung von Punkten, die zufällig auf einem mathematischen Raum wie der reellen Linie, dem -dimensionalen euklidischen Raum oder abstrakteren Räumen angeordnet sind. Manchmal wird der Begriff Punktprozess nicht bevorzugt, da das Wort Prozess in der Vergangenheit eine Entwicklung eines Systems in der Zeit bezeichnete, daher wird ein Punktprozess auch als zufälliges Punktfeld bezeichnet . Es gibt verschiedene Interpretationen eines Punktprozesses, wie beispielsweise ein zufälliges Zählmaß oder eine zufällige Menge. Einige Autoren betrachten einen Punktprozess und einen stochastischen Prozess als zwei verschiedene Objekte, so dass ein Punktprozess ein zufälliges Objekt ist, das aus einem stochastischen Prozess entsteht oder mit einem stochastischen Prozess assoziiert ist, obwohl angemerkt wurde, dass der Unterschied zwischen Punktprozessen und stochastischen Prozessen nicht klar ist .

Andere Autoren betrachten einen Punktprozess als einen stochastischen Prozess, bei dem der Prozess durch Mengen des zugrunde liegenden Raums, auf dem er definiert ist, indiziert ist, wie z. B. die reelle Linie oder der -dimensionale euklidische Raum. Andere stochastische Prozesse wie Erneuerungs- und Zählprozesse werden in der Theorie der Punktprozesse untersucht.

Geschichte

Frühe Wahrscheinlichkeitstheorie

Die Wahrscheinlichkeitstheorie hat ihren Ursprung in Glücksspielen, die eine lange Geschichte haben, wobei einige Spiele vor Tausenden von Jahren gespielt wurden, aber nur sehr wenige Analysen in Bezug auf die Wahrscheinlichkeit durchgeführt wurden. Das Jahr 1654 wird oft als die Geburtsstunde der Wahrscheinlichkeitstheorie angesehen, als die französischen Mathematiker Pierre Fermat und Blaise Pascal eine schriftliche Korrespondenz über Wahrscheinlichkeiten führten, die durch ein Glücksspielproblem motiviert war . Aber es gab frühere mathematische Arbeiten über die Wahrscheinlichkeit von Glücksspielen wie Liber de Ludo Aleae von Gerolamo Cardano , geschrieben im 16.

Nach Cardano, Jakob Bernoulli schrieb Ars Conjectandi , die ein bedeutendes Ereignis in der Geschichte der Wahrscheinlichkeitstheorie betrachtet wird. Bernoullis Buch wurde ebenfalls posthum im Jahr 1713 veröffentlicht und inspirierte viele Mathematiker, die Wahrscheinlichkeit zu studieren. Aber obwohl einige renommierte Mathematiker zur Wahrscheinlichkeitstheorie beigetragen haben, wie Pierre-Simon Laplace , Abraham de Moivre , Carl Gauss , Siméon Poisson und Pafnuty Chebyshev , betrachtete der Großteil der mathematischen Gemeinschaft die Wahrscheinlichkeitstheorie erst im 20. Jahrhundert als Teil der Mathematik.

Statistische Mechanik

In den Naturwissenschaften entwickelten Wissenschaftler im 19. Jahrhundert die Disziplin der statistischen Mechanik , in der physikalische Systeme, wie beispielsweise mit Gasen gefüllte Behälter, als Ansammlungen vieler bewegter Teilchen betrachtet oder mathematisch behandelt werden können. Obwohl es von einigen Wissenschaftlern, wie etwa Rudolf Clausius , Versuche gab, den Zufall in die statistische Physik zu integrieren , hatten die meisten Arbeiten wenig oder keinen Zufall. Dies änderte sich 1859, als James Clerk Maxwell einen bedeutenden Beitrag zu diesem Gebiet, insbesondere zur kinetischen Gastheorie, leistete, indem er Arbeiten vorstellte, bei denen er annahm, dass sich die Gasteilchen mit zufälligen Geschwindigkeiten in zufällige Richtungen bewegen. Die kinetische Gastheorie und statistischer Physik fortgesetzt in der zweiten Hälfte des 19. Jahrhunderts entwickelt werden, mit Arbeit hauptsächlich von Clausius, Ludwig Boltzmann und Josiah Gibbs , die später einen Einfluss darauf haben , würden Albert Einstein ‚s mathematisches Modell für die Brownsche Bewegung .

Maßtheorie und Wahrscheinlichkeitstheorie

Auf dem Internationalen Mathematikerkongress in Paris im Jahr 1900 legte David Hilbert eine Liste mathematischer Probleme vor , wobei sein sechstes Problem eine mathematische Behandlung der Physik und der Wahrscheinlichkeit mit Axiomen forderte . Jahrhunderts entwickelten Mathematiker die Maßtheorie, einen Zweig der Mathematik zum Studium von Integralen mathematischer Funktionen, wobei zwei der Gründer die französischen Mathematiker Henri Lebesgue und Émile Borel waren . 1925 veröffentlichte ein anderer französischer Mathematiker, Paul Lévy , das erste Wahrscheinlichkeitsbuch, das Ideen aus der Maßtheorie verwendet.

In den 1920er Jahren leisteten Mathematiker wie Sergej Bernstein , Aleksandr Khinchin und Andrei Kolmogorov in der Sowjetunion grundlegende Beiträge zur Wahrscheinlichkeitstheorie . Kolmogorov veröffentlichte 1929 seinen ersten Versuch, der Wahrscheinlichkeitstheorie eine mathematische Grundlage auf der Grundlage der Maßtheorie vorzulegen. In den frühen 1930er Jahren veranstalteten Khinchin und Kolmogorov Wahrscheinlichkeitsseminare, an denen Forscher wie Eugene Slutsky und Nikolai Smirnov teilnahmen , und Khinchin gab die erste mathematische Definition eines stochastischen Prozesses als eine Reihe von Zufallsvariablen, die durch die reelle Linie indiziert sind.

Geburtsstunde der modernen Wahrscheinlichkeitstheorie

1933 veröffentlichte Andrei Kolmogorov auf Deutsch sein Buch über die Grundlagen der Wahrscheinlichkeitsrechnung mit dem Titel Grundbegriffe der Wahrscheinlichkeitsrechnung , in dem Kolmogorov anhand der Maßtheorie einen axiomatischen Rahmen für die Wahrscheinlichkeitstheorie entwickelte. Die Veröffentlichung dieses Buches gilt heute allgemein als die Geburtsstunde der modernen Wahrscheinlichkeitstheorie, als die Wahrscheinlichkeitstheorien und stochastische Prozesse Teil der Mathematik wurden.

Nach der Veröffentlichung von Kolmogorovs Buch wurden weitere grundlegende Arbeiten zur Wahrscheinlichkeitstheorie und stochastischen Prozessen von Khinchin und Kolmogorov sowie anderen Mathematikern wie Joseph Doob , William Feller , Maurice Fréchet , Paul Lévy , Wolfgang Doeblin und Harald Cramér geleistet . Jahrzehnte später bezeichnete Cramér die 1930er Jahre als die „heroische Periode der mathematischen Wahrscheinlichkeitstheorie“. Der Zweite Weltkrieg hat die Entwicklung der Wahrscheinlichkeitstheorie stark unterbrochen, was zum Beispiel die Auswanderung Fellers von Schweden in die Vereinigten Staaten von Amerika und den Tod von Döblin verursacht hat, der heute als Pionier stochastischer Prozesse gilt.

Der Mathematiker Joseph Doob arbeitete früh an der Theorie stochastischer Prozesse und leistete grundlegende Beiträge, insbesondere in der Theorie der Martingale. Sein Buch Stochastische Prozesse gilt als einflussreich auf dem Gebiet der Wahrscheinlichkeitstheorie.

Stochastische Prozesse nach dem Zweiten Weltkrieg

Nach dem Zweiten Weltkrieg erlangte das Studium der Wahrscheinlichkeitstheorie und stochastischer Prozesse mehr Aufmerksamkeit bei Mathematikern, mit bedeutenden Beiträgen in vielen Bereichen der Wahrscheinlichkeit und Mathematik sowie der Schaffung neuer Gebiete. Beginnend in den 1940er Jahren veröffentlichte Kiyosi Itô Arbeiten zur Entwicklung des Gebiets der stochastischen Berechnung , die stochastische Integrale und stochastische Differentialgleichungen basierend auf dem Wiener- oder Brownschen Bewegungsprozess umfasst.

Ebenfalls ab den 1940er Jahren wurden mit frühen Ideen von Shizuo Kakutani und späteren Arbeiten von Joseph Doob Verbindungen zwischen stochastischen Prozessen, insbesondere Martingalen, und dem mathematischen Gebiet der Potenzialtheorie hergestellt . Weitere Arbeiten, die als bahnbrechend gelten, wurden von Gilbert Hunt in den 1950er Jahren durchgeführt, indem er Markov-Prozesse und Potenzialtheorie verband, was einen signifikanten Einfluss auf die Theorie der Lévy-Prozesse hatte und zu einem größeren Interesse an der Untersuchung von Markov-Prozessen mit Methoden führte, die von Itô entwickelt wurden.

1953 veröffentlichte Doob sein Buch Stochastische Prozesse , das einen starken Einfluss auf die Theorie der stochastischen Prozesse hatte und die Bedeutung der Maßtheorie für die Wahrscheinlichkeit betonte. Doob entwickelte auch hauptsächlich die Theorie der Martingale, mit späteren wesentlichen Beiträgen von Paul-André Meyer . Frühere Arbeiten wurden von Sergei Bernstein , Paul Lévy und Jean Ville durchgeführt , wobei letzterer den Begriff Martingal für den stochastischen Prozess annahm. Methoden aus der Martingaltheorie wurden zur Lösung verschiedener Wahrscheinlichkeitsprobleme populär. Techniken und Theorie wurden entwickelt, um Markov-Prozesse zu untersuchen und dann auf Martingale angewendet. Umgekehrt wurden Methoden aus der Martingaltheorie zur Behandlung von Markov-Prozessen etabliert.

Andere Wahrscheinlichkeitsfelder wurden entwickelt und verwendet, um stochastische Prozesse zu studieren, wobei ein Hauptansatz die Theorie der großen Abweichungen ist. Die Theorie hat viele Anwendungen unter anderem in der statistischen Physik und hat Kernideen, die mindestens bis in die 1930er Jahre zurückreichen. Später in den 1960er und 1970er Jahren leisteten Alexander Wentzell in der Sowjetunion und Monroe D. Donsker und Srinivasa Varadhan in den Vereinigten Staaten von Amerika grundlegende Arbeiten , die später dazu führten, dass Varadhan 2007 den Abel-Preis gewann. In den 1990er und 2000er Jahren wurden die Theorien der Schramm-Löwner-Evolution und der groben Pfade eingeführt und weiterentwickelt, um stochastische Prozesse und andere mathematische Objekte in der Wahrscheinlichkeitstheorie zu untersuchen, was dazu führte , dass Wendelin Werner im Jahr 2008 und Martin Hairer 2014 Fields-Medaillen verliehen wurden .

Die Theorie stochastischer Prozesse ist nach wie vor ein Forschungsschwerpunkt, mit jährlichen internationalen Konferenzen zum Thema stochastische Prozesse.

Entdeckungen spezifischer stochastischer Prozesse

Obwohl Khinchin in den 1930er Jahren mathematische Definitionen von stochastischen Prozessen gab, wurden bereits spezifische stochastische Prozesse in verschiedenen Umgebungen entdeckt, wie zum Beispiel dem Brownschen Bewegungsprozess und dem Poisson-Prozess. Einige Familien stochastischer Prozesse wie Punktprozesse oder Erneuerungsprozesse haben eine lange und komplexe Geschichte, die Jahrhunderte zurückreicht.

Bernoulli-Prozess

Der Bernoulli-Prozess, der als mathematisches Modell für das Werfen einer voreingenommenen Münze dienen kann, ist möglicherweise der erste stochastische Prozess, der untersucht wurde. Der Prozess ist eine Abfolge unabhängiger Bernoulli-Versuche, die nach Jackob Bernoulli benannt sind , der sie verwendet, um Glücksspiele zu studieren, einschließlich Wahrscheinlichkeitsproblemen, die zuvor von Christiaan Huygens vorgeschlagen und untersucht wurden. Bernoullis Arbeiten, einschließlich des Bernoulli-Prozesses, wurden 1713 in seinem Buch Ars Conjectandi veröffentlicht.

Zufällige Spaziergänge

1905 prägte Karl Pearson den Begriff Random Walk, indem er ein Problem zur Beschreibung eines Random Walks im Flugzeug aufstellte, der durch eine Anwendung in der Biologie motiviert war, aber solche Probleme mit Random Walks wurden bereits in anderen Bereichen untersucht. Bestimmte Glücksspielprobleme, die Jahrhunderte zuvor untersucht wurden, können als Probleme mit Random Walks betrachtet werden. Zum Beispiel basiert das Problem, das als Gambler's Ruin bekannt ist, auf einem einfachen Random Walk und ist ein Beispiel für einen Random Walk mit absorbierenden Barrieren. Pascal, Fermat und Huyens gaben alle numerische Lösungen für dieses Problem, ohne ihre Methoden detailliert zu beschreiben, und dann wurden detailliertere Lösungen von Jakob Bernoulli und Abraham de Moivre vorgestellt .

Für Random Walks in -dimensionalen ganzzahligen Gittern veröffentlichte George Pólya 1919 und 1921 eine Arbeit, in der er die Wahrscheinlichkeit untersuchte, dass ein symmetrischer Random Walk zu einer vorherigen Position im Gitter zurückkehrt. Pólya zeigte, dass ein symmetrischer Random Walk, der eine gleiche Wahrscheinlichkeit hat, in jede Richtung im Gitter vorzurücken, unendlich oft mit Wahrscheinlichkeit eins in einer und zwei Dimensionen zu einer vorherigen Position im Gitter zurückkehrt, aber mit Wahrscheinlichkeit null in drei oder höhere Dimensionen.

Wiener-Prozess

Der Wiener-Prozess oder Brownsche Bewegungsprozess hat seine Ursprünge in verschiedenen Bereichen, darunter Statistik, Finanzen und Physik. Im Jahr 1880 schrieb Thorvald Thiele eine Arbeit über die Methode der kleinsten Quadrate, in der er den Prozess nutzte, um die Fehler eines Modells in der Zeitreihenanalyse zu untersuchen. Die Arbeit gilt heute als frühe Entdeckung der statistischen Methode, die als Kalman-Filterung bekannt ist , aber die Arbeit wurde weitgehend übersehen. Es wird angenommen, dass die Ideen in Thieles Aufsatz zu dieser Zeit zu weit fortgeschritten waren, um von der breiteren mathematischen und statistischen Gemeinschaft verstanden zu werden.

Norbert Wiener lieferte den ersten mathematischen Beweis für die Existenz des Wiener-Prozesses. Dieses mathematische Objekt war zuvor in den Werken von Thorvald Thiele , Louis Bachelier und Albert Einstein erschienen .

Der französische Mathematiker Louis Bachelier verwendete in seiner Dissertation von 1900 ein Wiener-Verfahren, um Kursänderungen an der Pariser Börse , einer Börse , zu modellieren , ohne die Arbeit von Thiele zu kennen. Es wurde spekuliert, dass Bachelier Ideen aus dem Random-Walk-Modell von Jules Regnault schöpfte , aber Bachelier zitierte ihn nicht, und Bacheliers These gilt heute als wegweisend auf dem Gebiet der Finanzmathematik.

Es wird allgemein angenommen, dass Bacheliers Werk wenig Beachtung fand und jahrzehntelang in Vergessenheit geraten war, bis es in den 1950er Jahren von Leonard Savage wiederentdeckt wurde und dann populärer wurde, nachdem Bacheliers Dissertation 1964 ins Englische übersetzt wurde mathematische Gemeinschaft, da Bachelier 1912 ein Buch veröffentlichte, in dem seine Ideen detailliert beschrieben wurden, das von Mathematikern wie Doob, Feller und Kolmogorov zitiert wurde. Das Buch wurde weiterhin zitiert, aber ab den 1960er Jahren wurde die ursprüngliche These von Bachelier mehr zitiert als sein Buch, als Ökonomen anfingen, Bacheliers Arbeit zu zitieren.

Im Jahr 1905 veröffentlichte Albert Einstein eine Veröffentlichung, in der er die physikalische Beobachtung der Brownschen Bewegung oder Bewegung untersuchte, um die scheinbar zufälligen Bewegungen von Teilchen in Flüssigkeiten mithilfe von Ideen aus der kinetischen Gastheorie zu erklären . Einstein leitete eine Differentialgleichung ab , die als Diffusionsgleichung bekannt ist , um die Wahrscheinlichkeit zu beschreiben, ein Teilchen in einem bestimmten Raumbereich zu finden. Kurz nach Einsteins erstem Artikel über die Brownsche Bewegung veröffentlichte Marian Smoluchowski eine Arbeit, in der er Einstein zitierte, schrieb jedoch, dass er unabhängig voneinander die äquivalenten Ergebnisse mit einer anderen Methode abgeleitet habe.

Einsteins Arbeit sowie experimentelle Ergebnisse von Jean Perrin inspirierten später Norbert Wiener in den 1920er Jahren, eine von Percy Daniell entwickelte Art von Maßtheorie und Fourier-Analyse zu verwenden, um die Existenz des Wiener-Prozesses als mathematisches Objekt zu beweisen.

Poisson-Prozess

Der Poisson-Prozess ist nach Siméon Poisson benannt , aufgrund seiner Definition mit der Poisson-Verteilung , aber Poisson hat den Prozess nie untersucht. Es gibt eine Reihe von Behauptungen für frühe Anwendungen oder Entdeckungen des Poisson-Prozesses. Zu Beginn des 20. Jahrhunderts trat der Poisson-Prozess in verschiedenen Situationen unabhängig voneinander auf. In Schweden veröffentlichte Filip Lundberg 1903 eine Arbeit mit einer heute als grundlegend und bahnbrechend geltenden Arbeit, in der er vorschlug, Versicherungsansprüche mit einem homogenen Poisson-Prozess zu modellieren.

Eine weitere Entdeckung fand 1909 in Dänemark statt, als AK Erlang bei der Entwicklung eines mathematischen Modells für die Anzahl eingehender Telefonanrufe in einem endlichen Zeitintervall die Poisson-Verteilung herleitete. Erlang kannte Poissons frühere Arbeiten zu diesem Zeitpunkt nicht und ging davon aus, dass die Anzahl der in jedem Zeitintervall eintreffenden Telefonanrufe unabhängig voneinander waren. Er fand dann den Grenzfall, der die Poisson-Verteilung effektiv als Grenzwert der Binomialverteilung umformt.

1910 veröffentlichten Ernest Rutherford und Hans Geiger experimentelle Ergebnisse zum Zählen von Alphateilchen. Motiviert durch ihre Arbeit untersuchte Harry Bateman das Zählproblem und leitete Poisson-Wahrscheinlichkeiten als Lösung für eine Familie von Differentialgleichungen ab, was zur unabhängigen Entdeckung des Poisson-Prozesses führte. Nach dieser Zeit gab es viele Studien und Anwendungen des Poisson-Prozesses, aber seine frühe Geschichte ist kompliziert, was durch die verschiedenen Anwendungen des Verfahrens in zahlreichen Bereichen durch Biologen, Ökologen, Ingenieure und verschiedene Physiker erklärt wurde.

Markov-Prozesse

Markov-Prozesse und Markov-Ketten sind nach Andrey Markov benannt , der Anfang des 20. Jahrhunderts Markov-Ketten untersuchte. Markov war daran interessiert, eine Erweiterung unabhängiger Zufallsfolgen zu studieren. In seiner ersten Arbeit über Markov-Ketten, die 1906 veröffentlicht wurde, zeigte Markov, dass die durchschnittlichen Ergebnisse der Markov-Kette unter bestimmten Bedingungen gegen einen festen Wertevektor konvergieren, was ein schwaches Gesetz der großen Zahlen ohne die Unabhängigkeitsannahme bewies , die allgemein als Voraussetzung für die Geltung solcher mathematischen Gesetze angesehen. Markov verwendete später Markov-Ketten, um die Verteilung von Vokalen in Eugen Onegin , geschrieben von Alexander Puschkin , zu studieren , und bewies einen zentralen Grenzwertsatz für solche Ketten.

1912 untersuchte Poincaré Markov-Ketten auf endlichen Gruppen mit dem Ziel, das Kartenmischen zu untersuchen. Andere frühe Anwendungen von Markov-Ketten sind ein Diffusionsmodell, das 1907 von Paul und Tatyana Ehrenfest eingeführt wurde, und ein Verzweigungsprozess, der 1873 von Francis Galton und Henry William Watson eingeführt wurde und der Arbeit von Markov vorausging. Nach der Arbeit von Galton und Watson wurde später enthüllt, dass ihr Verzweigungsprozess etwa drei Jahrzehnte zuvor von Irénée-Jules Bienaymé unabhängig entdeckt und untersucht worden war . Ab 1928 interessierte sich Maurice Fréchet für Markov-Ketten, was schließlich dazu führte, dass er 1938 eine detaillierte Studie über Markov-Ketten veröffentlichte.

Andrei Kolmogorov entwickelte in einer Arbeit von 1931 einen großen Teil der frühen Theorie der zeitkontinuierlichen Markov-Prozesse. Kolmogorov wurde teilweise von Louis Bacheliers Arbeit über die Schwankungen des Aktienmarktes aus dem Jahr 1900 sowie von Norbert Wieners Arbeit über Einsteins Modell der Brownschen Bewegung inspiriert. Er führte und untersuchte eine bestimmte Reihe von Markov-Prozessen, die als Diffusionsprozesse bekannt sind, und leitete daraus eine Reihe von Differentialgleichungen ab, die die Prozesse beschreiben. Unabhängig von Kolmogorovs Arbeit leitete Sydney Chapman in einem Artikel von 1928 eine Gleichung ab, die heute Chapman-Kolmogorov-Gleichung genannt wird , auf eine weniger mathematisch rigorose Weise als Kolmogorov, während er die Brownsche Bewegung studierte. Die Differentialgleichungen heißen jetzt Kolmogorov-Gleichungen oder Kolmogorov-Chapman-Gleichungen. Andere Mathematiker, die maßgeblich zur Grundlage der Markov-Prozesse beigetragen haben, sind William Feller ab den 1930er Jahren und später Eugene Dynkin ab den 1950er Jahren.

Lévy-Prozesse

Lévy-Prozesse wie der Wiener-Prozess und der Poisson-Prozess (auf der realen Linie) sind nach Paul Lévy benannt, der in den 1930er Jahren damit begann, sie zu studieren, aber sie haben Verbindungen zu unendlich teilbaren Verteilungen , die bis in die 1920er Jahre zurückreichen. In einer Arbeit von 1932 leitete Kolmogorov eine charakteristische Funktion für Zufallsvariablen ab, die mit Lévy-Prozessen verbunden sind. Dieses Ergebnis wurde später unter allgemeineren Bedingungen von Lévy im Jahr 1934 abgeleitet, und dann gab Khinchin 1937 unabhängig eine alternative Form für diese charakteristische Funktion. Neben Lévy, Khinchin und Kolomogrov lieferten Bruno de Finetti und Kiyosi Itô .

Mathematische Konstruktion

In der Mathematik werden Konstruktionen von mathematischen Objekten benötigt, was auch bei stochastischen Prozessen der Fall ist, um ihre mathematische Existenz zu beweisen. Es gibt zwei Hauptansätze, um einen stochastischen Prozess zu konstruieren. Ein Ansatz besteht darin, einen messbaren Funktionsraum zu betrachten, eine geeignete messbare Abbildung von einem Wahrscheinlichkeitsraum auf diesen messbaren Funktionsraum zu definieren und dann die entsprechenden endlichdimensionalen Verteilungen abzuleiten.

Ein anderer Ansatz besteht darin, eine Sammlung von Zufallsvariablen mit spezifischen endlichdimensionalen Verteilungen zu definieren und dann den Existenzsatz von Kolmogorov zu verwenden, um zu beweisen, dass ein entsprechender stochastischer Prozess existiert. Dieser Satz, der ein Existenzsatz für Maße auf unendlichen Produkträumen ist, besagt, dass, wenn endlichdimensionale Verteilungen zwei Bedingungen, bekannt als Konsistenzbedingungen, erfüllen , es einen stochastischen Prozess mit diesen endlichdimensionalen Verteilungen gibt.

Bauprobleme

Bei der Konstruktion zeitkontinuierlicher stochastischer Prozesse treten aufgrund der unzähligen Indexmengen gewisse mathematische Schwierigkeiten auf, die bei zeitdiskreten Prozessen nicht auftreten. Ein Problem besteht darin, dass es möglich ist, mehr als einen stochastischen Prozess mit den gleichen endlichdimensionalen Verteilungen zu haben. Zum Beispiel haben sowohl die linksstetige Modifikation als auch die rechtsstetige Modifikation eines Poisson-Prozesses die gleichen endlichdimensionalen Verteilungen. Dies bedeutet, dass die Verteilung des stochastischen Prozesses nicht unbedingt die Eigenschaften der Stichprobenfunktionen des stochastischen Prozesses eindeutig spezifiziert.

Ein weiteres Problem besteht darin, dass Funktionale eines zeitkontinuierlichen Prozesses, die auf einer unzählbaren Anzahl von Punkten des Indexsatzes beruhen, möglicherweise nicht messbar sind, so dass die Wahrscheinlichkeiten bestimmter Ereignisse möglicherweise nicht genau definiert sind. Beispielsweise ist das Supremum eines stochastischen Prozesses oder Zufallsfeldes nicht unbedingt eine wohldefinierte Zufallsvariable. Für einen zeitkontinuierlichen stochastischen Prozess sind weitere Merkmale, die von einer unzählbaren Anzahl von Punkten der Indexmenge abhängen :

  • eine Beispielfunktion eines stochastischen Prozesses ist eine stetige Funktion von ;
  • eine Beispielfunktion eines stochastischen Prozesses ist eine beschränkte Funktion von ; und
  • eine Stichprobenfunktion eines stochastischen Prozesses ist eine ansteigende Funktion von .

Um diese beiden Schwierigkeiten zu überwinden, sind unterschiedliche Annahmen und Ansätze möglich.

Bauprobleme lösen

Ein von Joseph Doob vorgeschlagener Ansatz zur Vermeidung mathematischer Konstruktionsprobleme stochastischer Prozesse besteht darin, anzunehmen, dass der stochastische Prozess trennbar ist. Die Trennbarkeit stellt sicher, dass unendlichdimensionale Verteilungen die Eigenschaften von Stichprobenfunktionen bestimmen, indem sie verlangt, dass Stichprobenfunktionen im Wesentlichen durch ihre Werte auf einer dichten zählbaren Menge von Punkten in der Indexmenge bestimmt werden. Wenn ein stochastischer Prozess separierbar ist, dann sind Funktionale einer unzählbaren Anzahl von Punkten der Indexmenge messbar und ihre Wahrscheinlichkeiten können untersucht werden.

Ein anderer Ansatz ist möglich, der ursprünglich von Anatoliy Skorokhod und Andrei Kolmogorov für einen zeitkontinuierlichen stochastischen Prozess mit einem beliebigen metrischen Raum als Zustandsraum entwickelt wurde. Für die Konstruktion eines solchen stochastischen Prozesses wird angenommen, dass die Beispielfunktionen des stochastischen Prozesses zu einem geeigneten Funktionsraum gehören, der normalerweise der Skorokhod-Raum ist, der aus allen rechtsstetigen Funktionen mit linken Grenzwerten besteht. Dieser Ansatz wird heute häufiger verwendet als die Annahme der Trennbarkeit, aber ein solcher stochastischer Prozess, der auf diesem Ansatz basiert, wird automatisch trennbar sein.

Obwohl weniger verwendet, wird die Annahme der Trennbarkeit als allgemeiner angesehen, da jeder stochastische Prozess eine trennbare Version hat. Es wird auch verwendet, wenn es nicht möglich ist, einen stochastischen Prozess in einem Skorokhod-Raum zu konstruieren. Zum Beispiel wird beim Konstruieren und Studieren von Zufallsfeldern Trennbarkeit angenommen, wobei die Sammlung von Zufallsvariablen jetzt durch andere Mengen als die reelle Linie indiziert wird, wie z. B. den -dimensionalen euklidischen Raum.

Siehe auch

Anmerkungen

Verweise

Weiterlesen

Artikel

  • Applebaum, David (2004). "Lévy-Prozesse: Von der Wahrscheinlichkeit zu Finanzen und Quantengruppen". Hinweise des AMS . 51 (11): 1336–1347.
  • Cramer, Harald (1976). „Ein halbes Jahrhundert mit Wahrscheinlichkeitstheorie: Einige persönliche Erinnerungen“ . Die Annalen der Wahrscheinlichkeit . 4 (4): 509–546. doi : 10.1214/aop/1176996025 . ISSN  0091-1798 .
  • Guttorp, Peter; Thorarinsdottir, Thordis L. (2012). „Was geschah mit diskretem Chaos, dem Quenouille-Prozess und der Sharp-Markov-Eigenschaft? Einige Geschichte der stochastischen Punktprozesse“. Internationale statistische Überprüfung . 80 (2): 253–268. doi : 10.1111/j.1751-5823.2012.00181.x . ISSN  0306-7734 .
  • Jarrow, Robert; Protter, Philipp (2004). „Eine kurze Geschichte der stochastischen Integration und der mathematischen Finanzen: die frühen Jahre, 1880-1970“. Eine Festschrift für Herman Rubin . Institut für Mathematische Statistik Vorlesungsnotizen - Monographienreihe. S. 75–91. doi : 10.1214/lnms/1196285381 . ISBN 978-0-940600-61-4. ISSN  0749-2170 .
  • Meyer, Paul-André (2009). „Stochastische Prozesse von 1950 bis zur Gegenwart“. Elektronische Zeitschrift für Wahrscheinlichkeitsgeschichte und Statistik . 5 (1): 1–42.

Bücher

Externe Links