Regularisierung (Physik) - Regularization (physics)

In der Physik , insbesondere der Quantenfeldtheorie , ist die Regularisierung eine Methode zur Modifizierung von Observablen mit Singularitäten , um sie durch die Einführung eines geeigneten Parameters namens Regulator endlich zu machen . Der Regulator, auch als "Cutoff" bekannt, modelliert unseren Mangel an Wissen über Physik auf unbeobachteten Skalen (zB Skalen kleiner Größe oder großer Energieniveaus). Sie kompensiert (und erfordert) die Möglichkeit, dass „neue Physik“ auf den Skalen entdeckt wird, die die gegenwärtige Theorie nicht modellieren kann, während sie es der aktuellen Theorie ermöglicht, genaue Vorhersagen als „effektive Theorie“ innerhalb ihres beabsichtigten Anwendungsbereichs zu geben .

Es unterscheidet sich von der Renormierung , einer anderen Technik zur Kontrolle von Unendlichkeiten, ohne eine neue Physik anzunehmen, durch Anpassung an das Feedback der Selbstinteraktion.

Die Regularisierung war selbst unter ihren Erfindern jahrzehntelang umstritten, da sie physikalische und epistemologische Ansprüche in denselben Gleichungen vereint . Es ist jedoch mittlerweile gut verstanden und hat sich als nützliche, genaue Vorhersagen erwiesen.

Überblick

Regularisierungsverfahren behandeln unendliche, divergente und unsinnige Ausdrücke, indem sie ein Hilfskonzept eines Regulators einführen (zB der minimale Abstand im Raum, der nützlich ist, falls die Divergenzen durch physikalische Effekte kurzer Distanz entstehen). Das korrekte physikalische Ergebnis wird in der Grenze erhalten, in der der Regler wegfällt (in unserem Beispiel ), aber der Vorteil des Reglers besteht darin, dass das Ergebnis für seinen endlichen Wert endlich ist.

Das Ergebnis enthält jedoch normalerweise Begriffe, die proportional zu Ausdrücken sind, die in der Grenze nicht genau definiert sind . Die Regularisierung ist der erste Schritt, um ein vollständig endliches und aussagekräftiges Ergebnis zu erhalten; in der Quantenfeldtheorie muss ihr normalerweise eine verwandte, aber unabhängige Technik folgen, die Renormierung genannt wird . Die Renormierung basiert auf der Anforderung, dass einige physikalische Größen – ausgedrückt durch scheinbar abweichende Ausdrücke wie – gleich den beobachteten Werten sind. Eine solche Einschränkung erlaubt es, einen endlichen Wert für viele andere Größen zu berechnen, die divergent aussahen.

Die Existenz eines Grenzwertes, da ε gegen Null geht und die Unabhängigkeit des Endergebnisses vom Regulator sind nicht triviale Tatsachen. Der zugrunde liegende Grund dafür liegt in der Universalität, wie sie von Kenneth Wilson und Leo Kadanoff gezeigt wurde, und in der Existenz eines Phasenübergangs zweiter Ordnung . Manchmal ist es nicht möglich, den Grenzwert so zu nehmen, dass ε gegen Null geht. Dies ist der Fall, wenn wir einen Landau-Pol haben und für nicht-renormierbare Kopplungen wie die Fermi-Wechselwirkung . Aber selbst für diese beiden Beispiele, wenn der Regler nur vernünftige Ergebnisse liefert und wir mit Skalen in der Größenordnung von arbeiten , geben Regler mit immer noch ziemlich genauen Näherungen. Der physikalische Grund, warum wir die Grenze von ε nicht auf Null setzen können, ist die Existenz neuer Physik unter Λ.

Es ist nicht immer möglich, eine Regularisierung so zu definieren, dass der zu Null gehende Grenzwert von ε unabhängig von der Regularisierung ist. In diesem Fall sagt man, dass die Theorie eine Anomalie enthält . Anomalie Theorien wurden sehr detailliert untersucht und basieren oft auf dem berühmten Atiyah-Singer-Indexsatz oder Variationen davon (siehe zum Beispiel die chirale Anomalie ).

Klassisches Physikbeispiel

Das Problem der Unendlichkeit trat erstmals in der klassischen Elektrodynamik von Punktteilchen im 19. und frühen 20. Jahrhundert auf.

Die Masse eines geladenen Teilchens sollte die Masse-Energie in seinem elektrostatischen Feld ( elektromagnetische Masse ) enthalten. Nehmen Sie an, das Teilchen sei eine geladene Kugelschale mit dem Radius r e . Die Masse-Energie im Feld ist

die unendlich wird, wenn r e → 0 . Dies impliziert, dass das Punktteilchen eine unendliche Trägheit hätte , wodurch es nicht beschleunigt werden könnte. Übrigens wird der Wert von r e , der gleich der Elektronenmasse macht, als klassischer Elektronenradius bezeichnet , der sich (Einstellungs- und Wiederherstellungsfaktoren von c und ) als herausstellt

wobei die Feinstrukturkonstante und die Compton-Wellenlänge des Elektrons ist.

Regularisierung: Dieser Prozess zeigt, dass die ursprünglich verwendete physikalische Theorie auf kleinem Maßstab zusammenbricht. Es zeigt, dass das Elektron tatsächlich kein Punktteilchen sein kann und dass eine Art zusätzlicher neuer Physik (in diesem Fall ein endlicher Radius) erforderlich ist, um Systeme unterhalb einer bestimmten Skala zu erklären. Das gleiche Argument wird auch bei anderen Renormierungsproblemen auftauchen: Eine Theorie gilt in einem bestimmten Bereich, aber es kann gesehen werden, dass sie zusammenbricht und neue Physik auf anderen Skalen erfordert, um Unendlichkeiten zu vermeiden. (Eine andere Möglichkeit, die Unendlichkeit zu vermeiden, aber die Punktnatur des Partikels beizubehalten, wäre, eine kleine zusätzliche Dimension zu postulieren, über die sich das Partikel anstatt über den 3D-Raum „ausbreiten“ könnte; dies ist eine Motivation für die Stringtheorie .)

(Siehe auch Renormierung für einen alternativen Weg, Unendlichkeiten aus diesem klassischen Problem zu entfernen, wobei eher Selbstinteraktionen als die Existenz unbekannter neuer Physik angenommen werden.)

Spezifische Typen

Bestimmte Arten von Regularisierungsverfahren umfassen

Realistische Regularisierung

Konzeptionelles Problem

Perturbativen Vorhersagen durch Quantenfeldtheorie über Quanten Streuung von Elementarteilchen , implizierte durch eine entsprechende Lagrangesche Dichte werden die berechnete Verwendung Feynmans Regeln , eine Regularisierung Methode zur Umgehung ultravioletten Divergenzen um finite Ergebnisse zu erhalten Feynmandiagramme Schleifen enthalten, und ein Wiedernormalisierungsschema . Die Regularisierungsmethode führt zu regularisierten n-Punkt- Green-Funktionen ( Propagatoren ), und ein geeignetes Begrenzungsverfahren (ein Renormierungsschema) führt dann zu störenden S-Matrix- Elementen. Diese sind unabhängig von der jeweils verwendeten Regularisierungsmethode und ermöglichen es, die messbaren physikalischen Prozesse (Wirkungsquerschnitte, Wahrscheinlichkeitsamplituden, Zerfallsbreiten und Lebensdauern angeregter Zustände) perturbativ zu modellieren. Bisher sind jedoch keine n-Punkt - Green-Funktionen regularisiert bekannt sind, können als basiert auf einer physikalisch realistischen Theorie der Quanten-Streuung , da die Ableitung der einzelnen missachtet einige der grundlegenden Lehren der konventionellen Physik betrachtet werden (zB durch nicht in der Lorentz-invariant , indem entweder unphysikalische Partikel mit negativer Metrik oder falscher Statistik oder diskrete Raumzeit eingeführt werden oder die Dimensionalität der Raumzeit verringert wird oder eine Kombination davon). Die verfügbaren Regularisierungsmethoden werden also als formalistische technische Geräte verstanden, die jeder direkten physikalischen Bedeutung entbehren. Darüber hinaus gibt es Bedenken hinsichtlich der Renormierung. Für eine Geschichte und Kommentare zu diesem mehr als ein halbes Jahrhundert alten offenen konzeptuellen Problem siehe zB

Paulis Vermutung

Da die Scheitelpunkte nicht-regularisierter Feynman-Reihen Wechselwirkungen in der Quantenstreuung angemessen beschreiben, wird angenommen, dass ihre ultravioletten Divergenzen auf das asymptotische, hochenergetische Verhalten der Feynman-Propagatoren zurückzuführen sind. Daher ist es ein umsichtiger, konservativer Ansatz, die Scheitelpunkte in Feynman-Reihen beizubehalten und nur die Feynman-Propagatoren zu modifizieren, um eine regularisierte Feynman-Reihe zu erstellen. Dies ist der Grund für die formale kovariante Pauli-Villars-Regularisierung durch Modifikation von Feynman-Propagatoren durch unphysikalische Hilfsteilchen, vgl. und Darstellung der physikalischen Realität durch Feynman-Diagramme.

Pauli vermutete 1949 eine realistische Regularisierung, die von einer Theorie impliziert wird, die alle etablierten Prinzipien der zeitgenössischen Physik respektiert. Daher müssen ihre Propagatoren (i) nicht regularisiert werden und (ii) können als eine solche Regularisierung der in Quantenfeldtheorien verwendeten Propagatoren angesehen werden, die die zugrunde liegende Physik widerspiegeln könnte. Die zusätzlichen Parameter einer solchen Theorie müssen nicht entfernt werden (dh die Theorie benötigt keine Renormierung) und können einige neue Informationen über die Physik der Quantenstreuung liefern, obwohl sie sich experimentell als vernachlässigbar erweisen können. Im Gegensatz dazu führt jedes gegenwärtige Regularisierungsverfahren formale Koeffizienten ein, die schließlich durch Renormierung beseitigt werden müssen.

Meinungen

Paul Dirac stand den Verfahren der Renormalisierung hartnäckig und äußerst kritisch gegenüber. 1963 schrieb er: „… in der Renormierungstheorie haben wir eine Theorie, die sich allen Versuchen der Mathematiker widersetzt hat, sie klingen zu lassen. Ich neige zu der Annahme, dass die Renormierungstheorie etwas ist, das in Zukunft nicht überleben wird,… " Weiter bemerkte er: "Für einen theoretischen Physiker kann man zwischen zwei Hauptverfahren unterscheiden. Das eine besteht darin, von der experimentellen Grundlage aus zu arbeiten ... Das andere Verfahren besteht darin, von der mathematischen Grundlage aus zu arbeiten. Man untersucht und kritisiert die bestehende Theorie. Man versucht darin die Fehler zu lokalisieren und versucht sie dann zu beseitigen. Die Schwierigkeit hier besteht darin, die Fehler zu beseitigen, ohne die sehr großen Erfolge der bestehenden Theorie zu zerstören."

Abdus Salam bemerkte 1972: "Feldtheoretische Unendlichkeiten, die zuerst in Lorentz' Berechnungen des Elektrons angetroffen wurden, haben in der klassischen Elektrodynamik seit siebzig und in der Quantenelektrodynamik etwa fünfunddreißig Jahre bestanden. Diese langen Jahre der Frustration haben in dem Thema eine merkwürdige Zuneigung für die Unendlichkeiten und der leidenschaftliche Glaube, dass sie ein unvermeidlicher Teil der Natur sind; so sehr, dass selbst die Andeutung einer Hoffnung, dass sie doch umgangen werden können - und endliche Werte für die berechneten Renormierungskonstanten - als irrational angesehen wird."

Aber nach Gerard 't Hoofts Meinung: "Die Geschichte sagt uns, dass wenn wir auf ein Hindernis stoßen, auch wenn es wie eine reine Formalität oder nur eine technische Komplikation aussieht, es sorgfältig untersucht werden sollte. Die Natur könnte uns etwas sagen, und wir sollten herausfinden, was es ist."

Die Schwierigkeit bei einer realistischen Regularisierung besteht darin, dass es bisher keine gibt, obwohl durch ihren Bottom-up-Ansatz nichts zerstört werden könnte; und es gibt keine experimentelle Grundlage dafür.

Minimale realistische Regularisierung

In Anbetracht unterschiedlicher theoretischer Probleme schlug Dirac 1963 vor: „Ich glaube, dass separate Ideen benötigt werden, um diese unterschiedlichen Probleme zu lösen, und dass sie nacheinander durch aufeinanderfolgende Stufen in der zukünftigen Evolution der Physik gelöst werden Die meisten Physiker sind sich nicht einig. Sie neigen zu der Annahme, dass eine Meisteridee entdeckt wird, die all diese Probleme gemeinsam lösen wird. Ich denke, es ist zu viel verlangt, zu hoffen, dass jemand alle diese Probleme gemeinsam lösen kann. Man sollte sie trennen so weit wie möglich voneinander trennen und versuchen, sie getrennt anzugehen.Und ich glaube, dass die zukünftige Entwicklung der Physik darin bestehen wird, sie einzeln zu lösen, und dass, nachdem eine von ihnen gelöst wurde, es immer noch ein großes Rätsel darüber geben wird, wie weitere anzugreifen."

Dirac zufolge " ist die Quantenelektrodynamik die Domäne der Physik, über die wir am besten Bescheid wissen, und sie muss vermutlich in Ordnung gebracht werden, bevor wir hoffen können, mit anderen Feldtheorien grundlegende Fortschritte zu erzielen, obwohl diese sich auf dem Gebiet der Physik weiterentwickeln werden". Versuchsgrundlage."

Diracs zwei vorangegangene Bemerkungen legen nahe, dass wir beginnen sollten, im Fall der Quantenelektrodynamik (QED) in der vierdimensionalen Minkowski-Raumzeit nach einer realistischen Regularisierung zu suchen , beginnend mit der ursprünglichen QED- Lagrange- Dichte.

Die Pfadintegralformulierung bietet den direktesten Weg von der Lagrangeschen Dichte zur entsprechenden Feynman-Reihe in ihrer Lorentz-invarianten Form. Der Freifeldanteil der Lagrange-Dichte bestimmt die Feynman-Propagatoren, während der Rest die Ecken bestimmt. Da davon ausgegangen wird, dass die QED-Scheitel Wechselwirkungen in der QED-Streuung angemessen beschreiben, ist es sinnvoll, nur den Freifeldanteil der Lagrange-Dichte zu modifizieren, um solch eine regularisierte Feynman-Reihe zu erhalten, dass die Lehmann-Symanzik-Zimmermann- Reduktionsformel ein gestörtes S -Matrix, die: (i) Lorentz-invariant und unitär ist; (ii) umfasst nur die QED-Partikel; (iii) hängt ausschließlich von QED-Parametern und denen ab, die durch die Modifikation der Feynman-Propagatoren eingeführt werden – für bestimmte Werte dieser Parameter ist sie gleich der QED-Störungs-S-Matrix; und (iv) zeigt die gleichen Symmetrien wie die QED-Störungs-S-Matrix. Lassen Sie uns eine solche Regularisierung als minimale realistische Regularisierung bezeichnen und beginnen, nach den entsprechenden modifizierten Freifeldanteilen der QED-Lagrange-Dichte zu suchen.

Verkehrstheoretischer Ansatz

Laut Bjorken und Drell wäre es physikalisch sinnvoll, ultraviolette Divergenzen durch eine detailliertere Beschreibung zu umgehen, als dies durch Differentialfeldgleichungen möglich ist. Und Feynman bemerkte über die Verwendung von Differentialgleichungen: "... für die Neutronendiffusion ist nur eine Näherung gut, wenn die Entfernung, über die wir schauen, groß ist im Vergleich zur mittleren freien Weglänge. Wenn wir genauer hinsehen würden, würden wir einzelne Neutronen herumlaufen sehen." Und dann fragte er sich: „Könnte es sein, dass die reale Welt aus kleinen X-Ons besteht, die nur auf sehr kleine Entfernungen zu sehen sind? Und dass wir bei unseren Messungen immer in so großem Maßstab beobachten, dass wir diese nicht sehen können kleine X-ons, und deshalb bekommen wir die Differentialgleichungen? ... Sind sie [deshalb] auch nur als geglättete Nachahmung einer wirklich viel komplizierteren mikroskopischen Welt richtig?"

Bereits 1938 schlug Heisenberg vor, dass eine Quantenfeldtheorie nur eine idealisierte, großräumige Beschreibung der Quantendynamik liefern kann, gültig für Abstände größer als eine gewisse Fundamentallänge , die auch 1965 von Björken und Drell erwartet wurde . Feynmans vorangegangene Bemerkung liefert einen möglichen physikalischen Grund für seine Existenz; entweder das oder es ist nur eine andere Art, dasselbe zu sagen (es gibt eine grundlegende Einheit der Entfernung), aber keine neuen Informationen zu haben.

Hinweise zu neuer Physik

Die Notwendigkeit von Regularisierungstermen in jeder Quantenfeldtheorie der Quantengravitation ist eine wichtige Motivation für die Physik jenseits des Standardmodells . Unendlichkeiten der Nichtgravitationskräfte in der QFT können nur durch Renormierung kontrolliert werden, aber zusätzliche Regularisierung – und damit neue Physik – ist ausschließlich für die Schwerkraft erforderlich. Die Regularisierer modellieren und umgehen den Abbau der QFT auf kleinen Skalen und zeigen somit deutlich die Notwendigkeit, dass auf diesen Skalen eine andere Theorie über die QFT hinaus ins Spiel kommt. A. Zee (Quantum Field Theory in a Nutshell, 2003) hält dies für einen Vorteil des Regularisierungs-Frameworks – Theorien können in ihren beabsichtigten Bereichen gut funktionieren, enthalten aber auch Informationen über ihre eigenen Grenzen und weisen klar darauf hin, wo neue Physik benötigt wird.

Verweise