Spärliche Näherung - Sparse approximation

Die Theorie der spärlichen Approximation (auch als spärliche Darstellung bekannt ) befasst sich mit spärlichen Lösungen für lineare Gleichungssysteme . Techniken zum Auffinden dieser Lösungen und deren Nutzung in Anwendungen finden breite Anwendung in der Bildverarbeitung , Signalverarbeitung , maschinellem Lernen , medizinischen Bildgebung und mehr.

Spärliche Zersetzung

Geräuschlose Beobachtungen

Betrachten Sie ein lineares Gleichungssystem mit einer unterbestimmten Matrix und . Die Matrix (typischerweise als vollwertig angenommen) wird als Wörterbuch bezeichnet und ist ein Signal von Interesse. Das Core-Sparse-Repräsentationsproblem ist definiert als die Suche nach der dünnstmöglichen Repräsentation, die zufriedenstellend ist . Aufgrund der Unterbestimmtheit von , lässt dieses lineare System im Allgemeinen unendlich viele mögliche Lösungen zu, und unter diesen suchen wir die mit den wenigsten Nicht-Nullen. Formal gesagt lösen wir

wo ist die Pseudonorm, die die Anzahl der Nicht-Null-Komponenten von zählt . Dieses Problem ist bekanntlich NP-schwer mit einer Reduktion auf NP-vollständige Teilmengenauswahlprobleme bei der kombinatorischen Optimierung .

Sparsity of impliziert, dass nur wenige ( ) Komponenten darin ungleich Null sind. Die zugrunde liegende Motivation für eine solche spärliche Zerlegung ist der Wunsch, eine möglichst einfache Erklärung als Linearkombination von möglichst wenigen Säulen aus , auch Atome genannt, zu geben. Als solches kann das Signal als ein Molekül angesehen werden, das aus einigen wenigen grundlegenden Elementen besteht, die aus entnommen wurden .

Obwohl das oben gestellte Problem tatsächlich NP-schwer ist, kann seine Lösung oft mithilfe von Approximationsalgorithmen gefunden werden. Eine solche Option ist eine konvexe Lockerung des Problems, die durch die Verwendung der -norm anstelle von erhalten wird , wobei einfach die absoluten Werte der Einträge in summiert werden . Dies ist als Basisverfolgungsalgorithmus (BP) bekannt, der mit jedem linearen Programmierlöser verarbeitet werden kann . Eine alternative Näherungsmethode ist eine gierige Technik, wie z. B. die Matching-Verfolgung (MP), die den Ort der Nicht-Nullen nacheinander findet.

Überraschenderweise kann unter milden Bedingungen auf (unter Verwendung des Funkens (Mathematik) , der gegenseitigen Kohärenz oder der eingeschränkten Isometrieeigenschaft ) und dem Grad der Sparsity in der Lösung, gezeigt werden , dass das Problem der spärlichen Darstellung eine eindeutige Lösung hat, und BP und MP finden sie garantiert perfekt.


Laute Beobachtungen

Das beobachtete Signal ist oft verrauscht. Durch Lockern der Gleichheitsbeschränkung und Auferlegen einer -Norm für den Datenanpassungsterm wird das Problem der spärlichen Zerlegung zu

oder in eine Lagrangesche Form gebracht,

wo ersetzt die .

Genau wie im rauschfreien Fall sind diese beiden Probleme im Allgemeinen NP-schwer, können aber mit Verfolgungsalgorithmen angenähert werden. Genauer gesagt, wenn wir die in eine -Norm ändern , erhalten wir

die als Basis Verfolgung Entrauschung bekannt ist . In ähnlicher Weise kann eine Anpassungsverfolgung verwendet werden, um die Lösung der obigen Probleme anzunähern, indem die Orte der Nicht-Nullen einzeln gefunden werden, bis der Fehlerschwellenwert erreicht ist. Auch hier legen theoretische Garantien nahe, dass BP und MP in Abhängigkeit von den Eigenschaften von und der Mächtigkeit der Lösung zu nahezu optimalen Lösungen führen . Ein weiteres interessantes theoretisches Ergebnis bezieht sich auf den Fall, in dem unitär ist. Unter dieser Annahme lassen die oben gestellten Probleme (mit entweder oder ) geschlossene Lösungen in Form von nichtlinearer Schrumpfung zu.

Variationen

Es gibt mehrere Variationen des grundlegenden dünnbesetzten Approximationsproblems.

Strukturierte Sparsity : In der ursprünglichen Version des Problems kann jedes der Atome im Wörterbuch ausgewählt werden. Im strukturierten (Block-)Spasity-Modell sollen Atome nicht einzeln, sondern in Gruppen ausgewählt werden. Diese Gruppen können sich überlappen und unterschiedlich groß sein. Das Ziel besteht darin, so darzustellen , dass es spärlich ist, während diese Blockstruktur erzwungen wird.

Kollaboratives (gemeinsames) Sparse Coding : Die ursprüngliche Version des Problems wird für ein einzelnes Signal definiert . Im kollaborativen (gemeinsamen) Sparse-Codierungsmodell steht eine Reihe von Signalen zur Verfügung, von denen angenommen wird, dass sie jeweils aus (fast) der gleichen Menge von Atomen aus stammen . In diesem Fall zielt die Verfolgungsaufgabe darauf ab, eine Reihe von spärlichen Darstellungen wiederherzustellen, die die Daten am besten beschreiben, während sie gleichzeitig gezwungen werden, dieselbe (oder nahegelegene) Unterstützung zu teilen.

Andere Strukturen : Im weiteren Sinne kann das Problem der spärlichen Approximation gegossen werden, während eine spezifische gewünschte Struktur auf das Muster von Nicht-Null-Orten in gezwungen wird . Zwei Fälle von Interesse, die ausführlich untersucht wurden, sind die baumbasierte Struktur und allgemeiner eine verteilte Boltzmann-Unterstützung.

Algorithmen

Wie bereits oben erwähnt, gibt es verschiedene Approximationsalgorithmen (auch als Verfolgung bezeichnet ), die für das Problem der dünnbesetzten Darstellung entwickelt wurden:

Im Folgenden erwähnen wir einige dieser Hauptmethoden.

  • Matching Pursuit ist ein gieriger iterativer Algorithmus, um das obige Problem näherungsweise zu lösen. Es funktioniert, indem es nach und nach die Positionen der Nicht-Nullen nacheinander findet. Die Kernidee besteht darin, in jedem Schritt die Spalte (Atom) zu finden , die am besten mit dem aktuellen Residuum (initialisiert auf ) korreliert , und dann dieses Residuum zu aktualisieren, um das neue Atom und seinen Koeffizienten zu berücksichtigen. Die passende Verfolgung kann das gleiche Atom mehrmals auswählen.
  • Orthogonales Matching-Verfolgung ist dem Matching-Verfolgung sehr ähnlich, mit einem Hauptunterschied: In jedem Schritt des Algorithmus werden alle von Null verschiedenen Koeffizienten durch kleinste Quadrate aktualisiert . Infolgedessen ist der Rest orthogonal zu den bereits ausgewählten Atomen, und daher kann ein Atom nicht mehr als einmal ausgewählt werden.
  • Stufenweise gierige Methoden: Verbesserte Variationen gegenüber den oben genannten sind Algorithmen, die gierig arbeiten, während sie zwei kritische Merkmale hinzufügen: (i) die Fähigkeit, Gruppen von Nicht-Nullen gleichzeitig hinzuzufügen (anstelle einer Nicht-Null pro Runde); und (ii) Einschließen eines Beschneidungsschritts in jeder Runde, bei dem mehrere der Atome vom Träger verworfen werden. Vertreter dieses Ansatzes sind der Subspace-Pursuit-Algorithmus und der CoSaMP.
  • Die Basisverfolgung löst eine konvexe entspannte Version des Problems, indem sie die durch eine -Norm ersetzt. Beachten Sie, dass dies nur ein neues Ziel definiert, während die Frage nach dem zu verwendenden Algorithmus zum Erhalten der gewünschten Lösung offen bleibt. Allgemein als solche Algorithmen angesehen werden IRLS , LARS und iterative Soft-Shrinkage-Methoden.
  • Es gibt mehrere andere Methoden zur Lösung von Sparse-Zerlegungsproblemen: Homotopie-Methode, Koordinatenabstieg , iteratives Hard-Thresholding, proximale Methoden erster Ordnung , die mit den oben erwähnten iterativen Soft-Shrinkage-Algorithmen verwandt sind, und Dantzig-Selektor.

Anwendungen

Sparse-Approximationsideen und -algorithmen wurden in großem Umfang in der Signalverarbeitung , Bildverarbeitung , maschinellem Lernen , medizinischen Bildgebung , Array-Verarbeitung , Data Mining und mehr verwendet. In den meisten dieser Anwendungen wird das interessierende unbekannte Signal als eine spärliche Kombination einiger Atome aus einem gegebenen Wörterbuch modelliert, und dies wird als Regularisierung des Problems verwendet. Diese Probleme werden typischerweise von einem Wörterbuch-Lernmechanismus begleitet , der darauf abzielt, das Modell am besten an die gegebenen Daten anzupassen. Die Verwendung von Sparsity-inspirierten Modellen hat zu hochmodernen Ergebnissen in einer Vielzahl von Anwendungen geführt. Neuere Arbeiten legen nahe, dass es eine enge Verbindung zwischen Sparse Representation Modeling und Deep Learning gibt.

Siehe auch

Verweise

  1. ^ Donoho, DL und Elad, M. (2003). "Optimal spärliche Darstellung in allgemeinen (nicht orthogonalen) Wörterbüchern durch L1-Minimierung" (PDF) . Verfahren der Nationalen Akademie der Wissenschaften . 100 (5): 2197–2202. Bibcode : 2003PNAS..100.2197D . doi : 10.1073/pnas.0437847100 . PMC  153464 . PMID  16576749 .CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  2. ^ Tropp, JA (2004). "Gier ist gut: Algorithmische Ergebnisse für spärliche Approximation" (PDF) . IEEE-Transaktionen zur Informationstheorie . 50 (10): 2231 – 2242. CiteSeerX  10.1.1.321.1443 . doi : 10.1109/TIT.2004.834793 . S2CID  675692 .
  3. ^ Donoho, DL (2006). "Für die meisten großen unterbestimmten linearen Gleichungssysteme ist die minimale l1-Normlösung auch die dünnste Lösung" (PDF) . Mitteilungen über Reine und Angewandte Mathematik . 56 (6): 797–829. doi : 10.1002/cpa.20132 .
  4. ^ a b Elad, M. (2010). Sparse und redundante Darstellungen: Von der Theorie zu Anwendungen in der Signal- und Bildverarbeitung . Springer. CiteSeerX  10.1.1.331.8963 . doi : 10.1007/978-1-4419-7011-4 . ISBN 978-1441970107.
  5. ^ Donoho, DL, Elad, M. und Templyakov, V. (2006). "Stabile Wiederherstellung spärlicher übervollständiger Darstellungen in Gegenwart von Rauschen" (PDF) . IEEE-Transaktionen zur Informationstheorie . 52 (1): 6–18. CiteSeerX  10.1.1.125.5610 . doi : 10.1109/TIT.2005.860430 . S2CID  14813938 .CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  6. ^ Tropp, JA (2006). "Entspannen Sie sich einfach: Konvexe Programmiermethoden zur Identifizierung von spärlichen Signalen im Rauschen" (PDF) . IEEE-Transaktionen zur Informationstheorie . 52 (3): 1030–1051. CiteSeerX  10.1.1.184.2957 . doi : 10.1109/TIT.2005.864420 . S2CID  6496872 .
  7. ^ Eldar, YC, Kuppinger, P. und Bolcskei, H. (2009). „Block-sparse Signale: Unsicherheitsbeziehungen und effiziente Erholung“. IEEE-Transaktionen zur Signalverarbeitung . 58 (6): 3042–3054. arXiv : 0906.3173 . Bibcode : 2010ITSP...58.3042E . doi : 10.1109/TSP.2010.2044837 . S2CID  335122 .CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  8. ^ Tropp, JA, Gilbert, AC und Strauss, MJ (2006). „Algorithmen für gleichzeitige spärliche Approximation. Teil I: Gierige Verfolgung“. Signalverarbeitung . 86 (3): 572–588. doi : 10.1016/j.sigpro.2005.05.030 .CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  9. ^ Peleg, T. Eldar, YC und Elad, M. (2012). „Ausnutzung statistischer Abhängigkeiten in spärlichen Darstellungen für die Signalwiederherstellung“. IEEE-Transaktionen zur Signalverarbeitung . 60 (5): 2286-2303. arXiv : 1010.5734 . Bibcode : 2012ITSP...60.2286P . doi : 10.1109/TSP.2012.2188520 . S2CID  3179803 .CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  10. ^ Needell, D. und Tropp, JA (2009). „CoSaMP: Iterative Signalwiederherstellung aus unvollständigen und ungenauen Proben“. Angewandte und Computer-Harmonische Analyse . 26 (3): 301–321. arXiv : 0803.2392 . doi : 10.1016/j.acha.2008.07.002 .CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  11. ^ Zibulewsky, M. und Elad, M. (2010). "L1-L2-Optimierung in der Signal- und Bildverarbeitung" (PDF) . IEEE Signal Processing Magazine . 27 (3): 76–88. Bibcode : 2010ISPM...27...76Z . doi : 10.1109/MSP.200.936023 . S2CID  2783691 .CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  12. ^ Baraniuk, RG Candes, E. Elad, M. und Ma, Y. (2010). „Anwendungen der spärlichen Darstellung und der Drucksensorik“. Verfahren der IEEE . 98 (6): 906–909. doi : 10.1109/JPROC.2010.2047424 .CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  13. ^ Elad, M. Figueiredo, MAT und Ma, Y. (2010). "Zur Rolle von spärlichen und redundanten Darstellungen in der Bildverarbeitung" (PDF) . Verfahren der IEEE . 98 (6): 972–982. CiteSeerX  10.1.1.160.465 . doi : 10.1109/JPROC.2009.2037655 . S2CID  10992685 . Archiviert vom Original (PDF) am 17.01.2018.CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  14. ^ Plumbley, MD Blumensath, T. Daudet, L. Gribonval, R. und Davies, ME (2010). "Spärliche Darstellungen in Audio und Musik: Von der Codierung bis zur Quellentrennung". Verfahren der IEEE . 98 (6): 995–1005. CiteSeerX  10.1.1.160.1607 . doi : 10.1109/JPROC.2009.2030345 . S2CID  4461063 .CS1-Wartung: mehrere Namen: Autorenliste ( Link )
  15. ^ Papyan, V. Romano, Y. und Elad, M. (2017). "Convolutional Neural Networks Analyzed via Convolutional Sparse Coding" (PDF) . Zeitschrift für Machine-Learning-Forschung . 18 (83): 1–52. arXiv : 1607.08194 . Bibcode : 2016arXiv160708194P .CS1-Wartung: mehrere Namen: Autorenliste ( Link )