Dallinger, R. (2016). Stability of coupled adaptive filters [Dissertation, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2016.27926
Die Lösung vieler Problemstellungen im naturwissenschaftlichen und technischen Bereich beruht auf Kenntnis eines Systems, das nur teilweise durch Beobachtungen erfasst werden kann. Typischerweise wird in solchen Fällen ein passendes Modell gewählt, das einem Satz von gemessenen Daten hinreichend gut angepasst werden kann. In manchen Fällen sind diese Daten sehr umfangreich und es kann auf entsprechend leistungsstarke numerische Mittel zurückgegriffen werden. In anderen Fällen, handelt es sich bei diesen Daten um einige wenige Ströme von Messwerten, die gleich nach ihrem eintreffen mit geringem Rechenaufwand verarbeitet werden müssen. Diese Arbeit beschäftigt sich ausschließlich mit letzterer Situation und betrachtet speziell das Verhalten sowie die Verlässlichkeit von Gradientenverfahren, sowie von Strukturen die mehrere von diesen kombinieren. Kapitel 3 widmet sich sogenannten asymmetrischen Algorithmen. Dies sind Gradientenverfahren, bei denen die Regressionsrichtung nicht wie sonst üblich der Richtung des Eingangsvektors entspricht. In einem ersten Schritt wird gezeigt, dass die korrespondierende homogene Rekursion potentiell divergieren kann, da deren Koeffzientenmatrix einen Singulärwert größer eins besitzt. Simulationsexperimente für eine der wichtigsten Teilklassen asymmetrischer Algorithmen, den Least-Mean-Squares (LMS) Algorithmus mit Matrixschrittweite, eröffnen jedoch die Einsicht, dass diese Divergenz selbst unter widrigsten Umständen in einigen Fällen nicht zutage tritt. Eine anschließende detaillierte Analyse dieses Phänomens basierend auf geometrischen Argumenten führt zu der Erkenntnis, dass nur dann Divergenz auftreten kann, wenn sich die Eigenräume der Schrittweitenmatrix unaufhörlich verändern. Der zweite Teil dieses Kapitels präsentiert zwei Methoden, mit deren Hilfe konkrete Algorithmen auf die Existenz eines solchen Verhaltens getestet werden können. Beide Methoden erlauben die Generierung ungünstiger Anregungsfolgen, wobei in einem Fall analytische Mittel, im anderen Fall eine numerische Suche für deren Erzeugung eingesetzt wird. Das vierte Kapitel konzentriert sich auf konventionelle Gradientenverfahren, hier auch als symmetrische Algorithmen bezeichnet. Es wird allerdings nicht nur ein solcher Algorithmus isoliert betrachtet, sondern eine spezielle Struktur, die mehrere von diesen kombiniert, indem deren individuelle a priori Fehler gegenseitig linear und ohne Gedächtnis interferieren. Für diese Struktur werden einerseits Bedingungen für l2-Stabilität hergeleitet, basierend auf der Lösung von Systemen linearer Ungleichungen in Kombination mit der Theorie zu M-Matrizen. Andererseits erfolgt eine Analyse auf Basis der Inhalte von Kapitel 3. Mit Hilfe des Khatri-Rao Matrixprodukt lassen sich so kompakte Schranken angeben, die einen endlichen Grenzwert des Parameterfehlers garantieren. Schließlich wird der für die Praxis relevante Spezialfall behandelt, bei dem alle einzelnen Gradientenverfahren denselben Fehler benutzen um deren Parameter zu adaptieren. Es zeigt sich, dass das Verhalten einer solchen Struktur durch einen LMS Algorithmus mit Matrixschrittweite beschrieben werden kann, wodurch sämtliche Erkenntnisse aus Kapitel 3 zur Anwendung gebracht werden können. Kapitel 5 wendet die zuvor entwickelte Theorie auf praktisch eingesetzte adaptive Systeme an. Dies erlaubt für das, in der digitalen Vorverzerrung von Leistungsverstärkern eingesetzte, adaptive Wiener Modell, bestehend aus einem linearen Filter gefolgt von einer gedächtnislosen Nichtlinearität, Bedingungen für l2-Stabilität und für einen begrenzten Parameterfehler anzugeben. Äquivalente Ergebnisse werden auch für den mehrkanaligen LMS Algorithmus mit gefiltertem Eingangssignal (MC-FXLMS), verwendet in der aktiven Rauschunterdrückung, hergeleitet. Abschließend wird ein künstliches neuronales Netz (ein mehrlagiges Perzeptron) betrachtet, das mittels Fehlerrückführung trainiert wird. Das Resultat für ein solches Netz beliebiger Größe zeigt, dass Parameterkonvergenz kaum garantiert werden kann und wesentlich von der Qualität der Initialisierung abhängt.
de
Nowadays, many disciplines in science and engineering deal with problems for which a solution relies on knowledge about the characteristics of one or more given systems that can only be ascertained based on restricted observations. This requires the fitting of an adequately chosen model, such that it "best" conforms to a set of measured data. Depending on the context, this fitting procedure may resort to a huge amount of recorded data and abundant numerical power, or contrarily, to only a few streams of samples, which have to be processed on the fly at low computational cost. This thesis, exclusively focuses on the latter scenario. It specifically studies unexpected behaviour and reliability of the widely spread and computationally highly efficient class of gradient type algorithms. Additionally, special attention is paid to systems that combine several of them. Chapter 3 is dedicated to so called asymmetric algorithms. These are gradient type algorithms that do not employ the (commonly used) unaltered input vector for regression. In a first step, it is shown that for such algorithms, the mapping matrix of the underlying homogeneous recursion has one singular value that is larger than one. This entails the risk of parameter divergence. Restricting to the most prominent subclass of asymmetric algorithms, the least-mean-squares (LMS) algorithm with matrix step-size, simulation experiments demonstrate that such divergence does not occur for all step-size matrices, even under worst case conditions. Motivated by this observation, the first part of this chapter dissects this phenomenon based on geometric arguments and comes to the novel insight that persistently changing eigenspaces of the step-size matrix are at the core of this worst case parameter divergence. In the second part, analytic as well as numeric methods are derived that allow to intentionally provoke this type of divergence, in order to assess specific algorithms. A combination of arbitrarily many symmetric algorithms, i.e., conventional LMS algorithms, is addressed in Chapter 4. It considers a structure of such algorithms that mutually interfere with each other via a linear memoryless coupling among their individual a priori errors. Conditions for l2-stability as well as boundedness of the parameter error are derived. The primer are obtained by the solution of a linear system of inequalities, resorting to the theory of M-matrices. The latter are compactly stated by means of the Khatri-Rao matrix product. Finally, a practically relevant case of coupling is analysed, where all of the individual adaptive schemes employ the same update error. This situation is found to be equivalent to an LMS algorithm with matrix step-size, making it accessible to the findings of Chapter 3. The such obtained theoretic apparatus is applied in Chapter 5 to types of adaptive systems that are encountered in real life. First, for an adaptive Wiener model in a configuration that is typically used in digital pre-distortion of microwave power amplifiers, consisting of a linear filter followed by a memoryless non-linearity, a condition for l2-stability and boundedness of its parameter error is identified. Resorting to the knowledge gained about asymmetric algorithms, this boundedness is then found to be extendible to less restrictive and practically more feasible constraints. Then, the multichannel filtered-x LMS is studied in context of active noise control, leading to sufficient bounds for l2-stability and boundedness of its parameter error. Finally, the theory of Chapters 3 and 4 is harnessed to confirm that parameter convergence of an arbitrarily sized multilayer perceptron trained by the backpropagation algorithm can barely be ensured and strongly depends on the quality of its parameter initialisation.
en
Additional information:
Zusammenfassung in deutscher Sprache Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers