Keuth, N. (2004). An improved neuro-fuzzy training algorithm for automotive applications [Dissertation, Technische Universität Wien]. reposiTUm. http://hdl.handle.net/20.500.12708/180521
Der hier vorgestellte Trainingsalgorithmus besteht aus zwei Schleifen. Die äußere Schleife bestimmt das Zentrum eine neuen lokalen Modells und die Ausrichtung der Gültigkeitsfunktion. Die innere Schleife berechnet die Parameter der Aktivierungsfunktion. Als Gültigkeitsfunktionen werden Gaußfuntionen verwendet, die Aktivierungsfunktionen sind Polynome zweiter Ordnung linear in den Parametern. Die Ausrichtung der Gültigkeitsfunktion wird anhand der Lage der Daten im Eingangsraum bestimmt. Dabei wird darauf geachtet, dass die Parameter der Aktivierungsfunktion robust geschätzt werden können. Die Größe der Aktivierungsfunktion wird über eine Approximation des funktionalen Zusammenhangs der Zielfunktion bestimmt. Dazu wird ausgehend von der Stelle im Eingangsraum an der sich der gr¨oßte Modellierungsfehler befindet, eine RLS (recursive least square) Sch¨atzung durchgeführt. So wird gewährleistet, dass das lokale Modell optimal an die Trainngsdaten angepasst werden kann. Das Training ist beendet, wenn der maximale Fehler eine benutzerdefinierte Untergrenze unterschreitet. Danach wird noch überprüft ob sich nicht signifikante lokale Modelle im Gesamtmodell befinden. Nicht signifikante Modelle sind solche, welche nichts zum Gesamtmodell betragen, d.h. die Anzahl ihrer effektiven Parameter geht gegen Null. Die Modellgüte kann über drei Statische Kennwerte und die Konfidenzintervalle überprüft werden. Über die Konfidenzintervalle kann man auch feststellen in welchen Bereichen das Modell besonders gut passt und wo noch weitere Messdaten notwendig sind. Die Funktionalität des Algorithmus wird an einigen Beispielen gezeigt, wobei hier besonders auf die Trainingsparameter eingegangen wird. Außerdem wird die Anwendung des Algorithmus auf stationäre und dynamische Identifiaktionsprobleme gezeigt. Außerdem wird ein Fehlererkennungssystem unter Verwendung der mit INN trainierten Neuro-Fuzzy Modelle präsentiert.
The algorithm proposed in this thesis consists of two loops: In the outer loop the extent and shape of a new local model are determined. In the inner loop the parameters of the consequents are determined. A new center is placed where it is most needed, according to the modeling error. The size of the local model is determined by the alignment of the training data and statistical properties of the target. By this procedure each local model has highest possible statistical significance. The training is done till the performance criteria reaches a user defined boundary. As a performance function the modeling error is used. If no more improvement can be reached the training is stopped and non significant local models are removed from the final model structure. The significance of a local model is given by the number of effective parameters. Finally, confidence and prediction intervals for the model are computed. With the help of these and the statistical performance criteria R2 and R2pred the model quality can easily be evaluated. To show the applicability of the INN algorithm some examples are presented. They show how the user can tune the training mainly by three parameters. A major part of this work deals with real life applications, where the INN algorithm delivered very good results. The INN algorithm can be used for stationary and dynamic modeling and identification.With the statistical values the models deliver also a fault detection and isolation system (FDI) can be set up, what has been shown in a case study.