next up previous contents
Next: Funktionen Up: No Title Previous: Lernen mit Gütemaß

Zusammenfassung

 

Zuerst wurde das doppeltinverse Pendel mit einem Fuzzy-Regler geregelt. Hierbei wurde die Aktion des Reglers, die Stellgröße, siehe Abbildung gif, in Abhängigkeit von dem Systemzustand des doppeltinversen Pendels, der Regelgröße, mit aufgezeichnet. Anhand dieser Ein- Ausgabetupel für den Regler wurde ein Rekurrentes Multilayer Perceptron trainiert, siehe Abbildung gif. Das so gelernte Netz konnte das Pendel innerhalb eines kleinen Winkelbereichs des Pendelarms stabiler regeln als der Fuzzy-Regler. Da die Wertepaare beim Regeln mit dem Fuzzy-Regler aufgezeichnet waren, lagen sie in einem sehr kleinen Winkelbereich für den Pendelarm. Das Neuronale Netz konnte daher nicht lernen, wie es sich außerhalb dieses Bereichs verhalten soll. Dies hatte zur Folge, daß die Regelung mit dem Neuronalen Netz außerhalb dieses Bereichs instabil war.

Im Gegensatz zum Lernen mit Regler wurde dann ein Neuronales Netz ohne Regler gelernt. Hierzu war ein Simulationsmodell nötig, siehe Heul96, da die vorhandene Hardware nicht schnell genug war, um das Neuronale Netz in Echtzeit lernen zu lassen. Anhand eines Gütemaßes wurde der Fehler für den Backpropagation-Algorithmus bestimmt. Es wurden die drei verschiedenen Netzarten Feedforward, Rekurrentes Multilayer Perceptron und Elman Netz verwendet. Das Elman Netz zeichnete sich vor allem durch Schnelligkeit aus. Aber auch die Ergebnisse der Regelung waren mit einem Elman Netz besser als mit einem Rekurrenten Multilayer Percetron. Die Regelung war jedoch noch nicht auf Hardware anwendbar, da der Motorarm noch zu große Winkel ansteuerte. Deswegen wurde versucht, das Neuronale Netz mit einer größeren Zeitauflösung lernen zu lassen. Das mit 10-fachem Zeittakt gelernte und regelnde Neuronale Netz lieferte schon bessere Ergebnisse als die bisherigen. Dies wurde noch verbessert, indem das Neuronale Netz nicht mit derselben Zeitauflösung regelte, mit der es trainiert worden war. Bei 10-facher Zeitauflösung beim Lernen und normaler Zeitauflösung beim Regeln waren die Ergebnisse zufriedenstellend. Verbessert wurden die Ergebnisse noch dadurch, daß das Neuronale Netz nicht mit 10-facher Zeitauflösung trainiert wurde, sondern statt dessen bei jedem Simulationsschritt mit Backpropagation diesen Vorgang 10 Mal wiederholt hat. Das so trainierte Neuronale Netz war gegen Störungen von außen beziehungsweise veränderte Systemparameter, wie zum Beispiel andere Gewichte am Pendel sehr robust.

Es konnte im Rahmen dieser Studienarbeit gezeigt werden, daß Neuronale Netze zum Lernen komplexer algebraischer Gleichungen, hier speziell das Regeln eines doppeltinversen Pendels, durchaus geeignet sind.

%


next up previous contents
Next: Funktionen Up: No Title Previous: Lernen mit Gütemaß

Marius Heuler
Tue Jan 7 12:05:27 MET 1997