A. Bühlmeier, M. Rossmann, K. Goser und G. Manteuffel, ``Intelligent Control: Von neuronalen Konzepten zur Anwendung
''
Die besondere Herausforderung beim Einsatz neuronaler Netze für Steuerungsaufgaben liegt
darin begründet, daß ein reales System mit der realen Umwelt interagiert, ohne daß ein
Mensch die jeweiligen Ein- und Ausgaben des Systems überwacht. Es ist daher erforderlich,
Vorwissen in das System zu integrieren,
damit gefahrlose Adaption möglich wird. Ein Lernverfahren, das besonders für
`Intelligent Control' geeignet erscheint, ist das Reinforcement Lernen, da
nicht immer erwartet werden kann,
daß ein weiteres System (z.B. ein Mensch) zur Verfügung steht, das dem System
Lösungen
vorgibt. Neuronale Ansätze, die lediglich für Klassifikationsaufgaben entwickelt wurden,
können somit nicht in jedem Fall verwendet werden.
Darüber hinaus möchte man dynamische Effekte erzielen, wie das Reagieren auf
raumzeitliche Muster. Hierfür müssen dynamische
neuronale Modelle verwendet werden, die neben der Langzeitdynamik (Lernen) eine
Kurzzeitdynamik besitzen.
Wir geben zunächst einen Überblick über den Einsatz neuronaler Netze für `Intelligent
Control'. Wir zeigen dann an dem Beispiel eines adaptiven Servoassistenten für
einen
elektrisch angetriebenen und mit Sensorik ausgestatteten Rollstuhl, wie eine von der Biologie
inspirierte neuronale Architektur eingesetzt wird. Basis bilden dabei Prinzipien der
klassischen und operanten Konditionierung. Die von uns vorgenommene spezielle Umsetzung
des Prinzips des Reinforcement Lernens stellt ein interessantes Modell für die
Interaktion mit
dem Benutzer da: Solange der Anwender keine Systemziele gefährdet, tritt kein
Reinforcement auf, und das neuronale Netz beeinflut Benutzerkommandos nicht. Erst durch
vermeidbare Fehler des Anwenders reagiert das Netzwerk und greift abhängig von
der
Wahrscheinlichkeit eines Fehlers in die Steuerung ein.
Schliesse Fenster wieder!
|
|