A. Bühlmeier, M. Rossmann, K. Goser und G. Manteuffel,
``Intelligent Control: Von neuronalen Konzepten zur Anwendung ''


Die besondere Herausforderung beim Einsatz neuronaler Netze für Steuerungsaufgaben liegt darin begründet, daß ein reales System mit der realen Umwelt interagiert, ohne daß ein Mensch die jeweiligen Ein- und Ausgaben des Systems überwacht. Es ist daher erforderlich, Vorwissen in das System zu integrieren, damit gefahrlose Adaption möglich wird. Ein Lernverfahren, das besonders für `Intelligent Control' geeignet erscheint, ist das Reinforcement Lernen, da nicht immer erwartet werden kann, daß ein weiteres System (z.B. ein Mensch) zur Verfügung steht, das dem System Lösungen vorgibt. Neuronale Ansätze, die lediglich für Klassifikationsaufgaben entwickelt wurden, können somit nicht in jedem Fall verwendet werden.

Darüber hinaus möchte man dynamische Effekte erzielen, wie das Reagieren auf raumzeitliche Muster. Hierfür müssen dynamische neuronale Modelle verwendet werden, die neben der Langzeitdynamik (Lernen) eine Kurzzeitdynamik besitzen.

Wir geben zunächst einen Überblick über den Einsatz neuronaler Netze für `Intelligent Control'. Wir zeigen dann an dem Beispiel eines adaptiven Servoassistenten für einen elektrisch angetriebenen und mit Sensorik ausgestatteten Rollstuhl, wie eine von der Biologie inspirierte neuronale Architektur eingesetzt wird. Basis bilden dabei Prinzipien der klassischen und operanten Konditionierung. Die von uns vorgenommene spezielle Umsetzung des Prinzips des Reinforcement Lernens stellt ein interessantes Modell für die Interaktion mit dem Benutzer da: Solange der Anwender keine Systemziele gefährdet, tritt kein Reinforcement auf, und das neuronale Netz beeinflut Benutzerkommandos nicht. Erst durch vermeidbare Fehler des Anwenders reagiert das Netzwerk und greift abhängig von der Wahrscheinlichkeit eines Fehlers in die Steuerung ein.

Schliesse Fenster wieder!


Holger Koch, 4. August 1998