Friedrich Leisch,
``Zur Stationarität autoregressiver ANN Modelle''


Neurale Netze erfreuen sich großer Beliebtheit zur Modellierung von nichtlinearen, autoregressiven Zeitreihen, d.h., Modellen der Form

xt = g(xt-1,...,xt-p) + et (1)

wobei g() eine ``beliebige'' Funktion ist und etein iid Rauschprozeß. Wenn g linear ist, erhält man ein klassisches AR(p) Modell.

Eine der zentralen Fragen der Zeitreihentheorie ist die Stationarität des Modells, d.h., ob die probabilistischen Strukturen konstant oder zumindest asymptotisch konstant über die Zeit sind. Überraschenderweise wurde diese Frage in der NN Literatur bisher fast nicht behandelt, sondern AR-NN Modelle wie (1) ``einfach verwendet'', ohne die Eigenschaften des Modells genauer zu untersuchen.

Wir verwenden Resultate aus der Theorie dynamischer Systeme und Markoffkettentheorie, um zu zeigen, unter welchen Bedingungen AR-NN (asymptotisch) stationär sind. Insbesonders zeigt sich z.B., daß ein klassisches Multi Layer Perceptron ohne Shortcuts nur stationäre Prozesse lernen kann. Sind lineare Shortcuts zwischen Inputs und Outputs des Netzes vorhanden, so bestimmen nur die Gewichte der Shortcuts, ob das Gesamtsystem stationär ist oder nicht.

Es ist daher z.B. nicht möglich, mit einem ``normalen'' MLP (ohne Shortcuts) eine nichtstationäre Zeitreihe zu lernen, wenn auch über endliche Zeitintervalle zu approximieren. Weiters kann durch klassischen Bedingungen an die Wurzeln des Shortcut-Polynoms getestet werden, ob eine stationäre oder nicht-stationäre Zeitreihe gelernt wurde (die restlichen Gewichte sind für diese Frage irrelevant).

Wenn man als Beispiel Zeitreihen aus der Finanzwirtschaft wie Aktienkurse hernimmt, so heißt dies, daß ein MLP ohne Shortcuts nur die Returns, nicht aber den Kurs selber lernen kann, da derartige Zeitreihen typischerweise integriert und damit nicht stationär sind.

Schliesse Fenster wieder!


Holger Koch, 4. August 1998