In den letzten Jahren haben sich Neuroinformatik und Statistik einander
sehr stark angenähert, und es sind eine Reihe interessanter Arbeiten im
Spannungsfeld zwischen Künstlichen Neuronalen Netzen und den Methoden der
klassischen Statistik entstanden. Ich möchte in meinem Vortrag drei
moderne Entwicklungen umreißen, die alle drei bereits zu Erfolgen in
der Praxis geführt haben.
Im ersten Teil werde ich über neue Verfahren zur unüberwachten
Separation von Signalgemischen sprechen und diese an Hand von Anwendungen
in der Bild- (optische Messung von Hirnaktivität) und Signalverarbeitung
(Trennung akustischer Signalgemische) illustrieren.
Im zweiten Teil möchte ich Zusammenhänge zwischen Autoencodern und
Clustering-Verfahren (z.B. Kohonen Karten) aufzeigen und daraus neue,
robuster Verfahren zur Gruppierung von Daten ableiten. Ich werde diese
Verfahren u.a. an Hand zweier Beispiele näher erläutern:
- "source-channel coding" Probleme bei der Übermittlung von Daten und
- Clustering auf Distanzmatrizen am Beispiel anatomischer Daten von der
Hirnrinde der Katze.
Im dritten Teil, schließlich, bespreche ich das Prinzip der "structural
risk minimization" (siehe, z.B., Vapnik, 1995). Dieses Prinzip hat zu einem
neuen Ansatz zur Lösung von Klassifikationsproblemen geführt, der unter
dem Namen "support vector machines" in den letzten Jahren große
Verbreitung gefunden hat. Nach einer kurzen Einführung in die Methode
werde ich diese auf die Analyse paarweiser und relationaler Daten erweitern.
Es zeigt sich, daß die neue Methode konsistent bessere
Klassifikationsergebnisse liefert als bisher übliche Verfahren wie z.B.\
die Methode der K nächsten Nachbarn.
Schliesse Fenster wieder!