Neuronale Netze fuer die Visualisierung und die statistische Datenanalyse


In den letzten Jahren haben sich Neuroinformatik und Statistik einander sehr stark angenähert, und es sind eine Reihe interessanter Arbeiten im Spannungsfeld zwischen Künstlichen Neuronalen Netzen und den Methoden der klassischen Statistik entstanden. Ich möchte in meinem Vortrag drei moderne Entwicklungen umreißen, die alle drei bereits zu Erfolgen in der Praxis geführt haben.

Im ersten Teil werde ich über neue Verfahren zur unüberwachten Separation von Signalgemischen sprechen und diese an Hand von Anwendungen in der Bild- (optische Messung von Hirnaktivität) und Signalverarbeitung (Trennung akustischer Signalgemische) illustrieren.

Im zweiten Teil möchte ich Zusammenhänge zwischen Autoencodern und Clustering-Verfahren (z.B. Kohonen Karten) aufzeigen und daraus neue, robuster Verfahren zur Gruppierung von Daten ableiten. Ich werde diese Verfahren u.a. an Hand zweier Beispiele näher erläutern:

  1. "source-channel coding" Probleme bei der Übermittlung von Daten und
  2. Clustering auf Distanzmatrizen am Beispiel anatomischer Daten von der
Hirnrinde der Katze.

Im dritten Teil, schließlich, bespreche ich das Prinzip der "structural risk minimization" (siehe, z.B., Vapnik, 1995). Dieses Prinzip hat zu einem neuen Ansatz zur Lösung von Klassifikationsproblemen geführt, der unter dem Namen "support vector machines" in den letzten Jahren große Verbreitung gefunden hat. Nach einer kurzen Einführung in die Methode werde ich diese auf die Analyse paarweiser und relationaler Daten erweitern. Es zeigt sich, daß die neue Methode konsistent bessere Klassifikationsergebnisse liefert als bisher übliche Verfahren wie z.B.\ die Methode der K nächsten Nachbarn.

Schliesse Fenster wieder!


Holger Koch, 4. August 1998