An der TU Wien nahm man sich beim Programmieren künstlicher Intelligenz natürliche
Nervenbahnen zum Vorbild. Die neuen Ansätze erzielen mit wenig Aufwand verblüffende Leistungen.
Wien (tu) - Ein natürlich gewachsenes Gehirn funktioniert ganz anders als ein gewöhnliches Computerprogramm.
Es besteht nicht aus Befehlen mit klaren logischen Anweisungen, sondern aus einem Netz von Zellen, die miteinander
kommunizieren. Man kann heute aber solche Netze auch am Computer nachbilden um Probleme zu lösen, die sich
nur schwer in logische Befehle zerlegen lassen.
An der TU Wien hat man nun einen neuen Ansatz für die Programmierung solcher neuronaler Netze entwickelt,
der die zeitliche Entwicklung der Nervensignale völlig anders beschreibt als bisher. Inspirieren ließ
man sich dabei von einem besonders einfachen und gut erforschten Lebewesen, dem Fadenwurm C. elegans. Sein Gehirn
wurde am Computer simuliert, das Modell wurde dann mit speziell entwickelten Lernalgorithmen angepasst. So gelang
es, mit einer extrem niedrigen Zahl simulierter Nervenzellen bemerkenswerte Aufgaben zu lösen. Obwohl das
vom Wurm inspirierte Netzwerk nur über 12 Neuronen verfügt, kann man es darauf trainieren, ein Auto an
einen vorherbestimmten Ort zu manövrieren. Ramin Hasani von Institut für Computer Engineering der TU
Wien hat diese Arbeit nun am 20. Oktober bei der TEDx-Konferenz in Wien präsentiert.
Mathematisch lässt sich zeigen, dass diese neuartigen neuronalen Netze extrem vielseitig sind. Außerdem
lässt sich ihr Verhalten gut untersuchen und verstehen – im Gegensatz zu bisherigen neuronalen Netzen, die
man oft als nützliche aber undurchschaubare „Black Box“ betrachtete.
Signale in verzweigten Netzen
„Neuronale Netze müssen zuerst trainiert werden“, erklärt Ramin Hasani. „Man liefert einen bestimmten
Input und passt die Verbindungen zwischen den Neuronen so an, dass am Ende möglichst zuverlässig der
richtige Output geliefert wird.“
Der Input kann beispielsweise ein Bild sein – und der Output der Name der Person, die darauf zu sehen ist. „Die
Zeit spielt bei diesem Vorgang normalerweise keine Rolle“, sagt Radu Grosu (Institut für Computer Engineering,
TU Wien). „Bei den meisten neuronalen Netzen wird zu einem bestimmten Zeitpunkt der gesamte Input geliefert und
daraus ergibt sich sofort ein bestimmter Output. In der Natur ist das aber ganz anders.“
Spracherkennung etwa ist eine zwangsläufig zeitabhängige Aufgabe, genauso wie Simultanübersetzungen
oder Bewegungsabläufe, die auf eine wechselnde Umwelt reagieren. „Solche Aufgaben können viel besser
gelöst werden, wenn man sogenannte RNN verwendet – recurrent neural networks“, sagt Ramin Hasani. „Das ist
eine Architektur, die Zeitabläufe besser abbildet, weil sie dafür sorgt, dass sich die Nervenzellen merken,
was bisher passiert ist.“
Hasani und seine Kollegen schlugen eine neuartige RNN-Architektur vor, die auf biophysikalischen Modellen von Neuronen
und Synapsen beruht und zeitabhängige Dynamik erlaubt. „In einem gewöhnlichen RNN-Modell gibt es eine
unveränderliche Verbindung zwischen Neuron eins und Neuron zwei, die festlegt, wie stark das eine Neron die
Aktivität des anderen beeinflusst“, erklärt Ramin Hasani. „In unserem neuartigen RNN ist diese Verbindung
eine nichtlineare Funktion der Zeit.“
Indem man zulässt, dass sich die Zellaktivität und die Verbindungen zwischen den Zellen mit der Zeit
verändern, eröffnet man völlig neue Möglichkeiten. Ramini Hasani, Mathias Lechner und ihre
Kollegen konnten mathematisch zeigen, dass sich mit dieser Methode im Prinzip neuronale Netze mit beliebiger Dynamik
erzeugen lassen. Um die Vielseitigkeit des neuen Typs neuronaler Netze zu demonstrieren, entwickelten und trainierten
sie ein spezielles kleines Neuro-Netzwerk: „Wir bildeten das Nervensystem nach, das der Fadenwurm C. elegans verwendet,
um einen ganz einfachen Reflex zu realisieren – nämlich das Rückzugsverhalten bei einer Berührung“,
sagt Mathias Lechner (derzeit am Institute of Science and Technology Austria). „Das neuronale Netz wurde stimuliert
und trainiert, um reale Aufgaben zu lösen.“
Der Erfolg ist erstaunlich: Obwohl es sich um ein kleines, einfaches Netz mit nur 12 Nervenzellen handelt, kann
es (nach der entsprechenden Optimierung der Nervenverbindungen) bemerkenswert komplexe Aufgaben lösen. Das
Netz kann trainiert werden, ein Fahrzeug in eine Parklücke zu manövrieren. „Der Output des neuronalen
Netzes, der in der Natur die Bewegung des Fadenwurms steuern würde, wird bei uns in das Lenken und Beschleunigen
des Fahrzeugs umgesetzt“, sagt Hasani. „Wir beweisen damit, dass mit unserer Methode sehr einfache neuronale Netze
komplizierte Aufgaben in einer physisch realen Umgebung lösen können.“
Zusätzlich hat die neue Methode den Vorteil, dass sie einen besseren Einblick in die Funktionsweise des neuronalen
Netzes bietet: Während man bei bisherigen neuronalen Netzen, die oft aus vielen tausend Knotenpunkten bestanden,
nur das Ergebnis analysieren kann und die Abläufe im Inneren unüberschaubar komplex sind, lässt
sich beim kleineren aber leistungsfähigen Netz der TU Wien zumindest teilweise verstehen, welche Nervenzellen
welche Effekte hervorrufen. „Für die Forschung und die weitere Verbesserung des Konzeptes ist das ein großer
Vorteil“, sagt Hasani.
Das bedeutet freilich nicht, dass Autos in Zukunft von künstlichen Würmern eingeparkt werden – aber es
zeigt, dass künstliche Intelligenz mit der richtigen Architektur deutlich leistungsfähiger sein kann
als bisher gedacht.
|