print article  |  highlight search tearms

 F+ | 15.10.2021


Das Geheimnis der neuromorphen Computer

 Halbleiter sind knapp, zugleich entwickelt sich die Technik rasant weiter. Nun steht ein neuer Ansatz im Fokus: Sind wir auf dem Weg zu einem Elektronenhirn?

Ständig sorgt der Chipmangel derzeit für Schlagzeilen. Infolge der Pandemie stieg einerseits der Bedarf an Alltagselektronik, um trotz all der Einschränkungen beruflich wie privat Kontakt halten zu können. Andererseits verschätzten sich Unternehmen mit dem vermutlich anfallenden Bedarf und bestellten zu wenig. In den Fokus ist das Thema überdies gerückt, weil die führenden Halbleiter-Fertiger TSMC und Samsung in Taiwan und Südkorea beheimatet sind, in einer Region, in der China und Amerika um Einfluss konkurrieren. Und schließlich hat die Miniaturisierung inzwischen ein Ausmaß erreicht – es geht um kleine Nanometerbereiche –, das Fachleute dazu bringt, nach alternativen „Bauweisen“ für Chips zu suchen, um weiter für eine beständig wachsende Rechenleistung sorgen zu können. Worum geht es?

In der Fernsehserie „Raumschiff Orion“ aus den Sechzigerjahren wurde der Computer als Elektronenhirn bezeichnet. Dieser Begriff legt nahe, dass ein Computer tatsächlich die Intelligenz eines menschlichen Gehirns haben kann. Tatsächlich hat sich die Leistungsfähigkeit elektronischer Systeme in den zurückliegenden sechzig Jahren dramatisch entwickelt, und Berechnungen, die in den Siebzigerjahren von Computern ausgeführt wurden, die ganze Räume oder gar Gebäude gefüllt haben, können heute mobil auf einem Smartphone erledigt werden.

Dennoch ist die Leistungsfähigkeit eines Mikroprozessors (des Bausteins im Smartphone oder Computer, der die eigentliche „Intelligenz“ enthält) weit geringer als die des menschlichen Gehirns. Zudem benötigt das menschliche Gehirn deutlich weniger Energie als ein Computer, um eine bestimmte Aufgabe zu erledigen. Zur Erinnerung: Im Februar des Jahres 2011 konnte erstmals der vom amerikanischen Computerkonzern IBM entwickelte Supercomputer Watson beim bekannten Fernsehspiel „Jeopardy!“ gegen zwei geübte menschliche Spieler gewinnen. Allerdings hatte Watson eine Leistungsaufnahme von 85.000 Watt – während ein menschliches Gehirn typischerweise bei 20 Watt liegt. Das bedeutet, dass das Gehirn um fast den Faktor 5000 weniger Energie verbraucht, um eine vergleichbare Rechenleistung etwa im „Jeopardy!“-Spiel zu erreichen.

Werktags um 6.30 Uhr

Dieser gewaltige Unterschied in der Energieeffizienz ist eine der Motivationen, nun stärker auf die Baustruktur des Gehirns zu blicken und die wichtigsten Strategien auf elektronische Systeme zu übertragen. Seit dem Jahr 1945 sind die meisten Rechner nach der damals von dem herausragenden Computerwissenschaftler John von Neumann entworfenen Architektur konstruiert. Diese sieht vor, dass eine zentrale Recheneinheit über „Bus-Systeme“ (im Prinzip eine bestimmte Anzahl an parallelen Leitungen) mit dem Speicherwerk und den Ein- und Ausgabeeinheiten verbunden ist. Die Recheneinheit kann dabei sehr schnell Befehle nacheinander ausführen, sie benötigt dazu aber die Daten aus dem Speicherwerk, die über die Busleitung beständig hin- und hertransportiert werden müssen.

Das menschliche Gehirn ist im Gegensatz dazu aus den elementaren Einheiten Neuron, Synapse und Axon aufgebaut. Das Neuron erzeugt Signale, die über die Axonen und Synapsen weitergeleitet werden, wobei die Synapsen eine sich an die Erfordernisse anpassende Verbindungsstärke aufweisen. Sie dienen damit gleichermaßen der Speicherung und der Informationsverarbeitung. Damit gibt es zwei wesentliche Unterschiede: Während im Computer die Befehle sehr schnell nacheinander ausgeführt werden, arbeitet ein Gehirn hochgradig parallel und auf der Ebene der einzelnen Elemente viel langsamer. Gleichzeitig ist die Speicherung der Information und der auszuführenden Befehle nicht von deren Verarbeitung getrennt, wie das innerhalb der Von-Neumann-Architektur der Fall ist.

Die Informationstechnologie versucht sich das zunutze zu machen: zum Beispiel indem sie mittels sogenannter künstlicher neuronaler Netzwerke Strategien des Gehirns nachzubilden versucht. In einem künstlichen neuronalen Netzwerk gibt es eine Reihe von Eingangsknoten, eine Reihe von Ausgangsknoten und dazwischen mehrere Ebenen von miteinander verknüpften Knoten, die jeweils über bestimmte Gewichte verbunden sind. Das heißt, das Signal am Ausgang eines Knotens wird mit einem bestimmten Faktor multipliziert, wenn es zum nächsten Knoten geleitet wird. Diese Gewichte bestimmen darüber, welche Funktion das Netzwerk ausführt.

Weg von der von-Neumann-Architektur

Ein Beispiel: Stellen Sie sich vor, Sie wollen die Farben auf einer Ampel richtig zuordnen. Sowohl am Eingang als auch am Ausgang haben Sie jeweils drei Knoten. Am Eingang gibt es je einen Knoten, der „oben“, „Mitte“ und „unten“ repräsentiert. Am Ausgang gibt es je einen, der „Rot“, „Gelb“ und „Grün“ repräsentiert. Das erwünschte Verhalten besteht darin, dass, wenn Sie den oberen Eingangsknoten aktivieren, das Ergebnis Rot ist, beim mittleren ist es Gelb, und beim unteren ist es Grün. Wenn mehrere Eingangssignale anliegen, soll ebenfalls die passende Kombination am Ausgang angezeigt werden.

Der Prozess des Lernens besteht nun darin, dass die Gewichte bestimmt werden, die bei jeder erdenklichen Kombination aus Eingangssignalen die richtige Kombination an Ausgangssignalen erzeugt. Dazu muss das Netzwerk trainiert werden. Dazu werden die entsprechenden Signale an die Eingangs- und Ausgangsknoten angelegt und nun die Gewichte im Netzwerk so angepasst, dass dieses Ausgangssignal genau bei der richtigen Kombination an Eingangssignalen erzeugt wird. Man muss quasi rückwärts durch das Netzwerk gehen und für jeden Knoten das passende Gewicht erzeugen. Stehen diese fest, so muss man vorwärts durch das Netzwerk gehen, um das gewünschte Ergebnis zu erhalten.

Beide Prozesse kann man im Prinzip auf einem herkömmlichen Von-Neumann-Computer durchführen. Das wird auch gemacht, wenn ein derartiges künstliches neuronales Netzwerk in einer Software realisiert wird. In diesem Fall bleibt man aber weit von der Effizienz des menschlichen Gehirns entfernt, da der Rechner intern in der üblichen Art und Weise arbeitet, also alles nacheinander ausführt und sehr viele Daten hin- und herschieben muss.

Analoge Hardware-Beschleuniger

Eine erste Verbessrung kann davon ausgehend erzielt werden, wenn man sich bewusst macht, dass in dieser Architektur im Prinzip die Aufgaben für jeden Knoten immer gleich sind und auf relativ einfache Rechenoperationen, nämlich Multiplikationen und Additionen, beschränkt werden können. Nun kann man den normalen Mikroprozessor, der so aufgebaut ist, dass er flexibel sehr viele unterschiedliche Aufgaben erledigen kann, durch einen speziellen ersetzen, der eine deutlich eingeschränktere Funktionalität besitzt, diese aber hochgradig parallel, also für alle Knote einer Ebene gleichzeitig, ausführen kann. Genau darauf sind sogenannte Grafikprozessoren spezialisiert, wie sie zum Beispiel das amerikanische Unternehmen Nvidia hergestellt. Aus diesem Grund erfreuen sich derartige Prozessoren für den Bereich der Künstlichen Intelligenz, der gegenwärtig stark auf künstlichen neuronalen Netzen beruht, wachsender Beliebtheit.

Möglich ist indes, noch einen Schritt weiter zu gehen. Unsere heutigen Rechner arbeiten alle digital, also nur mit den beiden Werten null und eins. Wenn man nun Zwischenwerte zulässt, so lassen sich die erforderlichen Berechnungen noch weiter vereinfachen, indem die elementaren Gesetze des elektrischen Stroms wie das ohmsche Gesetz und das kirchhoffsche Gesetz dazu benutzt werden, um eine Multiplikation mit einem Gewicht (ohmsches Gesetz) und eine Addition vieler Summanden (kirchhoffsches Gesetz) auszuführen. Das ohmsche Gesetz besagt ja, dass der Strom proportional zur Spannung multipliziert mit dem Leitwert (dem Kehrwert des elektrischen Widerstandes) ist. Somit ergibt sich der Strom als Multiplikation des Leitwertes (der das Gewicht im künstlichen neuronalen Netz darstellt) mit der angelegten Spannung. Das kirchhoffsche Gesetz wiederum besagt, dass die Summe aller in einen Knoten fließenden Ströme gleich null ist. Es lassen sich folglich die Ströme aufsummieren, wenn viele Widerstände, die mit einer bestimmten Spannung betrieben werden, an dieselbe Leitung angeschlossen werden. Dadurch kann in der analogen Welt die Summe sehr vieler Produktterme sehr elegant und effizient ermittelt werden. Die Widerstände stellen hier die Speicherelemente dar, die mit unterschiedlichen Technologien realisiert werden können. Die Information muss bei diesem Ansatz nicht erst aus diesem ausgelesen werden, sondern wird sofort weiterverrechnet. Dies wird heutzutage auch als Rechnen im Speicher (in-memory computing) bezeichnet.

Derartige analoge Hardware-Beschleuniger für künstliche neuronale Netze sind gerade ein sehr intensiv beforschtes Thema, bei dem gleichwohl noch unklar ist, ob es sich im großen Stil durchsetzen wird. Vereinfacht gesagt, würde man damit die Informationsdichte in einem Netzwerk weiter erhöhen – und infolgedessen mit weniger Aufwand mehr Ergebnis produzieren. Allerdings geht dies auf Kosten der Genauigkeit, und wie stark diese eingeschränkt werden kann, das ist ein aktuelles Forschungsthema.

Das menschliche Gehirn geht allerdings noch einen Schritt weiter. Dort liegen die Signale nicht ständig an, sondern es werden nur bei Bedarf von den Neuronen Impulse erzeugt. Das bedeutet, dass nicht ständig Energie verbraucht wird, und die Komponente der zeitlichen Verzögerung zwischen zwei Pulsen wird als zusätzlicher Informationsgehalt verwendet, wodurch die Informationsdichte weiter steigt. Derartige Netzwerke, bei denen Pulse statt konstanter Signale im Netzwerk verarbeitet werden, werden derzeit unter dem Stichwort „neuromorphe Schaltkreise“ ebenfalls intensiv erforscht. Die Hoffnung liegt darin, dass man mit diesem Ansatz der Effizienz des Gehirns nahekommen kann. Allerdings ist dabei zu beachten, dass die genauen Abläufe im Gehirn immer noch viele Unbekannte aufweisen und auch dieser Ansatz ein sehr stark vereinfachtes Modell eines Gehirns darstellt.

Derzeit wird auf vielen Ebenen an derartigen Lösungen gearbeitet. Dabei werden einerseits Lösungen auf Basis der bestehenden CMOS-Technologie verwendet, das Kürzel CMOS steht für Complementary Metal Oxide Semiconductor; dabei handelt es sich um die Standardtechnologie, mit der heute die überwiegende Masse an integrierten Schaltkreisen hergestellt wird. Beispiele dafür sind das auf ARM-Kernen beruhende SpiNNaker-System der Universitäten Manchester und TU Dresden oder experimentelle Chips wie TrueNorth von IBM, Loihi von Intel oder vergleichbare Demonstratoren einiger Start-ups, die Neuronen und Synapsen mithilfe von CMOS-Schaltkreisen realisieren. Gearbeitet wird überdies an Lösungen, bei denen die Funktionen der einzelnen Neuronen und Synapsen durch spezielle Bauelemente realisiert werden, die entweder auf resistiv schaltenden Materialien basieren, also Materialien, bei denen sich der Widerstand durch elektrische Pulse einstellen lässt (solche Bauelemente werden auch Memristoren genannt), oder auf ferroelektrischen Materialien. Die letztgenannten Ansätze werden vorwiegend an Universitäten und Forschungsinstituten vorangetrieben und werden noch einig Jahre brauchen, bis sie eventuell in die industrielle Anwendung überführt werden können.

Mehr Energieeffizienz

Sicher scheint, dass mit all den geschilderten Ansätzen nicht alle Fragestellungen besser und vor allem schneller bearbeitet werden können als mit einem herkömmlichen Computer. Schon lange ist ein herkömmlicher Digitalrechner dem Menschen überlegen, wenn es beispielsweise um die Fragestellung geht, die Quadratwurzel aus der Zahl 3758 zu ziehen. Auf der anderen Seite ist das Erkennen von komplexen Mustern etwa in Bildern eine Aufgabe, bei welcher das Gehirn viel schneller und effizienter zu einem Ergebnis kommt. Deshalb ist davon auszugehen, dass derartige neuromorphe Schaltkreise in einigen Jahren die klassischen Computer bei Aufgaben unterstützen, die genau diese Charakteristika aufweisen, bei denen die Verarbeitung des Gehirns klare Vorteile liefert. Ein zusätzlicher Vorteil bestünde darin, dass diese Systeme nicht explizit programmiert werden müssen, sondern wie wir Menschen während des Betriebs lernen.

Um diese Aufgabe energieeffizient lösen zu können, sind spezielle, darauf maßgeschneiderte Prozessoren nötig, die, wie erläutert, zukünftig vermutlich auch neue Bauelementefunktionen enthalten werden, da reine Softwarelösungen auf Basis der vorhandenen Von-Neumann-Rechnerarchitektur das Potential solcher Ansätze nur teilweise erschließen können. All das zeigt auch: Trotz der rasanten Forschungsfortschritte auf diesem Gebiet sind wir von einem echten Elektronenhirn mit der Energieeffizienz und Leistungsfähigkeit eines menschlichen Gehirns noch viele Jahre oder gar Jahrzehnte entfernt.

Thomas Mikolajick ist Professor für Nanoelektronik an der TU Dresden und Wissenschaftlicher Direktor der NaMLab gGmbH.