Das menschliche Gehirn verrichtet seine erstaunliche Rechenarbeit mit gerade einmal 20 Watt Leistungsaufnahme. Moderne KI-Systeme hingegen verschlingen ein Vielfaches davon: Allein ein einzelner Hochleistungs-GPU kommt auf rund 700 Watt, und für komplexe KI-Anwendungen werden Tausende solcher Chips gleichzeitig betrieben. Forschende der University of Cambridge haben nun ein neuartiges Chipbauteil entwickelt, das sich vom Aufbau des Gehirns inspirieren lässt und den Energiebedarf künstlicher Intelligenz um bis zu 70 Prozent senken könnte. Das Problem: Speicher und Verarbeitung getrennt In herkömmlichen Computern sind Arbeitsspeicher und Prozessor räumlich voneinander getrennt. Für jede Rechenoperation müssen Daten zwischen diesen beiden Einheiten hin- und hertransportiert werden — ein Vorgang, der kontinuierlich enorme Mengen Strom verbraucht. Im menschlichen Gehirn ist das grundlegend anders: Neuronen und Synapsen speichern und verarbeiten Informationen gleichzeitig an derselben Stelle, in dichten Netzwerken aus elektrischen und chemischen Signalen. Dieses Prinzip ist außerordentlich energieeffizient. Genau dieses Konzept greift das Forschungsfeld des neuromorphen Computings auf. Im Mittelpunkt solcher Systeme steht eine Komponente namens Memristor — ein Bauteil, das ähnlich wie eine biologische Synapse funktioniert: Es kann seinen elektrischen Widerstand verändern und diesen Zustand auch ohne Stromversorgung beibehalten. Bestehende Memristoren haben jedoch einen entscheidenden Nachteil: Sie erzeugen im Inneren ihres Materials winzige leitfähige Filamente, die sich beim Schalten bilden und wieder auflösen. Dieser Prozess verläuft unvorhersehbar und erfordert relativ hohe Betriebsspannungen. Ein neuer Ansatz: Hafniumoxid mit internen Grenzflächen Das Cambridger Team um Erstautor Dr. Babak Bakhit schlug einen völlig anderen Weg ein. Die Forscher:innen entwickelten ein Dünnschichtmaterial auf Basis von Hafniumoxid, dem sie Strontium und Titan beimischten und das sie in einem zweistufigen Verfahren aufbauten. Dadurch entstehen im Inneren des Materials mikroskopische elektronische Grenzflächen — sogenannte p-n-Übergänge. Das Bauteil schaltet nicht durch das Wachsen und Reißen von Filamenten, sondern durch die kontrollierte Veränderung einer Energiebarriere an dieser internen Grenzfläche. Das Ergebnis: ein deutlich gleichmäßigeres und besser steuerbares Schaltverhalten. „Filamentbasierte Bauteile leiden unter zufälligem Verhalten“, sagt Bakhit. „Weil unsere Bauteile an der Grenzfläche schalten, zeigen sie eine herausragende Gleichmäßigkeit — von Zyklus zu Zyklus und von Bauteil zu Bauteil.“ Hunderte von stabilen Zuständen ermöglichen biologisches Lernen Die Schaltstromstärken liegen bei rund 10⁻¹¹ Ampere, etwa eine Million Mal niedriger als bei manchen konventionellen oxidbasierten Memristoren. Dabei können die neuen Bauteile Hunderte klar unterscheidbare, stabile Leitfähigkeitszustände annehmen — eine Grundvoraussetzung für analoges, gehirnähnliches Rechnen. Im Labor überstanden sie zuverlässig zehntausende Schaltzyklen. Darüber hinaus reproduzierten die künstlichen Synapsen ein biologisches Lernprinzip namens Spike-Timing-Dependent Plasticity: die Eigenschaft biologischer neuronaler Netze, Verbindungsstärken in Abhängigkeit vom zeitlichen Abstand eintreffender Signale anzupassen. „Das sind die Eigenschaften, die man braucht, wenn Hardware lernen und sich anpassen soll, anstatt nur Bits zu speichern“, so Bakhit. Noch steht der Technologie ein praktisches Hindernis im Weg: Der Herstellungsprozess erfordert Temperaturen von rund 700 Grad Celsius — zu hoch für Standard-Halbleiterfertigung. Das Team arbeitet daran, diese Temperaturen zu senken, um die Integration in bestehende Chip-Fertigungslinien zu ermöglichen. via University of Cambridge Teile den Artikel oder unterstütze uns mit einer Spende. Facebook Facebook Twitter Twitter WhatsApp WhatsApp Email E-Mail Newsletter