
Wenn heute über Künstliche Intelligenz gesprochen wird, dann fast immer in neuronalen Bildern.
Geoffrey Hinton und Jürgen Schmidhuber stehen emblematisch für diese Perspektive: Das Gehirn als Blaupause, das künstliche Neuron als Grundbaustein, „Big is Beautiful“ als Wachstumsformel. Größere Netze, mehr Layer, mehr Parameter, mehr Daten, mehr GPUs. Die Erfolgsgeschichte des Deep Learning scheint diese Logik zu bestätigen.
Doch genau in diesem Triumph steckt eine Falle: die neuronale Falle.
Wer den Maßstab der Intelligenz auf das Symbol „Neuron“ verengt, übersieht, dass die Natur an ganz anderen Orten mindestens ebenso radikal optimiert hat – in der Physik von Elektronenspins, in topologischen Effekten, in Materialien, die Information nicht nur speichern, sondern führen.
Und genau hier betritt Stuart Parkin die Bühne. Er ist kein Hirnforscher, kein KI-Vordenker, kein Prophet der Skalierungsgesetze. Er ist Experimentalphysiker – und einer derjenigen, die im Stillen die Grundlage für das geschaffen haben, was wir heute für selbstverständlich halten: Festplatten, Cloud, Streaming, Big Data. Seine Spintronik-Entdeckungen ermöglichten es, die Speicherdichte von Festplatten um den Faktor tausend zu erhöhen – die Basis der modernen Datenökonomie.
Während Hinton und Schmidhuber das Neuron als Leitmetapher gewählt haben, hat Parkin begriffen, dass man die Natur auch dort befragen kann, wo keine Nervenzellen sind: im Spin, im Material, in der Geometrie von Strömen und Feldern.
Die neuronale Falle: Wenn „Big is Beautiful“ zur Sackgasse wird
Die Erfolgsgeschichte der vergangenen zehn Jahre lässt sich in einem Satz zusammenfassen:
Scale it up.
Mehr Parameter → bessere Benchmarks.
Mehr Daten → robustere Generalisierung.
Mehr GPUs → schnellere Trainingszyklen.
Hinton sprach von „Kapitulieren vor dem Vorurteil, dass neuronale Netze nur Spielzeug sind“, Schmidhuber von der Konsequenz, die eigene Theorie nun eben in immer größeren Systemen Wirklichkeit werden zu lassen. Das Ergebnis sind Modelle mit Hunderten Milliarden Parametern und ein Energiehunger, der Rechenzentren zu Infrastrukturprojekten im Maßstab von Kraftwerken macht.
Die Physik hat dazu eine einfache Antwort: So kann es nicht weitergehen.
Die Transistoren sind nahe am Limit, die thermische Wand ist erreicht, die Stromrechnung wird zum limitierenden Faktor der Innovation. Man kann das Neuron noch tausendmal copy-pasten – die Natur lässt sich davon nicht beeindrucken.
Stuart Parkin: Der Mann, der den Speicher neu erfunden hat
Parkin ist das Gegenteil der neuronalen Vordenker. Er kommt nicht aus der Kognitionsmetapher, sondern aus der Materialwissenschaft. Seine Spintronik-Forschung – die Nutzung des Elektronenspins statt nur seiner Ladung – ermöglichte die Entwicklung der sogenannten Spin-Valve-Leseköpfe in Festplatten. Damit wurde die Speicherdichte um das Tausendfache gesteigert, wofür er 2014 den Millennium Technology Prize erhielt.
Diese Leistung war mehr als ein Ingenieurstreich. Sie war der physikalische Unterbau für das, was wir heute „Cloud“ nennen:
- riesige Rechenzentren,
- Streaming-Plattformen,
- soziale Netzwerke,
- maschinelles Lernen auf Massendaten.
Parkin hat damit – nüchtern gesprochen – den Speicher in die Wachstumsdimension gebracht, die KI überhaupt erst ermöglicht.
Doch er ist damit nicht stehengeblieben. Wo andere weiter im Digitalen optimierten, ging er zurück an die Materie.
Spintronik statt Neuronenkult: Naturgesetze als Hardware-Design
Spintronik ist physikalisch unspektakulär und politisch revolutionär zugleich:
Nicht mehr nur der Stromfluss zählt, sondern die Orientierung des Elektronenspins. Diese zusätzliche Freiheitsgrad erlaubt neue Bauelemente, die nicht nur Informationen speichern, sondern auch ihre Bewegung kontrollieren.
Parkins Konzept der Racetrack Memory ist in diesem Sinn ein radikaler Bruch mit dem klassischen Speicher-Paradigma. Anstatt Datenblöcke mechanisch unter einem Lesekopf zu bewegen, oder statische Speicherzellen elektrisch anzusprechen, werden magnetische Domänen in Nanodrähten verschoben – Daten, die sich bewegen, Hardware, die stehen bleibt.
In seinem Gespräch mit Agents of Tech beschreibt Parkin das Ziel so:
- Speicherdichte wie bei Festplatten,
- Zugriffszeiten wie bei Halbleiterspeichern,
- Energieverbrauch um Größenordnungen niedriger,
- alles in einem rein festkörperbasierten System.
Wenn das gelingt, wäre Racetrack Memory genau das, was der aktuelle KI-Boom verzweifelt braucht: eine Speicherarchitektur, die nicht mehr im 50-Jahre-Altbau der Festplattentechnik wohnt, sondern im Hochhaus der nächsten Generation.
„Do the impossible“: Energieeffizienz als physikalische Mission
Parkin sagt zu seinen Doktorand:innen: „Wir wollen das Unmögliche machen.“
Damit meint er nichts Mystisches, sondern eine nüchterne Rechnung.
Das Gehirn arbeitet mit etwa 20 Watt.
Ein heutiges KI-System, das ähnliche Aufgaben löst, braucht – grob geschätzt – Größenordnungen von Megawatt.
Parkin formuliert es so: Wir verbrauchen pro Rechenoperation hunderttausendmal zu viel Energie. Und er ist überzeugt, dass diese Lücke nicht durch noch mehr CMOS-Optimierung geschlossen wird, sondern durch neue physikalische Prinzipien: topologische Effekte, dreidimensionale Strukturen, supraleitende Spintronik.
Seine Programme zu 3D-Racetracks, neuartigen Speicherarchitekturen und supraleitenden Spintronik-Konzepten sind Versuche, dieses „Unmögliche“ in praktikable Technologie zu übersetzen.
Damit dreht er die Perspektive um: Nicht die KI definiert, was die Hardware zu leisten hat, sondern die Physik gibt der KI eine neue, radikal sparsame Bühne.
Jenseits der Neuronen: Was Parkin verstanden hat – und andere übersehen
Hier liegt der entscheidende Unterschied zu Teilen der Deep-Learning-Community:
- Hinton und Schmidhuber denken primär in Neuronen und Architekturen – wunderbar für Algorithmen, blind für die Grenzen der Substrate.
- Parkin denkt in Elektronenspins, Domänenwänden, Materialgrenzen, Energiebarrieren – unspektakulär in der Rhetorik, fundamental in der Konsequenz.
Er nimmt das Gehirn ernst – aber nicht als Metapher, sondern als energetischen Benchmark.
Wenn das Nervensystem etwas mit 20 Watt kann, dann sollte die Technik sich schämen, wenn sie für vergleichbare Abstraktionsleistungen Megawatt benötigt.
Während der neuronale Kult das „Big is Beautiful“ zum Dogma erhoben hat, macht Parkin etwas sehr Unzeitgemäßes: Er fragt, wo die Natur das Problem bereits besser gelöst hat – und zwar jenseits der Neuronen.
- in der extrem redundanten, fehlertoleranten Synapsenverschaltung,
- in der dreidimensionalen Architektur des Gehirns,
- in der Art, wie Materie Information speichert, transportiert und auslöscht.
Neuromorphes Computing ist für ihn kein PR-Etikett, sondern ein hartes Ingenieursproblem: Wie baut man 3D-Strukturen mit Tausenden Verbindungen, die nicht in der Fertigung, im Energiehaushalt oder in der Fehlerkorrektur kollabieren?
Parkin gegen die Trägheit der Industrie: Warum „Beyond CMOS“ so schwer ist
Parkin kennt auch die politische Dimension.
Jede neue Fabrik für klassische Halbleitertechnologie kostet heute 10 bis 20 Milliarden Dollar. Diese Struktur konserviert den Status quo: Alle Beteiligten haben einen massiven Anreiz, die nächste Transistor-Generation durchzudrücken, anstatt radikal umzubauen.
Racetrack Memory, supraleitende Spintronik, neuartige 3D-Architekturen – all das bedeutet: Abschreiben von Fixkosten, Neuaufbau von Fertigung, Bruch mit Pfadabhängigkeiten.
Parkin argumentiert dennoch, dass die Investitionsgrößenordnungen vergleichbar wären:
Die Milliarden, die heute in „noch etwas kleinere“ Transistoren fließen, könnten stattdessen in ein Speichersystem investiert werden, das:
- deutlich weniger Energie pro Operation verbraucht,
- kompakter ist,
- und die KI-Hardware von morgen von ihrem Speicherflaschenhals befreit.
Es ist genau dieser Punkt, an dem sich neuronale Euphorie und physikalische Nüchternheit treffen:
Die eine Seite misst Fortschritt in Parameterzahlen, die andere in Joule pro Bit.
Was folgt daraus für die KI-Zukunft?
Parkins Werk liefert eine unbequeme, aber befreiende Einsicht:
- Die Physik hat das letzte Wort.
Egal wie klug ein neuronales Modell ist – wenn das Substrat energetisch nicht mithält, wird es nicht skaliert. - Die Naturoptimierung findet nicht nur in Neuronen statt.
Wer Intelligenz verstehen will, muss auch die „tiefen Schichten“ der Materie betrachten: Spin, Topologie, Supraleitung. - Die nächste KI-Revolution ist eine Speicherrevolution.
Racetrack Memory, Spintronik, neuartige Speicherklassen – sie sind kein exotischer Rand, sondern ein notwendiger Schritt, wenn KI nicht dauerhaft an den Grenzen von Rechenzentren und Stromnetzen hängen soll. - Europa hätte hier eine Chance.
Parkin forscht als Direktor am Max-Planck-Institut für Mikrostrukturphysik in Halle an der Saale.
Genau an dieser Schnittstelle – Grundlagenphysik, Materialinnovation, energieeffiziente Architekturen – könnte ein eigenständiger, europäischer Weg der KI-Infrastruktur entstehen.
Die Zukunft der KI liegt im Labor, nicht im Datenzentrum
Während ein Teil der KI-Szene immer neue neuronale Monumente errichtet, arbeitet Stuart Parkin an den unscheinbaren, aber entscheidenden Fragen:
- Wie viele Elektronen müssen sich wirklich bewegen, um ein Bit zu ändern?
- Wie sieht eine Architektur aus, die dreidimensional denkt, aber zweidimensional fertigen lässt?
- Wie baut man Speichersysteme, die eher einem Gehirn ähneln als einem Kraftwerk?
Schmidhuber und Hinton haben uns gezeigt, wie weit man mit der Neuronenmetapher kommen kann.
Parkin zeigt, dass die Reise dort nicht endet – sondern dort beginnt, wo wir die Natur jenseits der Neuronen ernst nehmen.
Die nächste große KI-Epoche wird nicht von der Frage geprägt sein, wer das größte Modell hat.
Sondern von der Frage, wer die bessere Physik im Rücken hat.
Prognose: Wenn Parkin mit seiner Forschung Erfolg hat, ist er reif für den Physik-Nobelpreis.
Siehe auch:
Pingback: Die stille Supermacht: Was passiert, wenn Stuart Parkin recht behält – und Europa plötzlich die Physik der KI kontrolliert? - ichsagmal.com