Das rapide Wachstum von Anwendungen künstlicher Intelligenz hat den Bedarf an enormen Rechenressourcen deutlich gemacht. Insbesondere große Sprachmodelle und generative KI-Systeme werden heute überwiegend in weitläufigen, energieintensiven Rechenzentren betrieben, die enorme Mengen an Strom und Wasser verbrauchen und meist von wenigen großen Technologieunternehmen kontrolliert werden. Dieses Modell wirft nicht nur ökologische Fragen auf, sondern auch Fragen zur Datenhoheit, Privatsphäre und zur zentralisierten Kontrolle über kritische digitale Infrastruktur. Angesichts dieser Herausforderungen haben Forscher:innen der École polytechnique fédérale de Lausanne (EPFL) eine alternative Herangehensweise entwickelt, die darauf abzielt, diese Monokultur zu hinterbrechen und AI-Rechenleistung in die Breite zu verlagern. Dezentrale AI-Rechenleistung statt monolithischer Zentren Traditionell erfordern große KI-Modelle nicht nur zur Entwicklung, sondern auch zur Ausführung erhebliche Rechenkapazitäten. Diese werden in speziellen Serverfarmen mit Hochleistungs-GPUs realisiert, die enorme Investitionen in Hard- und Software, Kühlung und Infrastruktur erfordern. Die neue Softwarelösung Anyway Systems, entwickelt von einem Team um die Informatiker:innen Gauthier Voron, Geovani Rizk und Rachid Guerraoui, stellt einen grundlegend anderen Ansatz dar. Statt zentraler Serverfarmen wird ein lokales Netzwerk aus handelsüblichen Maschinen koordiniert, die gemeinsam ein Cluster bilden, auf dem große KI-Modelle ausgeführt werden können. Die Software nutzt robuste Methoden der Selbststabilisierung, um die vorhandene lokale Hardware effizient zu nutzen und Ausfälle einzelner Komponenten zu kompensieren. Auf diese Weise sei es möglich, auch große offene Modelle in lokalen Netzwerken mit wenigen handelsüblichen GPUs zu betreiben, eine Aufgabe, die bislang spezialisierte Rechenzentrumshardware und hohe Kosten voraussetzte. Rachid Guerraoui betont, dass die verbreitete Annahme, große KI-Modelle würden zwangsläufig enorme Ressourcen erfordern, nicht uneingeschränkt gilt. „Für Jahre haben die Leute geglaubt, dass es nicht möglich sei, große Sprachmodelle und KI-Tools ohne riesige Ressourcen zu haben, aber das ist nicht der Fall und schlauere, sparsamere Ansätze sind möglich“, so Guerraoui. Dieser Ansatz verschiebt die Perspektive auf KI-Infrastruktur grundlegend. Statt einer stark zentralisierten Architektur, die große Mengen an Energie verbraucht und Daten über geografisch entfernte Server sendet, ermöglicht die verteilte Lösung eine direkte lokale Verarbeitung. Der Nutzen liegt nicht nur in der Reduktion von Kosten und Abhängigkeiten von Cloud-Anbietern, sondern auch in der Möglichkeit, sensible Daten innerhalb des eigenen Netzwerks zu halten. Dezentrale Lösungen verringern Abhängigkeit Ein zentraler Kritikpunkt an der gegenwärtigen Dominanz großer Cloud-Plattformen ist die Abhängigkeit von externen Diensten bei der Verarbeitung sensibler Informationen. Werden KI-Anwendungen genutzt, verlassen Daten häufig das eigene Umfeld und werden in entfernten Rechenzentren verarbeitet. Die lokale Ausführung großer KI-Modelle adressiert dieses Problem unmittelbar, da Daten das Netzwerk nicht verlassen müssen. Für Einsatzfelder mit hohen Datenschutzanforderungen, etwa im Gesundheitswesen, in der Verwaltung oder in der industriellen Forschung, eröffnet dies neue Handlungsspielräume. Auch der ökologische Aspekt spielt eine zunehmend wichtige Rolle. Der globale Ausbau von Rechenzentren für KI-Anwendungen geht mit einem erheblichen Energiebedarf einher, der bereits heute spürbare Auswirkungen auf Stromnetze und CO₂-Bilanzen hat. Viele dieser Zentren sind zudem auf aufwendige Kühlsysteme angewiesen. Die Nutzung vorhandener, verteilter Hardware könnte dazu beitragen, bestehende Ressourcen besser auszuschöpfen, anstatt immer neue spezialisierte Infrastrukturen aufzubauen. Die Forscher:innen argumentieren, dass Effizienzgewinne nicht allein durch leistungsfähigere Chips erzielt werden müssen, sondern auch durch intelligenteres Softwaredesign. Indem Rechenlasten flexibel auf verfügbare Systeme verteilt werden, lasse sich ein Teil des Wachstumsdrucks auf zentrale Rechenzentren abfedern. Sind dezentrale KI-Systeme die Zukunft? Der vorgestellte Ansatz ist derzeit noch kein Ersatz für alle Anwendungsfälle zentraler Rechenzentren. Anyway Systems erfordert mehrere vernetzte Rechner und ist bislang vor allem für institutionelle oder organisatorische Umgebungen gedacht. Für den Einsatz auf einzelnen Endgeräten ist die Technologie noch nicht ausgelegt. Die Entwickler:innen verweisen jedoch darauf, dass viele heute alltägliche Technologien ihren Ursprung in spezialisierten Forschungskontexten hatten. Langfristig könnte die Kombination aus effizienterer Software, besserer Ausnutzung vorhandener Hardware und wachsendem Bewusstsein für Datenschutz und Nachhaltigkeit dazu führen, dass KI-Systeme stärker dezentral betrieben werden. Der Ansatz aus Lausanne stellt damit weniger eine vollständige Abkehr von Rechenzentren dar als vielmehr eine Infragestellung ihrer alternativlosen Rolle. Ob sich dieses Modell in der Breite durchsetzt, wird von technischen Weiterentwicklungen ebenso abhängen wie von wirtschaftlichen und politischen Rahmenbedingungen. Klar ist jedoch, dass die Vorstellung, leistungsfähige KI sei untrennbar mit gigantischen Rechenzentren verbunden, zunehmend an Überzeugungskraft verliert. via EPFL Teile den Artikel oder unterstütze uns mit einer Spende. Facebook Facebook Twitter Twitter WhatsApp WhatsApp Email E-Mail Newsletter