Vor ziemlich genau zwei Jahren veröffentlichte die gemeinnützige amerikanische Organisation Open AI das Sprachverarbeitungsmodell GPT-3, das auf der Nutzung von künstlicher Intelligenz basierte. In der Fachwelt schlug das Programm ein wie eine Bombe. Denn mit einem mal war die KI in der Lage, zielsicher mit Sprache umzugehen. Die angesehene britische Tageszeitung „The Guardian“ beispielsweise veröffentlichte sogar einen eigenen Artikel, der von dem Sprachverarbeitungsmodell entworfen wurde. Bis heute sind Fachleute und Laien gleichermaßen von den durchaus weit fortgeschrittenen Fähigkeiten des Programms begeistert. Mit einem tieferen Verständnis des Inhalts hat dies allerdings nichts zu tun. Stattdessen setzten die Entwickler auf eine Kombination aus einem großen Modell mit rund 175 Milliarden Knotenpunkten und einer gewaltigen Datenmenge. So fütterten die Entwickler die KI mit 570 Gigabyte an digitalen Texten – von der gesamten Wikipedia bis hin zur digitalen Bibel.


Bild: Thor Balkhed

Für die großen Datenmengen und Modelle wird ein Supercomputer benötigt

Bisher allerdings funktioniert die Technologie nur auf Englisch. Deutschsprachige Nutzer können die Stärken des Programms hingegen nicht nutzen. Dies wiederum gilt für die meisten der aktuell leistungsstärksten KI-Projekte auf der Welt. Diese sind in aller Regel auf Englisch oder Mandarin verfasst worden. Für deutsche Unternehmen wird dies immer stärker zum Problem. Denn sie geraten in eine ungute Abhängigkeit von amerikanischer und chinesischer Forschung. Selbst Entwicklungsarbeit auf diesem Gebiet zu betreiben ist allerdings leichter gesagt als getan. Denn wie bereits erwähnt müssen gewaltige Datenmengen verarbeitet werden. Dies wiederum geht am besten mit sogenannten Supercomputer. Auch hieran mangelt es allerdings in Deutschland. Die zur Verfügung stehenden Kapazitäten sind daher heiß begehrt. Wer etwa den Supercomputer in Jülich nutzen möchte, muss sich zunächst bewerben. Die Berechnung von solch gewaltigen Modellen und Datenmengen ist daher oftmals schlicht nicht möglich.

Sieben Dax-Konzerne treiben das Thema gemeinsam voran

Doch nun soll Deutschland zumindest in diesem Punkt wieder den Anschluss an die führenden Nationen finden. Denn ein Konsortium aus insgesamt 40 Unternehmen und Forschungseinrichtungen will den Bau eines Supercomputers für künstliche Intelligenz vorantreiben. Der Zusammenschluss beinhaltet tatsächlich so etwas wie das Who-is-Who der deutschen Wirtschaft. So sind alleine sieben Dax-Konzerne vertreten. Dies zeigt, dass das Thema auch in den Chefetagen der großen Firmen massiv an Bedeutung gewonnen hat. Die Kosten für den Bau des gewünschten Computers werden aktuell auf 375 Millionen Euro in den nächsten fünf Jahren geschätzt. Aufgrund der weiterhin anhaltenden Halbleiter-Krise könnten die benötigten Ausgaben aber auch höher ausfallen. Das Konsortium namens LEAM hat sich daher an die Politik gewandt und um Unterstützung gebeten. Die beteiligten Unternehmen wiederum verbinden mit dem Projekt unterschiedliche Hoffnungen. Allen geht es aber neben der grundsätzlichen Stärkung des Standorts Deutschland auch um die Entwicklung konkreter Anwendungsszenarien.


Via: Handelsblatt

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.