Der KI-Bundesverband ruft im Tagesspiegel Background zur Aufholjagt auf und will US-amerikanischen und chinesischen KI-Unternehmen nacheifern. Dort setzt man auf den Brut-Force-Ansatz, das heißt immer mehr Rechenleistung und riesige Datenmengen. Doch dieser Ansatz ist weder effizient noch zukunftssicher: Die Strategie kostet viel Energie und benötigt noch mehr Daten. Angesichts der heute schon immensen CO2-Fußabdrücke von Rechenzentren und einem Trend hin zu mehr Datensparsamkeit könnte Brute Force die Künstliche Intelligenz (KI) in eine Sackgasse führen.
Energieverbrauch alter und neuer Technologien
Bitcoin und der Energieverbrauch von Kryptowährungen stehen schon seit Jahren im Rampenlicht. So stoßen Kryptotransaktionen aktuell bereits ähnlich viel CO2 aus wie Griechenland, in dem über 10 Millionen Menschen leben. Die Kritik von Umweltorganisationen und der Öffentlichkeit, besonders in den sozialen Medien, ist groß – und das zu Recht. In Zeiten, in denen der Angriff Russlands auf die Ukraine für Unsicherheit auf den Energiemärkten sorgt und die Klimakrise einen nachhaltigen Umgang mit Energie erfordert, gilt es, den Verbrauch jeder alten und neuen Technologie auf den Prüfstand zu stellen.
In gewisser Weise kann die KI-Industrie dankbar für die Ablenkung sein, die Bitcoin & Co bieten. Denn die Energiebilanz könnte hier noch schlechter ausfallen. Eine Studie der University of Massachusetts, Amherst zeigt, dass das Training eines KI-Modells im Schnitt so viel Kohlenstoff ausstoßen kann wie fünf Autos über ihrem gesamten Lebenszyklus. Das ist die Messung für ein einziges Modell. Einsatzfähige Algorithmen erfordern laut einer Case Study im MIT Review das Training von insgesamt ca. 4,789 Modellen. Die Auswirkungen auf das Klima sind, gelinde gesagt, hoch.
Mit der steigenden Verbreitung von KI-Modellen und ihrer
Anwendung nimmt außerdem die notwendige Rechenleistung zu. Der weltweite
Wettlauf um Supercomputer und Rechenzentren macht sich
dementsprechend in den CO2-Bilanzen bemerkbar. Einem Nature-Artikel aus dem
Jahr 2018 zufolge verbrauchen Rechenzentren schätzungsweise 200 Terawattstunden
(TWh) jährlich. Zusammen mit den Millionen Litern Wasser für Kühlungen sind
diese Entwicklungen also sehr klimabelastend.
Internationaler Wettbewerb im KI-Bereich
Unter diesen Aspekten rücken die Ambitionen und Kampagnen des KI-Bundesverband und der „LEAM-Initiative“, die dafür werben, unseren Rückstand zu den USA und China in Sachen KI mit einem Supercomputer wettzumachen, in ein anderes Licht.
Historisch zeigt sich: In den vergangenen 70 Jahren folgten auf Höhen,
in denen KI in aller Munde war, stets ein Rückgang des Interesses und der
Investitionen. In einer Zeit, in der Nachhaltigkeit in den Mittelpunkt gerückt
ist und das Verständnis für die Auswirkungen der einzelnen Technologien auf das
Klima wächst, könnte der nächste KI-Winter schon bald kommen, wenn die Branche
jetzt nicht handelt.
Die KI-Industrie glänzt aktuell noch, besonders in USA, mit großen Fortschritten. Die Modelle Generative Pre-Trained Transformer (GPT-3) von OpenAI oder Bidirectional Encoder Representations from Transformers (BERT) von Google sind einige der besten Beispiele dafür. Diese Modelle wurden jedoch nie mit dem Ziel der Effizienz entwickelt und es wird nicht lange dauern, bis sie in eine Sackgasse geraten.
Nachhaltige, effiziente KI-Modelle als Zukunftschance
Es gibt nur eine Lösung: Wir
brauchen einen anderen, nachhaltigeren Ansatz. Die Bemühungen in diesem
Bereich sollten sich auf Präzision und Automatisierung, aber auch auf Effizienz
und Genauigkeit konzentrieren, oder mit anderen Worten: auf echte
Intelligenz. Das bedeutet, dass wir maschinelle Lernsysteme entwerfen müssen,
die wie das menschliche Gehirn funktionieren und nicht nur wie eine zu stark
vereinfachte Version davon. Im Gegensatz zu den bestehenden maschinellen
Lernmodellen braucht ein Gehirn nur ‚20 Watt‘, um jede KI zu übertreffen.
Neue, auf den Neurowissenschaften basierende Ansätze zum Verstehen natürlicher Sprache (NLU) wie Semantic Folding liefern bereits eine 2.800-mal schnellere und 4.300-mal energieeffizientere Textklassifizierung als das maschinelle Lernmodell BERT von Google – die Technologie hinter der Google-Suche. Durch die Kombination der neuesten, auf Semantic Folding basierenden Algorithmen mit dedizierter Hochleistungshardware, können wir bereits jetzt wichtige KI-Prozesse, wie die Verarbeitung großer Textmengen, beschleunigen und gleichzeitig die für eine intelligente Dokumentenverarbeitung in großem Maßstab erforderlichen Rechenressourcen reduzieren.
Übertragen auf reale Arbeitslasten wäre dieses neue Modell in der Lage, eine Hassrede bei fast drei Milliarden Facebook-Nutzern zu erkennen, den Twitter-Firehose in Echtzeit für Hunderte von Millionen Nutzern zu filtern oder Zehntausende von Kundenanfragen in Supportzentren zu analysieren und weiterzuleiten.
Dies sind nur einige Beispiele dafür, was effiziente KI-Modelle leisten können – und wir haben nur an der Oberfläche ihres Potenzials gekratzt. Von der Optimierung des Sprachverständnisses bis hin zur Verbesserung der Spracherkennung gibt es zahlreiche Verbesserungsmöglichkeiten. Cortical.io arbeitet genau daran – an besseren, in jeder Hinsicht effizienteren Modellen für das Verstehen natürlicher Sprache, die von den Neurowissenschaften inspiriert sind. Es gibt noch viel zu tun, um den Markt aufzuklären, den Einsatz effizienter Sprachmodelle zu verallgemeinern und nachhaltige KI-Software zu entwickeln.
Francisco Webber ist Mitbegründer und CEO des
österreichischen KI-Unternehmens Cortical.io. In Anlehnung an aktuelle
neurowissenschaftliche Erkenntnisse hat er seine Theorie der Semantischen
Faltung entwickelt, die modelliert, wie das Gehirn natürliche Sprache
verarbeitet. Cortical.io wendet diese Prinzipien auf maschinelles Lernen und
Textverarbeitung an, um KI-Lösungen für die
effiziente Suche, Extraktion und Analyse von unstrukturiertem Text zu
entwickeln.