Report
KI-Prozessoren: Warum die neuen Chips die Zukunft sind
KI-Prozessoren, NPUs und Co: Der Wettstreit um neue Spezial-Chips ist in vollem Gange. DasZiel: die Funktion unseres Gehirns nachzuahmen.

Eigentlich ist die Idee, die Funktionsweise des menschlichen Gehirns in Form künstlicher neuronaler Netze nachzubilden, nicht gerade neu. Bis vor wenigen Jahren spielte das Thema künstliche Intelligenz (KI) allerdings hauptsächlich in der Film- und Literaturwelt eine Rolle, vielfach in düsteren Zukunftsvisionen wie Matrix, in denen die Maschinen irgendwann Krieg gegen ihre Schöpfer führten.
Dazu wird es wahrscheinlich so schnell nicht kommen, doch die bisherigen Fortschritte auf diesem Gebiet führen seit einiger Zeit vermehrt zu ethischen Diskussionen und der grundsätzlichen Frage, wie mit der künstlichen Intelligenz in Zukunft umgegangen werden soll.
Nicht ohne Berechtigung, denn immerhin ist es schon so weit, dass deren Erschaffer zuweilen selbst nicht mehr genau wissen, was darin passiert: 2016 stellte Google seinen Übersetzungsdienst Translate von vielen verteilten Systemen auf ein einheitliches neuronales Netz um. Bis dahin musste jedes unterstütze Sprachpaar mit Millionen von Beispielsätzen trainiert werden. Nach der Vereinheitlichung entwickelte die künstliche Intelligenz die Fähigkeit, auch zwischen Sprachen zu übersetzen, für die es gar keine Trainingsdaten hatte. Der Kommentar der Entwickler: „Wir interpretie-ren dies als Zeichen für die Existenz einer Universalsprache innerhalb des Netzwerkes.“
Nun übertreffen die Systeme den Menschen bislang nur in Einzeldisziplinen und müssen einen ungeheuren Aufwand selbst für Aufgaben betreiben, die unser Gehirn ohne explizite Lernleistung praktisch nebenbei erledigt. Manche Forscher halten aber die Entwicklung einer künstlichen Intelligenz, die der des Menschen generell überlegen ist, durchaus für möglich. Und angesichts der rasanten Fortschritte auf diesem Gebiet kann niemand genau wissen, was in künftigen Systemen noch so alles von selbst entstehen wird.
Allerdings geht es bei dem Thema ja genau darum: Computer sollen sich durch Deep Learning Fähigkeiten aneignen, auf die man sie nicht oder nicht mit vertretbarem Aufwand programmieren könnte. Dafür werden sie mit Tausenden oder gar Millionen Datenbeispielen trainiert, etwa mit Bildern oder gesprochener Sprache. Mit jedem Beispiel erhalten sie Feedback über ihre Erkennungsleistung und filtern mit der Zeit heraus, welche Details für das Lösen der vorgesehenen Aufgabe wichtig sind.
Spezialisten: Grafik- vs. KI-Chips
Für diesen Prozess sind jedoch enorme Rechengeschwindigkeiten notwendig, für die normale Standardprozessoren längst nicht mehr ausreichen. Stattdessen werden bislang hauptsächlich Grafikprozessoren (GPUs) eingesetzt, denn wie bei der Bildverarbeitung sind auch beim Deep Learning relativ einfache Rechenoperationen in möglichst schneller Folge nötig. Es gibt sogar spezielle KI-Grafikkarten, wie etwa die Tesla V100 von Nvidia und die Radeon Vega Frontier Edition von AMD.

Da GPUs aber nicht direkt für das Deep Learning konzipiert wurden, stoßen auch sie mittlerweile an ihre Grenzen. Da liegt es nahe, spezielle KI-Chips zu entwickeln, die nur die notwendigen Funktionen beherrschen, damit aber besonders leistungsfähig sind. Inzwischen gibt es diverse bereits verfügbare oder zumindest angekündigte Produkte. Beispielsweise setzt Google in seinen Rechenzentren die speziell für die hauseigene Deep-Learning-Umgebung Tensorflow entwickelten Tensor Processing Units (TPUs) ein.
Intel hat kürzlich die baldige Auslieferung des in Zusammenarbeit mit Facebook entwickelten Nervana Network Processors (Nervana NNP) angekündigt. Auch IBM arbeitet an einem KI-Prozessor, und selbst Elektroauto-Pionier Tesla will mit einem eigenen Chip das autonome Fahren vorantreiben.
Neuromorphic Computing: The Future of AI and Computing [Intel]
Einen speziellen Ansatz verfolgt Intel mit dem Loihi. Statt auf Deep Learning setzt das Unternehmen hier auf Neuromorphic Computing. Der Chip besitzt dafür ein eigenes Netz aus künstlichen Neuronen und Synapsen. Damit soll er selbstlernend sein, ohne extra trainiert werden zu müssen. Darüber hinaus gibt es noch etliche Start-ups, die sich mit dem Thema beschäftigen.
Taschenbrillanz: KI im Smartphone
Viele KI-gestützte Anwendungen auf Smartphones, beispielsweise digitale Assistenten, sind auf die Rechenzentren ihrer Anbieter angewiesen. Sie erfordern eine Internetverbindung, und der notwendige Up- und Download der Daten kostet Zeit, was diverse Anwendungsbereiche ausschließt. Als erster Hersteller hat deshalb Huawei mit dem Mate 10 ein Smartphone herausgebracht, dessen Prozessor Kirin 970 mit einer Neural Processing Unit (NPU), einer speziellen Recheneinheit für künstliche Intelligenz, ausgestattet ist.

Die NPU von Huawei wurde für die Bild- und Spracherkennung entwickelt und soll dabei bis zu 20-mal so schnell sein wie der Haupt- und der Grafikprozessor. Damit erkennt beispielsweise die Kamera Objekte wie Blumen, Personen, Haustiere oder Schrift und passt die Bildeinstellungen entsprechend an.
Auch Apple hat den neuesten iPhones eine KI-Einheit spendiert. Sie wird für Face ID gebraucht und soll nach einer gewissen Lernzeit das Gesicht des Nutzers zuverlässig erkennen, selbst wenn es durch eine Brille oder einen Bart verändert ist. Das dritte in der Riege der mit einer eigenen künstlichen Intelligenz versehe-nen Smartphones ist das Pixel 2 von Google. Der Pixel Visual Core soll zum Beispiel die Leistung des HDR+-Modus der Kamera verfünffachen. Samsung soll zumindest gerade an der Entwicklung eines Chips mit KI-Komponente arbeiten.
Für viele Aufgaben und Assistenzfunktionen müssen die Smartphones jedoch weiterhin auf die Cloud zugreifen, denn die Fähigkeiten der lokalen KI-Einheiten sind bislang eher rudimentär. Mit steigender Rechenleistung und Speicherkapazität wird in den kommenden Jahren aber immer mehr direkt auf dem Gerät ausgeführt werden.
Alltags-Assistenz
Von dem gigantischen Aufwand, den die Unternehmen im KI-Bereich betreiben, spüren wir in unserem Alltag tatsächlich noch recht wenig. Der nächste wirklich große Schritt wird wohl das autonome Fahren sein. Dieses wird nicht nur den Komfort fördern, sondern auch die Sicherheit. Experten sind der Meinung, dass sich durch den ausschließlichen Einsatz autonomer Fahrzeuge im Straßenverkehr die Zahl der Unfälle um bis zu 90 Prozent senken ließ.

Außerdem könnten Staus durch intelligentere Verkehrsführung der Vergangenheit angehören. Natürlich ist es hier besonders wichtig, dass ausreichend Rechenleistung für die Objekterkennung und die Interpretation der Umgebung direkt im Fahrzeug zur Verfügung steht. Die Entscheidung, ob an der roten Ampel gebremst werden soll, kann schließlich schlecht in die Cloud ausgelagert werden.