Portal für Konstruktion und Entwicklung
von Medizin- und Laborprodukten

Zurück


KI braucht neue Prozessoren

Neue Gründungswelle

Wer versucht, tiefe neuronale Netze mithilfe einer durchaus leistungsstarken Intel-CPU zu rechnen, gerät schon mal in Verzweiflung. Denn die Rechnerei dauert in der Regel – gerade bei größeren Datenmengen, komplexen Transformationen und vielen Schichten der betreffenden Modelle – schlicht zu lange. Davon profitieren Unternehmen wie Nvidia mit ihren Grafikprozessoren, die schneller sind, da sie mehrere gleichartige Vorgänge parallel abarbeiten. Doch diese leistungsstarken Prozessoren, deren Aufbau eigentlich für den anspruchsvollen Spielemarkt entwickelt wurde, haben einen großen Nachteil: Sie verbrauchen viel Strom.

Kombiniert mit einem anderen Trend, nämlich dem zum Edge-Computing, ergebe sich daraus ein Problem, so Alan Priestley, Senior Director Analyst beim Marktforschungsunternehmen Gartner: „Das intelligente Edge-Computing, wo in Zukunft die meisten Daten verarbeitet werden, kann oft nur Batteriestrom anbieten. Es braucht deshalb eine komplett neue Chip- beziehungsweise Prozessorgeneration.“ Mit Echtweltdaten trainierbare Modelle, die eingespeiste Bilder richtig interpretieren könnten, gebe es derzeit in einer uneingeschränkt Edge-tauglichen Form noch nicht.

Auch aus einer anderen Ecke kommt Druck in Richtung Prozessorentwicklung. Priestley: „Cloud-Betreiber müssen massenweise und sehr schnell Videos analysieren, um beispielsweise Gewalt und Agitation wirksam auszufiltern. Sonst machen sie sich in Zukunft strafbar.“ Diese Aufgabe werde heute zwar von Menschen erledigt, dieses Verfahren erweise sich aber angesichts der Datenmassen als auf Dauer schlicht untauglich.

Wettrennen gestartet

Deshalb, so Priestley weiter, werde allenthalben an neuen Prozessoren speziell für das Deep Learning getüftelt. Er allein kenne mehr als 40 Firmen, so Priestley, die an neuen Architekturen arbeiteten, und dazu komme wahrscheinlich noch einmal dieselbe Menge, die seiner analytischen Aufmerksamkeit bisher schlicht entgangen ist. „Viele dieser Unternehmen kommen aus China“, sagt Priestley. Sie alle hofften auf eine goldene Zukunft, wenn es ihnen gelinge, ihre Ideen erfolgreich in Produkte für wichtige Marktsegmente umzusetzen. Allerdings werde nur ein Teil von ihnen auf eigenen Beinen erfolgreich sein, der Rest, wie üblich bei der sprunghaften Weiterentwicklung einer IT-Technologie, sang- und klanglos vom Markt verschwinden oder aufgekauft werden.

Ein wichtiges Marktsegment für solche Prozessor-Neuentwicklungen sind beispielsweise autonome Systeme oder Fahrzeuge, ein weiteres die Implementierung selbst entscheidungsfähiger Prozesse in der Finanzindustrie, etwa die Betrugsdetektion. In den Finanzunternehmen, so Priestley, gehe es vor allem darum, die vorhandenen Datenberge überhaupt einmal auszuwerten und etwas Geschäftsförderliches daraus zu machen.

KI-Hardware in den Anfängen

Aus der Sicht der für KI verwendeten Hardware stecke man heute noch weitgehend in der ersten Phase: Hier würden stromfressende GPU als Hardwarebasis für diese Verarbeitungsformen verwendet. Doch langsam gewännen auch ASIC-zentrierte Ansätze an Boden. Die Zukunft könnte laut Priestley neuromorphen Processing-Modellen gehören, bei denen versucht wird, sich funktional dem Arbeitsmodus des Gehirns mit seinen durch sensorischen Input selbstverstärkenden und multidimensionalen Vernetzungen zwischen Neuronen anzunähern. Doch noch stehe es in den Sternen, ob dieses neue Computing-Paradigma überhaupt imstande sei, dem maschinellen Lernen durchgreifend voran zu helfen. „Die Erwartungen an die Technologie können sich durchaus als zu hoch erweisen“, warnt Priestley.
Wie sehr die Entwicklung spezialisierter KI-Chips noch in den Kinderschuhen steckt, zeigt auch ein Blick aufs heutige Marktvolumen, das liegt nämlich laut Gartner bei weltweit 50,7 Millionen US-Dollar jährlich. Doch es soll schon bis 2022 auf 16 Milliarden US-Dollar anschwellen, wobei den Löwenanteil eingebettete Systeme stellen. Besonders starkes Wachstum prognostiziert Gartner der Implementierung von KI-Mechanismen in sogenannten Personal Devices, also beispielsweise Smart Watches, Fitness-Armbändern etc.

Newcomer basteln an KI-Chips

Welche Unternehmen arbeiten nun derzeit mit welchen Ansätzen daran, die KI am Edge durch energiesparsame, schnelle Prozessoren zu revolutionieren? Hier soll der Schwerpunkt auf einigen Start-ups liegen, die Priestley für besonders interessant hält. Natürlich sind auch Größen wie Intel (Projekt Loihi) und Nvidia am Werk.

Ein Beispiel für einen Newcomer ist Esperanto Technologies, ein Start-up, das auf der noch relativ neuen Open-Source-Risc-V-Architektur aus Berkeley aufbaut. RISC-V kommt als Linux-basierter Kern mit einem stark reduzierten Befehlssatz, an den sich alles Mögliche anflanschen lässt. Derzeit hat der Hersteller zwei Systems-on-a-Chip im Lieferprogramm: den leistungsfähigen ET-Maxion und den kleineren, sehr energiesparsamen ET-Minion, der in Arrays aus mehr als tausend Prozessorkernen zu einer höchstleistungsfähigen Rechenressource werden soll. Auf diesen Arrays wird laut Esperanto Speicher so verteilt, dass es dem Bedarf der jeweiligen Applikation am besten entspricht. Anfang November konnte sich das Start-up eine zweite Finanzierungsrunde mit 58 Millionen US-Dollar sichern, um seine Ideen weiter zu verfolgen.

Auch GreenWaves Technologies setzt auf RISC-V. Der Halbleiterhersteller ohne eigene Produktionskapazitäten wurde 2014 im französischen Grenoble gegründet. Ziel war es unter anderem, IoT-Prozessoren zu entwickeln, die lediglich mit Batterien auskommen, also keine eigene Stromzuführung benötigen. Erstes Resultat der Bemühungen ist der voll programmierbare Multicore-Prozessor GAP08 IoT Application Processor. Dazu bietet das Unternehmen mit Gapunio eine Entwicklungskarte und ein dazugehöriges Softwarekit an. Der Prozessor erledigt Inferenzaufgaben zwischen verschiedenen Inputgebern, die datenreiche Inhalte erzeugen. Jüngste Entwicklung ist der Intrinsic ID Hardware Root of Trust for RISC-V AI Application Processor.

Kalray, eine Ausgründung der französischen Atomenergiekommission aus dem Jahr 2008, verwendet proprietäres, aber ebenfalls auf dem Multicore-Prinzip aufbauenden Prozessordesign, dem Massively Parallel Processor Array (MPPA). Schon auf dem Markt ist der Bostan (MPPA2-256) mit insgesamt 288 Prozessorkernen (256 Verarbeitung, dazu kommen 16 Management- und vier Quad-Cores). Der Chip besitzt 2 Megabyte Speicher, aufgeteilt in 16 gleich große Speicherbänke. Dazu kommen pro zwei Prozessoren ein 128-Bit-Kryptoprozessor.

www.bigdata-insider.de


Zurück

Termine

25.06.2019, Erfurt

Potenziale des Additive Manufacturing in der Medizin

Informationen

Mehr
27.06.2019, Dortmund

IVAM-UNTERNEHMERFORUM - ARTIFICIAL INTELLIGENCE

 

Informationen

Mehr