THANNA – Neural Network Accelerator
20.04.2024 , Raum C
Sprache: Deutsch

Neuronale Netze sind mächtige Werkzeuge, um Objekte in Bildern zu
erkennen, Bilder zu generieren oder Sprache zu interpretieren. Dabei
werden diese immer größer und benötigen mehr Rechenpower, damit die
Inferenzzeiten in einem vertretbaren ausmaß bleiben. Dafür können FPGAs
verwendet werden. Durch diese programmierbare Hardware lassen sich
Algorithmen mit darauf angepasster Hardware berechnen und damit auch
Neuronale Netze beschleunigen.

Die Arbeitsgruppe "Effiziente Eingebettete Systeme" der TH Augsburg
befasst sich mit dem Bau eines neuen, offenen Frameworks, um
programmierbare Hardware (FPGAs) zur Beschleunigung der Inferenz
Neuronaler Netze einzusetzen.

Der Vortrag stellt den aktuellen Arbeitsstand des Projektes und den
generellen Systemaufbau vor, der sich aus einer Kombination von
Open-Source-Hardware und - Software zusammensetzt.

Siehe auch: Foliensatz THANNA (1,2 MB)

Ich bin Masterabsolvent an der der Hochschule Augsburg und habe mich innerhalb der letzten zwei Jahre auf die Beschleunigung von Neuronalen Netzen fokussiert.

Schon seit 4 Jahren habe ich mich schon für künstliche Intelligenz begeistert und auch schon während meiner Bachelorzeit mehrere Anwendungsbezogene Projekte dazu realisiert. Im Master durfte ich Hardwareentwicklung kennenlernen und hatte dort auf eigenen Wunsch schon die erste Gelegenheit bekommen einen ersten kleinen Beschleuniger für ein Neurales Netz zu entwickeln. Seitdem habe ich mich im Rahmen mehrerer Fächer intensiv mein Wissen in der Thematik vertieft.

Während meiner Abschlussarbeit wurde schlussendlich der Open-Source Beschleuniger THANNA ins Leben gerufen, welchen meine Arbeitsgruppe und ich gerne präsentieren möchten.