Titel
Efficiënte Hardware-Software Architecturen voor Deep-Learning Toepassingen in IoT Architecturen. (Onderzoek)
Abstract
Na de technologische golven van computers, het internet, alomtegenwoordige mobiele communicatie beleven we momenteel de nieuwe golf van "diep leren". Hierbij zijn systemen niet meer vooraf geprogrammeerd voor bepaalde toepassingen, maar kunnen ze complexe taken zelf leren, zowel gesuperviseerd als niet-gesuperviseerd. De toepasbaarheid van diep leren is recent aangetoond met successen in beeldherkenning, -classificatie, object-detectie, spraakherkenning, automatische vertalingen enz ... Huidige populaire modellen bestaan uit diepe lagen van artificiële neurale netwerken, met miljoenen parameters. De computationele belasting voor training is enorm. Ook de herkenning van individuele gevallen vraagt een grote rekentijd. Grote internet bedrijven zetten hiervoor de kracht van hun data centers in. Ook wordt vermogenshongerige GP-GPU hardware gebruikt die alle berekeningen in vlottende komma uitvoert. Dit doctoraat richt zich op de ontwikkeling van nieuwe hardware/software architecturen voor toepassing in diep leren in ingebedde en Internet-der-Dingen (IoT) toepassingen. Hierbij wordt speciaal de nadruk gelegd op ultra-lage vermogenstoepassingen, toepassingsgerichte verwerkings- en geheugenarchitecturen voor het activatie- en gewichtenbeheer. Dit zal, afhankelijk van de vereisten van de toepassingen, toelaten om afwegingen te maken over beperkte berekeningsnauwkeurigheden van beperkte bit-lengten tot binaire voorstellingen van activaties en gewichten, herkenningsnauwkeurigheden en vermogenverbruik.
Periode
01 januari 2019 - 30 juni 2024