Artificial Intelligence binnen het Lab

Hoe ziet een digitale onderzoeksinfrastructuur voor kunstmatige intelligentie eruit? Dat onderzoeken we, zodat we toewerken naar nieuwe en verbeterde componenten van een digitale infrastructuur voor onderzoek.

Artificial Intelligence theme Lab

eTEC-BIG Scalable Machine Learning

Een belangrijke toepassing van AI is wetenschappers te helpen omgaan met enorme hoeveelheden gegevens. Wij willen een instrument ontwikkelen om dit gemakkelijker en efficiënter te maken, zelfs voor extreem grote datasets.

Waarom werken we aan dit project?

Astronomische hoeveelheden gegevens

Astrofysica en hoge-energiefysica worden niet voor niets big science genoemd: moderne telescopen en supercomputers produceren astronomische hoeveelheden gegevens. Maar dit maakt het er niet eenvoudiger op om de fenomenen daarbuiten in de ruimte te begrijpen. Alleen al het omgaan met de gegevens is een enorme uitdaging. Het zou onbetaalbaar duur zijn om al die gegevens te kraken op zoek naar antwoorden.

Het inverse probleem oplossen

Een typisch veel voorkomend en moeilijk probleem in de astrofysica en hoge-energiefysica is het omgekeerde probleem: als we een waarneming zien, hoe kunnen we dan de oorzaak ervan begrijpen? Albert Einstein voorspelde bijvoorbeeld dat het licht van een verafgelegen melkwegstelsel vervormd zal worden door de zwaartekracht van een voorgrondobject. Dit verschijnsel staat bekend als "gravitationele lensing". Als we de eigenschappen van het voorgrondobject al kennen, is het eenvoudig om de effecten van gravitationele lensing te berekenen. Maar vanuit de telescoop kunnen we alleen de gelensde resultaten waarnemen. Dus hoe begrijpen we de eigenschappen van het voorgrondobject dat deze veroorzaakt?

Wat doen we binnen dit project?

Bouwen van een zeer efficiënt AI-model

In dit eTEC-BIG project werken onderzoekers van de Universiteit van Amsterdam en NIKHEF samen met SURF en het Netherlands eScience Center om een zeer efficiënt AI-model te bouwen om dit probleem aan te pakken. Zij gebruiken neurale netwerken om rechtstreeks marginale waarschijnlijkheid/bewijsverhouding te leren uit een reeks simulaties. Deze aanpak heet Truncated Marginal Neural Ratio Estimation (TMNRE). Deze aanpak is zeer effectief omdat de zware rekenbelasting van 'traditionele' Monte-Carlo simulaties wordt vermeden, die als extra nadeel hebben dat de resultaten ervan meestal niet in bruikbare algoritmen kunnen worden omgezet.

Grote rekeninfrastructuur voor grote problemen

Dit is echter gemakkelijker gezegd dan gedaan. Ondanks de doeltreffendheid van het TMNRE-algoritme vereist de aanpak nog steeds een enorme rekenkracht. En de gegevens zijn zeer divers, wat de uitdaging nog groter maakt. SURF en het NLeSC helpen de onderzoekers daarom hun algoritmen te optimaliseren om de kracht van de nationale supercomputerinfrastructuur optimaal te benutten. Dit houdt in dat een geavanceerde workflow wordt ontwikkeld om simulaties uit te voeren en de neurale netwerken op de supercomputer op te schalen - eerst Cartesius, en daarna Snellius. Om het instrument zo efficiënt mogelijk te laten werken, is meer computationele expertise van SURF nodig. 

Bredere toepassing

Een andere uitdaging is generalisatie: de onderzoekers willen het inverse probleem ook in andere natuurwetenschappen oplossen. Daarom is een deel van het project erop gericht de tool geschikt te maken om een familie van problemen aan te pakken. De ontwikkelaars hebben veel moeite gedaan om de software zo modulair mogelijk te maken, zodat wetenschappers hem gemakkelijk kunnen aanpassen aan hun eigen onderzoek. Zij werken aan twee papers om dit verder te laten zien en uit te leggen.

Wat zijn de belangrijkste activiteiten?

  • Ontwikkeling van het neurale netwerkinstrument.
  • Ontwikkeling van de pijplijn voor het genereren en verwerken van gegevens.
  • Twee documenten: één waarin de methode van het instrument en mogelijke toepassingen worden uitgelegd; het andere is meer technisch van aard en toont programmeurs hoe zij de code voor specifieke doeleinden kunnen gebruiken.
  • Testen en optimaliseren van het instrument, werken met echte gegevens van de onderzoekers.

Met wie werken wij samen?

  • NLeSC
  • UvA
  • Nikhef
  • Radboud Universiteit