null Onderzoek: Taalmodellen transparanter en betrouwbaarder maken

INF_Transparante_Betrouwbare_Taalmodellen_23368_head_large.jpg

Onderzoek: Taalmodellen transparanter en betrouwbaarder maken

Taalmodellen zoals chatGPT, zijn revolutionaire technologieën met veel potentieel, maar hun redeneringen zijn vaak niet transparant en betrouwbaar. Jesse Heyninck gaat onderzoeken hoe het gebruik van taalmodellen, oftewel large language models (LLMs) transparanter en betrouwbaarder kan worden gemaakt met behulp van formele logica. Hij doet dit in samenwerking met DHL en Francesca Toni (Imperial College, Londen) en Kostas Stathis (Royal Halloway, Londen).

Voor dit onderzoek heeft Heyninck, universitair docent AI aan de faculteit Bètawetenschappen, een NWO-beurs ontvangen uit het programma AiNed XS Europa. De naam van zijn onderzoek: LogicLM: Combining Logic Programs with Language Models.

AI-architectuur ontwikkelen

Heyninck gaat een nieuwe AI-architectuur ontwikkelen die LLMs combineert met formele logica. LLMs worden gebruikt om relevante informatie (bijvoorbeeld in documenten) in natuurlijke taal op te sporen en naar formele logica te vertalen, en deze vertaling kan dan gebruikt worden in zogenaamde solvers die toelaten betrouwbaar en transparant met deze informatie te redeneren. Zo laat hij de twee AI-componenten doen waar ze goed in zijn: LLMs zijn goed in relevante informatie selecteren en vertalen, terwijl logische solvers goed zijn in redeneren.

Black boxes

Het onderzoek is fundamenteel omdat Heyninck een nieuwe AI-architectuur ontwikkelt. Het is daarom interessant voor een brede waaier aan AI-gebruikers, omdat het de onvoorspelbare black boxes die LLMs momenteel zijn omzet naar transparante en betrouwbare white boxes. Het fundamenteel onderzoek wordt in de praktijk getoetst en toegepast in een use case in samenwerking met logistiek bedrijf DHL. Het resulterende AI-model wordt in dit geval gebruikt om shipments in trouble te voorspellen en diagnosticeren.

AiNed XS Europa

De NGF AiNed XS Europa subsidies zijn bedoeld om veelbelovende ideeën, vernieuwende en risicovolle initiatieven mogelijk te maken die gericht zijn op de uitdagingen in de nationale AI-onderzoeksagenda AIREA-NL én worden vormgegeven in samenwerking met ten minste één buitenlandse Europese samenwerkingspartnerorganisatie. Het voorgestelde onderzoek is grensverleggend en op voorhand staat niet vast of de beoogde doelstelling gehaald wordt.