Kunstmatige intelligentie (AI) kan worden getraind om te detecteren of een weefselfoto een tumor bevat. Tot voor kort was het echter een mysterie hoe het zijn oordeel vellen. Een team van het Research Center for Protein Diagnostics (PRODI) van de Ruhr-Universitat Bochum werkt aan een nieuwe aanpak die het oordeel van een AI duidelijk en dus betrouwbaar maakt.

De onderzoekers onder leiding van professor Axel Mosig beschrijven de aanpak in het tijdschrift Medical Image Analysis.

LEES OOK: Studie vindt dat kankergerelateerde fibroblasten effecten hebben op basis van cel, medicijngebruik

Voor de studie werkte bio-informaticawetenschapper Axel Mosig samen met professor Andrea Tannapfel, hoofd van het Institute of Pathology, oncoloog professor Anke Reinacher-Schick van het Ruhr-Universitat’s St. Josef Hospital, en biofysicus en oprichter van PRODI, professor Klaus Gerwert. De groep ontwikkelde een neuraal netwerk, oftewel een AI, dat kan classificeren of een weefselmonster tumor bevat of niet. Daartoe voerden ze de AI een groot aantal microscopische weefselbeelden, waarvan sommige tumoren bevatten, terwijl andere tumorvrij waren.

“Neurale netwerken zijn in eerste instantie een black box: het is onduidelijk welke identificerende kenmerken een netwerk leert van de trainingsgegevens”, legt Axel Mosig uit. In tegenstelling tot menselijke experts missen ze het vermogen om hun beslissingen uit te leggen. “Vooral voor medische toepassingen is het echter belangrijk dat de AI in staat is tot uitleg en dus betrouwbaar is”, vult bioinformaticus David Schuhmacher aan, die meewerkte aan het onderzoek.

AI is gebaseerd op falsifieerbare aannames

De verklaarbare AI van het Bochum-team is daarom gebaseerd op de enige betekenisvolle uitspraken die de wetenschap kent: op falsifieerbare hypothesen. Als een hypothese onjuist is, moet dit feit door een experiment worden aangetoond. Kunstmatige intelligentie volgt meestal het principe van inductief redeneren: met behulp van concrete observaties, dat wil zeggen de trainingsgegevens, creëert de AI een algemeen model op basis waarvan het alle verdere observaties evalueert.

Het onderliggende probleem werd 250 jaar geleden beschreven door filosoof David Hume en kan gemakkelijk worden geïllustreerd: hoeveel witte zwanen we ook waarnemen, we zouden uit deze gegevens nooit kunnen concluderen dat alle zwanen wit zijn en dat er helemaal geen zwarte zwanen bestaan. De wetenschap maakt daarom gebruik van zogenaamde deductieve logica. In deze benadering is een algemene hypothese het uitgangspunt. De hypothese dat alle zwanen wit zijn, wordt bijvoorbeeld vervalst wanneer een zwarte zwaan wordt gespot.

Activeringskaart laat zien waar de tumor is gedetecteerd

“Op het eerste gezicht lijken inductieve AI en de deductieve wetenschappelijke methode bijna onverenigbaar”, zegt Stephanie Schorner, een natuurkundige die ook aan het onderzoek heeft bijgedragen. Maar de onderzoekers vonden een manier. Hun nieuwe neurale netwerk geeft niet alleen een classificatie of een weefselmonster een tumor bevat of tumorvrij is, het genereert ook een activatiekaart van het microscopische weefselbeeld.

De activatiekaart is gebaseerd op een falsifieerbare hypothese, namelijk dat de activatie afgeleid van het neurale netwerk exact overeenkomt met de tumorgebieden in het monster. Plaatsspecifieke moleculaire methoden kunnen worden gebruikt om deze hypothese te testen.

“Dankzij de interdisciplinaire structuren bij PRODI hebben we de beste voorwaarden om de hypothesegebaseerde benadering in de toekomst te integreren in de ontwikkeling van betrouwbare biomarker AI, bijvoorbeeld om onderscheid te kunnen maken tussen bepaalde therapierelevante tumorsubtypes”, besluit Axel. Mosig.

Dit verhaal is gepubliceerd vanuit de feed van een nieuwsagentschap zonder aanpassingen aan de tekst. Alleen de kop is gewijzigd.

.


0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published.