Velen vertrouwen op LLM ook om wiskundige bewerkingen uit te voeren. Deze aanpak werkt niet.
Het probleem is eigenlijk simpel: grote taalmodellen (LLM) weten niet echt hoe ze moeten vermenigvuldigen. Soms hebben ze de uitkomst goed, net zoals ik de waarde van pi uit mijn hoofd ken. Maar dit betekent niet dat ik een wiskundige ben, noch dat LLM's echt weten hoe ze moeten rekenen.
Praktisch voorbeeld
Voorbeeld: 49858 *59949 = 298896167242 Dit resultaat is altijd hetzelfde, er is geen middenweg. Het is goed of fout.

Zelfs met enorme wiskundige training slagen de beste modellen er maar in om een deel van de bewerkingen correct op te lossen. Een eenvoudige zakrekenmachine daarentegen krijgt 100% van de resultaten correct, altijd. En hoe groter de getallen worden, hoe slechter de prestaties van LLM's.

Is het mogelijk om dit probleem op te lossen?
Het basisprobleem is dat deze modellen leren door gelijkenis, niet door begrip. Ze werken het beste met problemen die lijken op de problemen waarop ze getraind zijn, maar ze ontwikkelen nooit een echt begrip van wat ze zeggen.
Voor degenen die meer willen weten, raad ik dit artikel aan over "hoe een LLM werkt".
Een rekenmachine daarentegen gebruikt een nauwkeurig algoritme dat geprogrammeerd is om de wiskundige bewerking uit te voeren.
Daarom moeten we nooit volledig vertrouwen op LLM's voor wiskundige berekeningen: zelfs onder de beste omstandigheden, met enorme hoeveelheden specifieke trainingsgegevens, kunnen ze geen betrouwbaarheid garanderen, zelfs niet bij de meest basale bewerkingen. Een hybride aanpak zou kunnen werken, maar LLM's alleen zijn niet genoeg. Misschien wordt deze aanpak gevolgd voor het oplossen van het zogenaamde 'aardbeienprobleem'.
Toepassingen van LLM's in de studie van wiskunde
In de onderwijscontext kunnen LLM's fungeren als gepersonaliseerde begeleiders, die de uitleg kunnen aanpassen aan het begripsniveau van de student. Wanneer een student bijvoorbeeld wordt geconfronteerd met een differentiaalrekeningprobleem, kan de LLM de redenering opsplitsen in eenvoudigere stappen en gedetailleerde uitleg geven bij elke stap van het oplossingsproces. Deze aanpak helpt bij het opbouwen van een solide begrip van fundamentele concepten.
Een bijzonder interessant aspect is het vermogen van LLM's om relevante en gevarieerde voorbeelden te genereren. Als een leerling het concept van een limiet probeert te begrijpen, kan de LLM verschillende wiskundige scenario's presenteren, beginnend met eenvoudige gevallen en overgaand in complexere situaties, waardoor een progressief begrip van het concept mogelijk wordt.
Een veelbelovende toepassing is het gebruik van LLM voor de vertaling van complexe wiskundige concepten naar meer toegankelijke natuurlijke taal. Dit vergemakkelijkt de communicatie van wiskunde met een breder publiek en kan helpen de traditionele barrière voor toegang tot dit vakgebied te overwinnen.
LLM's kunnen ook helpen bij de voorbereiding van lesmateriaal, door oefeningen met verschillende moeilijkheidsgraden te genereren en gedetailleerde feedback te geven over de voorgestelde oplossingen van leerlingen. Zo kunnen docenten het leertraject van hun studenten beter aanpassen.
Het echte voordeel
Meer in het algemeen moet ook worden gedacht aan het extreme 'geduld' om zelfs de minst 'bekwame' leerling te helpen leren: in dit geval helpt de afwezigheid van emoties. Desondanks verliest zelfs de ai soms 'zijn geduld'. Zie dit 'grappige' voorbeeld.



