Waarom wiskunde moeilijk is (zelfs als je een AI bent)
Taalmodellen weten niet hoe ze resultaten moeten onthouden zoals wij pi onthouden, maar dat maakt ze nog geen wiskundigen. Het probleem is structureel: ze leren door statistische gelijkenis, niet door algoritmisch begrip. Zelfs de nieuwe 'redeneringsmodellen' zoals o1 falen bij triviale taken: het telt de 'r' in 'aardbei' correct na enkele seconden verwerking, maar faalt wanneer het een paragraaf moet schrijven waarin de tweede letter van elke zin een woord vormt. De premium versie van 200 dollar per maand heeft vier minuten nodig om op te lossen wat een kind direct doet. DeepSeek en Mistral in 2025 tellen nog steeds letters verkeerd. De opkomende oplossing? Hybride aanpak: de slimste modellen hebben uitgevonden wanneer ze een echte rekenmachine moeten bellen in plaats van zelf de berekening uit te voeren. Paradigmaverschuiving: AI hoeft niet te weten hoe ze alles moet doen, maar moet de juiste hulpmiddelen orkestreren. Laatste paradox: GPT-4 kan je briljant de limiettheorie uitleggen, maar krijgt vermenigvuldigingen fout die een zakrekenmachine altijd correct oplost. Voor wiskundeonderwijs zijn ze uitstekend: uitleggen met oneindig geduld, voorbeelden aanpassen, complexe redeneringen afbreken. Voor nauwkeurige berekeningen? Vertrouw op de rekenmachine, niet op kunstmatige intelligentie.