De illusie van redeneren: het debat dat de AI-wereld op zijn grondvesten doet schudden
Apple publiceert twee vernietigende artikelen - 'GSM-Symbolic' (oktober 2024) en 'The Illusion of Thinking' (juni 2025) - die aantonen hoe LLM faalt op kleine variaties van klassieke problemen (Toren van Hanoi, rivieroversteek): 'prestaties nemen af wanneer alleen numerieke waarden worden veranderd'. Nul succes bij complexe Toren van Hanoi. Maar Alex Lawsen (Open Philanthropy) antwoordt met "The Illusion of Thinking", waarin hij een falende methodologie demonstreert: mislukkingen waren limieten aan de uitvoer van tokens, geen ineenstorting van redeneringen, automatische scripts classificeerden gedeeltelijk correcte uitvoer verkeerd, sommige puzzels waren wiskundig onoplosbaar. Door tests te herhalen met recursieve functies in plaats van zetten op te sommen, losten Claude/Gemini/GPT de Toren van Hanoi 15 records op. Gary Marcus omarmt Apple-these over 'distributieverschuiving', maar pre-WWDC timing paper roept strategische vragen op. Zakelijke implicaties: hoeveel vertrouwen in AI voor kritieke taken? Oplossing: neurosymbolische benaderingen neurale netwerken voor patroonherkenning+taal, symbolische systemen voor formele logica. Voorbeeld: AI boekhouding begrijpt "hoeveel reiskosten?" maar SQL/berekeningen/belastingcontroles = deterministische code.