Iluzia raționamentului: dezbaterea care zguduie lumea IA
Apple publică două lucrări devastatoare - "GSM-Symbolic" (octombrie 2024) și "The Illusion of Thinking" (iunie 2025) - care demonstrează cum LLM eșuează în cazul unor variații mici ale problemelor clasice (Turnul Hanoi, traversarea unui râu): "performanța scade atunci când sunt modificate doar valorile numerice". Succes zero în cazul complexului Turnul din Hanoi. Dar Alex Lawsen (Open Philanthropy) replică cu "Iluzia gândirii", demonstrând eșecul metodologiei: eșecurile au fost cauzate de limitele de ieșire ale jetoanelor, nu de prăbușirea raționamentului, scripturile automate au clasificat greșit ieșirile parțial corecte, unele puzzle-uri erau imposibil de rezolvat din punct de vedere matematic. Prin repetarea testelor cu funcții recursive în loc de listarea mișcărilor, Claude/Gemini/GPT au rezolvat Turnul din Hanoi 15 recorduri. Gary Marcus îmbrățișează teza Apple privind "schimbarea distribuției", dar lucrarea privind sincronizarea pre-WWDC ridică întrebări strategice. Implicații de afaceri: cât de mult să avem încredere în AI pentru sarcini critice? Soluție: abordări neurosimbolice rețele neuronale pentru recunoașterea modelelor + limbaj, sisteme simbolice pentru logica formală. Exemplu: Inteligența artificială în contabilitate înțelege "cât costă cheltuielile de deplasare?", dar SQL/calculele/auditul fiscal = cod determinist.