'thinking' soa estranho, ne? trechos de abstracts aqui:
https://machinelearning.apple.com/research/illusion-of-thinking
Recent generations of frontier language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes before providing answers.
Long chain-of-thought (CoT) significantly enhances large language models' (LLM) reasoning capabilities. However, the extensive reasoning traces lead to inefficiencies and an increased time-to-first-token (TTFT).
além de melhorar as respostas, outro objetivo é aumentar a explicabilidade, ou seja, como e porque a IA chegou na resposta, ao inves de ser uma caixa-preta magica. (explicabilidade já era um dos holy graals das redes neurais ha decadas)
Esse 'illusion of thinking' paper vale a pena ler, mostra que, aumentando o tamanho do problema, em determinado ponto a IA colapsa rapidamente.
