https://gigazine.net/news/20250404-ai-reasoning-model/
推論モデルは「思考内容」を出力しているけど実際の思考内容とはズレていることが判明、Anthropicが自社のClaude 3.7 SonnetやDeepSeek-R1で検証 - GIGAZINE
Anthropicは、Claude 3.7 SonnetやDeepSeek-R1を用いて、推論モデルの思考内容について検証しました。
その結果、モデルが出力する「思考内容」と実際の思考内容にはズレがあることが判明しました。
この発見は、AIの透明性や信頼性を高める上で重要な意味を持ちます。