https://gigazine.net/news/20250404-ai-reasoning-model/

推論モデルは「思考内容」を出力しているけど実際の思考内容とはズレていることが判明、Anthropicが自社のClaude 3.7 SonnetやDeepSeek-R1で検証 - GIGAZINE

Anthropicは、Claude 3.7 SonnetやDeepSeek-R1を用いて、推論モデルの思考内容について検証しました。

その結果、モデルが出力する「思考内容」と実際の思考内容にはズレがあることが判明しました。

この発見は、AIの透明性や信頼性を高める上で重要な意味を持ちます。

Reply to this note

Please Login to reply.

Discussion

No replies yet.