Replying to Avatar murawaki

Fisher et al. 2025. Position: Political Neutrality in AI Is Impossible — But Here Is How to Approximate It

https://icml.cc/virtual/2025/poster/40157

著者 10/12 が女性という異様な偏り。有名人がガチで書いていて、引用文献を見ても強度が高い。

政治的中立性はトレードオフ関係にある (複数ある目標をすべて同時には達成できない) いくつかの手法によって近似的には達成可能だと主張している。

例えば出力レベルの reasonable pluralism を採用すると、utility, fairness, user agency は達成できるが、safety, clarity は満たさないとする。

しかし、ここで言われている指針にしたがって AI を開発し直すと、それまで疑っていた人間がその AI を信頼するようになるかといえば、そんなことはないだろう。

結局のところ、開発者自身が信頼されていないし、その開発者が持つ価値観を訓練や評価を通じて AI に埋め込むという問題に手を付けないと信頼は得られない。

改めて Fisher et al. (2025) の表1を見ると変だ。AI を統制する諸手法について、utility, safety, clarity, fairness, user agency のどれを満たしどれを満たさないかについての著者らの解釈をまとめたもの。fairness を満たして safety を満たさない手法が2つある一方で、その逆 (safety を満たして fairness を満たさない) がひとつもない。

直感的には safety と fairness はしばしば両立しないだけでなく、現実にはたいてい safety 優先で fairness が犠牲にされる。

私は最近「安全性は危険だ」と逆張りっぽく言っている。安全性は広い概念だが、安心を含む。安心は不安要因の排除と直結する。「私を不安にさせるお前は加害者だ」という論理。どう考えても公正性が保てない。

このあたりを突き詰めていけば、Fisher et al. (2025) の議論を突き崩せないだろうか。

Reply to this note

Please Login to reply.

Discussion

No replies yet.