改めて Fisher et al. (2025) の表1を見ると変だ。AI を統制する諸手法について、utility, safety, clarity, fairness, user agency のどれを満たしどれを満たさないかについての著者らの解釈をまとめたもの。fairness を満たして safety を満たさない手法が2つある一方で、その逆 (safety を満たして fairness を満たさない) がひとつもない。
直感的には safety と fairness はしばしば両立しないだけでなく、現実にはたいてい safety 優先で fairness が犠牲にされる。
私は最近「安全性は危険だ」と逆張りっぽく言っている。安全性は広い概念だが、安心を含む。安心は不安要因の排除と直結する。「私を不安にさせるお前は加害者だ」という論理。どう考えても公正性が保てない。
このあたりを突き詰めていけば、Fisher et al. (2025) の議論を突き崩せないだろうか。