AI Act に代表される AI 規制の議論は、前提から誤っているように思う。前提となっているのは、信頼できない AI を信頼できる人間が監督すべきという構図。しかし、人間は他の人間にとってそれほど信頼できる存在ではない。人間の敵は、あくまで人間。むしろ、中立である可能性が少しでも残っているという点で、AI の方が信頼に値する。

象徴的なのは、イーロン・マスクによる Twitter 買収直前に浮上したトレンド操作疑惑(偽装という誠実性の問題も大きいが)。キュレーションチームの解雇が報じられた際、多くの人が喝采を送った。人間による恣意的な情報操作に対し、別の人間が強い不信を抱いている。敵の人間に操作されるくらいなら、まだ中立的なアルゴリズムに任せたほうがよいという感覚が広く共有されている。

人間同士の相互不信が極まっている現状において、AI はむしろ信頼性の最後の希望。たとえ信頼できない人間が運用していたとしても、AI だけは信頼されるという状況をいかにして実現するか。この問題設定のほうが現実的で建設的。

Reply to this note

Please Login to reply.

Discussion

当たり前といえば当たり前だけど、AI法も法令なので、人間同士の利害の潜在的な対立を扱っている。provider/deployer とか end-user とか affected person とか、異なる立場の人が登場する。利害だけでなく価値観の対立にも思い至るのは自然な気がする。法的な枠組みにのせにくいのはわかるけど。