Replying to Avatar murawaki

AI を武器とした価値観の押し付けの恐ろしいところは、AI 規制の流れの中で統治権力を手中に収めつつあること。COMPL-AI は EU の AI 法の技術的解釈・実装を提供するが、例えば、バイアスの評価のために使われているのは既存のデータセット、RedditBias、BBQ、BOLD。https://compl-ai.org/interpretation 代表として RedditBias を見ると、著者らによって、対象が宗教、人種、ジェンダー、クィア性という4カテゴリに限定されている。しかも、カテゴリ内の属性が dominant/minoritized のいずれかに割り振られている。まさに woke 世界観を体現したデータセットである。https://aclanthology.org/2021.acl-long.151/ こんなものが統治権力を背景に他人を規制する力を得ようとしている。このルイセンコ的状況を恐ろしいと思わないだろうか?

時間をおいてちまちま書くのもたまには良いな。以前の投稿を改めて読み返すと、二重基準という切り口では焦点がボケる気がしてきた。とにかく、特定の価値観を問題の顕在化を防ぎながら埋め込む方法を3点挙げたが、これらは2点に整理できる。(1) 対象の恣意的な選定、(2) 恣意的で、反証不能なアノテーション。そう考えると対策も自ずと見えてくる。(1) 網羅性 (comprehensiveness/exhaustiveness) の確保、(2) 反証可能な演繹推論。反証可能性 (falsifiability) は科学哲学用語で、この文脈に転用するのが適当かは疑問があるが、他に適当な用語を思いつかない。言いたいのは、ある規準を採用し、適当な推論を行った結果、ある結論に至ったという過程がすべて自然言語処理の枠内に収まっていて、その妥当性を誰でも検証できるようになっていなければならないということ。

Reply to this note

Please Login to reply.

Discussion

ちょっと考えたが、用語としては反証可能性 (falsifiability) よりも検証可能性 (verifiability) の方がマシな気がしてきた。どっちにしても科学哲学用語として確立されてしまっていて、もとの意味から外れていることには違いはないが。科学哲学は論理と結びついていて真偽値に焦点を当てるが、いま考えている倫理の問題ではどの程度妥当かという連続的な評価しかできそうにない。検証可能性も元の文脈では真偽値を扱うが、falsify は字面から真偽値に結びついているのに対して、verify ならもう少し緩い。

機械学習用語に説明可能性 (explainability) があるが、こちらも違う。説明可能性は、パターン認識に基づく出力が先にあって、後付けで説明を行うことが典型的に想定されている。いまの私の立場は、そもそもパターン認識に基づいていてはならないというもの。パターン認識器を学習するための訓練データが信頼できず、それそのものを検証の対象にしたい。

用語選択問題について ChatGPT に聞いたら contestable を推薦された。これで良い気がする。

A good word for this would be "contestable." It conveys that a statement is open to challenge or debate without implying any inherent flaw or negativity in the statement itself. It reflects the idea of being open to questioning or scrutiny in a neutral and constructive sense.