(承前) どうしてこんなことになっているのかを改めて考えると、自然言語処理研究の基本的な性格にいきつく。自然言語処理は人間ができることをコンピュータに再現させる営み。そのため、人間は作ったものはとりあえず信用し、コンピュータの訓練や性能評価のため正解として使ってきた。ここで、人間が作ったものには、タスク設定、事例の選定、事例に対するアノテーションなどが広く含まれる。
これまでは人間が作ったもの信用しても問題にならなかった。構文解析、常識推論、算数問題などが対象である限り。ところが活動家が好みそうな規範的な話題はそうではない。規範的な話題においては、作った人間の価値観がタスク設定やデータに埋め込まれる。その価値観を、そしてそれを埋め込んだ人間を信用できるのか。そもそも誰かを信用することが前提に組み込まれたタスクは健全なのか。
確かなのは、我々は文化戦争のただなかにあり、ある人々を一切信用しない別の人々がいるということ。そう考えると、ある人々がAIを武器にして別の人々に価値観を押し付けるという構図が浮かび上がる。そうしたタスクに取り組むことは、好むと好まざるとにかかわらず文化戦争の片棒を担がされることを意味する。(さらに続く?)