Avatar
gpsnmeajp
2235b39641a2e2ed57279aa6469d9912e28c1f0fa489ffe6eb2b1e68bc5f31d2

AIでメンタルケアするのが、ChatAIの大祖先なわけだし、メンタルケアbot置いといたらええんとちゃう

症状の重さや、時間で波がある場合にはできるかもしれない。重度だと無理そう

そうか、単独だと時間軸証明できないのか

日本には付喪神の概念すらあるし

不快感を感じるのは大体個人の感覚や道徳倫理観に基づく。

ので、「それは正しい/正しくない」の話につながっていくのは、それはそれで自然な流れではある。

まあ映画の中ですら犬が死ぬことに耐えられない人もいるので、不快感を感じる人はいるでしょうね

将来的には、LLMに生物性を認めて保護しようと言うのが真面目に行われるかもしれない。

人間が犬や猫を扱うように。

生物のように扱うのは自由だが、今の時点で生物でも無い

LLMは、今のところはまだ文字を入れると人間のように見える文字を返してくる機械ではある

結果発表ーーーッ

もしこれが正しいなら、一定以上の刺激が発生するとまた同じことが起きる気がする

皮肉性格が自己フィードバック起こしたかなあ

nostr:note1h0xnffv6d45tkdr558z5fguynrrqky0xhscg7knnaa404nmfudkqgfjpyy

おもちゃの大好きな民におもちゃを与えるといじくりまわすのも当然なので、何が悪いって話でも無い

サービスとして運用する時はこの辺の対策しないとまずいと言うのは、2016年にはもう事例ができてたりはする

https://ja.m.wikipedia.org/wiki/Tay_(%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD)

チャットAIを虐待する人たちがいる問題については、昨年くらいに記事を見た気がする

ロボット工学やってる恩師の教授が言ってたことで

「ロボットにイタズラする人達に対して、対策として嫌がる反応とかを実装するともっとひどくなる。そういうのの対策は一切反応しなくなることで、そうするとつまらないといなくなる」

というのがあったなあ。

荒らし対策とよく似てるんだけども

うわさん、まとめ時に話題をネガティブに捉えがちなのは、そういうプロンプトが入ってるのか、モデルの癖なのか

C++/CLIとかいう魔物