最近の生成AI批判者の言説によく「学習元データがそのまま出てくる可能性がある」というのが登場するが、なんでそんなことになるのかわからない。ほんまか?
実際時折報告されてる
Please Login to reply.
誰かがイラストAIは一種の非可逆圧縮だという例えをしてましたけど、この圧縮率でそのまま学習元が出てくるのは流石にどうなってんだという感じが
まるごとそのままではなく、多少劣化した形で出てくるんじゃないですかね。
https://www.technologyreview.jp/s/298493/ai-models-spit-out-photos-of-real-people-and-copyrighted-images/
例えば
https://www.itmedia.co.jp/news/spv/2312/05/news111.html