画像生成AIというものが使い物になってきた時点で、誰もが思いついたに違いない。
これでエロ画像がいくらでも作られることになるぞ――と。
案の定、AI自動作成のエロ画像は、既に大量に出回っている(はずである)。
そしてこれも案の定、「実物そっくりの児童性虐待の画像」を作成・販売する仕組みが、既にできているようだ。
(⇒ BBC 2023年6月28日記事:生成AIの児童性虐待画像を売買 日本のソーシャルメディアなどで)
さて、このことが日本においては「古くて新しい」問題だというのは、日本人ならたいてい思い当たるだろう。
この日本では、
「マンガやアニメなど、主に二次元で描かれたロリコンエロコンテンツは、非実在の児童を描いているのであり被害者はいないのだから問題はない」
「それらを禁止するのは、表現の自由を侵害するもの」
という意見が有力であり、それどころかだいぶ優勢であるかのように思えるからだ。
この点、上記引用記事によると、イギリスではこの手のAI生成「疑似画像」は現実の画像と同じに扱われ、その所持・公開・転送は違法となっているらしい。
(残念ながら、絵師が手書きする二次元画像はどうなのかは書かれていない。)
私は、こういう問題に詳しいわけではないが……
今のところ日本では、実在児童の児童ポルノ画像は所持するだけで違法だが、「イラスト画像」ならセーフのようである。
いや、どれだけ幼く見える人間をエロ素材に使おうと、「設定上」は「幼く見える20歳」ということにしておけば、どうも大丈夫なようである。
しかしイギリスでは、そういうのもダメなのだろうか。
そして日本では、「どう見ても幼い子ども」が対象のAI作成エロ画像のうち、実写版はどう考えるべきなのだろう。
その実写版「児童」は、AIの創り上げた非実在の存在である。
ということは被害者はいないので、二次元画像同様に許されることになるのだろうか。
それともAI作成画像は「しょせん」実在人物の写真を混ぜこぜにしたものなので、やっぱり「実在の存在で、かつ被害者あり」ということになるのだろうか。
ここで私が――いや私以外もそうだと思うが――思いつくのは、「そっくりさん」という問題である。
いかにAIが実在人物を混ぜこぜにした非実在の人物・児童を何人も作り出そうと、その全てに(世界のどこかに)実在の「そっくりさん」がいる、と考えるのは当然のことではあるまいか。
そうなると児童ポルノに限らず、AI作成の成人女性をエロ用途に用いるというのも、ずいぶんリスキーなことではある。
あなたが女性だとして、あなたそっくりの実写版AIエロ女(と呼んでおく)がメチャクチャ破廉恥なことをしていたら――
それが全世界に販売され何十万にも購入・視聴されているとしたら、これはもう肖像権の侵害訴訟とか流通差止め訴訟とか損害賠償訴訟とか、訴えたくなるのが当たり前だろう。
この点アニメ風のAI生成二次元画像なら、確かにそんなリスクはない。
しかし、これ――
AI生成の実写版エロ女・エロ児童は、そのそっくりさんの肖像権の侵害になるのかどうか、とんでもない人権侵害に該当するのかどうか、けっこう大きな問題だと思うのである。
これはまさに最先端の法律問題だと思うのだが、あなたのご意見はどうだろうか。