警察庁:子どもの性的ディープフェイク被害相談79件、大半は同級生・同じ学校間の被害
「性的ディープフェイク」とは、生成AIや画像加工アプリを悪用して、実在する子どもや女性の画像を加工して性的なコンテンツとして新たに生成される人工的な画像です。誰でも容易に被害者にも加害者にもなってしまい、またSNSなどでの拡散が犯罪や人権被害にもつながることから大きな問題となっています。「性的ディープフェイク」の被害が深刻化していることを受けて、警察庁は2025年12月18日、被害相談の状況を初めて公表し注意を呼びかけました(警察庁の啓発資料は≪コチラ≫です。)。
警察庁は、18歳未満の時の写真を性的画像に加工された被害の状況を調査しています。警察庁によると、初集計となった2024年の1年間で、全国の相談や申告が全国の警察に110件寄せられ、このうち7件は名誉毀損などの疑いで検挙されたということです。2025年に入ってから9月末までに寄せられた相談や申告は79件で、去年と同じ時期に比べて3件増加し、このうち検挙は4件、補導は6件でした。79件のうち生成AIが使用されたのは14件で、全体の17.7%でした。63件の作成方法は不明でしたが、大半は生成AIが使われたとみられています。
被害者の内訳は、中学生41件、高校生25件で全体の8割を占めました。小学生は4件、大学生は9件でした。被害者と加害者との関係は、「同級生・同じ学校」が42件と半数を超え、身近な人が関与している実態が明らかになりました。他には、「SNS(交流サイト)など」が5件、「不明」が27件などでした。
画像は、卒業アルバムなどの学校行事で撮影された写真が加工され、中高生のグループ内で共有される例が目立ちました。男子中学生が、同級生の女子生徒がSNSに投稿した画像を生成AIで裸の画像に加工し、他の生徒に販売した例もありました。
警察庁は、性的ディープフェイクについて、「(生成画像の)体の部分は自分のものではないとはいえ、被害児童が受ける心の傷は想像以上に大きい」「被害者に寄り添いつつ、法と証拠に基づき、適切に対処する」とし、今後も関係省庁と連携して対策を進めていくとしています。
