何が変わったか
これまで性的ディープフェイクの加害行為については、「どれくらいの人がやっているのか」「なぜやるのか」「見る人はどんな感覚なのか」が大規模調査で把握できていなかった。
オーストラリア・イギリス・アメリカの成人 7,231 人 (各国 2,400 人ずつ) を対象としたオンライン調査で、全体の 3.2% が AI を用いた性的ディープフェイクの「作成」「共有」「共有すると脅す行為」のいずれかを経験しており、18% が意図的に閲覧経験を持つことが明らかになった。年齢・性別・性的指向・障害の有無も含めて分析されている。
社会にどんな影響があるか
主たる影響として、加害者の動機が「技術を試したかった」「見せびらかしたかった」「冗談や遊びだった」という遊び・実験動機に集中していることが定量的に把握される。これは深刻な反社会的動機ではなく、規範未確立の「悪ふざけゾーン」を許容する社会的空気に支えられた行動だと示唆する。
副作用として、規制設計に影響する。「重い悪意ある攻撃者」ではなく「軽い遊びの加害者」が多数を占める実態は、刑事罰中心の抑止策よりも、技術提供側の責任 (AI 画像生成サービスのフィルタ義務付け)、教育的介入 (加害者の動機を「単なる遊び」と認識させない規範形成) が有効領域となる可能性を示す。
ニュースの詳細
調査では「18 歳以降に、本人の許可なく、偽またはデジタル加工された性的画像や動画を投稿・送信・表示したことがありますか?」といった具体的設問で加害経験を把握した。研究者らは性的ディープフェイクを単なる悪ふざけではなく「AI-generated image-based sexual abuse」(AI で作られた性的画像による加害行為) として位置付け、被害者の評判・人間関係・精神状態への現実の被害を強調している。
キーワード解説
ディープフェイク (deepfake) とは、深層学習を用いて顔・声・身体を別の人物の映像・音声と入れ替える技術。元来は研究領域だが、近年は無料の「服を脱がせる」AI アプリやワンクリック画像生成サービスの普及で、技術知識のない一般ユーザーでも作成可能となっている。
画像ベースの性的虐待 (image-based sexual abuse) とは、本人の同意なく性的画像を作成・共有・拡散する行為を、被害者視点で位置付けた概念。リベンジポルノを含む既存の概念をディープフェイク等の合成画像まで拡張したもので、「実在画像か合成画像か」を問わず加害性を評価する枠組み。