生成AIでわいせつ動画作成、16歳少年ら書類送検 ディープフェイクがもたらす新たな犯罪の現実

AI,WEBニュースAI,ディープフェイク,ニュース,著作権

生成AIによるわいせつ動画作成・16 歳少年ら書類送検の報道

最近、16 歳の少年らが、いわゆる「生成AI」を用して、わいせつ動画を作成したとして書類送検されたという報道が出ています。 この種の報道が増えている背景には、AI技術の高度化・コスト低下・SNSやネットの拡散力の強まりがあると考えられます。
本記事では、報道された事件の概要を整理したうえで、技術的背景として「ディープフェイク」の理解、犯罪・被害となるメカニズム、そして何が問題なのかを整理します。


事件の詳細・解説

報道によると、16 歳の少年ら数名が、いわゆる「生成AI」でわいせつ動画を作成し、書類送検されたとされています。以下、報道を基に可能な範囲で整理します。

何が起きたか

  • 少年らが「生成AI」を利用して、わいせつな動画を作成した。
  • 被害者・対象となった人物の同意があったか、あるいは実在人物を素材にしたかについて報道では明確化されていません。
  • 作成された動画が何らかの媒体で公開・拡散された可能性があり、そのため捜査機関が関与したものと推察されます。
  • 書類送検されたという点から、捜査機関が「犯罪の疑いあり」と判断して、検察へ送付されたという形になります。

捜査・法的手続き

  • 書類送検という形式は、警察が捜査を行い、検察庁へ処理をゆだねる「起訴または不起訴の判断に付す」ための手続きです。
  • 少年事件という点で、成人とは異なる少年法上の手続き・処分の可能性があることが想定されます。
  • 被害者が未成年・加害者も未成年という点で、特に慎重な捜査・対応が行われることが多いでしょう。

背景・動機(報道から読み取れるもの)

  • 報道では「好きな子だった」というコメントがあったとされており、動機として「対象の人物を動画にしたかった」「遊び・いたずらの延長だった」などの可能性も示唆されています。
  • 生成AIツールの使用が比較的容易になっており、若年層がアクセスしやすくなっている点も背景として考えられます。

ポイントとして押さえておきたい点

  • 実在人物の顔・姿・声を使ったか否かが、法的に重大な分岐点となる可能性があります。
  • 作成された動画が「わいせつ動画」としてどの程度の性描写を含むか、また「頒布・公開されたか否か」も処罰の可否を左右します。
  • 少年事件という性質から、単純な成人のわいせつ動画作成・拡散とは異なる社会的・教育的対応が求められます。

「ディープフェイク」とは何か

この種の事件を理解するうえで、「ディープフェイク(Deepfake)」の概念を正確に押さえておくことが重要です。

定義

ディープフェイクとは、AI技術を用いて、ある人物の顔・声・表情などを別の映像・音声素材に合成・差し替える手法のことを指します。
たとえば、実在する人物の顔写真を元に、別の動画の身体に貼り付けて“まるでその人物が動いているかのような映像”を作ることなどが典型です。
この技術がわいせつなコンテンツ生成に用いられると、被害者の同意なく性的な動画に顔を使われる「性的ディープフェイク」という形態が生まれています。

生成AI・合成AIとの関係

「生成AI(Generative AI)」とは、ユーザーの命令(プロンプト)や既存のデータを元に、文章・画像・動画・音声などを自動で作り出せるAIの総称です。
ディープフェイク技術はその中でも「既存人物を模倣・合成・改変する」手法として位置づけられ、特に「顔・声を交換/合成する」点が特徴となります。例えば、実在する人物の顔写真を入力して、「その人物がわいせつ行為をしている動画」を生成する、という典型ケースが該当します。

実用・悪用の両面

  • 実用例:映像制作、映画のVFX、エンタメコンテンツでの顔合成・俳優補填など。
  • 悪用例:本人の許可を得ず顔を合成して性的動画・画像を作成・拡散する「性的ディープフェイク」、偽ニュース映像を作る「偽情報」など。
    性的ディープフェイクの被害は、顔を合成された被写体が実際に出ていない/行為していないにもかかわらず「しているように見える」動画が作られ拡散される点で、重大なプライバシー・人格・名誉の侵害につながります。

なぜこのような行為が問題なのか

今回のような「生成AIによるわいせつ動画作成」には、技術的・法的・倫理的な複数の問題点があります。

法的リスク・犯罪性

  • 日本では、たとえCG・合成であっても「性行為や性器の露出などを露骨に描写したわいせつ物」を不特定多数に頒布・公然陳列した場合、刑法第175条(わいせつ物頒布等罪)が成立し得るとの解説があります。
  • 実在人物の顔を無断で合成した場合、名誉毀損罪・肖像権侵害・プライバシー侵害などの可能性もあります。
  • 未成年が関与している場合、児童ポルノ禁止法や少年法の適用も視野に入ります。
  • 法整備が追いついていない生成AI・ディープフェイク領域では「技術的には生成されたが、実際には実在人物と思わせるほどのリアルさを持つ」というグレーゾーンの問題も指摘されています。

参考:刑事事件相談弁護士ほっとライン

被害者・社会的被害の深刻さ

  • 被写体(顔を使われた人)は、実際には何もしていないにもかかわらず「わいせつ動画に出ている」という誤認・噂・拡散のリスクを負います。これは名誉・信用・精神的なダメージにつながります。
  • ネット上・SNS上で一度拡散された生成物を完全に削除するのは極めて困難であり、被害の長期化・二次被害の拡大が常態化しています。
  • 若年層(中高生)も被害・加害の対象になりうるという点が注目されており、報道では卒業アルバムの写真が素材にされたケースが増えていると指摘されています。

技術進展と倫理・規範のギャップ

  • AI生成・合成技術は急速に進展し、個人が手軽に顔合成・動画生成を行える環境が整いつつあります。
  • 一方で、法制度・プラットフォーム運用・教育・社会的啓発が追いついておらず、「どこまで規制・対応すべきか」がグレーゾーンとなっているため、被害抑止・責任追及の難しさがあります。
  • 「生成AIだからセーフ」という誤認識が被害拡大を助長しており、技術を扱う側・利用者側の倫理・リスク認識が重要です。

今後の課題・社会的視点

今回の事件を受けて、以下のような課題・留意点が浮かびます。

  • 法整備の必要性:生成AI・ディープフェイクによる性的合成映像・画像を明確に規制するための立法や、既存法律の拡大解釈の整備が求められています。
  • プラットフォーム・サービス運営側の対応:SNS・動画共有サービス・AI生成ツール提供者が、ユーザーによる悪用防止のためのガイドライン制定、監視フィルター導入、通報・削除体制の強化を進める必要があります。
  • 教育・啓発:若年層を含むネット利用者に対して、「顔出し」「写真共有」「AI生成コンテンツの危険性」についての教育を進めることが重要です。報道では中高生・小学生の被害リスクが指摘されています。
  • 被害者救済の仕組み:被写体となった人が速やかに削除要請・損害賠償請求をできるよう、法務・義務・プラットフォーマーの協力を含めた制度構築が求められています。
  • 技術・リスク管理:AI生成物のトレーサビリティ(どのツール/誰が誰の顔を使ったか)、識別技術(生成か実写かを判定)といった捜査・防止インフラの整備も急務とされています。

6. まとめ

今回の「16 歳少年らによる生成AIを用いたわいせつ動画作成・書類送検」という報道は、技術の進展とネット社会の拡張がもたらす新たな犯罪・被害形態の典型といえます。
「ディープフェイク」「生成AI」という言葉の裏には、実在人物の同意なしに性的コンテンツが作られ得るという重大なリスクがあります。そして、技術だけでなく、法制度・社会の倫理・プラットフォーム運営・教育・啓発といった多面的な対応が欠かせません。

クリエイター・利用者側としても「安易に顔を出さない」「生成AIで遊ぶ際にも被写体・素材の同意を確認する」「コンテンツ公開・共有時の法的・倫理的リスクを理解しておく」ことが、今後ますます重要になります。