PR

ディープフェイク 判例と技術進化で問題化する法整備

スポンサーリンク

ディープフェイク と 判例

ディープフェイクの法的課題
🔍

技術の急速な発展

AIの進化によりディープフェイク作成の敷居が下がり、一般人でも精巧な偽動画を作成可能に

⚖️

法整備の遅れ

新技術に対する法律の整備が追いつかず、既存の法律で対応する苦しい状況

🌐

国際的な対応

各国が独自の法規制を進める中、日本の対応は十分か課題が残る

ディープフェイク 技術の発展と法的問題の現状

ディープフェイクとは、AI技術を用いて音声や動画を合成・加工して生み出された、現実には存在しない映像などを作成すること、またはそのコンテンツそのものを指します。この技術名は「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語です。

技術的には、GAN(Generative Adversarial Network:敵対的生成ネットワーク)という生成モデル技術が使われています。これはジェネレーターが画像や映像を生成し、ディスクリミネーターがそれを本物か偽物か判断するというプロセスを繰り返すことで、限りなく本物に近いコンテンツを作り出します。

法的な観点では、この技術自体は必ずしも違法ではありません。しかし問題なのは、実在する人物の評判を落とす、視聴者を騙す、社会に悪影響を与える、犯罪行為を行うなどの悪意ある使用が可能な点です。2023年にネット上で確認されたディープフェイク動画は9万5820件で、その98%が性的コンテンツだったという調査結果もあります。

この状況に対応するための法的枠組みは、各国で模索されている段階です。日本では、既存の法律(名誉毀損罪、著作権法違反、わいせつ物頒布罪など)の適用によって対処してきましたが、技術の進化に対応するための専門的な法整備はまだ十分とは言えません。

ディープフェイク 性的コンテンツの判例と実在人物保護

日本においても、ディープフェイク関連の判例が徐々に蓄積されています。特に性的なディープフェイクに関する事例として注目すべきは、2022年(令和3年9月)に女性タレントの顔画像を生成AIによって合成したアダルト動画を有料配信して有罪となった判例です。

この裁判では、裁判長が「タレントの芸能活動において重要なイメージを毀損し、動画はネット上に拡散する」として名誉毀損と判断しました。被告人は「あくまでもタイトルやサムネに激似と書いてあるだけで本人と誤認させていない」と反論しましたが、「動画の精巧さを考えれば、視聴者が見出しを信用せず、本人だと誤信する可能性は否定できない」として退けられました。

また最近では、生成AIで作成したわいせつな画像のポスターをネットオークションで販売したとして、警視庁保安課が20~50代の男女4人を逮捕した事例もあります。AIが作った画像もわいせつ物頒布罪の対象と判断された全国初の摘発となりました。

ディープフェイクポルノに対する法的対応としては、以下のような罪に問われる可能性があります。

  • 名誉毀損罪(刑法第230条1項): 芸能人だけでなく、一般人の顔を使用した場合でも、社会的評価を低下させる行為として成立し得ます
  • 著作権法違反: 元映像の著作権侵害
  • わいせつ物頒布罪: AIで作成した画像も対象となります

ディープフェイク 動画の証拠能力と裁判への影響

ディープフェイク技術の発展は、裁判における証拠の扱いにも大きな影響を与えています。従来、写真や映像、録音音声は決定的な証拠能力を持つとされてきましたが、ディープフェイクの出現により、その信頼性が揺らいでいます。

専門家が指摘する具体的な懸念点

  1. 写真や映像の証拠能力の低下
  2. 顔認証技術の信頼性の低下
  3. フェイク動画による人権侵害

が挙げられています。

裁判においては「それはディープフェイクです」という反論が出た場合、裁判が一時中断して本物かどうかの検証が必要になるケースも増えています。アメリカの連邦裁判所証拠関連規則諮問委員会では、ディープフェイクが疑われる証拠の取り扱いについて改正案が議論されています。

提案されている対策

  1. 証拠の信憑性を問う側がまず十分な証拠を判事に示す
  2. 裁判前のヒアリングで証拠能力を決定する
  3. 専門家の鑑定結果に基づいて判事が判断する

などの方法が検討されています。

こうした問題は特に家庭裁判所など、当事者が弁護士をつけない場合や、鑑定を頼む余裕のないケースで深刻化する可能性があります。

世界各国のディープフェイク 法規制と罰則の現状

ディープフェイクへの法的対応は世界各国で進んでいます。各国の取り組みを見ていきましょう。

アメリカ

  • ニュージャージー州では、2025年4月に悪質なディープフェイクの作成と共有を犯罪とする法律が制定され、違反者に最高3万ドル(約438万円)の罰金を科す措置が取られました
  • この法律制定の背景には、高校で発生したAIによる女子生徒のヌード画像共有事件があり、被害者自身が法制化を積極的に提唱した経緯があります

韓国

  • 深刻な被害が報告されている韓国では、卒業アルバムなどを悪用して60人以上の女性のディープフェイク画像を流布した事件を受け、ディープフェイクの所持や視聴が厳罰化されました
  • 韓国は国籍別のディープフェイク被害で全体の53%を占め、最も被害が多い国となっています

イギリス

  • 2025年には、子どもの性的ディープフェイクを生成するAIツールの作成や所持を世界で初めて違法とする法律を制定する方針を示しています

欧州

  • 欧州刑事警察機構(ユーロポール)は、生成AIによって作成された児童虐待画像をインターネット上で販売したとして、25人の容疑者を摘発しています

日本

  • 日本は国籍別の被害で全体の10%を占め、韓国、アメリカに次いで3番目に多い状況です
  • 専門的な法整備はまだ途上段階と言えますが、名誉毀損やわいせつ物頒布など既存の法律で対応しています

ディープフェイク 民事的救済と新たな法解釈の可能性

ディープフェイク被害に対する民事的救済については、特有の課題があります。日本の法的枠組みでは、ディープフェイク動画による被害は肖像権の侵害として一応の民事的拡散防止が可能ですが、その実効性には課題があります。

民事的救済における主な論点は以下のとおりです。

  1. 肖像権による保護: ディープフェイク動画に対しては、人格権たる狭義の肖像権に基づく差止請求が可能性が高いとされています
  2. 実演家の隣接権の適用困難: ディープフェイク以前の手法では有効だった実演家の隣接権は、容貌データ上の実演記録と偽作動画の間に表現の類似性・依拠性が認められにくいことから適用が困難になっています
  3. 芸能プロダクションの立場: 権利者本人が行使する必要がある人格権(肖像権)に依拠せざるを得ない状況は、芸能タレントのビジネスを支援する芸能プロダクションにとって不都合を生じさせています

こうした状況を踏まえ、専門家からは新たな法解釈や立法措置の必要性が指摘されています。たとえば、ディープフェイク技術特有の法的枠組みを整備したり、人格権の行使を一定条件下で代理人に認めたりするなどの対応が考えられます。

また、実効性のある救済のためには、プラットフォーム事業者との連携も重要です。SNSなどの事業者が積極的にディープフェイクコンテンツを削除する仕組みを整えることで、被害の拡大を防ぐことができます。

日本でも特に「性的ディープフェイク」に関する被害は増加傾向にあり、技術の発展に法的枠組みが追いついていない現状があります。被害者救済の視点から、より迅速で実効性のある対応策の構築が求められています。

ディープフェイク 検出技術と技術者倫理の重要性

ディープフェイク技術の発展と並行して、それを検出する技術の開発も進んでいます。しかし、開発側と検出側の「いたちごっこ」の状況が続いています。

ディープフェイクの検出技術としては、以下のような手法が提案されています。

  • 顔や鼻の向きの不自然さを検出
  • 動画におけるまばたきの頻度や継続時間の分析
  • 深層学習を用いた自動検出システム

しかし、これらの検出技術が進化すれば、それを回避するためのより精巧なディープフェイク技術も開発されるという循環が生じています。

また、AI技術者の倫理的責任も重要な論点です。ディープフェイク技術自体は中立的なものですが、その使用方法によっては深刻な社会問題を引き起こす可能性があります。技術者には技術の開発だけでなく、その悪用を防ぐための対策やガイドラインの策定への参加も求められています。

一般ユーザーに向けたディープフェイク対策としては以下のポイントが挙げられます。

  • 情報源の確認: 信頼できる複数の情報源を確認する習慣をつける
  • 疑いの目を持つ: 特に重要な判断を伴う情報については慎重に検証する
  • 細部に注目: ディープフェイク映像は目元や口元の動き、顔の表情などに違和感が残ることが多い
  • メディアリテラシーの向上: 情報を批判的に分析する能力を養う

企業向けには、特に金融取引や重要な意思決定に関わる情報確認のプロセスを強化し、多要素認証や追加の確認手段を導入することが推奨されています。

情報処理推進機構(IPA)のAIセキュリティに関するガイダンス

技術の進化と法整備のバランスを取りながら、ディープフェイクによる被害を最小限に抑えるための社会的な枠組み作りが今後も重要な課題となるでしょう。

生成AI
スポンサーリンク
フォローする