ディープフェイク・フェイクポルノはどこから犯罪なのかを徹底解説!

AI活用

SNSなどでたびたび話題になっているディープフェイクをご存知ですか?

ディープフェイク技術は私たちの日常生活に大きな変化をもたらしましたが、悪用例も増加しています。

どのような犯罪に悪用されているのか、そして逮捕された時はどんな処罰を下されるのかを理解することは重要です。

本記事ではディープフェイク技術の基本的な概念から始めて、その悪用例やディープフェイクポルノ犯罪がどのような刑罰になるのかを徹底的に解説します。

実際の事件例を交えながら、ディープフェイクのリスクや刑罰について詳しく見ていきましょう。

スポンサーリンク

ディープフェイクとは?

ディープフェイクは、人工知能(AI)を活用した先進的な映像合成技術です。

この技術は顔や声を他の人物のものと、ほぼ区別がつかないほどに変換します。

元々は映画制作や芸術の分野で利用され、キャラクターの表現を拡張する目的で開発されましたが、技術的な進歩に伴い、悪意ある方法での使用例も増加しています。

特に問題となっているのが、ディープフェイクポルノです。

ディープフェイクポルノとは有名人や特定の個人の顔を無断でアダルト動画の出演者と入れ替えてしまう行為です。

対象となる個人の名誉を傷つけ、その社会的評価を低下させるため、名誉毀損罪に問われる可能性があります。

また既存の映像作品を無断で利用し、その内容を改変することは著作権法に違反する恐れがあります。さらにわいせつ物頒布罪の観点からも問題です。

ディープフェイク技術自体は非常に革新的であり、正しい用途に使われれば多くの貢献をもたらします。

しかし不正使用は、個人のプライバシーや人権を侵害するだけでなく、社会全体の信頼を損なう恐れがあります。

技術の発展と共に、これらの問題に対する意識と理解を深め、適切な対応策を講じることが重要です。作成方法についてを解説した記事がありますので、参考にしてください。

犯罪になるディープフェイク技術の悪用例を紹介

では実際にあったディープフェイク技術を悪用した例を紹介します。

政治家などのなりすまし

まずは世界で有名な政治家になりすました事例を紹介します。

トランプ前アメリカ大統領が警官に捕まる

前アメリカ大統領のトランプが警官に捕まる「逮捕現場」を描いたAI生成の画像です。

警官に取り囲まれて逃れようとするトランプの姿を描いており、ポルノ女優ストーミー・ダニエルズへの「口止め料」支払い疑惑に関連して起訴される可能性があるという内容です。

この画像は、調査ジャーナリズム集団「Bellingcat」の創設者エリオット・ヒギンズによって、AI画像ツール「Midjourney」を使用して作成されました。

オバマ元アメリカ大統領のフェイク動画

次はBuzzFeedVideoが公開したオバマ元アメリカ大統領のディープフェイク動画です。

オバマがトランプ大統領を罵る内容の動画となっています。

30秒ほど経過すると俳優兼監督のジョーダン・ピールが現れますので、こちらがフェイク動画だとわかります。

ゼレンスキーウクライナ大統領のフェイク動画

https://x.com/MikaelThalen/status/1504123674516885507?s=20

ウクライナのゼレンスキー大統領がロシアへの降伏を呼びかける内容のディープフェイク動画がウクライナのテレビ局のウェブサイトから拡散し、SNSで共有されました。

このディープフェイクは、ロシアのウクライナ侵攻後に使われた最初の事例とされています。

ディープフェイクが政治や戦争の「武器」となりうる現実が到来したと思える事例です。

偽プーチンの出現

AIを用いたディープフェイク技術で作られた「偽プーチン」が出現しました。

この「偽プーチン」は、サンクトペテルブルク国立大学の学生を名乗り、プーチン氏とそっくりの姿や声で現れました。

他にもロシアのテレビチャンネルとラジオ局がハッキングされ、プーチン大統領の「ディープフェイク」動画が放映された事件も起きました。

フェイクポルノ

2020年10月に芸能人の顔を合成したポルノ動画をインターネットに投稿した男性が日本で初めて摘発されました。

被害者は女性芸能人約150人に上り、500本以上の動画が違法に公開されている疑いです。

さらにその翌月の11月にはディープフェイクポルノサイトのURLを、自身が運営しているサイトに掲載した男性も逮捕されました。

フェイクポルノを作成したのではなく、URLを掲載したサイト運営者が逮捕されてることからわかる通り、作成だけではなくインターネット上に公開しただけでも違法となります。

ディープフェイク・フェイクポルノの刑事罰について

ここでは実際に罰せられる可能性のある刑事罰について解説をします。

実際に罰せられたものもあります。

ディープフェイク・フェイクポルノ犯罪:名誉毀損(きそん)罪

名誉毀損罪の法定刑は、3年以下の懲役もしくは禁錮または50万円以下の罰金と規定されています。

ディープフェイクポルノは被害者の人権を著しく侵害するものであり、重大な犯罪行為として扱われます。

このため、ディープフェイクポルノの制作や公開に関与した場合、名誉毀損罪などによる法的な責任を問われる可能性が高いです。

刑法第230条1項(名誉毀損)

公然と事実を摘示し、人の名誉を毀損した者は、その事実の有無にかかわらず、三年以下の懲役若しくは禁錮又は五十万円以下の罰金に処する。

ディープフェイク・フェイクポルノ犯罪:著作権法違反

著作権法違反に対する法定刑は、10年以下の懲役もしくは1000万円以下の罰金、またはその両方が科される可能性があります。

もしくは著作者人格権侵害の法定刑は、5年以下の懲役もしくは500万円以下の罰金、またはその両方が科される可能性があります。

さらにディープフェイクポルノを作成したのではなく、自身が運営するサイト上にその動画のURLを掲載した場合でも著作権法違反に該当し、著作権法120条の2第3号により、3年以下の懲役もしくは300万円以下の罰金、またはその両方が科される可能性があります。

ディープフェイクポルノは著作権者の権利を侵害する行為であり、これに関与することは重大な法的責任を伴います。

著作権法第119条1項

著作権、出版権又は著作隣接権を侵害した者(第三十条第一項(第百二条第一項において準用する場合を含む。第三項において同じ。)に定める私的使用の目的をもつて自ら著作物若しくは実演等の複製を行つた者、第百十三条第二項、第三項若しくは第六項から第八項までの規定により著作権、出版権若しくは著作隣接権(同項の規定による場合にあつては、同条第九項の規定により著作隣接権とみなされる権利を含む。第百二十条の二第五号において同じ。)を侵害する行為とみなされる行為を行つた者、第百十三条第十項の規定により著作権若しくは著作隣接権を侵害する行為とみなされる行為を行つた者又は次項第三号若しくは第六号に掲げる者を除く。)は、十年以下の懲役若しくは千万円以下の罰金に処し、又はこれを併科する。

著作権法第119条2項1号

次の各号のいずれかに該当する者は、五年以下の懲役若しくは五百万円以下の罰金に処し、又はこれを併科する。

一 著作者人格権又は実演家人格権を侵害した者(第百十三条第八項の規定により著作者人格権又は実演家人格権を侵害する行為とみなされる行為を行つた者を除く。)

著作権法120条の2第3号

次の各号のいずれかに該当する者は、三年以下の懲役若しくは三百万円以下の罰金に処し、又はこれを併科する。

第百十三条第二項の規定により著作権、出版権又は著作隣接権を侵害する行為とみなされる行為を行つた者

ディープフェイク・フェイクポルノ犯罪:わいせつ物頒布等罪

わいせつ物頒布罪およびわいせつ物所持保管罪の法定刑は、2年以下の懲役もしくは250万円以下の罰金、または科料、あるいは懲役および罰金の両方が科される可能性があります。

ディープフェイクポルノは、わいせつ物頒布等罪としても重要な法的リスクを有しています。これに関与することは、刑事責任を問われる可能性が高い行為です。

刑法第175条1項

わいせつな文書、図画、電磁的記録に係る記録媒体その他の物を頒布し、又は公然と陳列した者は、二年以下の懲役若しくは二百五十万円以下の罰金若しくは科料に処し、又は懲役及び罰金を併科する。電気通信の送信によりわいせつな電磁的記録その他の記録を頒布した者も、同様とする。

ディープフェイク・フェイクポルノ犯罪のまとめ

解説は以上です。

記事をまとめると、

  • ディープフェイク技術は、人工知能(AI)を利用した高度な映像合成技術で、顔や声を他人と区別がつかないほど変換する技術のこと。
  • ディープフェイク技術を悪用したディープフェイク・フェイクポルノ犯罪が問題になっている。
  • 政治家になりすましたディープフェイク技術の悪用例が実際に複数発生している。
  • 日本のフェイクポルノ事件で実際に逮捕者が出ている。
  • ディープフェイク・フェイクポルノは、名誉毀損、著作権侵害、わいせつ物頒布等の犯罪に該当する可能性があります。

でした。

ディープフェイク技術は正しく使えば素晴らしい技術ですが、悪用されており、さらに事件にもなっています。

作成するだけではなく、URL掲載でも罪に問われる可能性もあります。

安易に手を出すのは非常にリスクが高いので、絶対にやめましょう。

AI活用
スポンサーリンク
Romptn Magazine