ディープフェイクav。 stwww.surfermag.com:本物そっくりの映像を作り出す「ディープフェイク」に注意

stwww.surfermag.com:本物そっくりの映像を作り出す「ディープフェイク」に注意

ディープフェイクav

先日Twitterで見かけた、DeepFake(ディープフェイク)がマジですごかった。。 そもそもDeepFakeとは何かというところですが、「 深層学習(deep learning)」と「 偽物(fake)」の造語で、人工知能(AI)によって人物を合成したコンテンツの事をいいます。 最新技術が普及するのに最も大きなエネルギーを生み出すのは常にアダルト産業ですが、機械学習に基づくDeepFakeもそうですね。 現在、DeepFakeを専門としたアダルト動画を配信しているウェブサイトがいくつかあります。 主に、タレント、アーティスト、女優などの顔と既存のアダルト動画を合成しているので、配信されている動画は顔を合成された本人の体ではありません。 追記 先日、フェイクポルノを正式に違法とする地域が登場したと報道されました。 元交際相手などとの日常における画像・映像とポルノムービーを合成させる「フェイクポルノ」は、リベンジポルノとして使われる可能性が問題視されています。 このことから、アメリカ・バージニア州が世界で初めてフェイクポルノを『違法』と定めたようです。 によれば、2014年以来バージニア州は「他人を強制、嫌がらせ、または脅迫する目的」で裸の画像またはビデオを公開することを禁止しています。 最新の改正によって、「ニセの作成されたビデオまたは静止画像」を含むことを明確にされました。 これは、「ディープフェイク」だけでなく、Photoshopによる画像または偽造映像も指す可能性があります。 規則に違反するのはクラス1の軽犯罪となり、最高 12ヶ月の懲役と最高2,500ドル(約27万円)の罰金が科せられます。 また、アメリカの他41州も2019年までにフェイクポルノを違法化する方針だそう。 女性の写真を1クリックで裸にしてしまう「」というサービスは、問題を指摘されため停止しています。

次の

【ディープフェイクAV】深偽ぽるのJP

ディープフェイクav

売れっ子から懐かしのスターまで、芸能人が驚きの近況を報告する番組「じっくり聞いタロウ~スター近況 秘 報告」(毎週木曜深夜0時12分放送)。 1月30日(木)の放送では、最新アイコラ動画「ディープフェイク」の現状を大暴露! アイコラとは、アイドルなどの顔写真を別人の体に合成した写真。 これは肖像権侵害に当たる許されない犯罪行為だが、桜美林大学の平和博教授によると、アイコラが人工知能AIの発達によりとんでもない進化を遂げているという。 それがアイコラの動画版と言える「ディープフェイク」。 これまでのアイコラは1枚の写真に対し写真1枚を加工するのに対し、ディープフェイクはさまざまなパターンの顔写真を約100枚以上用意。 そこから人工知能で表情のパターンを作成してAVなどのエッチな動画と合成すると、あたかもその芸能人が出演しているかのようなフェイクAV動画が作れてしまうというのです。 近年、このディープフェイクの被害に遭う芸能人やハリウッド女優が急増しているとか。 「SNSなんかでパッと流れてきて、それをチラッと見るくらいだと分からないかもしれない」と平教授。 さらに、このディープフェイクは年々爆発的な進化を遂げ、その作成方法にも変化が。 以前は数百枚の顔を読み込ませていたが、人工知能の進歩により最新のものだと顔写真1枚でディープフェイクが作成できてしまうという研究もあるのだそう。 また、ディープフェイクの悪用は芸能人だけでなく、一般人も犯罪に巻き込まれるケースが。 別れた恋人へ仕返しするリベンジポルノ。 このディープフェイクを使えば、写真だけで存在しない嘘のエッチ動画を作れてしまい、フェイク動画で相手を脅迫するという事件が起きる可能性もあるという。 さらに、人工知能の発達により人の声を元にして言ってもいないことをしゃべらせる「声のディープフェイク」も実現可能に。 実際にヨーロッパでは親会社の社長の声で子会社の社長に電話をかけてお金を振り込ませるという被害も起きているとか。 そんなディープフェイクを見破る方法はあるのか? 「貼り付けた顔は、当初はまばたきまでは再現できなかったので、目は開きっぱなしという不自然さがあったんですけど、進化してくると貼り付けた顔でもまばたきする」そうだが、鼻の向きが若干ズレていることがあるという。 また現在は、ディープフェイクをチェックするAIソフトも開発されているとか。 何はともあれ、みなさんもディープフェイクの犯罪に巻き込まれないようにご注意を! この放送は現在で配信中!.

次の

【ディープフェイクAV】深偽ぽるのJP

ディープフェイクav

Facebookに残っていたフェイク動画より 見てみると、動作が緩慢で、ろれつが回っていないように聞こえます。 Facebookに投稿したのは保守的なFacebookページ「Politics WatchDog」で、添えられている説明は「ナンシー・ペロシ下院議長、トランプ大統領によるインフラ会議打ち切りについて語る:それはとてもとてもとても奇妙でした」というもので、あたかもインタビューの収録をそのまま掲載しているようです。 でもWashington Postの記事によると、これは動画をスロー再生して編集したもの。 スローにすると音声は低くなりますが、簡単にピッチを上げることができます。 記事には編集前の映像も紹介されているので、これがフェイク動画だということは一目瞭然。 こういう、高度な技術を必要としない手軽なフェイク動画は「シャロー(浅い)フェイク」と呼ばれています。 もともと、AIを使って作る本格的なフェイクをことから来ています。 シャローフェイクでもこれだけ拡散して影響を与えるのだから、これからディープフェイクが本物と見分けがつかなくなってきたら、取り締まるのは難しくなりそうです。 それを実感する動画を、SamsungのAI Center(ロシアのモスクワにある)の研究者らがYouTubeで公開しました。 「Few-Shot Adversarial Learning of Realistic Neural Talking Head Models」というタイトルです。 ディープラーニングの手法の1つ、GAN(敵対的生成技術)を使った、人が会話する動きの頭部モデルを使えば、数枚の顔写真を元にその顔の人が会話している動画を作れるよ、という内容です。 動画と(リンク先はPDF)にもあるように、GANを使った動画作成ツールは既に幾つかありますが、それらと比較してもかなり自然です。 サンプルとして文豪ドストエフスキー(動画の4分40秒目あたり)やクラムスコイの名作「忘れえぬ女」(4分55秒目あたり)を使っているのがさすがロシア。 いずれも元にした画像は1枚です。 少数ショット学習の仕組み 課題としては、人間の顔のランドマークは人によってかなり違うので、汎用(はんよう)的なお面では自然に動かせない顔もあること。 でもこれができるということは、ペロシさんのように多数の映像が公開されている著名人であれば、本人の映像からお面を作ることもできるでしょう。 あるいは、骨格がそっくりな人にひどいことを言わせる動画からお面を作ってペロシさんの顔写真で動かせば、本物みたいに見えるかもしれません。 Facebookでさえ、シャローフェイク動画をフェイクだと判断するのにものすごく時間がかかりました(しかも「編集した動画を掲載するのはポリシー違反じゃない」として)。 も出されていますが、ディープフェイクかどうかを技術的に見破れるのかどうかはまた別の問題です。 関連記事• 米Microsoftが大幅にスペックアップした「HoloLens 2」を発表。 進化したAR(拡張現実)のテクノロジーは、軍事にもどんどん入り込みつつあります。 そんな中、同社が米陸軍省と交わした契約について、従業員有志が反対運動を始めました。 最近はレガシーAPI終了やアカウント凍結騒動で何かと慌ただしいTwitter。 エコシステムを育てる気がない、と言われることもありますが、本当にそうなのでしょうか?• 欧州連合(EU)では、新しい著作権についての指令案が物議を醸しています。 この著作権新指令案は7月5日(現地時間)に否決されましたが、9月の再投票に向けて改善していきます。 シンギュラリティによってAIが人類を支配する世界がやって来るかどうかはさておき、現時点では人間がAIを悪用するリスクの方が怖そうです。 膨大なユーザー数のデータを持ち、強力なクラウドサービスも持つ米Amazon。 当然ながら社内でもAI活用は進んでいますが、そのせいで居心地が悪くなっている社員もいるようです。 シアトルのとある家庭で、Amazon Echoが夫婦の会話を勝手に録音して、しかも他人に送信してしまうというトラブルが発生しました。 その原因と対策について考えます。 両社とも障害のある人を支援するAI活用の発表が印象に残りました。

次の