並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 47件

新着順 人気順

Deepfakeの検索結果1 - 40 件 / 47件

Deepfakeに関するエントリは47件あります。 AI技術人工知能 などが関連タグです。 人気エントリには 『女性の写真を1クリックで裸にしてしまう「DeepNude」が登場』などがあります。
  • 女性の写真を1クリックで裸にしてしまう「DeepNude」が登場

    AIを用いて有名女優のポルノ映像を作成するという「フェイクポルノ」が2017年末から2018年にかけて大流行しましたが、これと同じようにAIやニューラルネットワークを用いることで、女性の写真から服だけを削除して裸にしてしまうという凶悪なアプリケーション「DeepNude」が登場しています。 This Horrifying App Undresses a Photo of Any Woman With a Single Click - VICE https://www.vice.com/en_us/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman DeepNudeは服を着た女性の写真から、服部分だけを削除し、胸や外陰部がはだけた裸の写真に変換してしまうというもの。女性の写真のみ変換可能で、実際にDeepNudeを使用したと

      女性の写真を1クリックで裸にしてしまう「DeepNude」が登場
    • 「ダライ・ラマは小児性愛者」 中国が流した「偽情報」に簡単に騙された欧米...自分こそ正義と信じる人の残念さ

      「ダライ・ラマは小児性愛者」 中国が流した「偽情報」に簡単に騙された欧米...自分こそ正義と信じる人の残念さ <チベット弾圧から世界の目をそらすため、欧米の無知と偏見に付け込んでダライ・ラマを炎上の的にさせた中国と、見事に引っかかった世界> チベット仏教の最高指導者ダライ・ラマ14世に対して4月8日、世界の主要なSNSで新たな中傷キャンペーンが開始された。 と言っても、それだけなら今に始まった話ではない。抗中独立運動が拡大した1959年のチベット動乱以来、祖国を脱出したダライ・ラマは隣国インドで亡命生活を送っている。今もなおチベット人には敬愛されているが、中国政府はダライ・ラマの写真を所持することも禁じている。そして一貫して、ありとあらゆるメディアで誹謗中傷を続けている。 今回もまた「メイド・イン・チャイナ」の偽情報なのはほぼ間違いないが、不愉快な新手法があった。ダライ・ラマを、なんと小児

        「ダライ・ラマは小児性愛者」 中国が流した「偽情報」に簡単に騙された欧米...自分こそ正義と信じる人の残念さ
      • 日本人アイドルも被害に。96%がポルノ動画の「ディープフェイク」政治的な悪用も

        Search, watch, and cook every single Tasty recipe and video ever - all in one place! News, Politics, Culture, Life, Entertainment, and more. Stories that matter to you.

          日本人アイドルも被害に。96%がポルノ動画の「ディープフェイク」政治的な悪用も
        • 香港の企業が作成したAIインフルエンサーが完全に不気味の谷を超えててリアルすぎる「インフルエンサー淘汰されそう」

          アール @RR_consultant 香港のPantheon Labが作成したAIインフルエンサーがリアルすぎる。表情、肌、筋肉など細部が鮮明に具現化されており、TikTokで数百万人のフォロワーを抱える。高級ブランドのPRなどユースケースは更に拡大すると思われ、インスタに有象無象に存在するビジュアルのみのインフルエンサーは淘汰されそう。 pic.twitter.com/nXbWloCxBN 2023-01-14 16:25:09

            香港の企業が作成したAIインフルエンサーが完全に不気味の谷を超えててリアルすぎる「インフルエンサー淘汰されそう」
          • ドイツのこの広告、SNSに子供の写真を載せてる人全員に見て欲しい「デジタルタトゥーよりヤバイ」

            リンク www.adweek.com This Social Experiment Exposes the Dark Side of 'Sharenting' Deutsche Telekom delves into an uncomfortable area that not many brands have addressed. 2 users 239

              ドイツのこの広告、SNSに子供の写真を載せてる人全員に見て欲しい「デジタルタトゥーよりヤバイ」
            • 生成AIで岸田首相の偽動画、SNSで拡散…ロゴを悪用された日テレ「到底許すことはできない」

              【読売新聞】 生成AI(人工知能)を利用して作られた岸田首相の偽動画がSNS上で拡散している。首相にそっくりな声で卑わいな発言をさせたもので、日本テレビのニュース番組のロゴなども表示されている。海外では、政治家の偽動画が世論操作に悪

                生成AIで岸田首相の偽動画、SNSで拡散…ロゴを悪用された日テレ「到底許すことはできない」
              • アングル:ディープフェイク最前線、「実在しない記者」暗躍か

                アイテム 1 の 2 7月15日、オリバー・テーラーは英バーミンガム大学の学生で、目は茶色、無精ひげをうっすらと生やし、少しぎこちない笑いを浮かべる二十歳そこそこの若者だ。 写真はテーラーのものとされる顔写真。イスラエルのディープフェイク検出会社がロイターに提供した右の解析写真では、目元や口に手を加えた痕跡が見られる(2020年 ロイター/Cyabra) [1/2]7月15日、オリバー・テーラーは英バーミンガム大学の学生で、目は茶色、無精ひげをうっすらと生やし、少しぎこちない笑いを浮かべる二十歳そこそこの若者だ。 写真はテーラーのものとされる顔写真。イスラエルのディープフェイク検出会社がロイターに提供した右の解析写真では、目元や口に手を加えた痕跡が見られる(2020年 ロイター/Cyabra)

                  アングル:ディープフェイク最前線、「実在しない記者」暗躍か
                • ZoomやSkypeでリアルタイムに他人になりすませるオープンソースのディープフェイクツール「Avatarify」

                  自宅からリモートワークを行う際、ZoomやSkypeといったオンラインビデオ会議ツールを使用するケースがよくあります。オンラインビデオ会議ツールではウェブカメラを使って自分の顔を映しますが、アルゴリズムで別人になりきってオンラインビデオ会議に参加できるオープンソースのディープフェイクツール「Avatarify」が公開されています。 GitHub - alievk/avatarify: Avatars for Zoom and Skype https://github.com/alievk/avatarify This Open-Source Program Deepfakes You During Zoom Meetings, in Real Time - VICE https://www.vice.com/en_us/article/g5xagy/this-open-source-pro

                    ZoomやSkypeでリアルタイムに他人になりすませるオープンソースのディープフェイクツール「Avatarify」
                  • AI裏垢女子に気を付けろ(ディープフェイクで裏垢動画を作ってみた)|山野祐介

                    私事ですが、骨折して2か月ほど半寝たきり&半引きこもり生活をしていました(動かな過ぎて痔になった)。なので連載以外は全く何もせず過ごしていたんですが、若干余裕が出てきたのでリハビリがてらnoteで好きなことを書きます で……久々にXを見て「おすすめ」タブに表示されていた裏垢女子を一度見たら、それからずっと出てくるようになってしまった。 裏垢女子というのは、一般的には性的な内容のポストや画像の投稿をあけすけに行い、会って性行為に及ぶのもやぶさかではない……みたいな女性ユーザーのことを指すが、体感では純粋に性的な出会いを求めている人は0.2%くらいではないかと思う。 残りの99.8%は ・「ここで連絡先交換してます♥」とか言われて詐欺の出会い系(会えることや資金譲渡をエサに入金を何度もせびられる)に誘導される ・DMで交通費やホテル代などの名目で「PayPayやAmazonギフト券をくれたら会

                      AI裏垢女子に気を付けろ(ディープフェイクで裏垢動画を作ってみた)|山野祐介
                    • AIが大量生成、実在しない「フェイク顔」がトランプ氏を支持する(平和博) - エキスパート - Yahoo!ニュース

                      AIが自動生成する実在しない「フェイク顔」のアカウントが、フェイスブックを舞台に大量発生し、トランプ大統領の再選を支持する――。 こんな新たな動きが注目を集めている。 フェイスブックはこの動きに対し、600を超すアカウント、さらに関連するフェイクブックページやグループの削除を発表した。 またフェイスブックの発表と合わせて、大手シンクタンクなどが調査報告書を公表。AIによる「フェイク顔」アカウントが大量発生する仕組みを解き明かしている。 「フェイク顔」「アカウント」「投稿」と、AIが絡んだ自動化によって拡散の波をつくりだす、フェイクネットワークの“製造工程”。その一端を、この騒動から垣間見ることができる。 フェイクニュースの生態系は、加速度的に複雑さを増している。 ●610のアカウント削除フェイスブックは20日、「組織的不正行為(CIB)」に対する、大規模なアカウント削除などの措置を発表した

                        AIが大量生成、実在しない「フェイク顔」がトランプ氏を支持する(平和博) - エキスパート - Yahoo!ニュース
                      • 安倍晋三、大ハンガリー主義者になる。国際問題必至のニセ動画は如何に拡散したのか - MGTOW NEWS

                        gif晋三 日本の国会動画がなぜかハンガリーで拡散され、一日の間に20万回再生を超えた。(現在32万回) 動画を確認しても、新型コロナウイルス対策について話しているだけの普通の動画である。 ただ、書かれているハンガリー語の字幕が全くの大嘘ということを除けば。 この動画が投稿された6月4日はハンガリーにとって重要な日とされる。ちょうど今から100年前に、第一次世界大戦の敗戦国となったハンガリー王国はトリアノン条約により国土の七割、人口の五割を失ったためだ。 以来、一部のナショナリストたちは、この屈辱の条約により失われた国土を回復し大ハンガリーを再建したいと願ってきた。 そして、右派のオルバン政権は2010年に6月4日を国民連帯の日として制定する。 その国家的な記念日において、一つの動画が投稿された。概要欄には「共有してください!ハンガリー人は一人ではない!」と投稿者のコメント。 https:

                          安倍晋三、大ハンガリー主義者になる。国際問題必至のニセ動画は如何に拡散したのか - MGTOW NEWS
                        • 字幕:AIでよみがえる高校銃乱射事件の被害者 米大統領選の投票呼び掛け

                          【10月29日 AFP】米国史上最悪の高校銃乱射事件で犠牲になった息子を、大統領選向け動画のために人工知能(AI)でよみがえらせないかと広告代理店に持ち掛けられた時、マヌエル・オリバー(Manuel Oliver)さんとパトリシア(Patricia Oliver)さんは一瞬も迷うことはなかった。 2人の息子、ホアキン・オリバー(Joaquin Oliver)さんは2018年2月14日、17歳で命を落とした。ホアキンさんは、フロリダ州パークランド(Parkland)のマージョリー・ストーンマン・ダグラス高校(Marjory Stoneman Douglas High School)で発生し、17人が死亡した、銃乱射事件の被害者の一人だ。 初めにオリバーさん夫婦は、死んだ息子の最も新しい写真を提供した。ホアキンさんに似ている俳優がメッセージを録音。AIを使って、ホアキンさんの顔を俳優の顔にマッ

                            字幕:AIでよみがえる高校銃乱射事件の被害者 米大統領選の投票呼び掛け
                          • ディープフェイクを使って女性に変わる動画のせいでもう誰も何も信じられなくなる

                            安野貴博 @takahiroanno ディープフェイクのパラメータ調整も色々試すうちにこなれ感が出てきた。元動画からvideo loopbackで低strengthで5回loopbackするとかなり時間的一貫性を維持したまま動画のように男 => 女変換ができる。笑顔もそんなに崩れないヨ pic.twitter.com/9fgavsFeO5 2023-05-13 11:38:35 安野貴博 @takahiroanno というわけで新作の動画をうpしました!ディープフェイクのボイチェンがいよいよ簡単に扱えるようになってきたので、ボイチェン詐欺などに引っかからないために、どうやれば相手がフェイクをしているのかを探るやり方を考えてみました youtube.com/watch?v=F9tdbI… 2023-05-13 11:40:44

                              ディープフェイクを使って女性に変わる動画のせいでもう誰も何も信じられなくなる
                            • DeepFake技術解説 人を超えるAIを作るには - Qiita

                              今日は、@Jiny2001です。 国内でも悪用され初めてついに逮捕者が出たDeepFake。本記事はDeepFakeの総まとめです。 キーになる各技術の仕組みとしてStyleGAN, FaceSwap, StarGAN, Talking Headsについて解説してみました。何故AIがこれだけ進歩してきたのか、この技術部分の理解が超大事だと思ってます。気になるなら是非読んでみて下さい。 そして最後にちょっとだけ、今後のAI発展についての期待を書いてみました。 Too long; didn't read? 1行で要約すると → DeepFake ぱねぇ です。 目次 DeepFake系技術の現状 DeepFakeの大まかな技術体系の解説 1) Face Synthesis: (StyleGAN) 2) Identity Swap: (FaceSwap) 3) Attribute Manipul

                                DeepFake技術解説 人を超えるAIを作るには - Qiita
                              • 「絶対違う」通話丸ごと捏造 誰かが私になりすます恐怖:朝日新聞デジタル

                                ","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">\n <div class=\"

                                  「絶対違う」通話丸ごと捏造 誰かが私になりすます恐怖:朝日新聞デジタル
                                • AIが生成した“偽音声”を見抜く技術 99%以上の精度で検出

                                  Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米フロリダ大学の研究チームが発表した論文「Who Are You(I Really Wanna Know)? Detecting Audio DeepFakes Through Vocal Tract Reconstruction」は、音声生成モデルで作成された合成音声を見抜く検出器を開発し検証した研究報告だ。音声から声の通り道「声道」を作成して、その声道から人の音声か偽物の音声かを識別する。精度は99%以上だという。 人の声をまねた合成音声はロボットっぽい音で出力されていたが、近年では機械学習モデルの進歩により、合成音声の品質は劇的に向上して人間っぽい音で出力されるようになってきた。人間

                                    AIが生成した“偽音声”を見抜く技術 99%以上の精度で検出
                                  • つまらない安全講習ビデオをディープフェイクで「自分ごと化」する - 河本の実験室

                                    安全講習のビデオってつまらないですよね。 免許の更新、社内のeラーニング、飛行機の離陸時など、様々な場面で僕らは講習ビデオを見させられます。 いくら役者さんが迫真の演技で危険な場面を演じても、僕みたいに共感力が薄い人間にはどうしても「他人事」に見えてしまって適当に見流してしまいます。本当は大事なのに。 そこで、安全講習ビデオを無理やり「自分ごと化」する方法を考えて試してみました。 事故ってるのが自分と家族だったら流石に見るんじゃない? 役者が演じる事故映像は「もしこれが自分や家族だったら」という変換を一旦行わないと吸収できません。しかし、自分や家族が危険な目にあっている場面を見れば直接脳の「ヤバい」エリアに働きかけられるのではないかと想像します。 そこでディープフェイクを使って、事故る対象者を自分や大事な人に変えてしまえば、急に「自分ごと」として捉えられるんじゃないかと考えました。: ディ

                                      つまらない安全講習ビデオをディープフェイクで「自分ごと化」する - 河本の実験室
                                    • AI作成の偽動画で顔認証突破 成り済まし口座開設可能 | 共同通信

                                      人工知能(AI)を使って偽動画を作る「ディープフェイク」の技術を使うと、銀行口座を開設する際のオンライン認証で、本人に成り済まして顔認証を突破できる恐れがあることが3日分かった。日立製作所の研究グループが論文を人工知能学会で発表した。犯罪に悪用される恐れもあり、偽動画を見破るための対策が必要と提案している。 オンラインの本人確認システムは「eKYC」と呼ばれ、利用者がスマートフォンで撮影した本人の免許証などと一緒に、カメラの前で本人の動画や顔写真を提示する仕組み。両方が同じなら同一人物と認識する。非対面で本人確認が可能で、金融機関などで導入が進んでいる。

                                        AI作成の偽動画で顔認証突破 成り済まし口座開設可能 | 共同通信
                                      • cedro on Twitter: "有名な動画の顔を入れ替えるディープフェイク技術FaceSwapは2つのビデオを使った長時間の学習プロセスが必要です。 SberSwapはこの学習プロセス無しで、ビデオと1枚の画像だけで顔を入れ替える技術です。 これは色々な顔をAn… https://t.co/Nw2po3Jo3V"

                                        有名な動画の顔を入れ替えるディープフェイク技術FaceSwapは2つのビデオを使った長時間の学習プロセスが必要です。 SberSwapはこの学習プロセス無しで、ビデオと1枚の画像だけで顔を入れ替える技術です。 これは色々な顔をAn… https://t.co/Nw2po3Jo3V

                                          cedro on Twitter: "有名な動画の顔を入れ替えるディープフェイク技術FaceSwapは2つのビデオを使った長時間の学習プロセスが必要です。 SberSwapはこの学習プロセス無しで、ビデオと1枚の画像だけで顔を入れ替える技術です。 これは色々な顔をAn… https://t.co/Nw2po3Jo3V"
                                        • ウクライナ侵攻「AI偽ゼレンスキー」動画拡散、その先にある本当の脅威とは?(平和博) - エキスパート - Yahoo!ニュース

                                          ウクライナ侵攻で「AI偽ゼレンスキー」動画が拡散した、その背後にある本当の脅威とは――。 AI(人工知能)によるフェイク動画の手法「ディープフェイクス」を使った、ウクライナ大統領のウォロディミル・ゼレンスキー氏の「偽者」動画が3月16日にネットで公開され、フェイスブック、ユーチューブなどが相次いで削除する騒動があった。 「AI偽ゼレンスキー」が「降伏声明」を出すというフェイク動画だった。 国の指導者になりすました「AIフェイク」が拡散することによる、安全保障などへの危険性は、数年前から繰り返し指摘されてきた。 その懸念が今回、現実のものになった。 だがその先には、さらに社会を揺るがす本当の脅威があるという。 「偽旗作戦」「偽ファクトチェック」そして「AIフェイク」。ウクライナ侵攻の情報戦は、さらに複雑化している。 ●「稚拙な挑発」 私は難しい決断をしなければならない。まず、私はドンバスを返

                                            ウクライナ侵攻「AI偽ゼレンスキー」動画拡散、その先にある本当の脅威とは?(平和博) - エキスパート - Yahoo!ニュース
                                          • 架空の顔で「お客様の声」「大満足」AIで生成、90サイトで宣伝に悪用…[虚実のはざま]第3部 粉飾のカラクリ<1>

                                            【読売新聞】

                                              架空の顔で「お客様の声」「大満足」AIで生成、90サイトで宣伝に悪用…[虚実のはざま]第3部 粉飾のカラクリ<1>
                                            • DeepFake(ディープフェイク) -動画編- | MBSD Blog

                                              最近、DeepFake(ディープフェイク)という言葉がしばしばメディアでも取り上げられていますが、その仕組みや対策をご存じでない方も多いのではないでしょうか。そこで本ブログでは、DeepFakeの仕組みと対策を「動画編」と「音声編」の2回に分けて解説することにします。 今回は「動画編」と題し、DeepFakeを使用したフェイク動画の仕組みと、これを見破る方法について解説いたします。 1. DeepFake? DeepFakeとは、動画に写っている人物(オリジナル)の顔に他人の顔(ターゲット)をマッピングする技術の総称であり、オリジナルとターゲットの顔の特徴をDeep Learningで学習することで実現します。この技術を使用することで、ターゲットが一切写っていない動画の中に、あたかもターゲットが存在するかのようなフェイク動画を作成することが可能となります。 以下は、今回の検証で作成したフェ

                                              • 会計担当が38億円を詐欺グループに送金、ビデオ会議のCFOは偽物 香港

                                                多国籍企業に勤務する会計担当者が、ビデオ会議でだまされ、計2億香港ドル(約38億円)を詐欺グループに送金する事件があった/boonchai wedmakawand/Moment RF/Getty Images (CNN) 香港で多国籍企業に勤務する会計担当者が、ビデオ会議で最高財務責任者(CFO)を装った相手にだまされて、計2億香港ドル(約38億円)を詐欺グループに送金する事件があった。 香港警察の2日の発表によると、詐欺グループは、巧妙な手口で会計担当者をだましてビデオ会議に出席させ、出席者全員が同僚だと思い込ませた。しかし実際は全員が、動画や写真を加工して本人のように見せかけるディープフェイクで作り出した偽者だった。 会計担当者は当初、英国を拠点とするCFOをかたるメッセージを受け取って不審に思い、極秘送金が必要だと告げられて詐欺を疑った。 しかし、ビデオ会議に出席した数人は姿も声も自

                                                  会計担当が38億円を詐欺グループに送金、ビデオ会議のCFOは偽物 香港
                                                • TechCrunch

                                                  Kyle Kuzma is a lot of things. He’s a forward for the Washington Wizards NBA team and a 2020 NBA champion. He’s also a style icon — depending on who you ask — and an angel investor. No

                                                    TechCrunch
                                                  • Intelが映像内の「血流」を用いるリアルタイムディープフェイク検出器「FakeCatcher」を発表、検出精度は96%

                                                    Intelが「Responsible AI(責任あるAI)」の取り組みの一環として、ディープフェイクで作られたフェイク映像を96%の精度で検出できる「FakeCatcher」を発表しました。 Intel Introduces Real-Time Deepfake Detector https://www.intel.com/content/www/us/en/newsroom/news/intel-introduces-real-time-deepfake-detector.html As part of Intel’s Responsible #AI work, we’ve developed FakeCatcher, a new technology that detects fake videos with 96% accuracy. This detection platform

                                                      Intelが映像内の「血流」を用いるリアルタイムディープフェイク検出器「FakeCatcher」を発表、検出精度は96%
                                                    • 「完璧なディープフェイクが量産されたら、人々はそれを区別できない」専門家が警告

                                                      中国の顔交換アプリZAOで「ゲーム・オブ・スローンズ」の登場人物にユーザーの顔を貼り付けたもの。 Twitter/@AllanXia フェイスブック、ツイッター、TikTokは最近、新しい形態のフェイクが勢いを増していることに対抗して、プラットフォーム上での「ディープフェイク」映像を取り締まる計画を発表した。 F5NetworksのAI担当責任者シューマン・ゴセマジャンダー氏は、現在のところ、ディープフェイクは依然として不自然なものであり、「ハリウッドのレベル」に至るには相当の労力を必要とする、と語っている。 しかし、「完全に現実と同じ」ディープフェイクが現れるのはそれほど先のことではなく、それに脳が慣れると「純粋に誤った情報」が新しい現実になると彼は言う。 すでに存在する膨大な量のフェイクニュースは、ディープフェイクが大規模に作成しやすくなるにつれて何が起こるかを示している。 ここ数週間

                                                        「完璧なディープフェイクが量産されたら、人々はそれを区別できない」専門家が警告
                                                      • トルコ大統領選有力候補、ロシアの選挙介入を非難

                                                        トルコ大統領選の街頭ポスター。レジェプ・タイップ・エルドアン大統領(左)と野党・共和人民党のケマル・クルチダルオール党首。トルコ南東部シャンルウルファで(2023年4月28日撮影)。(c)OZAN KOSE / AFP 【5月12日 AFP】トルコで14日に実施される大統領選を前に、現職レジェプ・タイップ・エルドアン(Recep Tayyip Erdogan)大統領の最有力対抗馬と目されている野党・共和人民党のケマル・クルチダルオール(Kemal Kilicdaroglu)党首が11日、ロシアが選挙に介入し「ディープフェイク」を広めていると非難した。共和人民党は、中道左派の世俗主義政党。 クルチダルオール氏は「親愛なるロシアの友人たちへ」「きのうトルコで暴露されたモンタージュ画像、陰謀論、ディープフェイク、録音音声の背後にいるのはあなた方だ」とツイッター(Twitter)に投稿。「5月15

                                                          トルコ大統領選有力候補、ロシアの選挙介入を非難
                                                        • リアルタイムでムービー中の人の顔を編集するGANベースの「STIT」が登場

                                                          ムービーに映る人物の顔を、リアルタイムに違和感なく編集できるGANベースの技術「STIT」が発表されました。 [2201.08361] Stitch it in Time: GAN-Based Facial Editing of Real Videos https://arxiv.org/abs/2201.08361 Stitch it in Time: GAN-Based Facial Editing of Real Videos https://stitch-time.github.io/ 敵対的生成ネットワーク(GAN)は顔の画像編集に広く採用されている技術です。ただし、この「GANを用いた画像編集」をムービーに適用することは非常に困難であるとされており、その理由はムービーには「時間的整合性」が存在するためです。ムービーは常に時間的に一貫しているため、これを下手に編集するとムービーに

                                                            リアルタイムでムービー中の人の顔を編集するGANベースの「STIT」が登場
                                                          • “ディープフェイクポルノ”初摘発 AIで演者と芸能人の顔を差し替え公開した疑い 千葉県警

                                                            大学生の林田拓海容疑者と、システムエンジニアの大槻隆信容疑者は2019年12月から20年7月ごろ、運営していたWebサイトで加工後のポルノ動画を合計約400本公開。約80万円以上の収益を得ていたという。 警察庁と千葉県警は19年に動画を発見。動画を加工して公開する行為が著作権法に違反し、芸能人の顔に差し替える行為が当該芸能人に対する名誉毀損に当たるとして2人を逮捕した。 ポルノ動画の作成にはフリーソフトを使っており、両容疑者は「お金が欲しかった」「評価を得るために公開した」と容疑を認めている。 AIで動画を加工して公開する行為が摘発されたのは初だが、千葉県警は「AIを使わない既存の手段でも、同様の行為を行えば逮捕する可能性はある」としている。 関連記事 映像の加工はどこまで許される? 「グレーゾーン」ディープフェイクの登場 ディープフェイクはどこまで許されるのか、という問題について、小林啓

                                                              “ディープフェイクポルノ”初摘発 AIで演者と芸能人の顔を差し替え公開した疑い 千葉県警
                                                            • TikTokで話題となったトム・クルーズのディープフェイク動画、制作者が事情を語る

                                                              視覚効果アーティストのChris Ume氏は、俳優で物まね芸人のMiles Fisher氏と組んでTikTokで公開した俳優Tom Cruise氏のディープフェイク動画を作った時、ちょっと楽しもうとしただけだった。この1週間に起きたように、この動画がソーシャルメディアでバズったり、あちこちで話題にされたりするとは思っていなかった。 Ume氏はインタビューで、「人々を騙そうとしていたわけではない。みんなの想像力を刺激しようとしていた」と語った。 「@deeptomcruise」というTikTokアカウントで投稿された3本の動画では、Cruise氏のように見える人物が、ゴルフをしたり、手品をしたり、ぎこちなく裏話を語ったりしている。笑いや仕草、顔の表情など、すべてが本人そっくりだ。だが、現実には、カメラの前にいるのはFisher氏で、同氏の画像がディープフェイク技術で加工されている。 ディープ

                                                                TikTokで話題となったトム・クルーズのディープフェイク動画、制作者が事情を語る
                                                              • 1枚の写真から作成する動くメガピクセル頭部アバター。ロシアチームが開発【研究紹介】

                                                                1枚の写真から作成する動くメガピクセル頭部アバター。ロシアチームが開発【研究紹介】 2022年8月26日 ロシアモスクワのSamsung AI Center、Skolkovo Institute of Science and Technology、Yandex Armeniaの研究チームが開発した「MegaPortraits: One-shot Megapixel Neural Head Avatars」は、1枚のポートレート写真から高解像度(メガピクセル)の動く頭部アバターを生成するシステムだ。 ▲左端がソース画像、その他がソース画像内の頭部を操作するドライバー画像と出力結果 keyboard_arrow_down 研究課題 keyboard_arrow_down 研究概要 ここ数年、1枚の写真からリアルな動くアバターを作成する手法が複数開発されている。これらの手法は、様々な人物の動画か

                                                                • PantheonLab | Change Imagination to Reality with Digital Human, AIDOL and Metaverse

                                                                  Inherit ‧ Connect ‧ Imagine We inspire creativity with deep learning technologies that humanize machines visually, virtually, and intellectually.

                                                                    PantheonLab | Change Imagination to Reality with Digital Human, AIDOL and Metaverse
                                                                  • 映像の加工はどこまで許される? 「グレーゾーン」ディープフェイクの登場

                                                                    映像の加工はどこまで許される? 「グレーゾーン」ディープフェイクの登場:動画の世紀(1/2 ページ) この連載でも以前取り上げた「ディープフェイク」。AI技術の一種である「ディープラーニング」と「フェイク」を組み合わせた言葉で、ディープラーニングを使って真実ではないコンテンツ(映像や音声など)を制作する行為を指します。ただ最近は、ディープラーニングが使われているかどうかよりも、単に「本当かどうか見分けがつかないほど精巧に加工されたコンテンツ」という意味で使われることが多くなっているようです。 規制が始まったディープフェイク このディープフェイク、あえて「フェイク」という言葉が使われていることからも分かるように、あまり好ましくない行為というニュアンスが含まれています。前回の記事でも紹介したように、サイバーセキュリティ会社のDeeptraceによれば、ディープフェイク・ビデオの実に96%がアダ

                                                                      映像の加工はどこまで許される? 「グレーゾーン」ディープフェイクの登場
                                                                    • AI生成の偽情報と戦う非営利団体「TrueMedia.org」がディープフェイク検出器を公開

                                                                      2024年のアメリカ合衆国大統領選に向けて、非営利団体のTrueMedia.orgがディープフェイクの検出技術を発表しました。検出ツールはこれまでに公開されたことがないAI技術に基づく前例のないモデルを試用し、メディアが操作された兆候を調査することができます。 TrueMedia.org Launches a Free AI-enabled Deepfake Detector to Help Newsrooms · TrueMedia https://www.truemedia.org/post/free-deepfake-detector-to-help-newsrooms-across-the-country With elections looming, TrueMedia,org releases AI deepfake detector https://www.geekwire.

                                                                        AI生成の偽情報と戦う非営利団体「TrueMedia.org」がディープフェイク検出器を公開
                                                                      • Alphabet傘下のJigsaw、ディープフェイク検出ツール「Assembler」を開発

                                                                        Alphabet傘下のJigsawは、写真が本物か細工されたものかを判断するのに役立つ実験的ツール「Assembler」を開発した。ディープフェイクをはじめとする情報を操作して真実を歪めようとする試みに、ジャーナリストやファクトチェック担当者が対抗するのを支援する取り組みだ。Assemblerは多数のテストで構成され、写真の一部をほかの写真に貼り付けたり、明るさを編集したり、背景から領域を削除したりした痕跡を検出する。 Jigsawは、情報工作、ハラスメント、検閲、暴力的な過激思想、選挙工作といった諸問題のデジタル面に対処する目的で、Alphabetがエンジニア、デザイナー、研究者、ポリシー専門家などを集めたチームだ。 人工知能(AI)の深層学習で作ったディープフェイクと呼ばれる写真や動画を含むオンライン上の情報操作については、新たなツールによってそうした偽造が容易になる中、懸念が高まって

                                                                          Alphabet傘下のJigsaw、ディープフェイク検出ツール「Assembler」を開発
                                                                        • リモートワークの採用面接にディープフェイクを悪用する事例--FBIが警告

                                                                          ディープフェイクが広まりつつある中、企業にとっては求職者の審査が難しくなるかもしれない。米連邦捜査局(FBI)のインターネット犯罪苦情センター(IC3)は、見た目を変える技術を使って別人になりすましている者や、盗んだ個人情報を自分のものとして提出している者がいると警告している。 FBIの公共サービス案内(public service announment)によると、これらの者はディープフェイク(人工知能を利用して、人が実際にはしていない行動や発言をしているように見せかける技術)を使って、情報技術、プログラミング、データベース、その他のソフトウェア関連職のリモートワークや在宅勤務の採用面接を受けていたという。特に咳やくしゃみをしたときに求職者の唇の動きや表情が音声と一致しなかったことから、デジタルトリックであることに雇用主側が気づいたようだ。 ディープフェイクを使った求職者らは、身元調査をパ

                                                                            リモートワークの採用面接にディープフェイクを悪用する事例--FBIが警告
                                                                          • GitHub - iperov/DeepFaceLive: Real-time face swap for PC streaming or video calls

                                                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                              GitHub - iperov/DeepFaceLive: Real-time face swap for PC streaming or video calls
                                                                            • Twitter、ディープフェイク投稿対策でアンケートを実施中

                                                                              米Twitterは11月11日(現地時間)、いわゆる「ディープフェイク」を含む投稿に関するポリシー策定に当たって、ユーザーの意見を求めるアンケートを開始した。日本語でも回答できる。 ディープフェイクとは、手が加えられたり捏造されたりした写真や動画のこと。特に、他人を欺こうとしたり困惑させたりすることを目的に改ざんしたものを指す。 Twiwtterはディープフェイクの例として、誰かが病気だったり酔っぱらったりしているように見える動画、存在しない人を追加したり存在した人を削除したりした写真、実際には起こらなかった出来事をあたかも起こったかのように映し出す動画を挙げた。 なお、顔の赤らみや身体的な特徴を消した写真や動画はディープフェイクには含まれない。 アンケートでは、こうしたディープフェイクを含む投稿に対して、完全に削除すべきか、ディープフェイクの可能性があるというラベルを付けたり、そうした投

                                                                                Twitter、ディープフェイク投稿対策でアンケートを実施中
                                                                              • アポロ計画は失敗していた? 脅威を増すディープフェイク・ビデオ

                                                                                AI技術を活用して映像を加工し、普通の馬をシマウマに変える、政治家に言ってもないせりふを言わせる、さらには有名女優のアダルトビデオを作成する――もちろん全て「うそ」(フェイク)なわけですが、いまやありとあらゆる映像加工が可能な時代になりました。2004年に放送されたSFアニメ「攻殻機動隊S.A.C. 2nd GIG」の中で、AIのタチコマが「映像に証拠能力はもうない、一般大衆を楽しませるだけ」という印象的なせりふをつぶやくのですが、それから15年たったいま、この言葉は現実のものになったといえるかもしれません。 最近ではこうしたAIによる高度なフェイク映像は「ディープフェイク」あるいは「ディープフェイク・ビデオ」などと呼ばれ、その危険性が叫ばれるようになっています。つい最近も、こんな映像が注目を集めていました。 米国のリチャード・ニクソン元大統領が原稿を読み上げる短いクリップ。画質は粗く、彼

                                                                                  アポロ計画は失敗していた? 脅威を増すディープフェイク・ビデオ
                                                                                • 「ディープフェイク」脅威に 国内初摘発、海外被害も - 日本経済新聞

                                                                                  人工知能(AI)で精巧な偽動画を作る技術「ディープフェイク」による犯罪が顕在化してきた。芸能人の顔を合成したポルノ動画をインターネットに投稿した男らを警察が初摘発した。被害は氷山の一角とみられ、海外では政治家や企業も被害に遭った。見破る技術の開発も進むが、いたちごっこが続いている。警視庁や京都府警などは2日までに、ディープフェイクを使ってアダルトビデオを合成したとされる男3人を名誉毀損と著作権

                                                                                    「ディープフェイク」脅威に 国内初摘発、海外被害も - 日本経済新聞

                                                                                  新着記事