AIのフェイクに二重に騙される例

AIのフェイクに二重に騙される例

私もAIはよく使いますが、最近はその技術を使ったフェイク動画が流行しています。つまり、現実には存在しない事故や緊張する場面を創作するのです。創作自体は「現実ではない」というだけで直接犯罪になるわけではありませんが、フェイク動画をどう見破るかは現代の課題であることを示しています。

元宝塚女優で、最近はインフルエンサーとしてXに盛んにポストされている毬谷友子さんが、フェイク動画に2重に騙されていました。

ドーベルマンが女性を事故から救ったというフェイク動画があります。


どなたかがファクトチェック(事実確認)を行い、AIのGrokによって、フェイク動画であることが指摘されました。

が、毬谷友子さんが、その動画を真に受けて感動してしまいます。


それに対して、「いや、それはAIなんですよ」とコメントされたところ、それを聞き入れたくなかった毬谷友子さんは、Grokにファクトチェックして、「本物の動画」という回答を引き出してそれを示し、傷口を広げました。


しかし、動画を冷静に見ればわかりますが、壁に激突した車はゴムのように跳ね返って無傷ですし、コーヒーカップも、皿とカップが一体になってくっついたまま落ちている不自然さも見逃せません。

これは、ちょっと観察眼のあるこどもが見てもわかるでしょう。

毬谷友子さんに恥をかかせる形になりましたが、大事なことはAIに何でも頼るのではなく、自分で判断できることと、AIに理解を助けてもらうことは、きちんと区別しなければならないということです。

AIが異なる回答をする場合


それにしても、最初に、これをフェイク動画であると指摘したのはGrokです。

では、なぜ、Grokはべつの質問では、「本物の動画」であると、違う答えを出したのでしょうか。

私がGrokに詰問した(笑)ところよると、「最初の質問では、AI生成の可能性を問う文脈だったのに対し、2番目の質問では、動画が実際の出来事かどうかを問う文脈だったため、異なる回答になったと考えられます。」と答えています。

つまり、動画全体としては創作ではあるけれども、たとえばドーベルマンと女性の動画は事実で、動画の作者は、「本物の動画」を組み合わせて「フェイク」作品を作った、とGrokは判断したようです。

つまり、ただ「フェイクですか」と質問したのはダメで、細かく、「車が壁に激突して、ドーベルマンが直感的に女性を救ったというシーン全体は本当の動画なのですか」と、質問しないとだめなのです。

AIの難しさがここにあります。

AIは成長途上ですが、人間の「言葉足らず」を、斟酌できないというのもそのひとつです。

「ああ、この人は〇〇と言ってるけど、意図としては△△を聞きたいんだな」ということまで理解せず、「〇〇」についてだけで答えを出してしまうということです。

日本語文化特有の、比喩とか皮肉なども、誤解される可能性があります。

指示代名詞や、主語の省略なども避けたほうがいいでしょう。

感動的な動画や衝撃的な映像に注意


私もブログ記事冒頭のイメージ画像を作るときに利用することがありますが、本来、AI技術の進歩は、すばらしいものがあります。

しかし、残念ながら、この世の中は「性善説」だけでは通用せず、こうしたフェイク動画作成技術を悪用することで、先日もご紹介した「政治のデマ」とか、「霊感商法」とか、人々を騙すことで利益をもたらすことに利用されてしまう可能性もあります。

とくに、強い感情(感動、怒り、驚きなど)を引き起こすコンテンツほど、一度立ち止まって考えることが重要です。

感情に訴えかける内容は、批判的思考を鈍らせる効果があるからです。

その意味で、ドーベルマンの救助動画がフェイクであったという事実は、私たちに多くのことを考えさせます。

みなさんは、フェイク動画をご覧になったことはありますか。

AIを使って考えるための全技術――「最高の発想」を一瞬で生み出す56の技法 - 石井 力重, 加藤 昌治
AIを使って考えるための全技術――「最高の発想」を一瞬で生み出す56の技法 - 石井 力重, 加藤 昌治

この記事へのコメント

2025年10月28日 22:24
遊びでやる分には良いですが
人に迷惑をかけるような動画作る人いるしなぁ~
つうか、バカッターにも腹立ちますけど
2025年10月29日 00:00
フェイク動画自体あまり見たことがないので、普通に見たらそれが真実だと思って見てしまいそうです。
2025年10月29日 00:38
AI動画、すごくよく出来てますもんね
それにしても情報の確からしさがどんどんわかりにくくなりました
2025年10月29日 01:06
最近は、クマのフェイク動画がよく流れてきます。
クマに餌付けしてペット化、とか、
犬がクマと闘って追い払うとか。
監視カメラのように見せていて
だまされやすいです
2025年10月29日 05:05
おはようございます!
nice!です。
2025年10月29日 06:03
私も騙される性質かも!と思ってしまいました。
しっかり見てれば、どこか変だ!という部分があるんですね。
これからは、どんな動画でも鵜呑みにしないようにしたいと思いました。
2025年10月29日 06:30
なんだかなー
こういった技術を平和のために使ってほしいわ。
2025年10月29日 06:31
動画。さほど見ないので、無いです。
探した事も、あんまり無いですね。
見破れるかどうかを、知能テストや、
ボケテストに応用可能かもしれない
ですね。
2025年10月29日 07:31
動画等は見る事はないですね。
AIはまだまだ発展途上で、
細かい質問をしないと答えが間違う事あるようですね。
2025年10月29日 07:39
スマホなしで生きてますから、こちらも使わないですむと思っています。
2025年10月29日 08:18
おはようございます・・・(^-^)!!
最近のAIには底知れぬ怖さを感じます ❗
2025年10月29日 08:50
AI 絶対  人間が支配されちゃいますね
pn
2025年10月29日 09:05
言葉足らずの俺はAIに頼めない事が判明したな(笑)
小熊がハロウィンお菓子食べに来たら人形が動いて気絶するフェイク動画あったんだけど説明読んでもフェイクの理由が見抜けなかった^^;
2025年10月29日 10:51
アーティストの推し活などをやっていると、SNSに流れてくるのはフェイク動画の方が多いので、公式から配信されるもの以外はスルーを基本にしています。
Grokを利用してのファクトチェックも、おっしゃるように質問の仕方で真逆の回答になることを忘れてはいけないと思います。
災害や事故の際に一気にフェイク動画が増えるのにはウンザリです。
2025年10月29日 11:01
勉強になりました。
bgatapapa
2025年10月29日 11:08
真実を見極めるのは難しい世の中になりましたね。
2025年10月29日 11:22
本物の動画と思っていたのが 実はフェイク動画だった
と言うことが 今後はありうるかもしれませんね

難しい時代になりましたね
2025年10月29日 15:58
フェイク動画は時々見る事があります。
直ぐにフェイクと分かる物がありますが、しかしかなり迷惑な物も多く
罰せられないのが不思議に思います。
2025年10月29日 17:20
実際に面と向かって(面倒くさいけど)会う方が良いですね。
2025年10月29日 21:54
知れば知るほど生きにくい時代に
おバカさんのままでこの世を終わりたいです。
最新の世の中に取り残されゆく昭和生まれ"(-""-)"