Intelが見抜いた、AIが唯一「真似できない」ものとは?
そんなディープフェイクに対抗するために「Intel」社が開発したのが、「FakeCatcher」というソフト。
これは、動画のピクセルを分析して動画に映し出された人の「血流」を読み取ることで、ディープフェイクを検出するというもの。
人間は心臓が血液を送る際に静脈の色が変化するそうで、FakeCatcherはこの変化をスキャンして動画の被写体が本物かどうかを判別する仕組み。
Intel社はかねてより「Resposible AI」というプロジェクトを進めていて、このソフトもその一環として同社の研究者とニューヨーク州立大学の研究者が共同で開発。
実に96%の精度でディープフェイクを検出できるということで、精度にも期待ができそうだ。
どれだけ高度なAIでも、動物の本質である“鼓動”だけは真似できないらしい。
新時代の高度な偽情報に惑わされないよう、このような技術が発展・普及していくことを願いたい。詳細はこちらから。
全文箱知多
https://tabi-labo.com/305295/wt-intel-fakecatcher-detect-deepfake
種明かしはえーよ
次はFakeCatcherの誤認確率をターゲットとする学習が始まるだけでしょ
>>1
説明してるデブが実はナイスバディの
美女だったって落ちかと思ったら
そんな事は無かった
血流を真似するAIが出てくるだけだろ
アイコラか本物かAIが判断してくれるのか?
大体こういうシステムは
「正確度96パーセント」とか言った場合
残り4パーセントの部分でトラブルが発生する
>人間は心臓が血液を送る際に静脈の色が変化するそうで、
心臓に戻る血管が静脈で、送り出す血管は動脈だよね
>>1
面接の件は知らんかったけど面白いな
人は第一印象が9割なんて言ってるから美人・イケメン加工した状態で有名企業の面接受けたら中身一緒でも突破率飛躍的に上がりそう
仕上げに血流を薄っすらと拍動に合わせてAIが合成したら完璧だな。
血行よくしてゾンビ顔は卒業だな。
アンドロイドやマネキンが人間に似過ぎると
不気味の谷にはまって
ゾンビ顔や死体の顔になって不気味になるんだが
血行を付けないといけないのか。
静脈の変化を判別できるような動画の方が少ないんじゃね
もしかしてこれは罠だろ
不自然に脈打ってる動画をフェイクと判別するための
政治家用の嘘発見器を作ってよ
AIがあればAIが見破られる!って悪い冗談だ
そこまでしないと見破れないならそれはそれで色んな需要がありそうだ
静脈を学習したAIが登場