Intel社が見抜いた、AIが唯一「真似できない」ものとは
「ディープフェイク」という技術をご存知だろうか。
簡単に言うと、AIによって2つの画像や動画を合成して本来写っていない被写体を動画に登場させる技術。
非常に精巧であることから偽情報への悪用が多く、芸能人の顔を当てはめたポルノ動画が出回ったり、先日は「採用面接を他人の顔で受ける」という事件も発生していた。
そんなディープフェイクに対抗するために「Intel」社が開発したのが、「FakeCatcher」というソフト。
これは、動画のピクセルを分析して動画に映し出された人の「血流」を読み取ることで、ディープフェイクを検出するというもの。
人間は心臓が血液を送る際に静脈の色が変化するそうで、FakeCatcherはこの変化をスキャンして動画の被写体が本物かどうかを判別する仕組み。
Intel社はかねてより「Resposible AI」というプロジェクトを進めていて、このソフトもその一環として同社の研究者とニューヨーク州立大学の研究者が共同で開発。
実に96%の精度でディープフェイクを検出できるということで、精度にも期待ができそうだ。
どれだけ高度なAIでも、動物の本質である“鼓動”だけは真似できないらしい。
新時代の高度な偽情報に惑わされないよう、このような技術が発展・普及していくことを願いたい。詳細はこちらから。
Reference: Intel Introduces Real-Time Deepfake Detector
Top image: © SciePro/Shutterstock.com