TOPマネジメント > ディープフェイクの技術と現状、そして危険性(中)

マネジメント

ディープフェイクの技術と現状、そして危険性(中)

2020/10/07

Martin Heller InfoWorld

 Video AuthenticatorはDFDCのデータセットに対するテストが行われた。Microsoftは、優勝したSeferbekov氏の手法に比べてどの程度優れていたのかはまだ明らかにしていない。AIコンテストのスポンサーが、受賞作のソリューションを基にして改良を図ることは典型的と言える。

 Facebookも、ディープフェイクの検出ツールを計画しているが、ソースコードは公開しない意向だ。Seferbekov氏が開発したようなディープフェイク検出手法をオープンソース化することに伴う懸念の1つは、ディープフェイクを作成する側の開発者が、こうした検出手法をGANの識別ネットワークに利用して、その手法で検出できないディープフェイクを開発する可能性があることだ。ディープフェイクの作成側と検出側の「軍拡競争」がいっそう活発化しかねない。

 音声の作成に関しては、米Descriptの「Overdub」や、米Adobe Systemsが披露した「VoCo」(未リリース)のように、本人に近い声で音声合成を実現できるツールがある。Overdubの場合、10分ほどトレーニングするだけで、その人の声の合成バージョンを作成できる。いったんトレーニングが済めば、本人が話した内容のテキストを編集することで録音を修正できるようになる。

 その他の音声合成技術としては、Googleの「WaveNet」もある。Google自身のテスト結果によると、WaveNetの音声合成は、標準的な音声合成よりも自然な発話に聞こえると評価されたが、人間の発話の水準にはまだ達していなかった。皆さんもWaveNetの音声を耳にしたことがあるかもしれない。GoogleアシスタントやGoogle翻訳などでの音声出力は、最近はWaveNetが使われている。

翻訳:内山卓則=ニューズフロント

↑ページ先頭へ