banner
ニュース センター
洗練された機械と卓越した技術

AI にラベルを付けるより良い方法を見つける競争

Jul 07, 2023

C2PA と呼ばれるインターネット プロトコルは、暗号化を使用して画像、ビデオ、オーディオにラベルを付けます

この記事は、権力、政治、シリコンバレーに関する MIT Technology Review の週刊技術政策ニュースレター、The Technocrat からのものです。 毎週金曜日に受信箱で受け取るには、ここからサインアップしてください。

私は最近、AI によって作成または変更されたコンテンツの特定を支援しようとする、大手テクノロジー企業やメディア企業が支援するプロジェクトについての短編小説を書きました。

AI によって生成されたテキスト、画像、ビデオのブームに伴い、議員と一般のインターネット ユーザーの両方が透明性の向上を求めています。 単純にラベルを追加するということは非常に合理的な要求のように思えるかもしれませんが (実際そうなのです)、実際には簡単なことではありません。AI を活用した検出や透かしのような既存のソリューションには、いくつかの重大な落とし穴があります。

私の同僚の Melissa Heikkilä が書いているように、現在の技術ソリューションのほとんどは「最新世代の AI 言語モデルには勝てません」。 それにもかかわらず、AI が生成したコンテンツにラベルを付けて検出する競争は続いています。

そこでこのプロトコルが登場します。2021 年に開始された C2PA (C2PA を作成したグループ、Content Provenance and Authenticity Coalition にちなんで命名されました) は、新しい技術標準と、コンテンツの出所を明らかにする情報でコンテンツに安全にラベルを付ける、無料で利用できるコードのセットです。から。

これは、たとえば、画像には、その画像の送信元のデバイス (携帯電話のカメラなど)、編集ツール (Photoshop など)、そして最終的にはアップロード先のソーシャル メディア プラットフォームによって情報がマークされることを意味します。 時間が経つにつれて、この情報は一種の履歴を作成し、そのすべてが記録されます。

この技術自体、そして C2PA が他の AI ラベル付け代替手段よりも安全である方法は、少し複雑ではありますが、非常に優れています。 私の記事ではこれについてさらに詳しく説明していますが、栄養表示のように考えるのが最も簡単かもしれません (これは、私が話をしたほとんどの人が好むたとえです)。 C2PA の創設メンバーである Truepic が Revel AI を使用して作成したラベルを使用したディープフェイク動画の例をここで見ることができます。

「来歴という考え方は、相互運用可能で改ざんが明らかな方法でコンテンツをマークし、その透明性と栄養ラベルを付けてインターネット上を移動できるようにすることです」と、Truepic 広報担当副社長のムニール・イブラヒム氏は述べています。

C2PA は発足当初、Adobe や Microsoft など少数の著名企業の支援を受けていましたが、過去 6 か月で会員数は 56% 増加しました。 ちょうど今週、大手メディアプラットフォームの Shutterstock は、AI で生成されたすべてのメディアのラベル付けに C2PA を使用すると発表しました。

これはオプトイン アプローチに基づいているため、新聞や広告主など、コンテンツの出所を確認して開示したいグループは、メディアに資格情報を追加することを選択します。

プロジェクトのリーダーの一人であるアドビ社に勤めるアンディ・パーソンズ氏は、C2PAに対する新たな関心とそれに対する緊急性は、生成型AIの普及と、米国とEUの両方で新たなレベルの透明性を義務付ける法律の制定が期待されているためだとしている。 。

このビジョンは壮大です。関係者は、ここでの真の成功は、普遍的ではないにしても、広く採用されるかどうかにかかっていると私に認めました。 彼らは、すべての大手コンテンツ企業がこの標準を採用することを望んでいると述べた。

そのためには、使いやすさが鍵であるとイブラヒム氏は言います。 そうすることで、より透明性の高いエコシステムをオンラインで拡張できるのです。」

これは、AI が生成する誤った情報に注目が集まる米国選挙シーズンを迎えるにあたり、重要な展開となる可能性があります。 プロジェクトの研究者らは、予想される猛攻撃の前に、新機能をリリースし、より多くのソーシャルメディアプラットフォームにアピールしようと急いでいるという。

現在、C2PA は主に画像とビデオに取り組んでいますが、メンバーはテキストベースのコンテンツを処理する方法に取り組んでいると述べています。 この記事ではこのプロトコルのその他の欠点についても触れていますが、理解しておくべき本当に重要なことは、たとえ AI の使用が明らかになったとしても、機械が生成する誤った情報の害を阻止できない可能性があるということです。 ソーシャルメディアプラットフォームは、その情報をサイト上に保持するかどうかを決定する必要があり、ユーザーはコンテンツを信頼して共有するかどうかを自分で決定する必要があります。