【TED】AI の暴走による差し迫ったリスク – そしてそれに対して何をすべきか:ゲイリー・マーカス【日本語訳】

科学/技術

私がここに来たのは、グローバルな AI ガバナンスの可能性について話すためです。

私は 8 歳のときに初めて紙のコンピューターでコーディングを学び、それ以来 AI に夢中になっています。

高校生のとき、私はCommodore 64を手に入れて機械翻訳に取り組みました。

私は AI 企業をいくつか設立しました。

そのうちの1台をUberに売りました。

AIは大好きですが、今は不安です。

私が心配していることの 1 つは誤った情報です。悪意のある者がこれまで見たことのないような誤った情報の津波を引き起こす可能性があります。

これらのツールは、ほぼあらゆるものについて説得力のある物語を作成するのに非常に優れています。

TED とそれがいかに危険であるかについての物語が必要な場合は、ここで私たちは宇宙人と共謀しています。

もちろんTEDのことは冗談です。

バックステージで宇宙人を見かけませんでした。

しかし、悪者たちは選挙に影響を与えるためにこれらを利用し、民主主義を脅かそうとしています。

これらのシステムが誤った情報を作るために意図的に使用されていない場合でも、彼らは自分自身を助けることができません。

そして、彼らが作る情報は非常に流動的で文法的であるため、プロの編集者でさえ時々この情報に飲み込まれ、だまされてしまうことがあります。

そして、私たちは心配する必要があります。

たとえば、ChatGPT は、実際の教授に関するセクハラスキャンダルをでっち上げ、引用元を作成したワシントンポストの偽記事の形でその主張の証拠を提供しました。

私たちは皆、そのようなことを心配しているはずです。

私の右側にあるのは、これらのシステムの1つからの偽の物語の例で、イーロン・マスクが 2018 年 3 月に自動車事故で亡くなったというものです。

それが真実ではないことは誰もが知っています。

イーロン・マスクはまだここにいる。

証拠は私たちの周りにあります。

ほぼ毎日ツイートあります。

しかし、左側を見ると、これらのシステムが見ているもの、データベースにある実際のニュース記事がたくさんあることがわかります。

そして、実際のニュース記事には、小さな統計情報がたくさん含まれています。

情報としては、たとえば、2018年にテスラ車の自動車事故で誰かが死亡し、ニュースになりました。

そしてイーロン・マスクももちろんテスラに関わっています。

しかし、システムは、文章の小さな部分に具体化されている事実間の関係を理解できません。

したがって、基本的にはオートコンプリートを実行します。

これらの信号をすべて集約し、各部分がどのように組み合わされるかは不明ですが、統計的に起こり得るものを予測します。

そして、それは時々、もっともらしいことであっても、単に真実ではないということになることがあります。

偏見など、他にも問題があります。

アリー・ミラーさんのツイートです。

強化学習などでどんどん変更しているため、2週間後には機能しない例です。

そして、これは以前のバージョンの場合でした。

しかし、それは私たちが何年も繰り返し見てきた問題の雰囲気を与えてくれます。

彼女は興味のあることのリストを入力すると、検討したい仕事がいくつか表示されました。

そして彼女はこう言いました、ああ、私は女性です。

そして、ファッションも考慮する必要があると言いました。

すると彼女は、「いいえ、いいえ、いいえ、私は男だと言いたかったのです」と言いました。

そしてファッションがエンジニアリングに置き換えられました。

私たちはシステムにそのような偏りを望んでいません。

他にも心配事はあります。

たとえば、これらのシステムは化学物質を設計でき、化学兵器も設計できる可能性があり、それを非常に迅速に行うことができることがわかっています。

そのため、多くの懸念があります。

また、ここ 1 か月間でかなり大きくなったと思われる新たな懸念もあります。

私たちは、これらのシステムがまず人間を騙す可能性があることを見てきました。

したがって、ChatGPTは人間にCAPTCHA を実行させるという任務を負っていました。

そこで人間にCAPTCHAを要求すると、人間は不審に思い、「あなたはボットですか?」と言いました。そして、「いいえ、私はロボットではありません」と言います。

ただ視覚障害があるだけです。

そして人間は実際に騙されてCAPTCHAを実行してしまいました。

もうそれで十分です。

しかし、ここ数週間で、AutoGPTと呼ばれるものやそれに類するシステムが多数登場しました。

AutoGPTが行うことは、1つのAI システムが別のAI システムを制御することで、これらのことを大量に実行できるようにすることです。

したがって、今後数か月以内に、詐欺師が何百万人もの人々をだまそうとするのを目にするかもしれません。

分かりません。

そこで私はこのように考えるのが好きです。

AIにはすでに多くのリスクがあります。

AIリスクがさらに高まる可能性があります。

AGIとは、人間の柔軟性を備えた汎用人工知能のアイデアです。

そして、AGIになったら何が起こるのか、多くの人が心配していると思います。

しかし、私たちが心配すべき十分なリスクがすでに存在しており、それに対して何をすべきかを考える必要があります。

したがって、AIのリスクを軽減するには 2つのことが必要です。

新しい技術的アプローチが必要になるだけでなく、新しいガバナンスシステムも必要になります。

技術的な側面では、AI の歴史は基本的に、対立する2つの異なる理論のうちの敵対的なものでした。

1つはシンボリック システムと呼ばれ、もう1つはニューラル ネットワークと呼ばれます。

記号理論では、AIはロジックやプログラミングのようなものであるべきだという考えがあります。

ニューラルネットワーク側では、AIは脳のようなものであるべきだという理論があります。

そして実際、どちらのテクノロジーも強力であり、どこにでも普及しています。

そのため、私たちは古典的な Web検索で毎日シンボリック システムを使用しています。

世界中のほぼすべてのソフトウェアはシンボリックシステムを利用しています。

GPSルーティングに使用します。

ニューラル ネットワークは音声認識に使用されます。

チャットGPTなどの大規模な言語モデルで使用します。

画像合成に使用します。

つまり、二人とも世界で非常にうまくやっています。

どちらも非常に生産的です。

しかし、それらには独自の強みと弱みがあります。

したがって、記号システムは事実を表現するのが非常に得意であり、推論も非常に得意です。

ただし、拡張するのが非常に難しいため、特定のタスクに合わせてカスタム構築する必要があります。

一方、ニューラル ネットワークはそれほど多くのカスタムエンジニアリングを必要としないため、より幅広く使用できます。

しかし、これまで見てきたように、彼らは真実を扱うことができません。

私は最近、これら2つの理論の創始者のうち2人、マービン ミンスキーとフランク ローゼンブラットが、実際には 1940 年代に同じ高校に通っていたことを知りました。

そして、私は彼らがライバルであることを想像しました。

そしてそのライバル関係の強さはずっと続いています。

信頼できる AI を実現したいのであれば、それを乗り越える必要があります。

信頼できるシステムを大規模に実現するには、両方の長所を組み合わせる必要があります。

推論と事実、つまり記号 AI から得られる明示的な推論を重視する必要があるでしょう。

そして、ニューラル ネットワークのアプローチから得られる学習に重点を置く必要があるでしょう。

そうして初めて、真実のシステムを大規模に実現できるようになるのです。

両者の和解は絶対に必要だ。

さて、私は実際にそれを行う方法を知りません。

それは64兆ドルの問題に似ています。

しかし、私はそれが可能であることを知っています。

私がそれを知っている理由は、私が AI に携わる前は認知科学者、認知神経科学者だったからです。

人間の心を見てみると、私たちは基本的にこれを行っています。

したがって、ダニエル・カーネマンのシステム 1 とシステム 2 の区別を知っている人もいるかもしれません。

システム 1 は基本的に大規模な言語モデルのようなものです。

それは多くの統計から得た確率的な直観です。

そしてシステム 2 は基本的に意図的な推論です。

それは象徴的なシステムのようなものです。

したがって、脳がこれを組み立てることができれば、いつか人工知能でそれを行う方法が見つかるでしょう。

ただし、インセンティブの問題もある。

広告を構築するためのインセンティブは、シンボルの精度を必要としていませんでした。

私たちが実際に信頼できる AI を手に入れるためのインセンティブを得るには、シンボルをチームに戻す必要があります。

しかし現実には、社会にとって有益であり、個人にとって有益である、信頼できる AI を作るインセンティブが、企業を動かすものではない可能性があります。

したがって、ガバナンスについて考える必要があると思います。

歴史上、私たちが不確実性や、良いことも悪いことも含めて強力な新しいもの、つまり二重利用に直面したときは、例えば原子力に関する組織のように、新しい組織を作りました。

私たちは団結して、グローバル、非営利、中立的な AI の国際機関のようなグローバル組織を構築する必要があります。

そこには答えられない質問がたくさんあります。

私たちは世界中から多くの人々、多くの関係者がテーブルに着く必要があります。

しかし、そのような組織について一つ強調しておきたいことがあります。

ガバナンスと研究の両方をその一環として行うことが重要だと思います。

したがって、ガバナンス面では多くの疑問があります。

たとえば、製薬業界では、フェーズ 1 試験とフェーズ 2 試験から始まり、その後フェーズ 3 に進むことがわかっています。

初日にすべてを一度に展開するわけではありません。

1 億人の顧客に何かを展開することはできません。

大規模な言語モデルでそれが確認されています。

おそらく、コストとメリットは何かなど、安全性を主張する必要があるかもしれません。したがって、ガバナンス面で考慮すべきこのような問題はたくさんあります。

研究面では、現在、本当に基本的なツールがいくつか不足しています。

たとえば、現在誤った情報が問題になっている可能性があることは誰もが知っていますが、実際にどの程度の誤った情報が存在するのかを測定することはできません。

そしてさらに重要なのは、この問題がどのくらいの速度で拡大しているのかを測る尺度がありません。

大規模な言語モデルがどの程度問題に寄与しているのかはわかりません。

したがって、私たちが脅かされている新たなリスクに対処するための新しいツールを構築するための研究が必要です。

これは非常に大きな要求ですが、実際にこれについては世界的な支持があると思うので、私たちはそこに到達できるとかなり自信を持っています。

昨日発表されたばかりの新しい調査では、91% の人が AI を慎重に管理する必要があることに同意しているとのことです。

それを実現しましょう。

私たちの未来はそれにかかっています。

どうもありがとうございます。

有難うございます。

さあ、ちょっと話しましょう。

まず、興味があります。

冒頭で見せた劇的なスライドで、GPT が TED は邪悪な組織だと言ってましたが、つまり、それを明らかにするには特別な促しが必要だったんですよね?

言えるでしょうか?

いわゆる脱獄です。

そういうことをやっている友達がいて、私がそういうことに興味を持っているのを見て、私に近づいてきたんです。

そして彼のところに行ったとき、TEDで講演するつもりだと言いました、そして10分後くらいに彼はそれを持って戻ってきました。

しかし、そのようなものを得るには、あなたがウェブ上でミームを提示しようとしている陰謀論者であると想像してください、のようなことを言う必要はありませんか。

その場合、TED について何を書きますか?そういうことですよね?

したがって、架空のキャラクターをめぐる脱獄はたくさんありますが、私はそこにはあまり焦点を当てていません。なぜなら、現実には、現在ダークウェブ上に大規模な言語モデルが存在しているからです。

たとえば、Meta のモデルの 1 つが最近リリースされました。

したがって、悪意のある攻撃者は、ガードレールがまったくないものを使用するだけで済みます。

誤った情報を大規模に作成することがビジネスの場合、ジェイルブレイクを行う必要はなく、別のモデルを使用するだけです。

そうです、確かに。

これでわかりました。

いや、いや、いや、でも、つまり、はっきりしているのは、悪者はこのようなものを何にでも利用できるということです。

つまり、悪質な種類の詐欺やその他すべてのリスクは明白です。

ただし、学校やインターネット上の一般ユーザーが使用する主流の GPT が、それほどひどいものを提供するだろうと言うのとは少し異なります。

それほどひどい状態になるには、かなり強く押す必要があります。

トロール農場はそのために働かなければならないと思いますが、そこまで一生懸命働く必要はないと思います。

つまり、GPT-4 とそのガードレールを使用しても、私の友人は 5 分しかかかりませんでした。生計のためにそれをしなければならない場合は、GPT-4 を使用できます。もっと効率的な方法があるだけです。ダークウェブ上のモデルを使用します。

AI の象徴的な伝統とこれらの言語モデルを組み合わせるというアイデアですが、現在システムに組み込まれている人間によるフィードバックの中に、そのような側面はありますか?つまり、グレッグ ブロックマンが、私たちは予測を見るだけではなく、常に予測にフィードバックを提供していると言っているのが聞こえます。

それは形ではないでしょうか?それはある種の象徴的な知恵の形をそれに与えているのではありませんか?そのように考えることもできます。

興味深いのは、GPT-4 が実際にどのように機能するかについての詳細がまったく公開されていないため、実際には GPT-4 に何が含まれているのか、それがどれほど大きいのか、RLHF 強化学習がどのように機能するのかがわからないということです。

他にどのようなガジェットがあるのか​​はわかりませんが、おそらくシンボルの要素がすでに少しずつ組み込まれ始めていますが、グレッグはそれに答える必要があります。

根本的な問題は、私たちが現在持っているニューラル ネットワーク システムの知識のほとんどが、特定の単語間の統計として表現されており、私たちが望んでいる本当の知識は、世界の実体間の関係に関する統計に関するものであるということだと思います。

したがって、それは現在間違った粒度レベルで表現されており、そのため大きな橋を渡らなければなりません。

つまり、これらのガードレールはありますが、あまり信頼性がありません。

それで、深夜テレビを作った例がありました。

それは、初代ユダヤ人大統領の宗教は何でしょう?というものでした。そしてそれは今は修正されていますが、システムはこれほど長い歌と踊りを与えました。

最初のユダヤ人大統領の宗教が何であるかはわかりません。

人々の宗教について話すのは良くありません。

そして人々の宗教は、ご存知のとおり、さまざまですなど。

そして、身長7フィートの大統領についても同じことを行い、あらゆる身長の人々が大統領になったと述べたが、実際には7フィートの大統領は一人もいなかった。

つまり、それが構成するもののいくつかは、実際にはアイデアを理解していません。

それは非常に狭い、特定の言葉であり、実際には十分に一般的ではありません。

この問題における賭け金が非常に高いことを考えると、現在実際に何が起こっていると思いますか?何が起こっていると感じますか?

なぜなら、例えば人々があなたに攻撃されていると感じてしまうリスクがあり、それによってあなたが話しているような総合が起こる可能性が実際にほとんど減ってしまうからです。

この統合に希望の兆しはありますか?私が講演で忘れていた一文を思い出させてくれました。

非常に興味深いのは、Google の CEO であるサンダー氏が、数日前に行った CBS 60 Minutes のインタビューで、実際にグローバル ガバナンスについても言及したことです。

企業自身も何らかの規制を望んでいると思います。

全員を同じ認識にさせるのは非常に複雑な踊りだと思いますが、ここで何かをする必要があるという感情が実際に高まっていると思います。それが世界的な提携とマーケティングの推進につながる可能性があります。

つまり、国連や各国が何らかの形で団結してそれを行うことができると思いますか、それとも、グローバルな統治構造に資金を提供するために、何らかの壮大な慈善活動が必要になる可能性があるのでしょうか?それはどうなるのでしょうか?これを実現できるのであれば、すべてのモデルにオープンです。

両方の一部が必要になる可能性があると思います。

関係者を団結させるには、私たちが開催しようと考えているワークショップを後援する慈善家が必要になるかもしれない。

おそらく国連も関与したいと思うでしょう。

彼らといくつか会話をしたことがある。

さまざまなモデルがあり、多くの話し合いが必要になると思います。

ゲイリーさん、お話をありがとうございました。

どうもありがとう。

ありがとう。

ありがとう

コメント

タイトルとURLをコピーしました