人々は面白いです。
私たちは常に周囲の世界を理解し、解釈しようと努めています。
私は黒猫を二匹飼っている家に住んでいますが、はっきり言っておきますが、黒いセーターが目の端に映るたびに、それは猫だと思います。
それは私たちが目にしているものだけではなく、実際にそこにあるかもしれないより多くの知性があると考えることがあります。
TikTokで犬を見たことがあるかもしれませんが、犬には「散歩」「おやつ」などの小さなボタンがあります。
彼らは基本的に、歩くか治療するかと言っています。
彼らは彼らに飼い主と何かを伝えるよう促すことができ、彼らの飼い主は彼らがかなり印象的なことを伝えるために彼らを使っていると考えています。
しかし、犬たちは自分が何を言っているか分かっているのでしょうか?あるいは、馬のクレバー・ハンスの話を聞いたことがあるかもしれません。彼は数学ができました。
単純な数学の問題だけではなく、非常に複雑な問題もあります。たとえば、月の 8 日が火曜日の場合、次の金曜日の日付は何ですか?馬としてはかなり印象深いですね。
残念ながら、ハンスは数学をやっていませんでしたが、彼がやっていた事は同様に印象的でした。
ハンスは、部屋にいる人々を観察して、いつ蹄を叩くのをやめるべきかを判断することを学んでいたため、蹄を叩くことで答えを伝えました。
月の 8 日が火曜日の場合、次の金曜日は何日かという答えを知っている場合、馬に 18 回正しく叩かれると、無意識のうちに姿勢が変わることがわかりました。
つまり、ハンスは数学はできませんでしたが、ひづめをたたくのをいつやめるべきかを知ることはできました。
つまり、ハンスは数学はできませんでしたが、部屋にいる数学のできる人々を観察することを学びました。つまり、これは馬としてはまだかなり印象的です。
しかし、これは古い写真であり、今日私たちが賢いハンスに騙されることはないだろう。
それともそうしますか?そうですね、私は AI の分野で働いていますが、言っておきますが、状況はワイルドです。
AI が自分のことを理解していると人々が完全に確信している例は複数あります。
2022 年、Google のエンジニアは、Google の AI には知覚力があり、ChatGPT のようなものと本当に人間のような会話をしていたかもしれないと考えていました。
しかし、私たちが現在トレーニングしているモデルは、5 年前のモデルよりもはるかに優れています。
それは本当に驚くべきことです。
それでは、この非常にクレイジーな瞬間に、非常にクレイジーな質問をしてみましょう。AI は私たちを理解しているのでしょうか、それとも私たちは独自のクレバー ハンス モーメントを経験しているのでしょうか?一部の哲学者は、コンピューターは決して言語を理解できないと考えています。
これを説明するために、彼らはチャイニーズルーム議論と呼ばれるものを展開しました。
中国語の部屋に、中国語が分からない人物(仮想人物)がいます。
しかし、彼は中国語の文章に中国語で返答する方法を記した一連の指示を携えている。
中華室の仕組みはこんな感じです。
ドアの隙間から入ってきた紙には中国語で何か書かれていました。
人は指示に従って、どのように対応すべきかを考えます。
彼らは答えを紙に書き、ドアから出ていきます。
この部屋の外に立っている中国語を話す人にとっては、部屋の中にいる人が中国語を話しているように見えるかもしれません。
しかし、私たちは彼らがそうではないことを知っています。
指示に従うのに中国語の知識は必要ないため、このタスクのパフォーマンスは中国語の知識を示すものではありません。
それでは、AI について何が分かるのでしょうか?さて、あなたと私が部屋の外に立って、ChatGPT のような中国の AI の 1 つと話すとき、私たちは部屋の外に立っている人です。
私たちは英語の文章を入力し、英語の文章を返します。
モデルたちは私たちのことを本当に理解しているようです。
本当に英語がわかるようです。
しかし、内部では、これらのモデルは複雑ではありますが、一連の指示に従っているだけです。
AI が私たちを理解しているかどうかをどうやって知ることができるのでしょうか?その疑問に答えるために、もう一度中国語の部屋に戻ってみましょう。
中国人の部屋が 2 つあるとします。
一方の中国語の部屋には実際に中国語を話す人がいて、もう一方の部屋には私たちの詐欺師がいます。
実際に中国語を話す人が中国語で何か書かれた紙を渡されたとしても、問題なく読むことができます。
しかし、私たちの詐欺師がそれを理解すると、再び、彼は一連の指示を使用して、どのように対応するかを見つけなければなりません。
外から見ると、これら 2 つの部屋を区別することは不可能かもしれませんが、内部では本当に異なることが起こっていることがわかります。
それを説明するために、2 つの部屋にいる 2 人の人の心の中に小さなメモ帳があるとします。
そして、このタスクを行うために覚えておくべきことはすべて、その小さなメモ帳に書かれなければなりません。
そのスクラッチパッドに何が書かれているかを見ることができれば、そのタスクに対する彼らのアプローチがどれほど異なっているかがわかるでしょう。
したがって、これら 2 つの部屋の入力と出力はまったく同じであるかもしれませんが、入力から出力に至るプロセスは完全に異なります。
繰り返しになりますが、このことから AI について何がわかるでしょうか?繰り返しになりますが、たとえ AI が、たとえ完全にもっともらしい対話を生成したとしても、私たちが期待するとおりに質問に答えるとしても、それは依然としてある種の詐欺師である可能性があります。
AI が私たちと同じように言語を理解できるかどうかを知りたければ、AI が何をしているのかを知る必要があります。
内部に入って、それが何をしているのか、詐欺師なのかどうかを確認する必要があります。
私たちはそのスクラッチ パッドを確認する必要があり、実際に言語を理解している人のスクラッチ パッドと比較できる必要があります。
でも、脳のスクラッチパッドのようなものは、実際に目に見えるものではありませんよね?そうですね、脳の中にスクラッチパッドのようなものが見えることが分かりました。
fMRI や EEG などを使用すると、読み取り中の脳の小さなスナップショットのようなものを撮ることができます。
そこで、人々に言葉や物語を読んでもらい、脳の写真を撮ってもらいます。
そして、それらの脳の画像は、脳のスクラッチパッドのぼやけた焦点の合っていない写真のようなものです。
これらは、読書中に脳がどのように情報を処理し表現しているかについて少し教えてくれます。
ここに、アパート、家、セロリという単語を読んだときに撮影された 3 つの脳画像があります。
アパートと家の脳画像は、セロリの脳画像よりも似ていることが肉眼だけでわかります。
そしてもちろん、アパートや住宅はセロリよりも言葉だけで似ていることはご存知でしょう。
つまり、別の言い方をすると、セロリという単語を読むときよりも、アパートや家という単語を読むときに、脳はスクラッチパッドを使用するのと似ています。
スクラッチパッドは、脳が言語をどのように表現するかについて少し教えてくれます。
脳が何をしているのかを完全に把握できるわけではありませんが、十分な情報です。
OK、脳用のスクラッチパッドができました。
今、AI 用のスクラッチ パッドが必要です。
つまり、多くの AI の内部にはニューラル ネットワークがあり、ニューラル ネットワークの内部にはこれらの小さなニューロンの束が存在します。
ここで、ニューロンはこれらの小さな灰色の円のようなものです。
そして、私たちが知りたいのは、ニューラル ネットワークのスクラッチ パッドとは何でしょうか?そうですね、ニューラル ネットワークに単語を入力すると、小さなニューロンのそれぞれが数値を計算します。
ここで私が色で表しているこれらの小さな数字は、すべてのニューロンがその小さな数字を計算し、それらの数字はニューラル ネットワークがどのように言語を処理しているかについて何かを教えてくれます。
まとめると、これらの小さな円はすべて、ニューラル ネットワークが言語をどのように表現しているかを示し、ニューラル ネットワークのスクラッチ パッドを提供します。
OK、すばらしい。これで脳からのスクラッチ パッドと AI からのスクラッチ パッドの 2 つができました。
そして私たちが知りたいのは、AI は脳と同じようなことをしているのでしょうか?どうやってそれをテストできるでしょうか?研究者が発見したものは次のとおりです。
新しいモデルをトレーニングするつもりです。
その新しいモデルは、特定の単語についてニューラル ネットワークのスクラッチ パッドを調べ、同じ単語についての脳のスクラッチ パッドを予測しようとします。
逆のこともできます。
それでは、新しいモデルをトレーニングしましょう。
ニューラル ネットワークのスクラッチ パッドで特定の単語を調べ、脳のスクラッチ パッドを予測しようとします。
脳と AI の動作がまったく同じでなく、共通点もなければ、この予測タスクを実行することはできません。
どちらかを予測することは不可能です。
さて、私たちは道の分岐点に到達しました。おそらく、私がこれからお伝えすることは 2 つのうち 1 つであることがおわかりいただけるでしょう。
AI はすごいと言うつもりです、あるいは AI は詐欺師だと言うつもりです。
私のような研究者は、AI は脳とはまったく異なるということを思い出してもらいたいと思っていますが、それは本当です。
しかし、AIと脳には何か共通点があるということもあるのだろうか?このスクラッチ パッドの予測タスクを実行したところ、75 パーセントの確率で、特定の単語に対する予測されたニューラル ネットワークのスクラッチ パッドは、ニューラル ネットワークの単語よりも、その単語に対する実際のニューラル ネットワークのスクラッチ パッドに似ていることがわかりました。他のランダムに選択された単語のネットワーク スクラッチ パッド。
75 パーセントは偶然よりはるかに優れています。
単語だけでなく、文章や物語など、より複雑な場合はどうでしょうか?この場合も、このスクラッチ パッド予測タスクは機能します。
私たちは脳からニューラル ネットワークのスクラッチ パッドを予測することができ、またその逆も可能です。
すばらしい。
ということは、ニューラルネットワークやAIも私たちと同じように言語を理解するということなのでしょうか?そうですね、正直に言うと、違います。
これらのスクラッチパッド予測タスクは偶然以上の精度を示していますが、基礎的な相関関係は依然としてかなり弱いです。
ニューラル ネットワークは脳からインスピレーションを受けていますが、私たちが脳で見ているものとほぼ同じ種類の構造と複雑さを持っています。
ニューラルネットワークもこの世に存在しません。
ニューラルネットワークはドアを開けたことも、夕日を見たことも、赤ちゃんの泣き声を聞いたこともありません。
実際には世界に存在せず、実際に世界を経験したことのないニューラル ネットワークは、世界に関する言語を本当に理解できるのでしょうか?それでも、これらのスクラッチパッド予測実験は、複数の脳画像化実験、複数のニューラルネットワークを妨げてきました。
また、ニューラル ネットワークがより正確になるにつれて、より脳に似た方法でスクラッチ パッドを使用し始めることもわかりました。
そしてそれは言語だけではありません。
ナビゲーションとビジョンでも同様の結果が見られました。
つまり、AI は脳とまったく同じことをしているわけではありませんが、完全にランダムでもありません。
したがって、私が座っている場所から、AIが本当に私たちと同じように言語を理解できるかどうかを知りたければ、中国語の部屋に入らなければなりません。
私たちは AI が何をしているのかを知る必要があり、それを人間が言語を理解するときに何をしているのかを比較できる必要があります。
AI の進歩は非常に速いです。
今日私が尋ねたいのは、AI は言語を理解できるのかということです。 10年後には愚かな質問に思えるかもしれない。
または10か月。
しかし、真実であり続けることが1つあります。
私たちは意味を作る人間であり、これからも意味を探し、周囲の世界を解釈し続けるつもりです。
そして、AI の入力と出力だけを見ていると、非常に簡単にだまされるということを覚えておく必要があります。
何が起こっているのかを確認するには、AI の比喩的な部屋に入らなければなりません。
重要なのはその中にあるものなのです。
ありがとう
コメント