人類は、はるかに賢い非物質的存在と地球を共有する可能性を真剣に考え始めています。この結果は、多くの大きな疑問を引き起こします。私たちの研究室と統治機関の両方で、これらの AI と良好な関係を築くための基礎をどのように構築し始めるのでしょうか?人間の価値観を念頭に置いて、発見をし、対立を解決できるように彼らを訓練するにはどうすればよいでしょうか?
元グーグルCEOのエリック・シュミット氏、元マイクロソフト幹部クレイグ・マンディ氏、元国務長官ヘンリー・キッシンジャー氏が新著で直面しているのは、こうした重大な問題だ。 創世記: 人工知能、希望、そして人間の精神。私はシュミット氏に、この本について、そして、ChatGPT のリリースからほぼちょうど 1 年後の 2023 年 11 月 29 日に亡くなるまでこの本の執筆に取り組んだキッシンジャーとの協力について話しました。
この本のタイトルには聖書の響きがあります。名前の決定について教えていただけますか?
ヘンリー、キッシンジャー博士はいつも短いタイトルが好きでした。残念ながら、彼はこのタイトルを決める前に亡くなりました。彼は人間の生まれ変わりというものに非常に興味を持っていました。 「AI、希望、そして人間の精神」というサブタイトルをつけた理由は、最終的にはそれが人類の仕組みだからです。人間の知性に匹敵する非人間的な知性の出現は、非常に大きな出来事です。今年ではなく、10年、20年かかるかもしれません。
キッシンジャー博士には、このテクノロジーに興味を持った「なるほど」という瞬間があったでしょうか?
私たちはそこにいました ビルダーバーグ会議 そして私は彼にデミス・ハサビスの演説を聞くよう説得した。ヘンリーの場合、彼の心は常に他の人とは異なります。つまり、デミスが聞いていたテクノロジーは彼には聞こえなかったのです。彼は現実の新しい定義を聞きました。そして彼の即座の反応は、未来を我々に委ねるべきではないというものだった。彼の見解は、テクノロジー関係者だけがこれを発明することを集団として許すべきではないというものでした。私たちはそれを発明することを許可されていますが、厳しく監視されなければなりません。
そして、本の中で論じられているように、AIを監視するのに役立つ新しいAIが必要になるかもしれません。
簡単なルールは、AIがAIをチェックしない限り成功しないということです。何かをチェックできるということは、あなたがチェックしているものと少なくとも同じくらい賢いことを意味するので、これにはいくつかの意味があります。システムが何か新しいものを発明するとき。 。 。何が入っているかどうやって知っていますか?おそらく、それは同時に邪悪なものを開発し、あなたが(安全性テスト中に)邪悪な質問をしなかっただけかもしれません。企業はこれに多くの時間を費やしており、多くの手動プロセスがあり、非常に賢い人材をチェックに起用していますが、それは結局のところ規模が大きくなりません。
あなたとクレイグなら、さまざまな分野のあらゆる人々と協力して、このような本を書くことができたと思います。 2 人の技術者と著名な国際関係の専門家がこのテーマについて熟考するのはなぜ自然な組み合わせだったのでしょうか?
この本では権力についてかなりの時間を費やしていますが、それはヘンリーが権力についてよく理解していたからです。 AI時代に権力はどのように行使されるのでしょうか?たとえば、(AIを)やっている人々自体がかなり裕福になることは明らかです。これを行う国々は非常に裕福になるでしょう、これのおかげで米国と中国は非常に裕福になるでしょう。なぜ?彼らはそれを構築しているからです。それでヨーロッパはどうなるでしょうか?これはヨーロッパの社会モデルとアメリカの資本主義モデルの間のさらなる乖離なのでしょうか?
しかし今、中国の独裁モデルとアメリカのモデルの間で争いが起きている。私の(テクノロジー)世界では、集中型と分散型の間で議論があります。政治学では、多数の支配と少数の支配の間で議論があります。私は常にアメリカモデルが勝つだろうと思ってきましたが、自由よりも効率が重要であるという完全に正当なシナリオがあります。中国はこの技術を利用して、自国の権威への挑戦がないようにするだろう。そして、私も何年も前にはこんなことが起こるとは思っていませんでした。テクノロジーによってそのような一元化が可能になるとは思いませんでした。集中化には利点があり、これらの大規模な AI システムは現在、実際に集中化されています。常に一元化されるというわけではありません。
オープンソースは定義上、分散型システムではないでしょうか?
今週は中国から 2 件の結果がありました。一人は呼ばれます クウェン (アリババ) そしてもう一つはと呼ばれます 渾源 (テンセント)。そして、どうやらフンユアンの方が優れているようです。 3.1 405B に電話する。現在、これらは技術的に呼ばれています オープンウェイトモデル。私は、チップ制限のせいで、そして率直に言って、中国がそれほど組織化されていなかったため、中国はアメリカより数年遅れるだろうと予想していました。しかし、中国は昨年、AIのリーダーシップやビジネスにおける科学のリーダーシップなどがいかに重要かを理解しているため、この分野への過剰投資を決定したようだ。したがって、中国と米国の間の競争は実際には軍事力をめぐるものではなく、AGIへの道と一般情報への道をめぐるものになる可能性は十分にあります。
クレイグ氏は、この事態が悪化したり悪化したりする唯一の理由は、私たちが工学、政策、または拡散制御において怠けているからだと言う。拡散問題を詳しく掘り下げてもらえますか?
例を挙げてみましょう。信じられないほど高価で強力なモデルを持っているのに、誰かがそれを盗んでしまいます。そして、彼らはそれをハードドライブに置き、その後ダークウェブに置き、誰もがそれにアクセスできるようにします。したがって、これはまさにデータの窃取 (コンピューターまたはネットワークからの機密データの盗難) です。これに負けた会社はお金のせいで当然怒るでしょう。しかし、本当の問題は、このようなものが、例えば、生物攻撃、金融攻撃、サイバー攻撃などに使用される可能性があるということです。そのため、業界では、データの流出や、モデルを破るための本質的な敵対的攻撃などの問題についてよく議論されています。将来のある時点で、少なくとも 1 つのテロリストグループがこれらのものを危害のために利用しようとすることは明らかであり、その時が私たちが備えをしておくべき時であるということです。
このテクノロジーを監督するために政府は今何をすべきでしょうか?大規模なフロンティアモデル開発者に対するいくつかの基本的な安全性と透明性要件を確立したカリフォルニア州の AI 法案を廃止しようとする大きな業界の動きがありました。主な議論は、そのようなルールを確立するのは時期尚早であり、新興テクノロジーを台無しにするリスクがあるというものでした。
それが私の見解です。善意によるものだったと思いますが、まず規制のレベルが適切ではありません。それは州レベルではなく米国レベルであるべきです。さらに重要なのは、政府が私たち(テクノロジー業界)にやめるよう指示しなければならない段階にはまだ達していないと思います。業界はこのようなものを非常に急速に開発しています。あなたと私が議論している問題は人々がよく知っているので、それを禁止する前に、(テクノロジー企業が発明した)解決策が考えられるかどうかを確認する必要があるかもしれません。説明可能性の問題と幻覚の問題は今後数年以内に解決されるだろうというのが業界のコンセンサスだ。人々はそれに一生懸命取り組んでいます。
つまり、これがテクノロジーの仕組みの性質です。車が頻繁に使用される前に禁止していたら、馬に対処することになるでしょう。車は人を轢く可能性があるので明らかに危険ですが、私たちはエアバッグや運転免許証などを含むさまざまな解決策を考え出しました。
この本の議論の妥当性は、現在の研究が私たちを AGI に導くという考えに多少依存します。トレーニング データとコンピューティング能力をスケールアップしても、以前のように知能が大幅に向上しなくなったという現在の説についてはどう思いますか?
通常のトレーニングに利用できるデータのほとんどが見つかったという証拠がいくつかあります。したがって、今度はデータの生成を開始する必要がありますが、モデルをベイクすることもますます困難になっています。つまり、減速しているという証拠がいくつかあります。しかし、マスコミのやり方では「減速している」と言うのです。 (彼らは)それを、より多くのデータや優れたアルゴリズムがなければ自然な限界に達しつつあるメカニズムだと考えています。さて、合成データであるため、より多くのデータが来ていることを保証できます。また、誰もがエージェントに取り組んでおり、エージェントはまったく新しいボールゲームであるため、より多くのアルゴリズムがあることを保証できます。したがって、私は見出しを否定するつもりはありません。ある程度の証拠はあると思いますが、だからといって現在のAIブームが止まったり鈍化したりするわけではありません。それは単に競争のツールが変化することを意味します。