ジーナ・ライモンド米商務長官は水曜日、サンフランシスコで「AIは人類史上他に類を見ないテクノロジーだ」と述べた。 「AIを進歩させるのは正しいことですが、結果を考えずに、できるからといってできるだけ早く進歩させるのは賢明な行動ではありません。」
ライモンド氏の発言は就任式中に行われた 招集 AI 安全性機関国際ネットワーク (9 か国の人工知能安全性機関 (AISI) および米国商務省と国務省がまとめた欧州委員会のネットワーク) の組織です。このイベントには政府、産業界、学界、市民社会から技術専門家が集まり、ますます高性能化する AI システムによってもたらされるリスクを管理する方法について話し合いました。
ライモンド氏は参加者に対し、「人々を危険にさらすモデルをリリースしてはいけない」という2つの原則を念頭に置くよう提案した。 「第二に、AI が人々に奉仕するのではなく、その逆ではないことを確認しましょう。」
続きを読む: ジーナ・ライモンド商務長官はいかにして AI に関してアメリカの要人になったか
この会合は、AI ガバナンスに関する国際協力における重要な前進を示しています。最初の AISI は、昨年 11 月に英国が主催した第 1 回 AI 安全サミット中に登場しました。どちらも イギリス そして 私たち 各国政府は、最先端の AI モデルの安全性を評価する技術的能力を政府に与える手段として、それぞれの AISI の設立を発表しました。他の国々もこれに追随しました。 5月までにソウルで開催された別のAIサミットで、ライモンド氏はネットワークの創設を発表した。
で 共同声明米国、英国、オーストラリア、カナダ、フランス、日本、ケニア、韓国、シンガポールの AISI を含む AI 安全性協会国際ネットワークのメンバーは、その使命を次のように述べています。 「…私たちの研究所やより広範な科学コミュニティの取り組みに基づいて、AI の安全性リスクと緩和策についての共通の技術的理解を促進するため」、そして「…AI に対する一般的な理解とアプローチを促進するため」世界中で安全が確保されれば、 AI イノベーションの利点を開発のあらゆる段階で各国間で共有できるようにします。」
招集に先立って、ネットワークの初代議長を務める米国AISIも新政府の発足を発表した。 タスクフォース この技術による国家安全保障上のリスクに焦点を当てた。国家安全保障のための AI のリスクテスト (TRAINS) タスクフォースには、国防総省、エネルギー省、国土安全保障省、保健福祉省の代表者が集まります。米国AISIが議長を務め、特に放射線と核のセキュリティ、化学と生物のセキュリティ、サイバーセキュリティに焦点を当てて、「急速に進化するAI技術が新たに生じる国家安全保障と公共の安全への影響を特定、測定、管理する」ことを目的としている。 、重要なインフラ、および従来の軍事能力。
国際協力の推進は、米国と中国の間の AI 開発をめぐる緊張が高まる時期に行われている。 不在 ネットワークからの発信が注目に値します。チャック・シューマー上院多数党院内総務は、召集に向けて事前に録音された発言の中で、中国共産党が「道路規則を作成」できないようにすることの重要性を強調した。水曜日の早朝、中国語研究室ディープシーク 発表された この新しい「推論」モデルは、OpenAI 独自の推論モデルである o1 に匹敵する最初のものであると考えられており、同社によれば、応答する前に「より多くの時間を思考に費やすように設計されている」という。
火曜日、2000年以来議会に毎年勧告を行っている米中経済安全保障検討委員会は、議会が汎用人工知能(AGI)能力の獲得と競争に特化した「マンハッタン計画のようなプログラム」を設立し、資金を提供することを勧告した。 」、委員会は 定義済み それは、「あらゆる認知領域にわたって人間の能力と同等かそれ以上のシステム」であり、「あらゆるタスクにおいて最も鋭敏な人間の心を超える」ものである。
今年初めに彼の功績でノーベル物理学賞を受賞したジェフリー・ヒントンなど、この分野の多くの専門家がいる。 仕事 人工知能について、次のように述べています。 懸念事項 AGIが開発された場合、人類はそれを制御できなくなり、壊滅的な被害につながる可能性があります。水曜日のイベントのパネルディスカッションで、Anthropic CEOのダリオ・アモデイ氏はこう語った。 信じています AGI のようなシステムは早ければ 2026 年にも登場する可能性があり、将来のより高性能なモデルが悪意のある攻撃者によって悪用され、バイオテロを実行したり、サイバーセキュリティを侵害したりするリスクと並んで、「制御喪失」リスクを挙げています。質問に答えるアモデイ 表現された 先進的なAIシステムのテストを義務化することを明確に支持し、「テストのやり方についても細心の注意を払う必要がある」と指摘した。
一方、AIの安全性に関する実践的な国際協力も進んでいる。今週初めに、米国と英国の AISI は予備情報を共有しました。 所見 これは、Anthropic の Claude 3.5 Sonnet のアップグレード バージョンである高度な AI モデルの導入前評価から得られたものです。評価では、モデルの生物学的能力とサイバー能力、ソフトウェアと開発タスクでのパフォーマンス、およびモデルが有害なリクエストに応答するのを防ぐために組み込まれた安全装置の有効性を評価することに重点が置かれました。英米両AISIは、これらの安全対策が「日常的に回避」できる可能性があることを発見し、これは「他のAIシステムの安全対策の脆弱性に関する先行研究と一致している」と指摘した。
サンフランシスコでの会議では、「国際協力から緊急に利益を得る」ための 3 つの優先トピックが設定されました。それは、合成コンテンツによるリスクの管理、基盤モデルのテスト、高度な AI システムのリスク評価の実施です。開催に先立ち、合成コンテンツ(児童性的虐待素材の生成と配布、詐欺やなりすましの促進など)によるリスクを軽減する最善の方法に関する研究を支援するため、1,100万ドルの資金提供が発表された。この資金は、韓国やナイト財団などの政府機関と慈善団体の組み合わせによって提供されました。
ドナルド・トランプ氏の選挙勝利が米国 AISI と米国の AI 政策の将来にどのような影響を与えるかは不明だが、AI の安全性をテーマとした国際協力は今後も続くだろう。英国 AISI はサンフランシスコを拠点とする別のイベントを主催しています 会議 今週は、 AI ガバナンスセンター、「最先端の AI 安全フレームワークの設計と実装を加速する」。そして2月にはフランスで「AIアクションサミット」は、5月にソウルで、そして昨年11月に英国で開催されたサミットに続いて開催されました。 2025 年の AI アクション サミットには、官民セクター、学界、市民社会のリーダーが集まり、世界中の関係者がテクノロジーの機能が加速するにつれてテクノロジーを管理する方法を模索しています。
ライモンド氏は水曜日、AIのように急速に進歩し強力なものに関しては、安全性とイノベーションを統合することの重要性を強調した。 「人間の心を置き換える可能性を秘めています」と彼女は言う。 「安全性はイノベーションにとって良いことです。安全は信頼を生みます。信頼は導入を加速します。導入はさらなるイノベーションにつながります。私たちにはその好循環が必要なのです。」