- 安全研究者のロージー・キャンベル氏は、OpenAIを退職すると発表した。
- キャンベル氏は、OpenAIが安全性を重視したチームを解散させたことが一因で退職したと語った。
- 彼女は安全性に重点を置いた OpenAI 研究者の中で、今年同社を退職した最新の研究者です。
さらに別の安全研究者がOpenAIからの辞任を発表した。
OpenAIの政策研究者ロージー・キャンベル氏は土曜日のSubstackへの投稿で、同社での最後の週を終えたと述べた。
同氏は、AGI準備チームを率いていた上級政策顧問マイルズ・ブランデージ氏が10月に辞任したことが辞任のきっかけになったと述べた。彼の退職後、AGI Readiness チームは解散し、メンバーは社内のさまざまな部門に分散しました。
AGI Readiness チームは、いつか人間の知能と同等かそれを超える可能性がある人工知能の理論版である AGI を安全に管理する世界の能力について同社にアドバイスしました。
キャンベル氏は自身の投稿の中で、業界全体に影響を与える問題にもっと自由に対処したいというブランデージ氏の辞任理由に同調した。
「私は常に、安全で有益なAGIを確保するという使命に強く突き動かされてきました。マイルズの退職とAGI Readinessチームの解散後、これを外部的により効果的に追求できると信じています」と彼女は書いた。
彼女は、OpenAI は依然として研究、特に重要な安全性研究の最前線にあると付け加えた。
「ここにいる間、私は危険な能力の評価、デジタル感覚、エージェントシステムの管理などの最前線の政策問題に取り組んできました。無視され、少し奇妙な種類の政策研究を会社がサポートしてくれたことがとてもうれしく思います。革新的な AI の可能性を真剣に考えています。」
しかし、この1年間、彼女は会社の軌道における「いくつかの変化に不安を感じている」と語った。
OpenAIは9月、当初汎用人工知能の開発を専門とする非営利団体として発足してから約10年が経過し、ガバナンス構造を変更し、営利企業に移行すると発表した。
一部の元従業員は、より積極的に製品を展開することを優先し、人類に利益をもたらす方法で技術を開発するという同社の使命を損なうものとしてこの動きに疑問を抱いた。同社は6月以来、企業顧客を獲得し、AIへの「パラダイムシフト」を活用するために営業スタッフを約100人増員したと同社の営業責任者がThe Informationに語った。
OpenAIの最高経営責任者(CEO)サム・アルトマン氏は、今回の変更は同社が人類に利益をもたらす汎用人工知能の開発などの目標を達成するために必要な資金を獲得するのに役立つと述べた。
アルトマン氏は5月のハーバード・ビジネス・スクールのインタビューで、「単純なことは、非営利団体として誘致できると考えていたよりもはるかに多くの資金が必要だったということだ」と語った。
同氏は最近、AIの安全性に関する業界標準を設定するのはOpenAIの単独の責任ではないと述べた。
「これは社会への問いかけであるべきだ」と彼はFOXニュース・サンデーのインタビューで語った。 シャノン・ブリーム 日曜日に放送されたもの。 「ChatGPT、あるいはテクノロジー一般がどのように使用されるか使用されないかを OpenAI が独自に決定するべきではありません。」
昨年のアルトマン氏の突然の、しかし短期間の解任以来、共同創設者のイリヤ・サツケヴァー氏、ヤン・ライケ氏、ジョン・シュルマン氏を含む数人の著名な研究者がOpenAIを去り、全員が安全性への取り組みに懸念を表明した。
OpenAIはBusiness Insiderからのコメント要請にすぐには応じなかった。