- Googleの新しいAIガイドラインは、武器や監視にAIを使用しないという約束を削除しました。
- 一部の従業員は、会社の内部掲示板に反応しています。
- Googleは、企業や政府が「国家安全保障」のために協力することが重要であると述べました。
Googleが武器や監視に人工知能を使用しないという約束を撤回した後、一部の従業員は会社の内部掲示板に反応を投稿しました。
同社は火曜日にその更新を行ったと言った 倫理的AIガイドライン、Googleがそのテクノロジーをどのように使用し、使用しないかを説明します。新しいバージョンでは、GoogleがAIを使用して武器、監視ツール、または「全体的な害を引き起こす、または引き起こす可能性が高い技術」を構築しないという言葉遣いを削除しました。
Business Insiderと共有されている投稿によると、数人のGoogleの従業員が会社の内部掲示板であるMemegenの変更に失望を表明しました。
あるミームは、CEOのSundar PichaiがGoogleの検索エンジンを「武器請負業者になる方法」を求めて照会したことを示しました。
別の従業員は、テレビコメディのスケッチでナチスの兵士にdressした俳優の人気のミームに賛成しました。 「Googleは、AIを使用して武器と監視に使用することを禁止しています」と読みました。 「私たちは悪役ですか?」
別の投稿では、シェルドンが「ビッグバン理論」からシェルドンが、グーグルが武器のために赤い線を落とす理由を尋ね、グーグルがペンタゴンを含む防衛顧客とより緊密に連携していることを見て、「それが理由だ」と答えた。
これらは、ほんの一握りのGoogleスタッフが共有するミームでした。同社には180,000人以上の従業員がいます。これらのコメントは、労働力の一部を反映しています。一部のグーグル人は、防衛顧客や米国政府とより密接に協力しているハイテク企業をサポートする場合があります。
近年、一部のハイテク企業やスタートアップの間で、防衛目的でAIツールを含むより多くのテクノロジーを提供することに変化がありました。
Googleは文言の除去を直接認めていませんでしたが、Google DeepmindのCEOであるDemis Hassabisと、テクノロジーと社会の上級副社長であるJames Manyikaは書いています。 ブログ投稿 火曜日に、彼らは「ますます複雑になっている地政学的景観」を説明し、企業や政府が「国家安全保障」のために協力することが重要であると述べました。
「民主主義は、自由、平等、人権の尊重などのコアバリューに導かれたAI開発をリードすべきだと考えています」と彼らは書いています。 「そして、これらの価値を共有する企業、政府、および組織は、人々を保護し、世界的な成長を促進し、国家安全保障をサポートするAIを作成するために協力するべきだと考えています。」
Googleの広報担当者は、コメントを求めて、Biを会社の火曜日のブログ投稿に向けました。
2018年、Googleの従業員は、GoogleのAIを戦争に使用した五角形とのプログラムに抗議しました。同社は契約を放棄し、追求しないものの例を含むAIの原則をレイアウトし、武器と監視ツールに明示的に言及しました。
2018年の原則に関するブログ投稿 最新のガイドラインへのユーザーをポイントする上部にリンクを含めるようになりました。
武器の周りに赤い線を引くというGoogleの決定は、AmazonやMicrosoftを含む他のハイテク大手が署名した軍事取引からそれを除外しました。 2018年以来、AIの大規模な進歩が行われており、米国は現在、技術の優位性のために中国や他の国と競合しています。
あなたは現在または以前のGoogle従業員ですか?安全なメッセージングアプリを使用してこのレポーターに連絡できます 信号 (+1 628-228-1836)または安全なメール(hlangley@protonmail.com)。私たちはあなたを匿名に保つことができます。