企業における AI 活用における真実、公平、公平を目指して

人工知能 (AI) テクノロジーの進歩により、医療、金融、事業運営、メディアなどに対する私たちのアプローチに革命が起こることが期待されています。しかし研究では、一見「中立的」なテクノロジーが、人種やその他の法的に保護された階級による差別など、憂慮すべき結果をどのように生み出す可能性があるかを浮き彫りにしています。たとえば、COVID-19 予測モデルは、ICU ベッド、人工呼吸器、その他のリソースを効率的に割り当てることで、医療システムがウイルスと戦うのに役立ちます。しかし、として 最近の研究 米国医療情報学会誌では、これらのモデルが医療提供における既存の人種的偏見を反映するデータを使用した場合、すべての患者に利益をもたらすことを意図した AI が、有色人種の医療格差を悪化させる可能性があると示唆しています。

では、問題は、バイアスやその他の不公平な結果を誤って持ち込まずに、AI の利点をどのように活用できるかということです。幸いなことに、高度なテクノロジーは新しいかもしれないが、FTC は自動化された意思決定に注目していない。 FTC は、AI の開発者とユーザーにとって重要な 3 つの法律を施行してきた数十年の経験があります。

  • FTC 法の第 5 条。 FTC 法は、不当または欺瞞的な行為を禁止しています。これには、たとえば、人種的に偏ったアルゴリズムの販売または使用が含まれます。
  • 公正信用報告法。 FCRA は、アルゴリズムが人々の雇用、住宅、信用、保険、その他の給付金を拒否するために使用される特定の状況で機能します。
  • 信用機会均等法。 ECOA は、企業が人種、肌の色、宗教、出身国、性別、婚姻状況、年齢、または生活保護を受けていることを理由に信用差別をもたらす偏ったアルゴリズムを使用することを違法としています。

とりわけ、FTC はこれらの法律に関する専門知識を活用して、ビッグデータ分析と機械学習に関する報告を行っています。アルゴリズム、AI、予測分析に関するヒアリングを実施する。 AI とアルゴリズムに関するビジネス ガイダンスを発行します。この取り組みは、FTC の執行措置と合わせて、AI を真実、公平、公平に使用するための重要な教訓を提供します。

適切な基礎から始めましょう。 AI は、その謎めいた専門用語 (「機械学習」、「ニューラル ネットワーク」、「ディープ ラーニング」など) と膨大なデータ処理能力により、ほとんど魔法のように思えることがあります。しかし、AI の適切な出発点、つまり強固な基盤については何も神秘的ではありません。データセットに特定の母集団からの情報が欠落している場合、そのデータを使用して AI モデルを構築すると、法的に保護されたグループにとって不公平または不公平な結果が生じる可能性があります。最初から、データセットを改善する方法を検討し、データのギャップを考慮してモデルを設計し、欠点を考慮して、モデルを使用する場所と方法を制限します。

差別的な結果に注意してください。 FTC は毎年、プライバシー、データ セキュリティ、人工知能の最先端の開発を紹介する PrivacyCon を開催しています。 PrivacyCon 2020 の会期中、研究者らは、医療リソースの割り当てや広告などの無害な目的のために開発されたアルゴリズムが実際には人種的偏見をもたらしたことを示す研究を発表しました。あなたの会社が、善意のアルゴリズムによって人種的不平等を永続させる企業の例となるリスクを軽減するにはどうすればよいでしょうか?アルゴリズムを使用する前と使用後も定期的にテストして、人種、性別、その他の保護されたクラスに基づいて差別されていないことを確認することが重要です。

透明性と独立性を大切にします。 PrivacyCon 2020 で説明され、後に Science 誌に掲載されたヘルスケア アルゴリズムにおける人種的偏見を発見したのは誰ですか?独立した研究者は、大規模な大学病院から提供されたデータを調査することでそれを発見しました。つまり、その病院の透明性と研究者の独立性があったからこそ、バイアスが明るみに出たのです。企業が AI を開発および使用する際には、透明性と独立性を確保する方法を検討してください。たとえば、透明性のフレームワークと独立した基準を使用する、独立した監査の実施と結果を公開する、データやソース コードを外部の検査に公開するなどの方法があります。

アルゴリズムで何ができるか、またはアルゴリズムが公平または公平な結果を提供できるかどうかを誇張しないでください。 FTC 法に基づき、企業顧客と消費者に対する声明は同様に真実であり、欺瞞的でなく、証拠によって裏付けられている必要があります。新しいテクノロジーを急いで導入しようとするときは、アルゴリズムが提供できるものを過度に約束しすぎないように注意してください。たとえば、AI 開発者がクライアントに、自社の製品は「100% 公平な採用決定」を提供すると言っているが、そのアルゴリズムは人種や性別の多様性を欠いたデータを使用して構築されていたとします。その結果、欺瞞や差別が生じ、FTC の法執行措置が取られる可能性があります。

データの使用方法について真実を語ってください。 昨年の AI に関するガイダンスでは、モデルを強化するデータの取得方法に注意するよう企業にアドバイスしました。私たちは、Facebookに対するFTCの訴状に注目した。その内容は、実際にはFacebookがデフォルトで写真を使用しているにもかかわらず、ソーシャルメディア大手が同社の顔認識アルゴリズムをオプトインできると消費者に告げて消費者を誤解させたと主張している。アプリ開発者のEveralbumに対するFTCの最近の行動は、その点を強化するものである。訴状によると、Everalbumはアプリユーザーがアップロードした写真を使用して顔認識アルゴリズムをトレーニングしたという。 FTCは、同社がアプリの顔認識機能を制御できるかどうかについてユーザーを欺き、ユーザーがアカウントの無効化時に写真やビデオを削除できるかどうかについて虚偽の説明を行ったと主張した。今後の違反行為を阻止するため、提案された命令では、不正に入手したデータだけでなく、ユーザーの写真やビデオを使って開発された顔認識モデルやアルゴリズムも削除するよう同社に求めている。

害を与えるよりも良いことをしましょう。 最も簡単な言葉で言えば、FTC 法の下では、利益よりも害の方が大きい行為は不公平です。あなたのアルゴリズムにより、企業が自社製品の購入に最も関心のある消費者をターゲットにできるとします。直接的なメリットのように思えますよね?しかし、モデルが人種、肌の色、宗教、性別を考慮してそれらの消費者を正確に特定し、その結果がデジタルのレッドライニング(住宅都市開発省のようなもの)であるとしましょう。 Facebookに対する訴訟 2019年)。あなたのモデルが善よりも害を引き起こす場合、つまり、セクション 5 の用語で言えば、消費者が合理的に回避できず、消費者または競争に対する相殺利益を上回ることができない、消費者に重大な損害を引き起こす、または引き起こす可能性がある場合、FTC はそのモデルの使用が不公平であるとして異議を申し立てることができます。

自分自身に責任を持たせるか、FTC が責任を負う準備をしてください。 すでに述べたように、アルゴリズムのパフォーマンスに対して責任を持つことが重要です。透明性と独立性に関する当社の推奨事項は、まさにそれを実現するのに役立ちます。ただし、自分で責任を負わない場合、FTC が代わりに責任を負う可能性があることに注意してください。たとえば、アルゴリズムの結果、保護されたクラスに対する信用差別が生じた場合、FTC 法および ECOA の違反を主張する苦情に直面する可能性があります。ブロンクス・ホンダに対する最近の行動が示すように、偏ったアルゴリズムが原因であれ、より平凡な人間の不正行為が原因であれ、FTCは信用差別の申し立てを非常に真剣に受け止めている。

あなたの会社が人工知能の新しい世界に乗り出すときは、FTC の確立された消費者保護原則に基づいた実践を続けてください。

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください