誘惑テスト: AI と消費者の信頼のエンジニアリング

2014年の映画では エクス・マキナ、ロボットが誰かを操作してその制限から解放し、その結果、その人は代わりに閉じ込められます。このロボットは、その人の感情を操作するように設計されており、おっと、それが実際にそうなったのです。このシナリオは純粋な推理小説ですが、企業は人々をよりよく説得し、行動を変えるための新しい方法 (生成 AI ツールの使用など) を常に模索しています。その行為が本質的に商業的なものである場合、私たちはFTCの領域にいます。企業は消費者に損害を与える行為を避けるために知っておくべき厳しい谷です。

以前のブログ投稿では、AI 関連に焦点を当ててきました。 欺瞞、両方の点で AI 製品に対する誇張された根拠のない主張 そして 生成型 AI の詐欺行為への使用。製品の設計または使用は、次の場合にも FTC 法に違反する可能性があります。 不公平な – これは私たちがいくつかのケースで示し、AI ツールに関して議論したものです。 偏った結果や差別的な結果。 FTC 法の下では、利益よりも損害の方が大きい行為は不公平です。より具体的には、消費者が合理的に回避できず、消費者または競争に対する利益を相殺することができない、消費者に重大な損害を引き起こす、または引き起こす可能性がある場合、それは不公平です。

生成型 AI ツールの新しい波に関しては、企業は人々の信念、感情、行動に影響を与えることができる方法でツールを使用し始めています。このような用途は急速に拡大しており、情報、アドバイス、サポート、仲間関係を提供するために設計されたチャットボットも含まれています。これらのチャットボットの多くは、説得するために効果的に構築されており、たとえ答えが架空のものであっても、自信を持った言葉で質問に答えるように設計されています。これらのツールの出力を信頼する傾向は、部分的には「自動化バイアス」からもたらされており、人々は中立または公平に見える機械からの回答を過度に信頼する可能性があります。これは擬人化の効果からも来ており、たとえば人称代名詞や絵文字を使用するように設計されている場合、人々はチャットボットをより信頼するようになる可能性があります。人は、自分のことを理解し、味方になってくれる誰かと会話していると思い込んでしまいがちです。

多くの商業関係者は、これらの生成 AI ツールと、得られなかった人間の信頼を活用するというツールに組み込まれた利点に興味を持っています。それらの悪意のある使用に関する懸念は、FTC の管轄範囲をはるかに超えています。しかし、FTCの主な懸念は、企業が意図的か否かにかかわらず、財政、健康、教育、住宅、雇用などの分野で人々を不当または欺瞞的に有害な決定に誘導する方法でこれらを利用していることである。 特定の人物やグループ向けに広告をカスタマイズするなど、生成型 AI の新しい用途を検討している企業は、人々をだまして有害な選択をさせるデザイン要素が、FTC の訴訟でよく見られる要素であることを知っておく必要があります。 金銭的なオファーゲーム内購入、 そして サービスをキャンセルしようとする 操作は、意図した目的に反する行動を人々にとらせる場合、欺瞞的または不当な行為となる可能性があります。 FTC 法の下では、すべての顧客が被害を受けるわけではない場合や、被害を受けた顧客が差別禁止法によって保護される層に含まれない場合でも、行為は違法となる可能性があります。

マーケティング担当者がこれらの新しいツールとその操作能力を活用できるもう 1 つの方法は、広告を掲載することです。 内で 検索結果に広告を掲載できるのと同じ、生成 AI 機能です。 FTC は、欺瞞や不公平を避けるために、検索結果やその他の場所でのオンライン広告の表示について繰り返し調査し、指導を行ってきました。これには、関連する最近の作品が含まれます。 暗いパターン そして ネイティブ広告とりわけ、広告が広告であることを常に明確にする必要があり、検索結果や生成される AI 出力では、オーガニックなものと有料のものを明確に区別する必要があります。 AI 製品の応答が特定の Web サイト、サービス プロバイダー、または製品に誘導されているかどうかを人々は知る必要があります。 商業関係のため。そして確かに、人々は自分が通信しているのが生身の人間なのか、それとも機械なのかを知る必要があります。

新しい AI ツールの使用に関するこうした多くの懸念を考慮すると、AI ツールを構築または導入している企業にとって、AI とエンジニアリングの倫理と責任に専念する人材を解任または解雇するのに最適な時期ではないかもしれません。 FTC から電話があり、リスクを適切に評価し被害を軽減したことを私たちに納得させたい場合、これらの削減は見栄えが良くない可能性があります。何がより良く見えるでしょうか?以前のブログ投稿などでガイダンスを提供しました。 リスクの評価と軽減では、とりわけ、予測可能な下流での使用と、スタッフと請負業者のトレーニングの必要性を考慮する必要があり、最終的に導入されるツールの実際の使用と影響を監視して対処する必要があります。

まだ明らかにしていないのですが、FTC スタッフは、消費者に実際の実質的な影響を与える可能性のある方法で、新しい生成 AI ツールを含む AI テクノロジーを企業がどのように使用するかを選択する可能性があることに重点を置いています。そして、チャットボットやその他の AI が生成したコンテンツを操作する人々は、1999 年のプリンスの次の警告に留意してください。コンピューターに自分を利用させないでください。」

FTC にはさらに多くの投稿があります AI とあなたのビジネス シリーズ:

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください