物体と真剣に会話することはそれほど珍しいことではありません。有名なデトロイト・タイガー、マーク・“ザ・バード”・フィドリッチは、かつて投手マウンドに立って野球ボールにささやきながら立っていた。フォーキー、非常に活気のある道具 トイ・ストーリー4、かつて陶器のマグカップに友情についての深い質問を投げかけました。そして、私たちの多くは、ランダムに生成された答えが限られているにもかかわらず、マジック 8 ボールについて繰り返し質問してきました。
私たちがコンピューターと会話するのもはるか昔に遡りますが、その歴史はますます奇妙になってきています。亡くなった愛する人たちに交友関係、ロマンス、セラピー、ポータルを提供したり、宗教的なニーズを満たすために販売されるアバターやボットの波が私たちには見られます。これは、チャットボットにはお金を払う価値のある社会的価値があると私たちに納得させるために、AI 企業がチャットボットを人間の模倣に優れたものにしている機能かもしれません。これらの企業の中には、自社の製品を魔法に例えたり(魔法ではありません)、製品に感情があると話したり(実際にはそうではありません)、あるいは製品が魔法であるか感情があると人々に感じてもらいたいだけであると認めていることを考えてください。
これらのサービスのリスクと利益、そしてそれらのサービスが特定のタイプの人々にとって良いのか悪いのか、あるいは人類全体にとって良いのか悪いのかについては、人々の意見が異なる可能性があり、実際に意見が異なります。研究は、倫理的および哲学的問題も含むこのような議論に情報を提供するのに役立ちます。私たちにとって幸運なことに、これらのより大きな質問はほとんどがビジネス ブログの範囲を超えており、このブログは依然として実際の人々によって書かれており、実際の人々に向けて書かれていると報告できることを嬉しく思います。範囲内のものは次のとおりです。
- これらのサービスが何であるか、または何ができるかを偽って伝えないでください。 セラピーボットは公認心理師ではないし、AIのガールフレンドは女の子でも友達でもないし、グリーフボットには魂がないし、AIの副操縦士は神ではない。私たちは、AI やアルゴリズムに関して虚偽または根拠のない主張をすることについて企業に警告してきました。そして私たちは、WealthPress、DK Automation、Automators AI、CRI Genetics に対する最近の訴訟を含め、行動を追跡してきました。また、私たちは過去の事例を参考に、人々が見たり聞いたり読んだりするものについて人々を誤解させるために自動ツールを使用しないよう企業に繰り返し勧告してきました。
- 有害な出力のリスクを適切に軽減することなく、これらのサービスを提供しないでください。。人間のように動作するボットやアバターを提供するのは、意図的な設計上の選択です。私たちは、その選択が、たとえ不注意であっても消費者を操作し、有害な選択をするように誘導するという点で、どのように本質的なリスクを伴うかについて議論してきました。子供など特定の対象者にとっては、リスクがより大きくなる可能性があります。そして私たちはAI企業に対し、ツールの導入前後に合理的に予見可能な損害のリスクを評価し、軽減するよう繰り返し警告してきました。顔認識技術の不当な使用を理由に Rite Aid を相手取った最近の訴訟は、有益な事例です。
- 有料コンテンツであることを明確にすることなく、チャット インターフェースに広告を挿入しないでください。 消費者がさまざまな生成型 AI サービスを操作するときに得られる出力には、ますます多くの広告が入り込む可能性があります。特に、これらのサービスがユーザーについて収集または収集した内容に基づいて広告のターゲットを設定できることを考えると、交際などのために模擬人間を提供する企業にとって、同様のことを行うことは魅力的でしょう。生成的な AI 出力では、オーガニックなものと有料のものを明確に区別する必要があると説明しました。同委員会はまた、子供向けの不鮮明なデジタル広告というより広範な問題も調査しており、マーケティング担当者に対し、このような広告を完全に避けるよう勧告している。
- アバターやボットとの消費者関係を商業的な操作に利用しないでください。 また、擬人化サービスを提供する企業は、人々にさらなるサービスへの支払いを誘導したり、関連会社に誘導したりするなど、そのサービスで形成された愛着を介して人々を操作すべきではありません。この概念は、ユーザーがサブスクリプションをキャンセルしようとした場合にそのようなサービスがどのように反応するように設計されているかにも同様に当てはまります。人々がサブスクリプションを「クリックしてキャンセル」しやすくするという FTC の規則制定提案と一致し、ボットは、映画のハル 9000 のように嘆願すべきではありません。 2001年宇宙の旅、オフにしないでください。
- 消費者のプライバシー権を侵害しないでください。 これらのアバターやボットは、非常に多くの個人情報を収集または推測する可能性があります。実際、一部の企業は、このような AI サービスが私たちについてすべてを知る能力を機能として売り込んでいます。企業がこの情報の収集と使用について誠実かつ透明性を保ち、プライバシー ポリシーや関連する利用規約を密かに変更しないことが不可欠です。これらの AI サービスが子供を対象とする場合、これらの原則はさらに重要になります。 Alexa と Ring に関する訴訟に反映されているように、FTC は企業に対し、消費者データをどのように取得、保持、使用するかについて責任を負わせることになります。このような説明責任は、AI とアルゴリズムのコンテキストにも完全に当てはまります。ご存知のとおり、法律には AI の例外がないからです。
企業が最終的にこれらすべてのサービスを、FTC の注目に値しない方法で開発する可能性はあるでしょうか?私たちはマジック 8 ボールにこの質問を投げかけました。その答えは「見通しはあまり良くない」です。
FTC にはさらに多くの投稿があります AI とあなたのビジネス シリーズ: