ChatGPT、Anthopic の Claude、Google の Gemini などのアプリを強化する大規模言語モデル (LLM) が、優れた会話パートナーやアシスタントとなるためには、適切な回答の例を豊富に備えて人間によってトレーニングされる必要があります。
AI 企業はよく次のような手法を使用します。 ヒューマンフィードバックによる強化学習 (RLHF)では、人間が AI システムに対して適切な回答の例を提供したり、AI が提供した回答を評価して採点したりします。また、今日のチャットボットやエージェントのレベルで AI をトレーニングするには多くの人的労力が必要ですが、OpenAI や Anthropic などの大手 AI ラボの従業員数は通常比較的少数です。
AI が数学や科学の問題を解くなどの難解なスキルを学習できるよう支援できる専門専門家を見つけるなど、生成型 AI のトレーニングに必要な労働力を提供するために、AI モデルの開発と改良を目指す AI 企業やその他の企業は、ますます専門企業に頼るようになっています。彼ら AI スケール。
Scale は約 7 年前にスタートし、当時は自動運転車が歩行者、道路標識、走行中に遭遇する可能性のあるその他の光景を認識できるようにするためのラベル付き画像データのパイプラインの構築など、生成前の AI 作業に焦点を当てていました。旅行します。
「私たちは、その時期に開発したいくつかの主要な技術、つまり現在の次世代 AI 革命の多くを実際に動かすことになったデータ パイプラインで知られるようになりました」と、Scale のフィールド CTO である Vijay Karunamurthy 氏は述べています。
派遣会社を超えて
そして約 3 年前、Scale は ChatGPT のようなシステムを改良するために RLHF 技術に関して OpenAI と協力し始めました。現在、Scale は、と呼ばれる大規模な AI トレーニング プラットフォームを運営しています。 外れ値アウトライアーのゼネラルマネージャー、シャオテ・ジュー氏は、およそ過去1年間に世界中の何万人ものフリーランス寄稿者に数億ドルを支払ったと述べている。 2 つ目の小規模な作業プラットフォームは、 リモートタスク も主に米国外のフリーランサーと協力して活動しており、依然として主にコンピューター ビジョンと自動運転車に焦点を当てています。
今すぐスケールする カウント OpenAI、Microsoft、Meta、Nvidia、Character.ai をはじめとする多数の企業がクライアントとして、 政府機関、そして会社の急成長 報告によると CEO 兼創設者の Alexandr Wang は 27 歳までに億万長者になりました。そして Outlier は定期的に 何百もの役割を宣伝します ノルウェー語からペルシャ語までの言語と、コーディング、音楽、核物理学、哲学、「自助」、法律などのリベラルアーツカリキュラムに相当するスキルでAIを支援します。
「この種の仕事では、ドメインの専門家が非常に重要です」とカルナムルシー氏は言います。 「専門家のフィードバックだけでなく、文化を意識した言語固有のフィードバックも得られます。これらすべては、モデルを微調整するときに考慮すべき非常に重要なことです。」
しかし、Scale の業務の重要かつ必要な部分は、これらの労働者を管理すること、そして顧客が彼らに働くことを期待する最も難解な分野についても AI システムに教える経験を持つ人材を見つけることですが、同社は単なる専門の派遣会社ではありません。 Scale は AI 企業と協力して、自社のモデルの最新バージョンを継続的にテストしています。多くの場合、モデルは数十億ドルの強力な GPU アレイ上で 24 時間体制でトレーニングおよび微調整されており、実際に何が変更されたかについて専門家による詳細なフィードバックが提供されます。
「特定のトピックに関してモデルの考え方が変わったというフィードバックを受け取るたびに、私たちは戻ってそのモデルをさらに詳しく調査し、内部で実際に何が変わったのかを確認します」とカルナムルシー氏は言います。 「これはモデルに加えられた本当に堅牢で永続的な変更のようなものですか、それとももう少し浅いものですか?」
Scale の専門家は、特定の問題を解決する方法に関する詳細なガイダンスを AI に提供したり、AI が監査の対象となる可能性がある一部のアプリケーションで必要となる、モデルが自身の作業を確実に説明できるように支援したりできます。会社 独自のベンチマークのセットも開発しました、一般的な方法論は公開されていますが、詳細は秘密にされているため、AI開発者(またはAI自体)は単にテストのために勉強することができません。さまざまな分野でのパフォーマンスを測定します。一部のテストでは、モデルが複数の言語で適切に動作することを検証します。これは、さまざまな言語で質問される可能性があるヘルスケアなどの分野で導入されているモデルにとって重要であり、ユーザーが AI を操作して破壊しようとした場合でも AI が適切に動作することを確認します。彼ら独自のルールがある、とカルナムルシー氏は言う。
Scale は、AI を使用する企業だけでなく、公共利用のためのシステムを構築する企業とも協力しています。会社 クライアントの評価に役立ちます 最高の AI、データ設定、その他のパラメーターは、企業顧客の支援をスケールに依頼する大手 AI ラボから提供されることもあります。 Scale は、企業が自社のデータセンター内で独自の情報 (保険金請求データや金融取引など) に使用するオープンソース モデルを微調整するのにも役立ちます。たとえば7月には、 会社が発表した 企業が Meta の Llama オープンソース AI モデルのバージョンを「カスタマイズ、評価、導入」できるよう支援する Meta との提携であり、11 月 19 日には企業を支援するために同様の契約を発表しました。 中心に構築する Microsoft の Azure AI システム。
「私たちはこれらのモデルを一連のデータに合わせて微調整しますが、モデルの重み付けは安全に保ち、モデルのトレーニングに使用された情報が自社の従業員であっても漏洩しないようにしています」と Karunamurthy 氏は言います。 「そして、それは非常に強力なパラダイムであることが判明しました。」
Scale が外部請負業者と協力して AI をトレーニングする場合、当然のことながら、機密性を維持するための措置も講じます。その 報告された 同社は大手テクノロジー企業を指すコードネームを使用しているため、フリーランサーは自分が誰の AI をトレーニングしているのかを知らないことがよくあります。そして、スケールは時々、 苦情を見た 割り当てや料金は予測できない場合があるため、労働者は自分で時間を選択できますが、どれだけの仕事が利用可能になるかは事前には分からない可能性があります。従業員の中には、支払いに問題がある場合でも管理者と連絡を取るのが難しい場合があると不満を漏らす人もいる。他の企業 急速に成長している分野 同様の苦情に直面したことがあります。
「専門知識を活用できるようになる」
11 月 1 日、朱氏はアウトライアーのゼネラルマネージャーとしての役割を正式に引き受けると、次の文書を発表しました。 ブログ投稿 「アウトライアーの新時代」を宣言し、従業員のエクスペリエンスを向上させるための措置を講じ、クライアントと潜在的な貢献者をより良く結び付けるための新機能を追加していると発表した。
「これは、急速に成長しているプラットフォームではよくあることです。スケールアップを続けると、明らかにプラットフォームにはさらなる課題があり、それに投資し、改善し続ける必要があります」と Zhu 氏は語ります。 ファストカンパニー。
同社はまた、正当なユーザーをロックアウトすることなく、身元を偽ったり、ChatGPT などのボットを使用して人間を意図した応答を書いたりするなどの詐欺を防止するための措置を講じています。そして彼女はブログ投稿の中で、従業員サポートの問題を改善し、給与の透明性を高めるために同社が講じている措置を説明した。
「これには、アカウント管理に関する質問などの問題の迅速な解決や、詳細な収益タブやタスク中に表示される給与レートによる給与の透明性の向上が含まれます」と Zhu 氏はブログ投稿で述べています。 「支払いの遅延を減らすために、役立つツールチップを追加しました。また、刷新されたサポート システムにより、支払い関連の問い合わせの 90% が 3 日以内に解決され、よりスムーズで信頼性の高いエクスペリエンスが保証されます。」
Scale が専門の貢献者、時には博士号を持つ学者や国際的な数学コンテストの優勝者などの専門家を採用することも増えているため、AI システムが必要とする知識を備えた信頼できる労働者を採用し維持するには、迅速な支払いと良好な労働環境の提供が特に重要になる可能性があります。 。
「私がいつも説明するのは、私が生涯をかけて学んできた知識をあらゆる角度から少しずつ使い、それをさまざまで非常に創造的な方法で使っているということです」と、アウトライアーの寄稿者で、以前は仕事をしていたガブリエラ・サンダースは言う。小学校介入者として。
サンダースさんは現在、AI のトレーニングをほぼフルタイムで行っており、週に約 40 時間働いており、家族のスケジュールに合わせて時間を見つけて仕事をすることができる柔軟性を楽しんでいます。彼女は、AI モデルを使って作業した経験を、学生と協力し、主題の理解を助ける方法を見つけることに例えています。
「モデルが学習し、その知識に基づいて構築できるように、モデルにはさまざまなものが非常に具体的に、非常にカスタマイズされた方法で与えられる必要があります」と彼女は言います。
また、一部の Outlier 貢献者にとって、学習は双方向で行われ、従業員はテクノロジーの限界やトレーニング方法の詳細を理解することで、テクノロジーにさらに慣れていくと Zhu 氏は言います。
「彼らは自分たちが持っている専門知識、情熱、スキルを活用できるようになり、多くの場合、AI に対する彼らの見方が変わったのを私たちは見てきました」と Zhu 氏は言います。 「一部の人にとって、Outlier に入社する前は、AI がどのように機能するかをあまり理解していなかったために、AI は一種の恐ろしいものの 1 つだったのかもしれません。そして、プラットフォームの一部になると、モデルがどのように機能するかを理解し、モデルの制限やユースケースについてさらに理解したように感じ、見方が変わります。」