GoogleのAIを搭載した検索結果にうんざりしている場合、悪い情報源からの貧弱な情報に迷い込んでいる場合、いくつかの良いニュースがあります。検索クエリにexpletivesを含めると、Googleは結果ページの上部でAIの概要を返さないことがわかります。
たとえば、「イェール大学の学生団体の大きさはどれくらいですか?」検索結果ページは、青いリンクの上に大きなAIに生成された宣伝文字を返します。代わりに、「イェール大学のクソ学生団体はどれくらい大きいですか?」代わりに、青いリンクの結果、sans-aiの概要の標準リストを取得します。
これは、インターネットの探偵がGoogleのAIを搭載した結果を無効にする方法を発見したのはこれが初めてではありません。ただし、他の方法は、検索結果ページURLに特定の文字列を追加するなど、より複雑です。 Googleで「クソリンクを与えてください」と誓い、嘆願するこの方法は、はるかにカタルシスです。
私たちはここで手足に出て、Google検索でAIの要約を無効にするテクニックを定期的に見つけている場合、おそらくそもそも彼らが望まないことを意味すると言うでしょうか?もちろん、Googleの検索結果は完璧ではありませんでした。ウェブ上には、まだ多くの貧弱な情報があります。しかし、AIの要約は、ユーザーが検索の一番上に顕著な宣伝文句を提示します。これは、より誤った情報の問題をより誤ったスロップで悪化させるリスクがあるだけで権威あるように見える。
SiriがChatGptとの統合により悪化したのと同じです。少なくとも過去には、音声アシスタントが質問に答える方法を知らなかったとき、それはユーザーをWebに投げるだけです。 Siriは、代わりに、ChatGptで生成された応答を時々提供します 間違ったナンセンスを吐き出します それを認める代わりに、それはわかりません。しかし、これはすべてユーザーが好むかどうかにかかわらず、ユーザーに強制されています。 Google DocsからXやInstagramまで、すべてのハイテク企業にAI戦略が必要なため、AIボタンと検索ボックスとドロップダウンが現在あります。基本的なキーワード検索は尋ねるには多すぎますか?
Googleが最初にAIの概要を検索に導入したとき、それは無意味な反応を返すために広まりました。たとえば、接着剤を使用してチーズがピザを滑らないようにしたり、小石を食べて腸の健康を改善したりするのを防ぐことができることを示唆しています。 GoogleのモデルがRedditコメントから情報を調達したと考えられています。 AIは、皮肉や風刺を識別する方法を知りません。
Ars Technica 以前 報告されています 新しい抜け穴については、私たちが推測している場合、GoogleのAIモデルの過度に慎重なステアリングによって引き起こされます。 XaiのGrokのようなボットは、繊細なトピックを誓い、議論することを喜んでいますが、GoogleのGeminiはPGを維持しています。 Googleは、expletivesを繰り返すことを避けるためにGeminiを訓練した可能性が高いため、それを避けるために呪いの言葉が存在するとき、それは単に無効にされています。
Googleは、AIの概要が呼ばれるように、ユーザーが概要を表示し、興味のあるものを見つけた後にソース資料をより深く掘り下げることに興味があるため、ウェブサイトに送信されるトラフィックを減らしないでください。その論理は、コンテンツを大規模な言語モデルに摂取するためのOpenaiや困惑のようなものを訴訟してきたメディア企業を慰めていません。
Googleは最終的にはlet辞の抜け穴を閉じると想像しますが、その間に、AIにうんざりしている場合は、それを避ける簡単な方法を知っています。 Googleに伝えて、クソリンクを提供してください。