LLMが生成したSEO情報を鵜呑みにしてはいけない——2人のGoogle社員が警告

[レベル: 初級]

LLM が生成した情報を無条件に信じてはいけない

生成 AI の利用に関して、2 人の Google 社員が別々の場所でこのように注意喚起しました。

LLM は間違ったデータで学習していることもある

注意喚起した 2 人のGoogle 社員のうち 1 人は、John Mueller(ジョン・ミューラー)氏です。

Gemini などの 生成 AI から得た SEO 情報についての質問に対してミューラー氏は次のように補足しました。

Aside – please don’t use LLMs for SEO advice. They learn from all the bad SEO information out there.

ちなみに、SEO のアドバイスを求めるときに LLM を使わないでほしい。LLM は、ネット上にある間違った SEO 情報からも学習している。

もう 1 人は Gary Illyes(ゲイリー・イリース)氏です。
LinkedIn でこのように投稿しました。

メールボックスに届いた質問にここで回答する。

LLM は、学習データに基づいて、プロンプトの文脈や意味に最も適した単語、フレーズ、文章を見つけ出す。

これにより、関連性が高く一貫性のある応答を生成できる。しかし、必ずしも事実に基づいた正確な回答とは限らない。LLM のユーザーであるあなたは、尋ねたトピックに関する自身の知識や、信頼できる情報源での追加調査に基づいて、回答の妥当性を確認する必要がある。

確かに、グラウンディング(事実に基づいた情報の組み込み)は、より正確な回答の生成に役立つが、完璧ではない。あなた自身の判断力に取って代わるものではない。意図的なものも意図的でないものも含めインターネットには誤った情報が溢れている。オンラインで目にする情報をすべて信じないのと同様に、LLM の回答も無条件に信じるべきではない。

皮肉なことに、この投稿もオンライン上にあり、僕自身が LLM だという可能性もある。結局のところ、判断はあなた次第だ。

LLM に事実を尋ねるな

特に、事実を問う質問に対しては LLM は不向きです。

イリース氏が指摘するように、ごく単純化して言えば、LLMは、適切だと考える言葉を繋げているにすぎません(確率的に、この言葉の後にはこの言葉が続く可能性が高いと大規模なデータから学習している)。
生成したテキストが事実に基づくかどうかは関係ありません(事実であることを高めるための技術が Grounding)。

こうした仕組みを、生成 AI を上手に活用している人は注意しているはずです。
それでも、多くの人は検索エンジン代わりに LLM を使ってしまうのです。

SEO に限らずに、事実を求める課題に LLM を利用するべきではないのです。

LLM が生成した回答が事実に基づくかどうかをユーザーが判断する手がかりとして、AI OverviewGemini は関連コンテンツへのリンクを提供するようになりました。
OpenAI が先日発表した SearchGPT もソースを提供するとのことでした。

とにもかくにも、LLM を基盤とした生成 AI の回答を無条件で信じないようにしましょう。

#SEO #LLM #大規模言語モデル #生成AI #ハルシネーション