[レベル: 初級]
LLM が生成した情報を無条件に信じてはいけない
生成 AI の利用に関して、2 人の Google 社員が別々の場所でこのように注意喚起しました。
LLM は間違ったデータで学習していることもある
注意喚起した 2 人のGoogle 社員のうち 1 人は、John Mueller(ジョン・ミューラー)氏です。
Gemini などの 生成 AI から得た SEO 情報についての質問に対してミューラー氏は次のように補足しました。
Aside – please don’t use LLMs for SEO advice. They learn from all the bad SEO information out there.
ちなみに、SEO のアドバイスを求めるときに LLM を使わないでほしい。LLM は、ネット上にある間違った SEO 情報からも学習している。
もう 1 人は Gary Illyes(ゲイリー・イリース)氏です。
LinkedIn でこのように投稿しました。
メールボックスに届いた質問にここで回答する。
LLM は、学習データに基づいて、プロンプトの文脈や意味に最も適した単語、フレーズ、文章を見つけ出す。
これにより、関連性が高く一貫性のある応答を生成できる。しかし、必ずしも事実に基づいた正確な回答とは限らない。LLM のユーザーであるあなたは、尋ねたトピックに関する自身の知識や、信頼できる情報源での追加調査に基づいて、回答の妥当性を確認する必要がある。
確かに、グラウンディング(事実に基づいた情報の組み込み)は、より正確な回答の生成に役立つが、完璧ではない。あなた自身の判断力に取って代わるものではない。意図的なものも意図的でないものも含めインターネットには誤った情報が溢れている。オンラインで目にする情報をすべて信じないのと同様に、LLM の回答も無条件に信じるべきではない。
皮肉なことに、この投稿もオンライン上にあり、僕自身が LLM だという可能性もある。結局のところ、判断はあなた次第だ。
LLM に事実を尋ねるな
特に、事実を問う質問に対しては LLM は不向きです。
イリース氏が指摘するように、ごく単純化して言えば、LLMは、適切だと考える言葉を繋げているにすぎません(確率的に、この言葉の後にはこの言葉が続く可能性が高いと大規模なデータから学習している)。
生成したテキストが事実に基づくかどうかは関係ありません(事実であることを高めるための技術が Grounding)。
こうした仕組みを、生成 AI を上手に活用している人は注意しているはずです。
それでも、多くの人は検索エンジン代わりに LLM を使ってしまうのです。
SEO に限らずに、事実を求める課題に LLM を利用するべきではないのです。
LLM が生成した回答が事実に基づくかどうかをユーザーが判断する手がかりとして、AI Overview や Gemini は関連コンテンツへのリンクを提供するようになりました。
OpenAI が先日発表した SearchGPT もソースを提供するとのことでした。
とにもかくにも、LLM を基盤とした生成 AI の回答を無条件で信じないようにしましょう。
#SEO #LLM #大規模言語モデル #生成AI #ハルシネーション