[レベル: 上級]
ChatGPT や Bard など LLM を用いた AI ツールの SEO 利用について Google の Gary Illyes(ゲイリー・イリース)氏は注意喚起しました。
誤った SEO を LLM は提案する危険性がある
ゲイリーは LinkedIn で次のようなメッセージを投稿しました。
受信箱から重要なお知らせ:非常に感動させる要素が LLM にはあるが、あなたのウェブサイトについて何の知識もない。潜在的な問題を診断するために使用してはいけない。
また、LLM はハルシネーションを起こす。適切な方法で操作すると、単語の順序の予測が正しいため、現実から完全に切り離された情報を提供する。
- 一般的に事実に基づいた情報を LLM は提供できるか?——はい!
- 現実とは関係のない情報を LLM は提供しうるか?——これも、はい!
LLM を自己責任で使用し、出力から受け入れるものを慎重に選択しなさい。さもなければ、非常に失望することになる。
知識がある人による公開前のレビュー必須
ゲイリーは、基本的に LLM の利用に否定的です(ちなみに JS も嫌い)。
先日開催された Search Central Live Tokyo 2023 で日本に来たときに AI についてゲイリーとあれこれ話したところ、SEO 利用だけでなく検索に組み込んだり(≒SGE)やアシスタントとして使用(≒Bard)したりすることにも良い印象を持っていませんでした。
LLM をゲイリーが毛嫌いする最も大きな理由は、間違った情報を LLM が提供する現象、いわゆる Hallucinations(ハルシネーション)を現状では回避できないからです。
コンテンツのアイディア出しや、記事タイトル・見出しの生成くらいなら問題が起きる可能性は低いでしょう。
一方で、記事をゼロから書かせるのは危険です。
一般的には、LLM は事実に基づいて記事を生成するわけではありません。
雑に言えば、可能性が高い順番で単語を繋げて文章を作り上げているだけです。
記事の作成はもちろんのこととして、記事の校正に関しても公開前には正しい情報だけが含まれているかどうかをチェックする人間のレビューが必須です。
Search Central Live でもゲイリーは繰り返し強調していました。
さらに付け加えると、その記事のトピックについてたしかな前提知識がある人にレビューさせなければなりません。
事実であるかどうかの判別ができないからです。
記事作成ツールを含めて、AI 技術を用いた SEO ツールが出回るようになりました。
上手に使えば効率化に役立ちますが、ファクトチェックだけは怠らないように気をつけてください。
丸投げしてはいけません。