[レベル: 上級]
急速に発展する AI と研究利用に対して、検索エンジンによるコンテンツのクロールをパブリッシャーが制御するための新しい方法を模索するための公開ディスカッションを Google は立ち上げしました。
robots.txt は 30 年前に作られたウェブ標準
検索エンジンのクロールを制御するためのウェブ標準の技術といえば、robots.txt が真っ先に挙げられます。
しかしながら、robots.txt が制定されたのは 30 年も前です。
新たに発展した AI やそのほかの研究を想定していませんでした。
そこで、検索エンジンによるウェブコンテンツの使用をコントロールするための、robots.txt に置き換わる新しい手段を、ウェブ関係者と AI 関係者が協働して議論するディスカッショングループを Google は立ち上げました。
Google はつい先日プライバシーポリシーを改定し、次のような表現を加えました。
Google の AIモデルを訓練することと、Google翻訳やBard、Cloud AIなどの製品や機能を構築するために、公開情報を利用します。
検索エンジンサービスだけではなく、AI のトレーニングデータとしてもウェブのコンテンツを利用することを明確にしました。
こうした現状を、快く思わないコンテンツ発行者もいることでしょう。
ですが、Google によるコンテンツの AI 利用を防ぐための明確な手段は現状では存在しません。
AI によるコンテンツ利用を制御するための標準仕様を定めるために Google が動き始めたわけです。
幅広い声を集める
ディスカッショングループは、ウェブコンテンツ発行者から市民社会、学界のほか幅広い層からの意見を望んでいます。
今後数か月後に招集開始する予定です。
現在、参加者を受け付けています。
興味があれば、こちらのフォームから参加表明するといいでしょう。