1月8日、BleepingComputerが「Google Search AI hallucinations push Google to hire "AI Answers Quality" engineers」と題した記事を公開した。この記事では、Googleが検索結果におけるAIのハルシネーション(もっともらしい嘘)対策として、回答の品質を専門に扱うエンジニアの採用を開始したことについて詳しく紹介されている。
以下に、その内容を紹介する。
Googleによる「AI Answers Quality」エンジニアの採用
Google検索における「AI Overviews(AIによる概要)」を含むAI機能は、時としてハルシネーションを引き起こし、架空の情報を生成したり、質問の仕方が異なると矛盾した回答を提示したりすることがある。
新たな求人情報によると、Googleは検索体験の再構築にあたり、AIの回答を検証し、その品質を向上させるためのエンジニアを募集している。Googleは求人の中で、「Google検索において、情報の検索が何を意味するのかを再構築している。そのためには、複雑なエンジニアリングの課題を解決し、インフラを拡張しながら、世界中の人々が信頼できる、普遍的にアクセス可能で有用な体験を維持する必要がある」と説明している。
職種名は「AI Answers Quality」であり、Google検索チームに加わるエンジニアは、特にAI Overviewsの回答品質を向上させる任務を負う。具体的には、検索結果ページ(SERP)やAIモードにおいて、ユーザーからの困難で複雑なクエリに対して適切なAI Overviewsを提供することが求められる。
現状の課題とハルシネーションの実例
Googleは直近のアップデートにより、AIモードやAI回答への誘導を強めている。DiscoverフィードにニュースのAI概要を追加したり、AIを用いてニュース記事の見出しを書き換えたりする試みも行われている。しかし、品質は過去に比べれば改善しているものの、依然として以下のような問題が指摘されている。
- 事実と異なる数値の生成: あるスタートアップ企業の評価額を検索した際、一度は400万ドルと回答し、別の表現で質問すると7,000万ドル以上と回答した事例がある。引用元とされたリンク先を確認しても、それらの数値は存在していなかった。
- 誤った医療情報の提供: The Guardianの報道によれば、AI Overviewsが誤解を招く、あるいは完全に誤った健康上のアドバイスを提供し、害を及ぼすリスクがあることが指摘されている。
- ユーザーの信頼への影響: 多くのユーザーはGoogleが表示する情報を信頼する傾向にあるため、精度の低さは大きな問題となる。
GoogleがAI Overviewsの改善が必要であることを間接的に認めた形となる今回の採用活動は、同社がAI検索への移行を加速させる中で、信頼性確保がいかに急務であるかを物語っている。
詳細はGoogle Search AI hallucinations push Google to hire "AI Answers Quality" engineersを参照していただきたい。