AIは「本当のこと」を話していない?Anthropicが示す衝撃の研究結果、推論モデルの信頼性に警鐘
BRANK

生成AI市場で注目される「推論モデル」とは推論モデルに潜む課題推論モデルが見せる「不正直さ」の正体推論モデルの信頼性問題、改善の方策とは生成AI市場で注目される「推論モデル」とは生成AI市場は、「推論モデル」の登場で大きく様変わりした。推論モデルとは、OpenAIのo3やo4、AnthropicのClaude 3.7 Sonnet、またDeepSeekのR1などのモデルのことを指す。推論モデルと一般的な大規模言語モデル(LLM)の大きな違いは、回答を生成するプロセスにある。一般的なLLMが直接的に回答を出力するのに対し、推論モデルは内部で長い思考の連鎖(Chain of Thought)を生成してから回答を行う。これは、熟練した社員が複雑な問題に取り組む際のプロセスに近い。与えられた目標に対して、自身で詳細を検討しながら解決策を導き出すというプロセスだ。一方、GPT‐3.5やGPT-4などの従来型のLLMは、新人社員のように具体的な指示が必要となる。より正確な出力を得るためには、詳細な指示を与える必要があるのだ。そのため、プロンプトエンジニアリングの精度により、出力の精度が大きく変動した。この違いは、特に複雑な問題解決やコーディング、科学的推論、多段階の計画立案といった…

ampmedia.jp
Related Topics: AI