解説:生成AIのハルシネーションはなぜ起きるのか
ARANK

大規模言語モデルが「ハルシネーション(幻覚)」を生成することはよく知られている。ただ、その仕組みから明らかのように、LLMの出力は本質的にはすべてハルシネーションであり、間違いが発覚したものがそう呼ばれているだけだ。

technologyreview.jp
Related Topics: AI