
LLM x Slack x Notion で論文インプットを効率化し、社内ナレッジ蓄積もできるようにした話
ARANK
はじめに株式会社 neoAI の大坂洋豊です。東京大学に在学中で、松尾・岩澤研究室に所属しています。AI ソリューション事業部として、プロジェクトマネジメントを行いながら、研究開発組織 neoAI Research として先端技術の実践に取り組んでいます。今回は、弊社の Slack 上で論文のインプットを効率化するために開発した LLM Bot についてご紹介します。開発したのは2023年で、当時は NotebookLM のようなサービスがまだ存在しなかったため、社内では論文の概要をスピーディーに把握できる点で重宝されていました。また、その要約結果を社内のデータベースに蓄積できるという機能もあるため、弊社のナレッジ基盤を支えている存在でもあります。!この記事の内容は今流行りの MCP(Model Context Protocol)とは関係ありません🙇♂️AI ソリューション事業部についてはこちらを参照ください。 ソリューション事業部では、常に最新の技術動向や研究成果を追いつつも、クライアントに対して適切なソリューションを提供する必要があります。論文は、技術の根幹を成す知識や学術的な裏付けを持っているため、情報源として非常に重要です。しかし、実際に論文を読み込むにはさ…