コマンドラインでLLMが使える「llm」を試す
BRANK

ドキュメントは豊富なのでいろいろ調べてみると良いと思う。とりあえずざっと見て回って気になったところだけピックアップ。 ストリーミング無効化デフォルトだとストリーミング有効になっているが、これを無効化する場合は--no-stream。$ llm --no-stream "明日の天気は?" 申し訳ありませんが、私はリアルタイムの情報を提供することができません。最新の天気情報は、天気予報のウェブサイトやアプリでご確認ください。どの地域の天気を知りたいか教えていただければ、一般的な気象パターンについてお話しすることはできますよ。 モデルのパラメータ-oでパラメータを付与できる。例えばtemperatureを1.5、max_tokensを10にする。$ llm -o temperature 1.5 -o max_tokens 100 "競馬の楽しみ方を教えて。" 競馬の楽しみ方はいくつかありますので、以下にいくつかのアイデアを紹介します。 ### 1. 馬の知識を深める - 想像連れた馬やジョッキーについて学ぶことで、競馬をより深く理解できます。血統、成績、過去のレースなどを調べ、好きな馬を見つけて応援する楽しみもあります。 ### 途中で切れているのがわかる。 会話のセッションを継続するllm chatで対話モードならば…

zenn.dev
Related Topics: AI