命令行下的LLM

参考这篇文章,q 我该给这篇文章起什么标题? ,了解到有一个llm的工具, 命令行上的语言模型 , 安装后,可以在命令行下调用LLM。

比如本地网络中有一个ollama的服务,可以通过openai的接口来访问,配置文件目录, dirname "$(llm logs path)", 创建一个extra-openai-models.yaml文件:

- model_id: qwen2.5-coder
  aliases: ["qwen"]
  model_name: qwen2.5-coder:latest
  api_base: "http://XXXXX/v1"

使用:

ifconfig | llm -m qwen '解释下这个信息'
cat x.md| llm -m qwen --system '你是一个专业的中文图书编辑,请你给出这篇文章的校对建议'

# 定义一个函数
q(){ llm -s "Use a brief style with short replies." -m qwen "$*" }

q docker 和podman的区别是什么?

cat content/posts/2024/llm-tips.md | q '根据内容帮我起一个合适的博客文章标题'
# output: "本地LLM命令行工具揭秘:更高效的工作方式"

Links: