春节在家闲下来翻了很多AI开源项目,发现了几款比较好用的AI工具,整理出来和大家分享一下。Rawdog是一个命令行界面助手,它可通过生成和自动执行Python脚本来响应,是广大命令行使用者的一款利器。
演示视频:
你会惊讶于这个助手的用途有多广泛:
•“我的家目录中有多少个文件夹是git仓库?” ... “按磁盘大小排序它们。”•“给我这个目录下所有csv文件的pd.describe()输出”•“目前哪些端口是活跃的?” ... “哪些是Google的?” ... “请取消那些。”
Rawdog(递归增强与确定性输出生成)是RAG(检索增强生成)的一个新颖替代品。Rawdog可以通过运行脚本来自我选择上下文,将输出添加到对话中,然后再次调用自己。
这适用于如下任务:
•“按照README中的说明设置仓库”•“看看所有这些csv文件,告诉我它们是否可以合并,以及为什么。”•“再试一次。”
请小心进行。如果按照指令操作,这显然有可能造成伤害。
1.使用pip安装rawdog:
pip install rawdog-ai
2. 导出你的api密钥。参见模型选择[1]了解如何使用其他提供者:
export OPENAI_API_KEY=你的api密钥
3. 选择一个交互模式。
直接:执行单个提示并关闭
rawdog 显示当前工作目录中所有文件和目录的大小
对话:开始来回交流,直到你关闭。Rawdog可以看到它的脚本和输出。
rawdog
>>> 我能为你做些什么?(Ctrl-C退出)
>>> > |
•--dry-run
:打印并手动批准每个脚本再执行。
Rawdog使用litellm
进行完成,以'gpt-4'为默认。你可以通过修改~/.rawdog/config.yaml
调整模型或指向其他提供者。一些例子:
要使用gpt-3.5 turbo,最小配置为:
llm_model: gpt-3.5-turbo
要在本地使用ollama运行mixtral,最小配置是(假设你已经安装了ollama[2]并且有足够的GPU):
llm_custom_provider: ollama
llm_model: mixtral
要运行claude-2.1,请设置你的API密钥:
export ANTHROPIC_API_KEY=你的api密钥
然后设置你的配置:
llm_model: claude-2.1
如果你有一个在本地端点运行的模型(或者想出于某些其他原因更改baseurl),你可以设置llm_base_url
。例如,如果你有一个兼容openai的端点运行在http://localhost:8000[3],你可以将你的配置设置为:
llm_base_url: http://localhost:8000
llm_model: openai/model # 以便litellm知道它是一个兼容openai的端点
Litellm支持包括Azure、VertexAi和Huggingface在内的大量提供者。参见他们的文档[4]了解使用其他提供者需要使用哪些环境变量、模型名称和llm_custom_providers。
本文由山行翻译整理自:https://github.com/AbanteAI/rawdog, 如果对您有帮助,请帮忙点赞、关注、收藏,谢谢~
[1]
模型选择: https://github.com/AbanteAI/rawdog#model-selection
[2]
ollama: https://ollama.ai/
[3]
http://localhost:8000: http://localhost:8000/
[4]
他们的文档: https://docs.litellm.ai/docs/