Open Interpreter(开放解释器)是一款能够让大语言模型(LLMs)在本地执行多种语言代码,如 Python、JavaScript、Shell 等的工具。用户只需在终端中运行
$ interpreter
命令,即可通过类似 ChatGPT 的界面与 Open Interpreter 进行交互。
Open Interpreter 支持创建和编辑照片、视频、PDF 等,控制 Chrome 浏览器进行搜索,以及绘制、清理和分析大型数据集等通用功能。
与 ChatGPT 的代码解释器比较
OpenAI 发布的 Code Interpreter
和 GPT-4 提供了一个与 ChatGPT 完成实际任务的绝佳机会。
但是,OpenAI 的服务是托管的,闭源的,并且受到严格限制:
-
无法访问互联网。 -
预装软件包数量有限。 -
允许的最大上传为 100 MB,且最大运行时间限制为 120.0 秒 -
当运行环境中途结束时,之前的状态会被清除(包括任何生成的文件或链接)。
Open Interpreter(开放解释器)通过在本地环境中运行克服了这些限制。它可以完全访问互联网,不受运行时间或是文件大小的限制,也可以使用任何软件包或库。
它将 GPT-4 代码解释器的强大功能与本地开发环境的灵活性相结合。
交互演示
快速开始
pip install open-interpreter
交互式聊天
要在终端中开始交互式聊天,从命令行运行 interpreter
:
interpreter
或者从.py
文件中运行 interpreter.chat()
:
interpreter.chat()
开始新的聊天
在 Python 中,Open Interpreter 会记录历史对话。如果你想从头开始,可以进行重置:
interpreter.reset()
保存和恢复聊天
当 return_messages=True
时,interpreter.chat()
会返回一个信息列表,可以用interpreter.load(messages)
来恢复之前的对话:
messages = interpreter.chat("My name is Killian.", return_messages=True) # 保存消息到 'messages'
interpreter.reset() # 重置解释器 ("Killian" 将被遗忘)
interpreter.load(messages) # 从 'messages' 恢复聊天 ("Killian" 将被记住)
自定义系统消息
你可以检查和配置 Open Interpreter 的系统信息,以扩展其功能、修改权限或赋予其更多上下文。
interpreter.system_message += """
使用 -y 运行 shell 命令,这样用户就不必确认它们。
"""
print(interpreter.system_message)
更改模型
在 gpt-3.5-turbo
下,使用快速模式:
interpreter --fast
在 Python 环境下,需要手动设置模型:
interpreter.model = "gpt-3.5-turbo"
在本地运行 Open Interpreter
ⓘ 本地运行遇到问题?请阅读我们最新的 GPU 设置指南和 Windows 设置指南。
你可以从命令行以本地模式运行 interpreter
来使用 Code Llama
:
interpreter --local
或使用其 HuggingFace 的 repo ID(如 “tiiuae/falcon-180B
“)来本地运行任何 HuggingFace 模型:
interpreter --model tiiuae/falcon-180B
传送门
开源地址:https://github.com/KillianLucas/open-interpreter
开源协议:MIT
-END-
原文始发于微信公众号(开源技术专栏):最强代码解释器!无需联网,本地即可完成代码生成、图像操作、数据分析操作!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/166557.html