开源版GPT-4代码解释器,可安装任意Python库,本地终端运行

添加书签

专注AIGC领域的专业社区,关注OpenAI、百度文心一言等大语言模型(LLM)的发展和应用落地,关注LLM的基准评测和市场研究,欢迎关注!

克雷西 发自 凹非寺
量子位 公众号 | QbitAI

ChatGPT的代码解释器,用自己的电脑也能运行了。

刚刚有位大神在GitHub上发布了本地版的代码解释器,很快就凭借3k+星标并登顶GitHub热榜

不仅GPT-4本来有的功能它都有,关键是还可以联网

开源地址:https://github.com/KillianLucas/open-interpreter

ChatGPT“断网”的消息传出后引起了一片哗然,而且一关就是几个月。

这几个月间联网功能一直杳无音讯,现在可算是有解决的办法了。

由于代码是在本地运行,所以除了联网之外,它还解决了网页版的很多其他问题:

  • 3小时只能发50条消息

  • 支持的Python模块数量有限

  • 处理文件大小有限制,不能超过100MB

  • 关闭会话窗口之后,此前生成的文件会被删除

如果没有API,还可以把模型换成开源的Code LLaMa。

这个代码解释器推出之后,很快有网友表示期待一波网页版:

那么我们就来看看这个本地代码解释器到底怎么样吧!

让GPT“重新联网”

既然调用了GPT-4的API,那GPT-4支持的功能自然都能用,当然也支持中文。

关于GPT本身的功能这里就不再一一详细展示了。

不过值得一提的是,有了代码解释器之后,GPT的数学水平提升了好几个档次。

所以这里我们用一个高难度的求导问题来考验一下它,题目是f(x)=√(x+√(x+√x))。

Emmm……这个结果有些抽象,不过应该是提示词的问题,我们修改一下:

然后我们就看到了这样的结果:

这个式子和标准答案长得不太一样,不过是不是格式的问题呢?我们验证了一下:

结果是正确的!

接下来就要进入重头戏了,来看看这个代码解释器的联网功能到底是不是噱头:

比如我们想看一下最近有什么新闻。

程序会首先检查有没有安装必备的模块,如果没有的话会自动安装,然后就开始拉取网页了。

不得不说把整个网页都读取一遍,如果不是在本地运行,看着屏幕上滚动的代码,的确是有些肝儿颤……

然后程序会分析出新闻标题存储在了网友中的什么字段,并进行提取。

好在经历了一番折腾,我们最终得到了想要的结果:

除了让它自行搜索,也可以给出具体的网页让它来分析:

又一次的疯狂加载之后,代码解释器成功复现出了它的自我介绍。

那出了复刻了ChatGPT的联网版本,有没有什么更高级的功能呢?

当然有!比如我们想调整一项系统设置,但不知道怎么操作。

如果用网页版,我们大概率会看到一长串的文字说明,但现在直接交给代码解释器就可以了。

不是给出一大段不知所云的教程,而是自动运行代码,直接一步到位。

除了让GPT-4生成代码,一些代码仓库中的工具,也能通过它来调用。

比如想给一段视频添加字幕,那么就可以调用replicate上现成的语音识别模块。

由于手边没有现成的素材,这里就展示一下开发者给出的DEMO:

代码运行的过程是在本地进行的,所以不用担心视频大小超限。

总之,运行好之后,我们就可以看到字幕出现在视频下方了:

同样,利用这一特性还可以生成、修改文档或图片,或者调用ControlNet由一张静态图生成动画……

理论上,只要性能足够,Python能干的所有事情,它都能完成。

那么,怎么才能体验到这个本地代码解释器呢?

安装方法

作者在GitHub项目页(链接见文末)贴出了一份Colab笔记,有条件的网友可以直接进去体验。

在本地安装也非常简单(前提是安装好了Python),只需要一行“pip install open-interpreter”的代码就能搞定。

安装好后,在终端中输入“interpreter”就能直接启动。

这时程序会要求输入GPT-4的API,如果只有3.5的话,启动时要用“interpreter –fast”。

如果3.5也没有的话,可以直接在这步按回车,或者启动时直接输入“interpreter –local”,切换成Code-LLaMA。

其中包括7B、13B和34B三个版本,规模越小速度越快,越大结果越精确。

如果没有安装Code-LLaMA,按照程序的指示操作就能自动装好。

此外,默认情况下,代码生成之后需要确认才会运行,如果不想每次都确认,可以在启动时在命令后面加上“空格-y”。

常用的命令就介绍到这里了,如果想知道更高级的玩法可以参考作者的Colab笔记。

喜欢的话就赶快体验一下吧!

本文来源量子位,如有侵权请联系删除

END