新闻中心

NAS原来这么有用 篇二百二十三:一夜爆火的Kimi到底好用吗?用NAS部署kimi-free-api实际体验下

作者:熊猫不是原有用夜爆用N验下猫 QAQ

这几天被各种kimi的文章刷屏,于是篇百便去了解了一下 kimi 到底是什么。总的火的好用来说就是一个国产的智能大模型,拥有超大 " 内存 " 可以一口气读完二十万字的到底小说,同时它还具备联网搜索功能,部署可以根据你发的际体内容网上搜索答案并总结。几天时间官方服务器就被大量的原有用夜爆用N验下用户使用给整宕机了,这样的篇百热度作为一个关注科技发展的博主,自然也是火的好用要追一追的。

使用体验

首先说明,到底kimi 官方并没有公开提供 api 服务,部署目前还是际体需要注册使用,但网上已经有项目可以获取到 API 了。原有用夜爆用N验下这里我通过搭建kimi-free-api获取 API 以及接口,篇百再将接口和模型接入到之前部署的火的好用 Chat Nio 项目中,从而实现自部署 kimi 的作用。

对话展示

根据对话展示可以看到,kimi 拥有理解并回答各种问题、阅读和分析文件能力、解析网页内容能力、搜索信息能力以及中英文双语对话能力。

对话能力

智能助手的能力我就不多展示了,其实 kimi 最重要的就是可以根据文件和网址来分析总结内容,也能根据你的问题来给到一些合理性的建议,虽说建议都比较理想化,但好在回答都不会抽风,不会出现答非所问或者很奇怪的回答。

再展示一下自己部署过程

部署设备为极空间的 Z423,毕竟我这里老设备的内存已经占用过高了,而 Z423 的出厂既有 32G,如此大的内存不用来折腾点东西岂不是浪费性能?后续能用极空间部署的,都会优先考虑 Z423 了,也算是充分发挥设备性能优势。

32G 大内存

直接打开 Docker 仓库界面搜索:kimi-free-api下载镜像,镜像并不大,部署好也就 200 多 M。(需要注意的事,该项目目前仅用于自用)

镜像下载

下载之后我们直接创建容器,这里只需要将端口 8000 映射出去就可以了。

端口映射

由于项目只提供了接口,所以我们还需要自己去获取 key。登录 kimi 的官网,注册登录账号之后随便发起一段对话。

kimi 官网

随后按 F12 打开浏览器的开发人员功能,这里我使用的为 Edge 浏览器,所以点击应用程序 - 本地会话功能,找到refresh_token这一项,将其中的值记录下来,这就是稍后需要使用到的 key。如果你是谷歌或其他浏览器,开发选项为英文界面,那么就在Application > Local Storage中去找。

key

目前 kimi 限制普通账号每 3 小时内只能进行 30 轮长文本的问答,你可以通过提供多个账号的 refresh_token 来解决。

Chat Nio

接下来就是接入自部署的各种 webGPT 服务了,kimi 目前是兼容 openai 的,所以基本上大部分 GPT 的 web 项目都可以接入 kimi。这里我采用的事 Chat Nio,该项目具备多模型以及自定义模型的功能,同时界面也做的很不错,详细的内容可以看看往期内容。

新建模型

不管是那个 web 项目,我们只需要在接入网址中填入我们刚刚部署的 kimi 接口地址即可,例如我这里极空间的 ip 为 192.168.101.15 端口为 8700,那么在接入地址中就填写 192.168.101.15:8700 即可。秘钥或者 key 就是刚刚我们通过浏览器获取的值,很长一串。

设置

此时我们再进行问答,便是使用的 kimi 的服务了。同时在极空间容器日志中也能看到对话的内容。

日志写在最后

kimi 能在短时间内获得如此的热度,还是有原因的。一个是免费试用吸引了很多人,再一个就是本身模型够大,同时响应速度极快,还具备很多扩展出的功能,几乎是国内用户的 GPT4.0 平替了,有需求的可以去官方使用。

以上便是本期的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞收藏,最后也希望能得到你的关注,咱们下期见!

三连

本文来自什么值得买网站(www.smzdm.com)

查看原文

上一篇:普京签署春季征兵令,预计将有15万人应征入伍 下一篇:风帆蓄电池6-QW-70适配君越君威CC迈腾途观帕萨特 汽车电瓶

Copyright © 2024 台州市建鑫软件开发教育中心 版权所有   网站地图