前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >免费使用Kimi的API接口,kimi-free-api真香

免费使用Kimi的API接口,kimi-free-api真香

作者头像
修己xj
发布2024-04-15 16:11:31
7910
发布2024-04-15 16:11:31
举报
文章被收录于专栏:修己xj修己xj

今年,随着各大GLM模型的开源和算力的提升,尤其是最近比较火热的月之暗面的Kimi 模型,AI应用场景中的各种智能体如雨后春笋般涌现。许多同学们纷纷表达了加入AI应用的学习和测试的愿望,然而各大模型提供商所提供的API的免费tokens在数量和其他方面都存在着不同的限制,这给我们这些白嫖党带来了一定的不便。今天,在GitHub上,我发现了这个名为kimi-free-api的项目,它为我们学习和测试使用GLM模型提供了极大的便利。

项目介绍

支持高速流式输出、支持多轮对话、支持联网搜索、支持长文档解读、支持图像解析,零配置部署,多路token支持,自动清理会话痕迹。

与ChatGPT接口完全兼容。

github地址: https://github.com/LLM-Red-Team/kimi-free-api

虽然Kimi新用户注册后会免费赠送 15 元额度。如果赠送额度用完了,你还想继续免费体验,那么,这个开源项目一定要试试。以下几个大模型也是一样。

阶跃星辰 (跃问StepChat) 接口转API step-free-api:https://github.com/LLM-Red-Team/step-free-api

阿里通义 (Qwen) 接口转API qwen-free-api:https://github.com/LLM-Red-Team/qwen-free-api

ZhipuAI (智谱清言) 接口转API glm-free-api:https://github.com/LLM-Red-Team/glm-free-api

秘塔AI (metaso) 接口转API metaso-free-api:https://github.com/LLM-Red-Team/metaso-free-api

聆心智能 (Emohaa) 接口转API emohaa-free-api:https://github.com/LLM-Red-Team/emohaa-free-api

接入准备

  • 从 https://kimi.moonshot.cn 获取refresh_token

进入kimi随便发起一个对话,然后F12打开开发者工具,从Application > Local Storage中找到refresh_token的值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN

  • 多账号接入

目前kimi限制普通账号每3小时内只能进行30轮长文本的问答(短文本不限),你可以通过提供多个账号的refresh_token并使用,拼接提供:

Authorization: Bearer TOKEN1,TOKEN2,TOKEN3

每次请求服务会从中挑选一个。

Docker-compose部署服务

  • 创建docker-compose.yml文件

在部署目录下创建docker-compose.yml文件,写入以下内容:

代码语言:javascript
复制
version: '3.3'

services:
  kimi-free-api:
    container_name: kimi-free-api
    image: vinlic/kimi-free-api:latest
    restart: always
    ports:
      - "8000:8000"
    environment:
      - TZ=Asia/Shanghai
  • 启动服务

在docker-compose.yml文件的同级目录下使用以下命令启动服务

代码语言:javascript
复制
docker-compose up -d 

使用接口

  • 配置模型

我们此处是以dify为例使用的,使用其它开源服务也是可以的,比如chatgpt-next-web-proxy,lobe-chat等。

dify的设置-->模型供应商->模型列表中选择OpenAI-API-compatible->添加模型

添加如下内容:

内容填写完毕后点击保存,这样我们模型就配置完毕了

  • 测试api

模型配置完毕后我们在dify的工作室中创建一个简单的聊天应用

创建完成后发布,我们在探索中使用这个应用

可以看到,我们已经可以使用这个api接口了。

总结

Kimi-free-api项目的出现,不仅为AI爱好者和开发者提供了便利,也推动了开源社区的发展。通过这些工具,我们可以更加便捷地探索AI的无限可能,共同期待未来AI技术带来的更多惊喜。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2024-04-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 修己xj 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 项目介绍
  • 接入准备
  • Docker-compose部署服务
  • 使用接口
  • 总结
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档