利用NAS免费体验8大AI平台!包括通义千问、智谱、讯飞星火、Kimi等
前言
大家好,我是Cherry,一位热爱探索、改造旧物、玩转数码产品的爱好者,乐于分享各种有趣的数码小技巧。今天,我想给大家介绍一个特别的主题——如何利用9款热门AI平台的逆向API接口,享受免费、便捷、高兼容性的AI服务。
随着AI技术的发展,各类AI平台如雨后春笋般涌现,提供了丰富的模型和应用场景。然而,许多朋友可能还没有亲身体验过这些先进的LLM(大型语言模型)服务,或是不了解如何将AI API集成到自己的项目中。通过逆向API接口,我们可以更灵活地管理和使用这些强大的AI模型,甚至可以在不同的开发环境中轻松调用。
9款AI平台逆向API接口一览
这些API接口由LLM Red Team开发,旨在揭示大模型应用背后的潜在安全风险,同时也为用户提供了一种免费体验高质量AI服务的方法。以下是经过筛选后的9款AI平台及其逆向API接口:
- Moonshot AI(Kimi.ai):通过`find-free-api`接口访问。
- 阶跃星辰 (跃问StepChat):使用`step-free-api`接口。
- 讯飞星火(Spark):通过`spark-free-api`接口。
- 阿里通义 (Qwen):使用`qwen-free-api`接口。
- 智谱AI (智谱清言):通过`glm-free-api`接口。
- 秘塔AI (metaso):使用`metaso-free-api`接口。
- MiniMax(海螺AI):通过`hailuo-free-api`接口。
- 深度求索(DeepSeek):使用`deepseek-free-api`接口。
温馨提醒
虽然这些逆向API接口为用户提供了极大的便利,但它们的稳定性难以保证。强烈建议大家在正式项目中选择官方提供的付费API服务,以避免因使用非官方渠道而导致的服务中断或账户封禁风险。本文仅用于知识分享和技术交流,对于任何因自行部署而产生的问题,概不承担责任。
关于部署环境
考虑到此次涉及的项目较多,推荐使用支持Docker Compose的设备进行部署。我个人使用的是一台配备了高性能硬件的绿联NAS私有云,它不仅拥有强大的处理能力,还支持多种网络配置,非常适合搭建此类复杂的应用环境。
各API部署步骤
我已经将所有必要的项目镜像打包上传至夸克网盘和阿里云盘,大家可以按需下载解压后上传至NAS设备中。接下来,只需将以下Docker Compose配置代码复制到绿联NAS私有云的Docker应用中,设置项目名称为“ais”,然后点击部署即可。
```yaml
version: '3'
services:
qwen-free-api:
container_name: qwen-free-api
image: vinlic/qwen-free-api:latest
restart: always
ports:
- "8000:8000"
environment:
- TZ=Asia/Shanghai
kimi-free-api:
container_name: kimi-free-api
image: vinlic/kimi-free-api:latest
restart: always
ports:
- "8001:8000"
environment:
- TZ=Asia/Shanghai
step-free-api:
container_name: step-free-api
image: vinlic/step-free-api:latest
restart: always
ports:
- "8002:8000"
environment:
- TZ=Asia/Shanghai
glm-free-api:
container_name: glm-free-api
image: vinlic/glm-free-api:latest
restart: always
ports:
- "8003:8000"
environment:
- TZ=Asia/Shanghai
metaso-free-api:
container_name: metaso-free-api
image: vinlic/metaso-free-api:latest
restart: always
ports:
- "8004:8000"
environment:
- TZ=Asia/Shanghai
spark-free-api:
container_name: spark-free-api
image: vinlic/spark-free-api:latest
restart: always
ports:
- "8005:8000"
environment:
- TZ=Asia/Shanghai
hailuo-free-api:
container_name: hailuo-free-api
image: vinlic/hailuo-free-api:latest
restart: always
ports:
- "8006:8000"
environment:
- TZ=Asia/Shanghai
deepseek-free-api:
container_name: deepseek-free-api
image: vinlic/deepseek-free-api:latest
restart: always
ports:
- "8007:8000"
environment:
- TZ=Asia/Shanghai
```
获取AI平台的Token及模型信息
为了能够顺利调用这些API,我们需要获取每个平台的Token及特定模型的信息。这里简要介绍了几种常见AI平台的Token获取方法,更多详细步骤请参考各自项目的GitHub文档。
- 通义千问:在官网发起一次对话,通过浏览器开发者工具的应用程序-Cookies中找到`tongyi_sso_ticket`的值。
- Kimi月之暗面:同样在官网发起对话,从应用程序-本地存储中查找`refresh_token`。
- 跃问:发起对话后,从应用程序-本地存储中获取`deviceId`,再从Cookies中找到`Oasis-Token`,两者结合形成`deviceId@Oasis-Token`。
- 智谱清言:从本地存储中提取`chatglm_refresh_token`,并记录聊天界面URL中的智能体ID作为模型参数。
- 秘塔AI:登录账号后,从Cookies中获取`uid`和`sid`,使用`-`连接这两个值。
- 讯飞星火:登录并发起对话,使用浏览器插件Cookie-Editor获取`ssoSessionId`,并查询相应的模型ID。
- 海螺AI:登录后,从应用程序-本地存储中找到所需的Token值。
希望这份指南能帮助你成功搭建属于自己的AI服务平台,享受AI带来的无限乐趣!如果有任何疑问或遇到问题,欢迎随时留言交流。