用NAS白嫖8个AI平台 !含通义千问、智谱、讯飞星火、Kimi等

前言

大家好,我是Cherry,一位热爱探索、改造旧物、玩转数码产品的爱好者,乐于分享各种有趣的数码小技巧。今天,我想给大家介绍一个特别的主题——如何利用9款热门AI平台的逆向API接口,享受免费、便捷、高兼容性的AI服务。

随着AI技术的发展,各类AI平台如雨后春笋般涌现,提供了丰富的模型和应用场景。然而,许多朋友可能还没有亲身体验过这些先进的LLM(大型语言模型)服务,或是不了解如何将AI API集成到自己的项目中。通过逆向API接口,我们可以更灵活地管理和使用这些强大的AI模型,甚至可以在不同的开发环境中轻松调用。

9款AI平台逆向API接口一览

这些API接口由LLM Red Team开发,旨在揭示大模型应用背后的潜在安全风险,同时也为用户提供了一种免费体验高质量AI服务的方法。以下是经过筛选后的9款AI平台及其逆向API接口:

- Moonshot AI(Kimi.ai):通过`find-free-api`接口访问。

- 阶跃星辰 (跃问StepChat):使用`step-free-api`接口。

- 讯飞星火(Spark):通过`spark-free-api`接口。

- 阿里通义 (Qwen):使用`qwen-free-api`接口。

- 智谱AI (智谱清言):通过`glm-free-api`接口。

- 秘塔AI (metaso):使用`metaso-free-api`接口。

- MiniMax(海螺AI):通过`hailuo-free-api`接口。

- 深度求索(DeepSeek):使用`deepseek-free-api`接口。

温馨提醒

虽然这些逆向API接口为用户提供了极大的便利,但它们的稳定性难以保证。强烈建议大家在正式项目中选择官方提供的付费API服务,以避免因使用非官方渠道而导致的服务中断或账户封禁风险。本文仅用于知识分享和技术交流,对于任何因自行部署而产生的问题,概不承担责任。

关于部署环境

考虑到此次涉及的项目较多,推荐使用支持Docker Compose的设备进行部署。我个人使用的是一台配备了高性能硬件的绿联NAS私有云,它不仅拥有强大的处理能力,还支持多种网络配置,非常适合搭建此类复杂的应用环境。

各API部署步骤

我已经将所有必要的项目镜像打包上传至夸克网盘和阿里云盘,大家可以按需下载解压后上传至NAS设备中。接下来,只需将以下Docker Compose配置代码复制到绿联NAS私有云的Docker应用中,设置项目名称为“ais”,然后点击部署即可。

```yaml

version: '3'

services:

qwen-free-api:

container_name: qwen-free-api

image: vinlic/qwen-free-api:latest

restart: always

ports:

- "8000:8000"

environment:

- TZ=Asia/Shanghai

kimi-free-api:

container_name: kimi-free-api

image: vinlic/kimi-free-api:latest

restart: always

ports:

- "8001:8000"

environment:

- TZ=Asia/Shanghai

step-free-api:

container_name: step-free-api

image: vinlic/step-free-api:latest

restart: always

ports:

- "8002:8000"

environment:

- TZ=Asia/Shanghai

glm-free-api:

container_name: glm-free-api

image: vinlic/glm-free-api:latest

restart: always

ports:

- "8003:8000"

environment:

- TZ=Asia/Shanghai

metaso-free-api:

container_name: metaso-free-api

image: vinlic/metaso-free-api:latest

restart: always

ports:

- "8004:8000"

environment:

- TZ=Asia/Shanghai

spark-free-api:

container_name: spark-free-api

image: vinlic/spark-free-api:latest

restart: always

ports:

- "8005:8000"

environment:

- TZ=Asia/Shanghai

hailuo-free-api:

container_name: hailuo-free-api

image: vinlic/hailuo-free-api:latest

restart: always

ports:

- "8006:8000"

environment:

- TZ=Asia/Shanghai

deepseek-free-api:

container_name: deepseek-free-api

image: vinlic/deepseek-free-api:latest

restart: always

ports:

- "8007:8000"

environment:

- TZ=Asia/Shanghai

```

获取AI平台的Token及模型信息

为了能够顺利调用这些API,我们需要获取每个平台的Token及特定模型的信息。这里简要介绍了几种常见AI平台的Token获取方法,更多详细步骤请参考各自项目的GitHub文档。

- 通义千问:在官网发起一次对话,通过浏览器开发者工具的应用程序-Cookies中找到`tongyi_sso_ticket`的值。

- Kimi月之暗面:同样在官网发起对话,从应用程序-本地存储中查找`refresh_token`。

- 跃问:发起对话后,从应用程序-本地存储中获取`deviceId`,再从Cookies中找到`Oasis-Token`,两者结合形成`deviceId@Oasis-Token`。

- 智谱清言:从本地存储中提取`chatglm_refresh_token`,并记录聊天界面URL中的智能体ID作为模型参数。

- 秘塔AI:登录账号后,从Cookies中获取`uid`和`sid`,使用`-`连接这两个值。

- 讯飞星火:登录并发起对话,使用浏览器插件Cookie-Editor获取`ssoSessionId`,并查询相应的模型ID。

- 海螺AI:登录后,从应用程序-本地存储中找到所需的Token值。

希望这份指南能帮助你成功搭建属于自己的AI服务平台,享受AI带来的无限乐趣!如果有任何疑问或遇到问题,欢迎随时留言交流。