大家好,这里是Cherry,喜爱折腾、捡垃圾、玩数码,热衷于分享数码玩耍经验~
前言
如今,各行各业的AI平台层出不穷,模型和应用场景也越来越丰富,但是依旧有很多人没体验过LLMs AI服务,或者说没有体验过AI API的整合。
今天,cherry为大家一次性带来9款AI平台的逆向API接口,主打的一个就是白嫖免费、次抛、兼容性强!相比较于直接使用网页版的AI系统,AI API可以让我们对不同AI模型进行集中管理,也可以使用到不同的开发环境中,
该9款AI平台逆向API接口,均为LLM Red Team开发而成,LLM Red Team 意为 LLM大模型红队,为了突出大模型应用发展表象下是日益严重的安全风险,针对不同平台研发出不同的逆向方法。
包含的AI平台列表如下,聆心智能已经不能用了,所以我从列表中删除了。
Moonshot AI(Kimi.ai)接口转API find-free-api
阶跃星辰 (跃问StepChat) 接口转API step-free-api
讯飞星火(Spark)接口转API spark-free-api
阿里通义 (Qwen) 接口转API qwen-free-api
智谱AI (智谱清言) 接口转API glm-free-api
秘塔AI (metaso) 接口转API metaso-free-api
MiniMax(海螺AI)接口转API hailuo-free-api
深度求索(DeepSeek)接口转API deepseek-free-api
温馨提示:逆API是不稳定的,建议前往各平台AI首页选择付费使用API,避免封禁的风险。本文仅为内容分享,对自行部署使用导致的问题,概不负责。
关于部署机
由于本次部署项目较多,必须使用docker-compose(项目堆栈)来执行,因为我们选择绿联NAS私有云作为本次教程的部署设备,其它NAS支持compose的也可以参照执行。
目前我在用的机器是4盘位的绿联DXP 4800 Plus,该型号设置核心优势明显:一是5核6线程的Intel 8505处理器,比主流的N100处理器提升约40%;二是万兆+2.5Gbps网卡的组合拳,可以满足万兆高速局域网或设备直连,突破双千兆外网速率,大幅度提升数据传输速率;三是硬盘空间充足,包括4盘位HDD+2盘位M.2,满足高速存储、海量存储两大需求。
绿联NAS私有云在推出UGOS Pro新系统后,正一步步的对系统进行优化、提升,使用体验感越来越好。就以我们最常用的docker为例,支持compose堆栈、macvlan网络、docker代理、镜像库设置、自动配置路径/端口/权限等,几乎是将docker cli的功能都可视化了,极大的便利了docker用户使用体验。
除了软件越来越赞之外,绿联NAS私有云的DXP系列,涵盖了2盘位-8盘位的所有NAS型号,可供新手入门、老鸟、企业、资深极客的选择,这里我最推荐的3款分别是DXP2800(新手入门)、DXP4800(家庭最优)、DXP4800 Plus(升级款做优)、DXP6800 Pro(性价比之王)。
一、各API部署方法
所有的项目镜像压缩包,我都上传到网盘里了,需要的朋友可以下载解压为.tar格式的文件,并上传到NAS中备用。
夸克网盘:https://pan.quark.cn/s/ec9ba0111fe1
阿里云盘:https://www.alipan.com/s/geDbXYS5dXT
整个项目的compose代码如下,一共有9各项目,对应的端口是8000-8008,大家可以根据自己的需要删减不同段落来部署指定的AI。
version: '3' services: qwen-free-api: # 通义千问 container_name: qwen-free-api image: vinlic/qwen-free-api:latest restart: always ports: - "8000:8000" environment: - TZ=Asia/Shanghai kimi-free-api: # Kimi月之暗面 container_name: kimi-free-api image: vinlic/kimi-free-api:latest restart: always ports: - "8001:8000" environment: - TZ=Asia/Shanghai step-free-api: # 跃问 container_name: step-free-api image: vinlic/step-free-api:latest restart: always ports: - "8002:8000" environment: - TZ=Asia/Shanghai glm-free-api: # 智谱清言 container_name: glm-free-api image: vinlic/glm-free-api:latest restart: always ports: - "8003:8000" environment: - TZ=Asia/Shanghai metaso-free-api: # 秘塔AI container_name: metaso-free-api image: vinlic/metaso-free-api:latest restart: always ports: - "8004:8000" environment: - TZ=Asia/Shanghai spark-free-api: # 讯飞星火 container_name: spark-free-api image: vinlic/spark-free-api:latest restart: always ports: - "8005:8000" environment: - TZ=Asia/Shanghai hailuo-free-api: # 海螺AI container_name: hailuo-free-api image: vinlic/hailuo-free-api:latest restart: always ports: - "8006:8000" environment: - TZ=Asia/Shanghai deepseek-free-api: # 深度求索 container_name: deepseek-free-api image: vinlic/deepseek-free-api:latest restart: always ports: - "8007:8000" environment: - TZ=Asia/Shanghai
打开绿联NAS私有云docker应用,项目名称输入ais,将上面的compose代码复制到配置中部署即可。
如果没有导入过镜像的,可以看到项目已经在下载了,等待部署完成即可。
二、获取各个AI的token以及模型
由于逆向AI的原理和逻辑,我们无法长时间高频次的使用逆向AI API,因此项目提供了登录账号和非登录账号两种选择。一般建议大家选择非登录账号来使用,即游客账号,以确保我们的账号不会因为使用逆项目被封禁。
同时,在每一个项目的github都有详细的游客cookie抓取方法和教程,我这里就不赘述,直接把官方文档拿过来略作完善。
所有的token都将作为作为Authorization的Bearer Token值使用。(Authorization: Bearer TOKEN)
1、通义千问token
进入通义千问官网随便发起一个对话,然后F12打开开发者工具,从应用程序-Cookies中找到tongyi_sso_ticket的值。
2、KIMI月之暗面token
进入月之暗面官网随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到refresh_token的值。
3、跃问token
进入跃问官网随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到deviceId的值。
接着从应用程序- Cookie中找到Oasis-Token的值。最后将两串字符串拼接起来,形成【deviceId@Oasis-Token】这样的形式,注意最终结果不包括括号和两侧的引号。
4、智谱清言token
进入智谱清言随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到chatglm_refresh_token的值。
关于智能体接入
打开智能体的聊天界面,地址栏的一串ID就是智能体的ID,复制下来备用,这个值将用作调用时的 model/模型
参数值。
5、秘塔AI
进入秘塔AI搜索,登录账号(建议登录账号,否则可能遭遇奇怪的限制),然后F12打开开发者工具,从应用程序-Cookies中找到uid和sid的值,最终将两则使用-拼接,如:uid-sid。
6、讯飞星火
进入星火Spark,登录并发起一个对话,接着安装浏览器插件Cookie-Editor
,从Cookie获取 ssoSessionId值。注意,星火如果F12会直接跳到平白网站。
Cookie-Editor下载地址,https://microsoftedge.microsoft.com/addons/detail/cookie-editor/ajfboaconbpkglpfanbmlfgojgndmhmc
讯飞星火的模型可以从下列网站查询,其中botId
就是model/模型
值。
7、海螺AI
进入海螺AI,随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到_token的值。
8、深度求索
进入深度求索随便发起一个对话,然后F12打开开发者工具,从应用程序-本地存储中找到userToken中的值。
最后
1、关于多账号接入
由于单独的一个token存在使用限制,因此大家可以对不同AI都搜集一些token,然后通过,
拼接使用,大致格式如下Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
2、关于接口兼容规范
所有的AI API接口都准寻gpt的接口规范,最终的URL大致可以归类为以下三种
# 对话,文档解读
ip:port/v1/chat/completions
# 绘图
ip:port/v1/images/generations
# 视频生成
ip:port/v1/videos/generations
3、关于食用方法
所有支持openai接口的前端页面都支持使用这些逆AI API,比如LobeChat、dify、ChatXXX-next等等。原作者推荐使用https://github.com/Yanyutin753/lobe-chat
这个项目接入。
该项目部署的compose代码如下:
version: '3'
services:
lobe-chat:
image: yangclivia/lobe-chat:latest
container_name: lobe-chat
network_mode: host #默认端口3210
restart: always
environment:
OPENAI_API_KEY: key 密钥
OPENAI_PROXY_URL: 接口地址
ACCESS_CODE: 使用密码
进入系统以后,在如下位置设置API接口即可,API Key就是刚才获取的那些token,接口地址就是第二点提到的规范,模型的话有需要的就添加。
作者声明本文无利益相关,欢迎值友理性交流,和谐讨论~
,