![icon](/chatanywhere/GPT_API_free/raw/main/images/logo.png)
支持 gpt-4系列 / gpt-3.5-turbo系列 / gpt-4o系列 / gpt-4o-audio-preview / embeddings / DALL·E / whisper 等
国内动态加速 直连无需代理
该项目高度重视隐私,致力于保护其用户的隐私。该项目不会以任何方式收集、记录或存储用户输入的任何文本或由 OpenAI 服务器返回的任何文本。该项目不会向 OpenAI 或任何第三方提供有关 API 调用者的身份的任何信息,包括但不限于 IP 地址和用户代理字符串。
但OpenAI官方会根据其数据使用政策保留 30 天的数据。
- 支持Models, Embedding, text-davinci(免费版不支持), GPT-3.5-Turbo, GPT-3.5-Turbo-16K(免费版不支持), GPT-4, DALLE(免费版不支持), Whisper(免费版不支持)。(免费版就可以支持AutoGPT, gpt_academic, langchain等)
- 免费版支持gpt-4,一天3次;支持gpt-4o-mini,和gpt-3.5-turbo共享一天200次。
- 与官方完全一致的接口标准,兼容各种软件/插件。
- 支持流式响应。
- 国内线路使用动态加速,体验远优于使用代理连接官方。
- 无需科学上网,国内环境直接可用。
- 个人完全免费使用。
❗️如果遇到无回复,报错等情况,可以查看 status.chatanywhere.tech,确认服务状态是否正常,以帮助排查问题。
❗️免费API Key仅可用于个人非商业用途,教育,非营利性科研工作中。免费API Key严禁商用,严禁大规模训练商用模型!训练科研用模型请提前加群联系我们。
❗️我们将不定期对被滥用的Key进行封禁,如发现自己的key被误封请通过QQ群联系我们。
❗️我们的系统仅供内部评估测试使用,商用或面向大众使用请自行承担风险。
为了该项目长久发展,免费API Key限制200请求/天/IP&Key调用频率(gpt和embedding分开计算,各200次),也就是说你如果在一个IP下使用多个Key,所有Key的每天请求数总和不能超过200;同理,你如果将一个Key用于多个IP,这个Key的每天请求数也不能超过200。(付费版API没有这个限制)
- 🚀申请领取内测免费API Key
- 免费版支持gpt-3.5-turbo, embedding, gpt-4o-mini, gpt-4。其中gpt-4由于价格过高,每天限制3次调用(0点刷新)。需要更稳定快速的gpt-4请使用付费版。
- 免费版gpt-4由gpt-4o提供服务,但免费版暂不支持识图。
- 转发Host1:
https://api.chatanywhere.tech
(国内中转,延时更低) - 转发Host2:
https://api.chatanywhere.org
(国外使用)
我们会定期根据使用量进行相应的扩容,只要不被官方制裁我们会一直提供免费API,如果该项目对你有帮助,还请为我们点一个Star。如果遇到问题可以在Issues中反馈,有空会解答。
该API Key用于转发API,需要将Host改为api.chatanywhere.tech
(国内首选)或者api.chatanywhere.org
(国外使用)。
- 支持更稳定更快速的GPT4 API,GPT4体验更好,无限使用,价格低于官方,充值更便捷。
- 同官网计费策略,流式问答使用tiktoken库准确计算Tokens,非流式问答直接使用官方返回Tokens用量计费。
- 余额不会过期,永久有效。根据用户反馈30块钱个人中度使用gpt-4o-mini估计能用半年。
- 所有的接口(包括免费版本)都保证转发自OpenAI或Azure官方接口,非peo、plus等不稳定方案或逆向方案,无水分,不掺假,保证稳定性。
模型(Model) | 请求(Input) | 回答(Output) | 是否支持 | 特点 |
---|---|---|---|---|
gpt-3.5-turbo | 0.0035 / 1K Tokens | 0.0105 / 1K Tokens | 支持 | 默认模型,等于gpt-3.5-turbo-0125 |
gpt-3.5-turbo-1106 | 0.007 / 1K Tokens | 0.014 / 1K Tokens | 支持 | 2023年11月6日更新的模型 |
gpt-3.5-turbo-0125 | 0.0035 / 1K Tokens | 0.0105 / 1K Tokens | 支持 | 2024年1月25日最新模型,数据最新,价格更更低,速度更快,修复了一些1106的bug。 |
gpt-3.5-turbo-16k | 0.021 / 1K Tokens | 0.028 / 1K Tokens | 支持 | 适合快速回答简单问题,字数更多 |
gpt-3.5-turbo-instruct | 0.0105 / 1K Tokens | 0.014 / 1K Tokens | 支持 | Completions模型 用于文本生成,提供准确的自然语言处理模型一般人用不上 |
o1-mini | 0.021 / 1K Tokens | 0.084 / 1K Tokens | 支持 | 针对复杂任务的推理模型 |
o1-preview | 0.105 / 1K Tokens | 0.42 / 1K Tokens | 支持 | 针对复杂任务的推理模型 |
o3-mini [5] | 0.0121 / 1K Tokens | 0.0484 / 1K Tokens | 支持 | 针对复杂任务的推理模型 |
o1 [5] | 0.165 / 1K Tokens | 0.66 / 1K Tokens | 支持 | 针对复杂任务的推理模型,迄今为止最牛的模型 |
gpt-4 | 0.21 / 1K Tokens | 0.42 / 1K Tokens | 支持 | 默认模型,等于gpt-4-0613 |
gpt-4o | 0.0175/1K Tokens + 图片费用[2] | 0.07/1K Tokens | 支持 | Openai 价格更低, 速度更快更聪明,指向最新版的4o版本 |
gpt-4o-2024-05-13 | 0.035/1K Tokens + 图片费用[2] | 0.105/1K Tokens | 支持 | Openai 2024-05-13出的gpt-4o模型 |
gpt-4o-2024-08-06 | 0.0175/1K Tokens + 图片费用[2] | 0.07/1K Tokens | 支持 | Openai 2024-08-06出的gpt-4o模型 支持128k输入,16k输出 |
gpt-4o-2024-11-20 | 0.0175/1K Tokens + 图片费用[2] | 0.07/1K Tokens | 支持 | Openai 2024-11-20出的gpt-4o模型, 该模型的创意写作能力得到了提升一更自然、更有吸引力、更有针对性的写作 |
chatgpt-4o-latest | 0.035/1K Tokens + 图片费用[2] | 0.105/1K Tokens | 支持 | 动态更新的版本,持续集成OpenAI最新的研究成果[4] |
gpt-4o-mini | 0.00105/1K Tokens + 图片费用[2] | 0.0042/1K Tokens | 支持 | Openai 最新模型, 价格更低, 输出质量在3.5之上4o之下, 并且支持读图 |
gpt-4-0613 | 0.21 / 1K Tokens | 0.42 / 1K Tokens | 支持 | 2023年6月13日更新的模型 |
gpt-4-turbo-preview | 0.07 / 1K Tokens | 0.21 / 1K Tokens | 支持 | 最新模型,输入128K,输出最大4K,知识库最新2023年4月, 此模型始终指向最新的4的preview模型 |
gpt-4-0125-preview | 0.07 / 1K Tokens | 0.21 / 1K Tokens | 支持 | 2024年1月25日更新的模型,输入128K,输出最大4K,知识库最新2023年4月, 修复了一些1106的bug |
gpt-4-1106-preview | 0.07 / 1K Tokens | 0.21 / 1K Tokens | 支持 | 2023年11月6日更新的模型,输入128K,输出最大4K,知识库最新2023年4月 |
gpt-4-vision-preview | 0.07 / 1K Tokens + 图片费用[2] | 0.21 / 1K Tokens | 支持 | 多模态,支持图片识别 |
gpt-4-turbo | 0.07 / 1K Tokens + 图片费用[2] | 0.21 / 1K Tokens | 支持 | Openai 最新模型多模态,支持图片识别,支持函数tools |
gpt-4-turbo-2024-04-09 | 0.07 / 1K Tokens + 0.10115*图片个数[2] | 0.21 / 1K Tokens | 支持 | Openai 最新模型多模态,支持图片识别,支持函数tools |
gpt-3.5-turbo-ca | 0.001 / 1K Tokens | 0.003 / 1K Tokens | 支持 | Azure openai中转(也属于官方模型的一种)价格便宜, 但是回复的慢一些 |
gpt-4-ca | 0.12 / 1K Tokens | 0.24 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
gpt-4-turbo-ca | 0.04 / 1K Tokens + 0.0578*图片个数[3] | 0.12 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
gpt-4o-ca | 0.01 / 1K Tokens + 0.0289*图片个数[3] | 0.04 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
gpt-4o-mini-ca | 0.00075 / 1K Tokens | 0.003 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
chatgpt-4o-latest-ca | 0.02 / 1K Tokens | 0.06 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
o1-mini-ca | 0.012 / 1K Tokens | 0.048 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
o1-preview-ca | 0.06 / 1K Tokens | 0.24 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
deepseek-reasoner | 0.0036 / 1K Tokens | 0.0144 / 1K Tokens | 支持 | deepseek的思考R1模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
claude-3-5-sonnet-20240620 | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
claude-3-5-sonnet-20241022 | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
claude-3-5-haiku-20241022 | 0.005 / 1K Tokens | 0.025 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
gemini-1.5-flash-latest | 0.0006 / 1K Tokens | 0.0024 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
gemini-1.5-pro-latest | 0.01 / 1K Tokens | 0.04 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
gemini-exp-1206 | 0.01 / 1K Tokens | 0.04 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
gemini-2.0-flash-exp | 0.01 / 1K Tokens | 0.04 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
gemini-2.0-pro-exp-02-05 | 0.01 / 1K Tokens | 0.04 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
gemini-2.0-flash | 0.005 / 1K Tokens | 0.02 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
模型(Model) | 价格 | 是否支持 |
---|---|---|
dall-e-3 1024×1024 | 0.280 / image | 支持 |
dall-e-3 1024×1792 | 0.560 / image | 支持 |
dall-e-3-hd 1024×1024 | 0.560 / image | 支持 |
dall-e-3-hd 1024×1792 | 0.840 / image | 支持 |
dall-e-2 1024×1024 | 0.14 / image | 支持 |
dall-e-2 512x512 | 0.126 / image | 支持 |
dall-e-2 256x256 | 0.112 / image | 支持 |
tts-1 | 0.105 / 1K characters | 支持 |
tts-1-hd | 0.21 / 1K characters | 支持 |
Whisper | 0.042 / minute | 支持 |
text-embedding-ada-002 | 0.0007 / 1K Tokens | 支持 |
text-embedding-3-small | 0.00014 / 1K Tokens | 支持 |
text-embedding-3-large | 0.00091 / 1K Tokens | 支持 |
[1] Tokens: GPT中指文本数据的最小处理单位。一个token可以是一个字、一个词或者一个字符,这取决于所使用的语言和处理方式。例如,在英文中,一个token可能是一个单词,如"apple";在中文中,一个token可能是一个字符,如"苹"。 1K Tokens = 1000个Token。(根据经验估算:gpt-4o模型 1000Tokens≈1000-1200个中文字符;非gpt-4o模型1000Tokens≈700-800中文字符)
[2] 多模态模型图片如何计算占用tokens请参考OpenAI官方 https://openai.com/api/pricing 。分辨率越高,tokens占用越多,但最高不会超过1445tokens。
[3] CA系列多模态模型在计算图片价格时,如果使用流式传输(参数stream=true),则按照0.10115每张图计费;如果使用非流式传输(参数stream=false),这时按照OpenAI返回的实际消耗量计费,如果你的图片分辨率较低,通常低于0.10115。因此,我们建议在使用gpt-4-turbo分析图片时,使用非流式传输(参数stream=false)。
[4] 动态更新的版本,持续集成OpenAI最新的研究成果。它为开发人员和研究人员提供了探索最前沿技术的机会。请注意,尽管该模型展示了最新的能力,但对于生产环境的使用,我们仍然建议选择经过优化的旧版GPT模型,以确保更高的稳定性和性能
[5] o1和o3-mini由于这两种模型的可用账号数量较少,资源稳定性可能存在波动,即可能出现时可用、时不可用的情况。建议如在生产环境中使用时做好相应的容错处理。
- 由于频繁的恶意请求,我们不再直接提供公共的免费Key,现在需要你使用你的Github账号绑定来领取你自己的免费Key。
- 🚀申请领取内测免费API Key 或 购买内测付费API Key
- 转发Host1:
https://api.chatanywhere.tech
(国内中转,延时更低) - 转发Host2:
https://api.chatanywhere.org
(国外使用) - 余额和使用记录查询(通知公告也会发在这里): 余额查询及公告
- 转发API无法直接向官方接口api.openai.com发起请求,需要将请求地址改为api.chatanywhere.tech才可以使用,大部分插件和软件都可以修改。
- 遇到问题可以前往ChatAnywhere Status查看接口可用性。
示例代码请参考demo.py或OpenAI官方文档
方法一
from openai import OpenAI
client = OpenAI(
# defaults to os.environ.get("OPENAI_API_KEY")
api_key="YOUR API KEY",
base_url="https://api.chatanywhere.tech/v1"
# base_url="https://api.chatanywhere.org/v1"
)
方法二(方法一不起作用用这个)
修改环境变量OPENAI_API_BASE,各个系统怎么改环境变量请自行搜索,修改环境变量后不起作用请重启系统。
OPENAI_API_BASE=https://api.chatanywhere.tech/v1
或 OPENAI_API_BASE=https://api.chatanywhere.org/v1
找到config.py
文件中的API_URL_REDIRECT
配置并修改为以下内容:
API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "https://api.chatanywhere.tech/v1/chat/completions"}
# API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "https://api.chatanywhere.org/v1/chat/completions"}
Gomoon 是一款开源的桌面大模型应用,支持mac和Windows平台。额外支持了解析文件、图片,本地知识库等能力。
官网地址:https://gomoon.top
GitHub地址:https://github.com/wizardAEI/Gomoon
使用方法:进入Gomoon设置页面(页面右上角),如图在设置中填入密钥,并将代理设置为https://api.chatanywhere.tech/v1
支持AI阅读论文,科研神器。
下载链接:https://github.com/MuiseDestiny/zotero-gpt/releases (下载最新版本的zotero-gpt.xpi文件)
Zotero7使用方法(建议使用Zotero7)
- 安装插件
在下载链接下载好插件后(zotero7应该下载1.0以上版本的插件),点击zotero左上角 工具->插件
点击Install Plugin From File
找到你下载的zotero-gpt.xpi安装
- 配置插件
点击zotero左上角 编辑->设置
然后如图设置即可
Zotero6使用方法
安装好插件后使用以下命令设置
/api https://api.chatanywhere.tech
/secretKey 购买的转发key 记住别忘记带sk-
# 切换模型命令
/model gpt-3.5-turbo-0125
下载链接:https://github.com/windingwind/zotero-pdf-translate/releases
接口地址填写: https://api.chatanywhere.tech/v1/chat/completions
不用管状态是否显示可用 填上之后就可以了
ChatGPT桌面应用,支持全平台,支持gpt-4-vision。
使用方法:下载安装后在设置中如图设置,并点击更新。
ChatGPT开源桌面应用,支持全部桌面平台。
下载链接:https://github.com/Bin-Huang/chatbox/releases
使用方法:如图在设置中填入购买的密钥,并将代理设置为https://api.chatanywhere.tech
即可
官网链接:https://chatgpt-sidebar.com/
安装好插件后进入设置页面,如图所示修改设置,将url修改为 https://api.chatanywhere.tech
。
安装好插件后在Settings > Tools > OpenAI > GPT 3.5 Turbo中如图所示配置好插件,重点要将Server Settings 修改为 https://api.chatanywhere.tech/v1/chat/completions
。并勾选Customize Server。