Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[Bug] 如何使用OpenAI渠道调用Claude模型呢? #4492

Closed
1 of 3 tasks
xinzhu666 opened this issue Apr 10, 2024 · 12 comments
Closed
1 of 3 tasks

[Bug] 如何使用OpenAI渠道调用Claude模型呢? #4492

xinzhu666 opened this issue Apr 10, 2024 · 12 comments
Labels
bug Something isn't working

Comments

@xinzhu666
Copy link

Bug Description

在未更新前还是可以使用claude-3-opus-20240229的,更新后就无法使用了,在环境变量处自定义模型,还是会匹配到预设的渠道(Anthropic)

image

Steps to Reproduce

  1. 在custom_models 中设置-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229

Expected Behavior

通过OpenAI渠道调用claude系列模型,设置中的模型提供商项如果可以生效就是需要的效果。
image

Screenshots

No response

Deployment Method

  • Docker
  • Vercel
  • Server

Desktop OS

Window10

Desktop Browser

Chromium

Desktop Browser Version

118.0.5993.159

Smartphone Device

No response

Smartphone OS

No response

Smartphone Browser

No response

Smartphone Browser Version

No response

Additional Logs

No response

@xinzhu666 xinzhu666 added the bug Something isn't working label Apr 10, 2024
@Issues-translate-bot
Copy link

Bot detected the issue body's language is not English, translate it automatically.


Title: [Bug] What if you use the OpenAI channel to call the Claude model?

@xinzhu666 xinzhu666 changed the title [Bug] 如果使用OpenAI渠道调用Claude模型呢? [Bug] 如何使用OpenAI渠道调用Claude模型呢? Apr 10, 2024
@Dean-YZG
Copy link
Contributor

#4480 最新逻辑只有内置的claude模型会走 anthropic接口~~,应该可以解决你的问题~~

@Issues-translate-bot
Copy link

Bot detected the issue body's language is not English, translate it automatically.


#4480 The latest logic only has the built-in claude model that uses the anthropic interface~~, which should solve your problem~~

@xinzhu666
Copy link
Author

#4480 最新逻辑只有内置的claude模型会走 anthropic接口~~,应该可以解决你的问题~~

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置?

如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229

image

使用的时候,还是走anthropic接口,不会走OpenAI接口。

亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

@Issues-translate-bot
Copy link

Bot detected the issue body's language is not English, translate it automatically.


#4480 In the latest logic, only the built-in claude model will use the anthropic interface~~, which should solve your problem~~

I don’t understand what Only the built-in claude model will use the anthropic interface means. How to set up non-built-in ones?

What settings do I need if I want the claude model to go through the OpenAI channel? Because it uses the API of a third-party agent, in the previous version, it defaulted to the OpenAI channel. After adding anthropopic to the latest version, I set CUSTOM_MODELS in the environment variable to -all,+gpt-3.5-turbo-0125, +claude-3-opus,+claude-3-opus-20240229

image

When using it, it still uses the anthropopic interface, not the OpenAI interface.

Or set CUSTOM_MODELS to -all,+gpt-3.5-turbo-0125 and add claude-3-opus,claude-3-opus-20240229 to the custom model (this way there is only gpt-3.5-turbo-0125 Available, claude model will not be displayed)

@oahcgnaw
Copy link

oahcgnaw commented Apr 21, 2024

#4480 最新逻辑只有内置的claude模型会走 anthropic接口~~,应该可以解决你的问题~~

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置?

如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229

image

使用的时候,还是走anthropic接口,不会走OpenAI接口。

亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。

我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。

我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opus
image

然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307
image

这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

@Innocent-children
Copy link

#4480 最新逻辑只有内置的claude模型会走 anthropic接口~~,应该可以解决你的问题~~

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置?
如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
image
使用的时候,还是走anthropic接口,不会走OpenAI接口。
亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。

我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。

我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opusimage

然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307image

这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理
image

@wxiaoxiaow
Copy link

#4480 最新逻辑只有内置的claude模型会走 anthropic接口~~,应该可以解决你的问题~~

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置?
如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
image
使用的时候,还是走anthropic接口,不会走OpenAI接口。
亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。
我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。
我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opusimage
然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307image
这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理 image

如果使用的是别人的代理还是docker部署的应该怎么做呢,是不是还是提供一个环境变量来配置这个case比较好

@oahcgnaw
Copy link

#4480 最新逻辑只有内置的claude模型会走 anthropic接口~~,应该可以解决你的问题~~

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置?
如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
image
使用的时候,还是走anthropic接口,不会走OpenAI接口。
亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。
我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。
我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opusimage
然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307image
这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理 image

如果使用的是别人的代理还是docker部署的应该怎么做呢,是不是还是提供一个环境变量来配置这个case比较好

你的回复的上一条,那位兄弟的方法应该可以解决你的问题,注释掉那些模型

@wxiaoxiaow
Copy link

#4480 最新逻辑只有内置的claude模型会走 anthropic接口~~,应该可以解决你的问题~~

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置?
如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
image
使用的时候,还是走anthropic接口,不会走OpenAI接口。
亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。
我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。
我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opusimage
然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307image
这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理 image

如果使用的是别人的代理还是docker部署的应该怎么做呢,是不是还是提供一个环境变量来配置这个case比较好

你的回复的上一条,那位兄弟的方法应该可以解决你的问题,注释掉那些模型

docker部署貌似没有这玩意吧,应该是需要自己修改然后自己打包部署?

@Youngv
Copy link

Youngv commented Jul 16, 2024

最新的 v2.13.0 貌似解决了这个问题,自定义模型设置 +claude-3-opus-20240229@OpenAI 可以指定走 OpenAI 的接口

@Issues-translate-bot
Copy link

Bot detected the issue body's language is not English, translate it automatically.


The latest v2.13.0 seems to solve this problem. Custom model settings +claude-3-opus-20240229@OpenAI can specify the OpenAI interface.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
bug Something isn't working
Projects
None yet
Development

No branches or pull requests

7 participants