基于LiteLLM构建,支持DeepSeek、Qwen、GLM、豆包、Kimi、百度、Llama等19+主流模型。 改个base_url,无需改代码,直接接入。
# 3行代码接入任意AI模型 OPENAI_BASE_URL="https://crawfish.top/v1" # 调用 DeepSeek(国产低价) curl "https://crawfish.top/v1/chat/completions" \ -H "Authorization: Bearer $API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "deepseek/deepseek-chat", "messages": [{"role": "user", "content": "Hello!"}] }' # 换模型?改个名字就行 "model": "anthropic/claude-3-5-sonnet" "model": "qwen/qwen-turbo" "model": "google/gemini-pro"
一个平台,解决所有AI接入烦恼
只需一个API Key,即可调用DeepSeek、Qwen、GLM、豆包、Kimi、百度、Llama等19+主流模型。告别繁琐的多平台注册。
改个base_url就能用。现有基于OpenAI的代码无需修改,零成本迁移到任何模型。
模型挂了?自动切换到备用模型。99.9%可用性保障,后顾无忧。
利用中美模型价格差异,用DeepSeek/Qwen的价格调用GPT-4/Claude同等能力的模型,省钱40%+。
不超售、不降级、不偷换模型。用多少收多少,账单清晰透明。
优化路由策略,平均延迟低于50ms。支持流式输出,实时交互无压力。
覆盖国内外最热门的大语言模型,一键切换
简单到令人发指
一键生成API Key,立即可用,支持充值
# 在控制台获取你的Key API_KEY="sk-crawfish-xxxxx..."
改base_url,直接用OpenAI格式调用任意模型
# Python 示例 from openai import OpenAI client = OpenAI( api_key="sk-crawfish-xxxxx", base_url="https://crawfish.top/v1" ) response = client.chat.completions.create( model="deepseek/deepseek-chat", messages=[{"role": "user", "content": "Hello!"}] )
全方位的优势对比
没有月费,没有套路,没有套路
真正按需付费,充多少用多少