本文记录了几种主流大语言模型(LLM)的 Python 调用方式,包括 DeepSeek、Google Gemini、通义千问(Qwen) 和 讯飞星火(Spark)。所有示例均使用 python-dotenv 从 .env 文件中加载 API 密钥,避免在代码中硬编码敏感信息。
前置准备
安装依赖
1 | pip install openai python-dotenv google-genai sparkai |
.env 文件配置
在项目根目录创建 .env 文件,按需填入以下密钥:
1 | # DeepSeek |
一、DeepSeek
DeepSeek 兼容 OpenAI SDK 的接口格式,只需将 base_url 指向 DeepSeek 的 API 地址即可。
基本调用
1 | import os |
流式输出
1 | response = client.chat.completions.create( |
说明:
- 模型名称使用
deepseek-chat(即 DeepSeek-V3)。- 其他可用的模型还有
deepseek-reasoner(DeepSeek-R1)等,见 DeepSeek API 文档。
二、Google Gemini
Gemini 使用 Google 官方的 google-genai SDK,调用方式非常简洁。
1 | from google import genai |
说明:
genai.Client()会自动读取环境变量GEMINI_API_KEY。- 可根据需要切换模型,如
gemini-2.0-flash、gemini-2.5-pro等。- 详见 Gemini API 文档。
三、通义千问(Qwen)
通义千问同样兼容 OpenAI SDK,通过阿里云 DashScope 平台提供服务。
基本调用
1 | import os |
流式输出
1 | response = client.chat.completions.create( |
说明:
base_url为阿里云 DashScope 的 OpenAI 兼容端点。- 可用的模型包括
qwen-turbo、qwen-plus、qwen-max等。- 详见 通义千问 API 文档。
四、讯飞星火(Spark)
讯飞星火提供了专用的 sparkai SDK,认证方式与 OpenAI 系列不同,需要 APP_ID、API_KEY、API_SECRET 三个凭证。
4.1 Spark Lite(基本调用)
1 | from sparkai.llm.llm import ChatSparkLLM |
4.2 Spark Pro
只需修改 API 地址和域名:
1 | client = ChatSparkLLM( |
4.3 多轮对话
通过维护消息历史列表来实现多轮对话:
1 | from sparkai.llm.llm import ChatSparkLLM |
说明:
- 不同版本模型对应不同的
spark_api_url和spark_llm_domain。- 详见 讯飞星火 API 文档。
各版本对照表
| 版本 | API 地址 | Domain |
|---|---|---|
| Lite | wss://spark-api.xf-yun.com/v1.1/chat |
lite |
| Pro | wss://spark-api.xf-yun.com/v3.1/chat |
generalv3 |
| Max | wss://spark-api.xf-yun.com/v3.5/chat |
generalv3.5 |
| X1 | wss://spark-api.xf-yun.com/v1/x1 |
spark-x |
总结
| 模型 | SDK | 兼容 OpenAI | 认证方式 |
|---|---|---|---|
| DeepSeek | openai |
✅ | API Key |
| Gemini | google-genai |
❌(专用SDK) | API Key |
| 通义千问 | openai |
✅ | API Key |
| 讯飞星火 | sparkai |
❌(专用SDK) | APP_ID + API_KEY + API_SECRET |
可以看到,DeepSeek 和通义千问都兼容 OpenAI 的 SDK 格式,只需修改 base_url 和 api_key 就能直接使用,上手非常简单。Gemini 和讯飞星火则使用各自的专用 SDK,调用方式略有不同但也并不复杂。
- 本文作者: Apezer
- 本文链接: http://example.com/2026/02/28/大模型调用示例/
- 版权声明: 本博客所有文章除特别声明外,均采用 MIT 许可协议。转载请注明出处!
