对话补全 (Chat Completion)
通义千问大模型 API 核心接口,支持多轮对话、流式输出等功能。
基础示例
以下是一个简单的 Python 调用示例:
python
1import os2import dashscope34def sample_sync_call():5 messages = [6 {'role': 'system', 'content': 'You are a helpful assistant.'},7 {'role': 'user', 'content': '你好,请解释一下什么是量子力学?'}8 ]9 response = dashscope.Generation.call(10 model='qwen-turbo',11 messages=messages,12 )13 if response.status_code == 200:14 print(response)15 else:16 print('Error:', response.code, response.message)1718sample_sync_call()
流式响应
对于长文本生成,建议使用流式响应以提升用户体验。
javascript
1import { OpenAI } from 'openai'23const openai = new OpenAI({4 apiKey: process.env.API_KEY,5 baseURL: 'https://api.example.com/v1',6})78async function main() {9 const stream = await openai.chat.completions.create({10 model: 'qwen-max',11 messages: [{ role: 'user', content: '写一篇关于未来城市的科幻小说,字数要求3000字以上。' }],12 stream: true,13 })1415 for await (const chunk of stream) {16 process.stdout.write(chunk.choices[0]?.delta?.content || '')17 }18}1920main()
参数说明
| 参数 | 类型 | 必选 | 默认值 | 说明 |
|---|---|---|---|---|
| model | String | 是 | - | 模型名称,如 qwen-max, qwen-plus |
| messages | Array | 是 | - | 对话消息列表 |
| temperature | Float | 否 | 0.8 | 核采样参数 |
| stream | Boolean | 否 | false | 是否流式返回 |
