autogen使用deepseek
增加配置 model_info即可使用deepseek。
·
增加配置 model_info即可使用deepseek
from autogen_ext.models.openai import OpenAIChatCompletionClient
def create_openai_model_client():
"""创建 OpenAI 模型客户端用于测试"""
return OpenAIChatCompletionClient(
model=os.getenv("LLM_MODEL_ID"),
api_key=os.getenv("LLM_API_KEY"),
base_url=os.getenv("LLM_BASE_URL"),
# 配置 model_info 从而使用deepseek
model_info={
# 必填字段 — 说明这个模型的基本能力
"vision": False, # 是否支持图像
"function_calling": True, # 是否支持 function-call / tools 调用
"json_output": False, # 是否默认输出 JSON (如果你期望模型输出结构化 JSON 可设为 True)
"family": "deepseek", # 任意名称,用于区分模型系列
# 可选 / 根据需要添加
# "structured_output": True,
# "multiple_system_messages": False,
# "token_limit": 4096, etc.
}
)
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)