增加配置 model_info即可使用deepseek 


from autogen_ext.models.openai import OpenAIChatCompletionClient
def create_openai_model_client():
    """创建 OpenAI 模型客户端用于测试"""
    return OpenAIChatCompletionClient(
        model=os.getenv("LLM_MODEL_ID"),
        api_key=os.getenv("LLM_API_KEY"),
        base_url=os.getenv("LLM_BASE_URL"),
        # 配置 model_info 从而使用deepseek
        model_info={
            # 必填字段 — 说明这个模型的基本能力
            "vision": False,  # 是否支持图像
            "function_calling": True,  # 是否支持 function-call / tools 调用
            "json_output": False,  # 是否默认输出 JSON (如果你期望模型输出结构化 JSON 可设为 True)
            "family": "deepseek",  # 任意名称,用于区分模型系列
            # 可选 / 根据需要添加
            # "structured_output": True,
            # "multiple_system_messages": False,
            # "token_limit": 4096, etc.
        }
    )

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐