5 API 调用:让模型变成产品功能

引子

之前我们在本地跑通了 DeepSeek 模型,体验了“直接对话”的方式。
但在实际产品里,用户不可能总是打开命令行对话。我们需要一种方法,让 模型可以被程序调用,从而嵌入到应用功能里。这就是今天要学习的核心:API 调用


一、核心概念

1. 什么是 API?

  • 通俗解释:API 就像“外卖电话”。你打电话点菜(发请求),餐厅根据菜单做菜送来(返回结果)。
  • 专业定义:API(应用程序编程接口,Application Programming Interface)是应用之间交互的标准方式,通常通过 HTTP 请求和 JSON 数据返回。

2. 为什么大模型需要 API?

  • 让模型不仅能“对话”,还可以作为“服务”被前端网页、App、企业系统调用。
  • API 可以隐藏底层复杂性 → 用户只管“传输入、收结果”。

3. 常见 API 风格

  • RESTful API:最常见,用 URL + JSON 通信。
  • OpenAI 兼容 API:现在主流开源框架(Ollama、vLLM)都提供这种接口,方便对接。

👉 一句话总结:API 让模型从“命令行玩具”变成“产品功能”。


二、实践环节:用 Python 调用本地 DeepSeek

1. 确保 Ollama 服务运行

Ollama 默认会在 http://localhost:11434 开启本地 API 服务。
如果没有启动,可以运行:

ollama serve

2. 安装依赖

pip install openai

3. 最小调用示例(保存为 api_demo.py

from openai import OpenAI

# 指定本地 Ollama 服务地址
client = OpenAI(
    base_url="http://localhost:11434/v1",
    api_key="ollama"   # 任意字符串即可
)

# 调用模型
resp = client.chat.completions.create(
    model="deepseek-coder",
    messages=[
        {"role": "system", "content": "你是一个专业的Python代码助手"},
        {"role": "user", "content": "写一个函数,计算斐波那契数列的前10个数字"}
    ],
    temperature=0.3,
)

print(resp.choices[0].message.content)

4. 运行

python api_demo.py

你会得到一段 Python 代码,可以直接运行。


三、产品经理思考

1. API 的产品意义

  • 功能接口化:让大模型能力可以作为“服务”嵌入产品功能中。
  • 模块复用:同一个 API 可以被不同前端调用(网页、移动端、企业系统)。
  • 标准化输出:API 返回 JSON,可以被系统直接解析。

2. 在 PRD 里要怎么写?

  • 功能点:支持通过 API 调用 AI 功能。
  • 输入:用户问题(字符串)、上下文信息。
  • 输出:模型回答(文本/结构化数据)。
  • 非功能需求:延迟 <3s、支持并发 100 请求/秒、错误返回规范。

3. 案例

  • ChatGPT API:支撑了无数 AI 应用的开发。
  • 企业 AI 中台:通常会对外暴露 API,供各部门接入。

👉 对 PM 来说,理解 API 不仅是技术层面,更是设计产品接口、考虑扩展性和集成性的必修课。


四、小结

今天我们学习了:

  • API = 模型能力对外开放的“点菜窗口”。
  • 用 Python 成功调用了本地 DeepSeek 模型。
  • 从 PM 角度理解 API 的价值:接口化、复用、标准化。

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐