5 API 调用:让模型变成产品功能
本文介绍了如何通过API调用将大模型能力产品化。主要内容包括:API的概念解释(类比外卖电话),大模型API的必要性(隐藏复杂性,提供标准化服务),以及主流API风格(RESTful和OpenAI兼容接口)。实践部分演示了用Python调用本地DeepSeek模型的完整流程,包括服务启动、代码示例和运行方法。最后从产品经理视角分析了API的价值,包括功能接口化、模块复用、标准化输出等,并提供了PR
·
5 API 调用:让模型变成产品功能
引子
之前我们在本地跑通了 DeepSeek 模型,体验了“直接对话”的方式。
但在实际产品里,用户不可能总是打开命令行对话。我们需要一种方法,让 模型可以被程序调用,从而嵌入到应用功能里。这就是今天要学习的核心:API 调用。
一、核心概念
1. 什么是 API?
- 通俗解释:API 就像“外卖电话”。你打电话点菜(发请求),餐厅根据菜单做菜送来(返回结果)。
- 专业定义:API(应用程序编程接口,Application Programming Interface)是应用之间交互的标准方式,通常通过 HTTP 请求和 JSON 数据返回。
2. 为什么大模型需要 API?
- 让模型不仅能“对话”,还可以作为“服务”被前端网页、App、企业系统调用。
- API 可以隐藏底层复杂性 → 用户只管“传输入、收结果”。
3. 常见 API 风格
- RESTful API:最常见,用 URL + JSON 通信。
- OpenAI 兼容 API:现在主流开源框架(Ollama、vLLM)都提供这种接口,方便对接。
👉 一句话总结:API 让模型从“命令行玩具”变成“产品功能”。
二、实践环节:用 Python 调用本地 DeepSeek
1. 确保 Ollama 服务运行
Ollama 默认会在 http://localhost:11434 开启本地 API 服务。
如果没有启动,可以运行:
ollama serve
2. 安装依赖
pip install openai
3. 最小调用示例(保存为 api_demo.py)
from openai import OpenAI
# 指定本地 Ollama 服务地址
client = OpenAI(
base_url="http://localhost:11434/v1",
api_key="ollama" # 任意字符串即可
)
# 调用模型
resp = client.chat.completions.create(
model="deepseek-coder",
messages=[
{"role": "system", "content": "你是一个专业的Python代码助手"},
{"role": "user", "content": "写一个函数,计算斐波那契数列的前10个数字"}
],
temperature=0.3,
)
print(resp.choices[0].message.content)
4. 运行
python api_demo.py
你会得到一段 Python 代码,可以直接运行。
三、产品经理思考
1. API 的产品意义
- 功能接口化:让大模型能力可以作为“服务”嵌入产品功能中。
- 模块复用:同一个 API 可以被不同前端调用(网页、移动端、企业系统)。
- 标准化输出:API 返回 JSON,可以被系统直接解析。
2. 在 PRD 里要怎么写?
- 功能点:支持通过 API 调用 AI 功能。
- 输入:用户问题(字符串)、上下文信息。
- 输出:模型回答(文本/结构化数据)。
- 非功能需求:延迟 <3s、支持并发 100 请求/秒、错误返回规范。
3. 案例
- ChatGPT API:支撑了无数 AI 应用的开发。
- 企业 AI 中台:通常会对外暴露 API,供各部门接入。
👉 对 PM 来说,理解 API 不仅是技术层面,更是设计产品接口、考虑扩展性和集成性的必修课。
四、小结
今天我们学习了:
- API = 模型能力对外开放的“点菜窗口”。
- 用 Python 成功调用了本地 DeepSeek 模型。
- 从 PM 角度理解 API 的价值:接口化、复用、标准化。
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)