一、AIGC + 小程序能做什么?(真实落地)
企业真实在做的 8 类产品
| 场景 | 示例 |
|---|---|
| 智能客服 | 自动问答 |
| 文案生成 | 商品详情 / 活动 |
| 报告生成 | 性能 / 运营 |
| 表单分析 | 用户反馈总结 |
| 内容审核 | 风控 |
| 代码生成 | 配置 / 模板 |
| 数据解读 | 图表说明 |
| 内部 Copilot | 工具助手 |
📌 结论:
小程序是 AIGC 最容易商业化的载体。
二、整体架构(必须这样做)
⚠️ 重点:小程序不能直连大模型
Taro 小程序
↓
BFF / Serverless(Node)
↓
LLM API(OpenAI / 通义 / 文心)
↓
流式返回
BFF 必须做的事
-
API Key 隔离
-
鉴权
-
限流
-
Prompt 拼装
三、Taro 中实现 AIGC 的关键技术点
1️⃣ 请求方式(不是普通 fetch)
❌ 不推荐
fetch()
✅ 推荐
Taro.request({
url: '/api/chat',
method: 'POST',
enableChunked: true, // 关键
})
📌 enableChunked = 流式能力
2️⃣ 流式输出(小程序核心难点)
原理
-
后端:SSE / Chunk
-
小程序:onChunkReceived
示例(重点)
Taro.request({
url: '/api/chat',
method: 'POST',
enableChunked: true,
success(res) {
res.onChunkReceived(chunk => {
const text = decode(chunk.data)
setAnswer(prev => prev + text)
})
}
})
👉 这是 AIGC 小程序的核心代码
3️⃣ 对话状态管理
messages = [
{ role: 'system', content: '你是客服' },
{ role: 'user', content: input }
]
📌 要做:
-
截断上下文
-
限制长度
-
防 token 爆炸
4️⃣ Prompt 模板化(企业必做)
const prompt = `
你是${role}
根据以下信息生成内容
输入:${input}
输出要求:${format}
`
5️⃣ 多模态(图片 / 文件)
图片生成
-
上传描述
-
返回 URL
-
前端渲染
文件分析
-
上传 → 后端解析 → 模型
-
前端只做展示
四、一个完整 Demo 设计(直接能做)
🎯 项目:智能性能报告生成(强烈推荐)
功能
-
选择 CPU / 架构
-
填测试指标
-
AI 生成分析报告
技术点
-
Taro 表单
-
流式输出
-
Prompt 模板
-
报告导出 PDF
📌 你现在的云鉴性能平台背景,完美匹配
五、Taro 小程序 AIGC 常见坑(面试加分)
| 坑 | 解决 |
|---|---|
| 流式断流 | 心跳 / 重连 |
| 内容过长 | 分段展示 |
| 请求超时 | 后端分批 |
| token 超限 | 上下文裁剪 |
| 微信限制 | 后端兜底 |
六、简历怎么写(直接抄)
基于 Taro + 小程序实现 AIGC 应用
通过 BFF 接入大模型,支持流式响应
设计 Prompt 模板,提高生成稳定性
支持报告生成、内容分析等业务场景
七、面试官最爱追问 & 标准回答
Q:为什么小程序要走 BFF?
答:
小程序无法安全存储 Key,且不支持完整流式协议,
BFF 负责安全和协议转换。
Q:AIGC 在小程序的最大难点?
答:
流式交互和平台限制。
八、学习路径(2–3 周可落地)
第 1 周
-
Taro + 小程序
-
普通 Chat
第 2 周
-
流式输出
-
Prompt 模板
第 3 周
-
多模态
-
导出 / 分享
九、终极一句话(面试必杀)
AIGC + 小程序的核心是通过 BFF 把大模型能力转化为稳定、可交互的业务功能。
转载自CSDN-专业IT技术社区
原文链接:https://blog.csdn.net/qq_25416827/article/details/157763852



