🎯 考核分层
根据第一阶段表现和个人意愿,选择以下任一版本完成:
| 版本 |
适合人群 |
核心挑战 |
| 基础版 |
巩固提升型 |
完善 Web 后端技术栈 |
| 挑战版 A |
AI 知识库探索型 |
RAG + 向量检索 + 多模态 AI |
| 挑战版 B |
AI Agent 探索型 |
Agent + 工作流自动化 |
选择建议
- 想稳步提升、巩固基础 → 基础版
- 对 AI 知识库、向量检索、智能问答感兴趣 → 挑战版 A
- 对 AI Agent、智能助手、自动化工作流感兴趣 → 挑战版 B
📦 基础版:多用户 AI 对话 SaaS 平台
业务场景
升级第一阶段的 AI 对话项目,从"能用"到"初步完善的商业应用"。
核心功能要求
1. 用户系统
- 注册/登录(手机号+验证码 或 邮箱)
- JWT token 签发与刷新机制
- 用户信息管理(头像上传 OSS)
- 权限控制(普通用户/管理员用户)
2. 积分/余额系统(可选)
- 用户余额管理
- 对话消费计费(按 token 或次数)
- 充值记录与消费流水
- 余额不足拦截
3. AI 对话增强(核心)
- SSE 流式返回实现
- 多会话管理(创建/删除/切换会话)
- 历史消息分页加载
- 对话上下文控制(最近 N 轮)
- 多模型切换支持
4. 系统基础
- 全局异常处理
- 统一返回格式封装
- DTO 参数校验
- Swagger API 文档
技术栈要求
- 框架:NestJS + TypeORM + Redis(可选)
- 数据库:MySQL 或 PgSQL
- 存储:阿里云 OSS
- AI 服务:任意 AI 中转平台,如柏拉图(api.bltcy.ai)
🚀 挑战版 A:AI 智能题库与自适应出题系统
业务场景
模拟在线教育平台:
- 管理员:上传试题图片(手写/模糊/水印) → AI 自动解析并打标 → 结构化入库
- 学生:创建考试 → 根据题型自动组卷 → 在线答题 → AI 批改
- AI 分析:知识点薄弱分析 + 学习建议
核心功能参考
- 题库管理:图片上传 → AI 解析题目 → 结构化存储(题干/选项/答案/知识点/难度等)
- 智能组卷:按知识点、难度等条件自动组卷
- 答题批改:客观题自动对比、主观题 AI 评分
- 学习分析(可选):错题统计、知识点分析、AI 学习建议
- 其他功能:可自行设计扩展
技术方向参考
- RAG 平台:FastGPT(知识库能力强)/ Dify / Coze(全套生态)
- OCR 服务:doc2x / textin / deepseek-ocr / 百度开源 OCR
- 向量数据库(可选):PostgreSQL+pgvector / Milvus
- 实现方式:可用平台快速搭建,也可自研 RAG 流程
思考题
- 什么是"打标"?应该给题目打什么标签?
- 题型信息从哪里来?如何分类?
- 如何设计数据库表结构来支持这些功能?
- 如何评估 AI 解析题目的准确性?
探索关键词
# 基础概念
AI 领域的 RAG 是什么
AI RAG 平台
# 平台使用
FastGPT 是什么
Dify 是什么
Coze 是什么
# 技术实现
大模型图片识别 vs OCR 识别(建议结合当前项目询问 AI)
程序领域的打标和检索,与 RAG 的关系(建议结合当前项目询问 AI)
🤖 挑战版 B:AI Agent 智能助手平台
业务场景
基于 AI Agent 的智能知识管理与问答系统:
核心场景
- 自动化工作流:每日定时收集 AI 资讯 → AI 整理总结 → 存入知识库
- 智能问答 Agent:用户提问 → Agent 自主检索知识库 → 基于知识内容回答
- 后端集成:对接 Agent API,提供统一服务接口
- 前端交互:简单的问答界面
核心功能参考
- 自动化工作流:定时收集 AI 资讯 → AI 提取总结 → 存入知识库
- AI Agent 问答:用户提问 → Agent 自主检索知识库 → 基于检索回答 → 支持多轮对话
- 后端集成:对接 Agent 平台 API、封装问答接口、工作流触发、历史记录管理
- 前端展示:问答交互页面、工作流执行状态、历史对话记录
- 扩展功能(可选):Agent 调用过程可视化、数据统计分析等
技术方向参考
- Agent 平台:Coze(生态完善)/ Dify / LangChain(深度可控)
- 知识库:FastGPT(知识库能力强)/ Dify / Coze
- 工作流:Coze 工作流 / n8n(可视化)/ LangGraph(编程式)
- 信息获取:Brave Search / DuckDuckGo / SearXNG 等搜索引擎 API
- 实现方式:可用平台快速搭建,也可用框架深度定制
思考题
- Agent 如何判断何时需要检索知识库?
- RAG 模式和 AI 原生检索各有什么优劣?
- 如何设计工作流确保定时任务的稳定性?
- 不同平台的知识库 API 有什么差异?
探索关键词
# 基础概念
AI Agent 发展史
Function Calling 是什么
MCP 是什么
FC和MCP的区别是什么(建议询问AI)
# 平台使用
Coze Agent 开发教程(FASTGPT和DIFY的使用,本质上和COZE没什么区别)
📮 答辩考核
考核安排
- 考核方式:线上答辩(腾讯会议)
- 考核时间:11 月 11 日 - 11 月 14 日(四天)
- 答辩时长:每人 10-15 分钟
- 如何预约:完成项目后主动联系培训讲师确认答辩时间
⚠️ 重要:不需要提交代码,只需线上展示。主动预约时间,不要等到最后一天!
答辩流程
- 功能演示(3-4 分钟):运行项目,展示核心功能
- 代码讲解(4-5 分钟):展示关键代码模块和实现逻辑
- 老师提问(3-4 分钟):随机提问技术细节
- AI 工具链理解(3-4 分钟):AI 工具选择与使用的深度提问
考核重点
技术能力(主要)
- 能说清项目架构和技术栈
- 能讲解核心业务逻辑实现
- 关键代码能看懂并解释
AI 工具链理解(核心)
- 工具能力边界:知道每个 AI 工具能做什么、不能做什么、擅长什么
- 工具选择决策:为什么选这个工具?对比了哪些?选择理由是什么?
- 工具组合使用:是否合理组合多个 AI 工具形成工具链?
- 问题与工具匹配:面对具体问题时,如何判断该用什么 AI 工具?
典型提问示例
- "你用了哪些 AI 工具?各自解决了什么问题?"
- "为什么选择 Claude Code 而不是 Cursor?"
- "遇到 XX 问题时,为什么选择用 AI 工具 A 而不是 B?"
- "有没有遇到某个 AI 工具不适合的场景,最后换了其他工具?"
- "这几个 AI 工具是如何配合使用的?"
答辩准备
运行环境
- 确保项目能在演示时正常运行
- 数据库配置正确且有测试数据
- API 密钥配置完成
- 准备好要展示的核心代码文件
知识准备
- 梳理项目架构和技术选型理由
- 理清关键业务流程实现细节
- 回顾 AI 工具使用过程:用了哪些工具?为什么选择?有没有换过工具?
- 总结工具能力认知:每个工具的优势和局限是什么?
- 预想可能被问到的技术问题
考核结果
通过:理解项目架构,能讲清核心逻辑,AI 应用合理
不合格:
- 给予一周时间改进
- 讲师会指出具体问题
- 改进后重新安排答辩
- 重新答辩通过后可进入第三阶段
💡 提示:考核重点是「理解」而非「完成度」,展示你对项目的深入思考比功能完整更重要
🎓 核心理念
AI 时代的开发能力 ≠ 写代码能力
AI 时代的开发能力 = 面对未知需求,快速学习并落地的能力
关于 AI 工具链的思考
解决问题的思路
- 有具体需求时,找对应的 AI 工具
- 问 AI:"我要做 XX,用什么工具合适?请结合所有可能的联网渠道,尽可能多的提供方案,并对比利弊"
- 对比几个工具的能力边界,选最合适的
优化流程的思路
- 日常多刷视频号/B 站,看看 AI 领域有什么新东西
- 看到有趣的工具就玩玩看,了解它能干什么
- 时间长了,自然就知道什么工具适合什么场景
核心原则
- 学会用 AI 工具提升开发效率
- 理解技术边界,知道什么时候该自己介入
- 培养架构思维,不只是堆砌功能
- 保持好奇心,主动探索新技术
祝各位学习顺利,期待看到你们的优秀作品!