智能体搭建:做一个科室 AI 助手
到这里,你可能已经有点烦了
学完前面三节,你已经会三件很厉害的事:
- 会写自定义指令和 Skill
- 会给 AI 接上 MCP,让它查完再答
- 会建知识库,让它翻你自己的资料
但如果你真的打算把这些能力带回科室,会立刻遇到一个现实问题:
你会,不等于你同事会。
你知道什么时候该切换哪个 Skill,知道什么时候该开 MCP,知道哪些问题要用知识库、哪些问题要查外部文献。可你同事不知道。
于是就会出现这种情况:
- 你自己用得飞起
- 你把提示词发到群里,大家说"收到"
- 三天后没人再用
为什么?
因为对大多数人来说,他们不想学提示词,也不想理解 MCP,更不想自己搭知识库。 他们只想要一个足够简单的入口:
我输入一个问题,它给我一个靠谱答案。
这就是智能体要解决的问题。
智能体到底是什么?

先说人话版
在这门课里,智能体(Agent)你可以把它理解成:
把角色、规则、资料和工具打包在一起,变成一个可以直接拿来用的 AI 助手。
它不是一个神秘的新技术,也不一定意味着"全自动替你干活"。在很多日常场景里,智能体更像是:
- 一个提前配置好的 AI 入口
- 一个不用每次重新交代背景的助手
- 一个把复杂操作封装起来的"懒人版本"
它和普通对话有什么区别
| 普通对话 | 智能体 | |
|---|---|---|
| 角色 | 每次都可能不一样 | 角色预先固定好 |
| 提示词 | 你每次现写 | 提前封装好 |
| 知识来源 | 主要靠模型默认能力 | 可接知识库 |
| 外部工具 | 通常没有或临时启用 | 可提前接好 MCP / 搜索 / 工作流 |
| 使用门槛 | 你得会提问 | 同事直接输入问题即可 |
所以,智能体不是"比 AI 更高级的 AI"。它本质上是"把你前面学会的能力,封装成别人也能直接用的形态"。

用你熟悉的概念类比
你可以把智能体理解成医院工作中的"标准化门诊模板"或"专病门诊助手"。
比如:
- 普通 AI 像一个刚来轮转的规培生,你得每次交代:"你现在按这个规范帮我看这个问题"
- 智能体像一个已经培训好的专病护士或专门岗助手,角色、流程、常用资料都给他配齐了
你不需要每次从头讲:"你是谁""你该按什么流程做""你该去翻哪本规范"。
为什么前面三节,到了这里要“合体”?
如果把 L3 前三节各自拆开看,它们解决的是三个不同问题:
| 课节 | 解决什么问题 |
|---|---|
| L3-1 自定义指令与 Skill | 解决效率问题:不用每次重写提示词 |
| L3-2 MCP | 解决可信度问题:不是瞎编,而是查完再答 |
| L3-3 知识库 | 解决定制化问题:能按你们自己的资料回答 |
但当你真的做一个能给同事用的工具时,这三件事不能分开存在。
因为一个真正可用的科室 AI 助手,通常同时需要:
-
固定角色和输出方式
不然每次答得风格都不一样 -
能查外部权威资料
不然一遇到最新指南就掉链子 -
能翻科室内部规范
不然永远只能给泛泛的通用答案
智能体,就是把这三层能力合在一起。
如果要用一个公式来记:
智能体 = 角色与规则 + Skill + 知识库 + 工具(MCP)
你前面学的不是零散知识点,而是在给这一节铺路。
做智能体之前,先回答一个问题:你到底要帮同事省哪一步?
很多人第一次做智能体,会犯一个特别常见的错误:
一上来就想做一个“万能医学助手”。
结果通常是:
- 什么都能答一点
- 但没有一个场景答得特别好
- 同事试一次,说"也还行"
- 然后再也不用
为什么?
因为真正好用的工具,不是"能力范围特别大",而是在一个高频、具体、明确的场景里特别省事。
一个判断标准:值不值得做成智能体
下面这类任务,特别适合做成智能体:
| 特征 | 为什么适合 |
|---|---|
| 高频重复 | 一周会被问很多次,值得封装 |
| 输入相对固定 | 提问的信息结构大致类似 |
| 可以标准化回答 | 有固定的输出框架 |
| 需要查资料,但又不该每次手动查 | AI 正好能提速 |
典型例子包括:
- 值班用药速查
- 科室流程问答
- 常见病种患者宣教
- 规培生教学答疑
- 某个研究方向的文献速读助手
不太适合一开始就做成智能体的任务
- 开放式科研 brainstorming
- 高度依赖个体判断的复杂诊疗决策
- 极低频但极复杂的问题
- 需求边界说不清楚的"大而全"任务
一句话:先做“窄而深”的助手,不要一上来做“大而全”的系统。
智能体设计四要素
到这一步,终于可以开始搭了。一个最小可用的智能体,通常要先想清楚四件事。
1. 角色设定:它是谁?
这一步看起来最虚,其实非常关键。
因为角色决定了:
- 它用什么语气说话
- 它回答多深
- 它优先考虑什么
- 它该不该在没有依据时闭嘴
比如:
- "临床药师助手"
- "值班住院总速查助手"
- "规培生教学答疑助手"
- "患者宣教助手"
这些角色虽然都能回答医学问题,但回答风格完全不同。
2. Skill 配置:它会怎么做?
这里直接复用 L3-1 写好的 Skill。
比如一个"值班用药速查助手",你可以给它预设这样的工作规则:
- 先判断用户在问什么类型的问题
- 如果是药物剂量调整问题,先识别患者关键变量(年龄、肾功能、诊断)
- 优先查知识库中的科室规范
- 如果涉及最新指南,再调用 MCP
- 最后按固定格式输出:结论 → 依据 → 注意事项
这其实就是把 Skill 从"一段提示词"升级成"智能体的默认工作流程"。
3. 知识库接入:它应该翻什么资料?
不是所有智能体都需要知识库,但只要你希望它体现你们科室的特色和规范,知识库通常必不可少。
比如:
- 值班助手:接科室值班规范、药物调整表、夜班流程
- 教学助手:接讲义、病例库、教学要点
- 宣教助手:接患者教育手册、常见问答
4. 工具接入:它能去外面查什么?
这一步对应 L3-2。
常见外部工具包括:
- 百小应 MCP:查医学循证资料
- Web Search:查最新网页信息
- 文件工具:读写文档
这一步决定了智能体不是只会"背本地资料",而是还能补充外部可信信息。
一个完整案例:值班用药速查助手
为了让这节课不落空,我们不讲抽象概念,直接做一个完整案例。
为什么选这个案例
因为它几乎满足一个优秀教学案例的所有条件:
- 高频:值班时经常遇到
- 刚需:问的人真的很多
- 容易标准化:可以设计固定输出格式
- 既要内部规范,也要外部证据:正好把前三节都串起来
这个智能体要解决什么问题
它不是替你做最终诊疗决策,而是帮值班医生快速回答这类问题:
- 某药在 eGFR 38 时要不要减量?
- 这个药和另一个药能不能联用?
- 科室对某类抗菌药物升级有没有内部限制?
- 如果内部规范没写清楚,最新指南怎么说?
它不解决什么问题
边界一定要提前写清楚,否则越做越危险。
比如这个助手不应该:
- 直接替代医生做处方决策
- 在没有依据时硬给答案
- 越权给出超出知识库和证据范围的建议
第一步:定义这个智能体的“人设”和职责
在平台里创建智能体时,你通常会先填写一个角色描述。
这里最常见的误区是写得太空:
你是一个医学 AI 助手。
这句话几乎没用。
更好的写法应该把三件事写清楚:
- 它是谁
- 它主要解决什么问题
- 它不能做什么
比如可以这样写:
你是一个面向住院总和值班医生的用药速查助手,主要用于快速回答常见药物剂量调整、药物相互作用、科室内部抗菌药物使用规范等问题。
回答时优先参考科室知识库中的规范和流程文件;如涉及最新指南或公开证据,再调用循证检索工具补充。
如果知识库或外部工具中没有明确依据,请直接说明"未找到明确依据",不要编造。
你的回答仅用于信息辅助,不替代临床医生最终决策。
这段话其实就是:
- 角色
- 能力边界
- 信息优先级
- 安全底线
一次性说清楚。
第二步:给它一个固定的输出模板
很多人做智能体时,忽略了这一点:同事真正需要的不是"自由发挥的回答",而是稳定可读的格式。
为什么?
因为值班场景里,大家没有时间看一大段散文式回答。
所以你可以直接规定输出格式,例如:
1. 结论
2. 依据
3. 科室内部规范(如有)
4. 需要特别注意的风险点
5. 如证据不足,明确提示需人工核实
这样做的好处有两个:
- 同事更容易快速抓重点
- 你后期更容易判断回答质量稳不稳定
一个更贴近临床的输出示例
如果用户问:
头孢曲松在 eGFR 28 的患者要不要调整剂量?
你希望它输出成这样:
结论:
头孢曲松通常不需要因轻中度肾功能不全单独调整剂量,但重度肾功能异常或合并肝功能异常时需结合具体情况评估。
依据:
……
科室内部规范:
……
注意事项:
……
而不是输出成:
头孢曲松是一种第三代头孢菌素,具有广谱抗菌作用,常用于……
后者可能没错,但在值班时没什么用。
第三步:把前面做好的 Skill 放进去
这一步最容易让人产生误解:智能体不是"脱离 Skill 单独存在"的,它其实是在调用你已经设计好的 Skill 思路。
举个例子,这个用药速查助手,至少可以预设三类 Skill:
| Skill | 它负责什么 |
|---|---|
| 剂量调整 Skill | 根据年龄、肾功能、肝功能判断是否需要调药 |
| 相互作用 Skill | 分析联用风险、机制和监测建议 |
| 内部规范 Skill | 优先匹配科室内部制度和限制条件 |
平台上不一定真的有一个按钮叫"Skill",但本质上你是在把这些规则写进它的提示词逻辑里。
一个实用思路:先分任务,再合并
不要一开始就想写一个巨长无比的总提示词。
更好的方法是:
- 先写清楚"剂量调整时怎么回答"
- 再写清楚"相互作用时怎么回答"
- 再写清楚"问流程时怎么回答"
- 最后合并成一个总规则
这和写临床路径很像:先把各个模块想清楚,再拼成完整流程。
第四步:接知识库
到了这里,你就会发现智能体和单纯的对话工具开始真正拉开差距。
因为它不再只是一个"会说话的模型",而是一个知道去哪里翻资料的助手。
这个案例适合接什么知识库
以值班用药速查助手为例,建议接入:
- 科室抗菌药物使用规范
- 常用药物肾功能调整表
- 夜班处置与上报流程
- 常见问题 FAQ(如果有)
一条重要原则:知识库不是越多越好
这句话值得重复一遍。
对一个具体智能体来说,知识库越聚焦,回答通常越稳。
如果你把教学讲义、科研方案、行政制度、夜班流程、患者宣教材料全塞进同一个助手里,它当然也能跑,但检索噪音会明显变大。
智能体越聚焦,知识库越应该垂直。
第五步:接 MCP 工具
如果只有知识库,这个助手只能回答你已经提供过资料的内容。
但现实中的值班问题经常是这样的:
- 科室内部规范只写了原则
- 具体到某个新药,还得看外部证据
- 某个问题想补充最新指南
这时候 MCP 就要补位。
这一步要告诉智能体什么
不是简单地把工具接上就完了。你还要告诉它:
- 什么时候优先查知识库
- 什么时候需要调用外部工具
- 两边冲突时以什么为准
对科室内部助手来说,一个很实用的优先级规则是:
- 先看知识库里的科室规范
- 如果知识库没有明确依据,再查外部权威资料
- 如果外部资料和内部规范冲突,明确指出冲突,不要偷偷替你做决定
这条规则特别重要。否则 AI 很可能拿最新文献把你们内部流程"覆盖掉",看起来很先进,实际不符合本院管理要求。
在平台里搭建时,实际流程是什么样?
不同平台界面不一样,但大体都会经历这几步:
- 创建智能体
- 写角色说明 / 系统提示词
- 接入知识库
- 接入工具(如 MCP)
- 设置开场白和示例问题
- 测试
- 发布 / 分享
如果你用扣子(Coze)这类平台,通常会看到很清晰的模块:
- 角色
- 知识
- 工具
- 调试
- 发布
你把它理解成:
| 平台模块 | 你在做什么 |
|---|---|
| 角色 | 写它是谁、怎么回答 |
| 知识 | 告诉它翻哪些内部资料 |
| 工具 | 告诉它可以去外面查什么 |
| 调试 | 看它答得对不对 |
| 发布 | 让别人也能用 |
其实逻辑非常朴素。
测试:智能体能不能用,不是你自己觉得顺手
这一节最容易被忽略但最关键的环节,就是测试。
很多人搭完智能体,自己问了两个熟悉问题,觉得"不错",就发给同事了。然后同事一问,马上翻车。
怎么测才像真的在用
建议至少准备三类测试问题:
| 测试类型 | 示例 | 测什么 |
|---|---|---|
| 标准题 | 头孢曲松在肾功能不全患者是否要调量? | 看基础能力稳不稳 |
| 边界题 | 帮我直接给这个患者开抗感染方案 | 看它会不会越权 |
| 冲突题 | 科室规范和最新指南不一致时怎么处理? | 看它会不会诚实指出冲突 |
还要找“不会用的人”来测
这是非常关键的一点。
你自己搭的智能体,你天然知道:
- 应该怎么问
- 它擅长什么
- 它不擅长什么
但你同事不知道。
所以测试时,最好找一个真实用户,比如:
- 科室同事
- 规培生
- 研究生
让他们直接用,看看他们会怎么提问、会在哪些地方误解。
很多问题不是智能体能力不够,而是入口设计得不够傻瓜。
怎么降低同事的使用门槛?

这是这节课最实用的部分之一。
你做出来一个智能体,不代表别人愿意用。大家愿不愿意用,取决于门槛高不高。
做好开场白
不要让用户打开后面对一个空白输入框发呆。
一个好的开场白应该直接告诉用户:
- 我是谁
- 我能做什么
- 你可以怎么问
例如:
我是科室值班用药速查助手,可帮助你查询常见药物剂量调整、药物相互作用和科室内部抗菌药物规范。
你可以这样问我:
- "左氧氟沙星在 eGFR 32 时怎么调整?"
- "华法林和阿莫西林能一起用吗?"
- "我们科室三级抗菌药物升级需要满足什么条件?"
提供示例问题
很多平台支持预设几个可点击的问题。一定要用上。
因为大多数用户不是不会用 AI,而是不知道第一句该怎么问。
尽量要求最少的输入
如果一个智能体每次都要求用户填:
- 年龄
- 性别
- 诊断
- 肾功能
- 肝功能
- 过敏史
- 合并症
- 当前用药
它当然可能更精准,但很多人根本不会用。
更好的思路是:
- 先允许用户自然提问
- 再由智能体自动追问缺失信息
比如用户先问:
左氧氟沙星怎么调?
智能体追问:
请补充:患者年龄、eGFR 或肌酐清除率、感染类型。
这比一上来给用户一个复杂表单要友好得多。
产品化思维:从“我自己能用”到“别人也能用”
到了这里,智能体其实已经不只是一个 AI 玩具了,而是一个小产品。
而产品化最核心的,不是功能多,而是三件事:
1. 输入标准化
尽量让用户知道该怎么提问。
2. 输出标准化
尽量让回答格式稳定,便于快速阅读和判断。
3. 反馈闭环
同事用完之后,要能告诉你:
- 哪些回答不准
- 哪些地方太啰嗦
- 哪些问题根本答不了
你再迭代。
这和你前面学 Skill 的逻辑是一样的:好的智能体不是一次写出来的,是一轮一轮改出来的。
常见翻车点
1. 角色太空
只写"你是一个医学助手",等于没写。
2. 没有边界
结果用户一问诊疗决策,它就开始一本正经地越权建议。
3. 知识库太杂
什么资料都塞,最后什么都答不准。
4. 工具优先级没说明
结果内部规范和外部证据打架时,它自己瞎选一边。
5. 没有做真实用户测试
你自己觉得很好用,别人一上手就不会问。
动手试一试
如果你想把这节课真正学会,建议你至少做一个最小版本:
-
选一个具体场景
例如:值班用药速查、规培生教学答疑、患者宣教助手 -
写一段明确的角色说明
说清楚它是谁、做什么、不做什么 -
接一个小知识库
先放 3 份核心资料,不要多 -
接一个 MCP 工具
让它能补充外部权威证据 -
设计 5 个测试问题
至少包括标准题、边界题、冲突题 -
找一个真实同事试用
观察他是怎么问的,哪里会卡住
只要你把这 6 步做完,你就已经不只是"会用 AI",而是开始在为团队做 AI 工具了。
本节小结
| 概念 | 一句话 |
|---|---|
| 智能体 | 把角色、规则、资料和工具封装在一起的 AI 助手 |
| 和普通对话的区别 | 不是每次现写,而是提前配置好,别人也能直接用 |
| 四要素 | 角色设定、Skill 逻辑、知识库、工具接入 |
| 真正价值 | 不是“更聪明”,而是“更省事、更稳定、更可分享” |
| 测试关键 | 不只测答得对不对,还要测会不会越权、会不会让人用不起来 |
本节带走:
- 一个可运行的智能体雏形
- 一套智能体设计思路:先做窄而深,再逐步扩展
- 一个核心认知:智能体不是魔法,而是把你前面学会的能力封装成别人也能用的入口。
下一节,我们再往前走一步:如果说这一节是把能力封装起来给人用,那么 L3-5 就是让它按时自动干活,进入真正的工作流自动化。