Page 101 - 《中国药房》2026年2期
P. 101

在此背景下,国家卫生健康委办公厅于 2024 年 11                    1.2 本地知识库向量化原理
          月发布的《关于印发卫生健康行业人工智能应用场景参                           1.2.1 向量化生成与池化过程
          考指引的通知》,明确提出推进药学服务智能化的发展                               本地知识库上传至LLM时会经过向量化编码处理
              [3]
          方向 ,为 AI 在药学领域的规范化、场景化应用提供了                        后再储存,文档在向量化前会被切分为若干 chunks。
          政策依据与发展指引。政策的出台,进一步凸显了构建                           chunk 再 被 进 一 步 分 解 为 最 小 语 言 单 元 —— 词 元
                                                            (tokens)。每个token映射为初始高维向量,并通过多层
          可靠性高、幻觉率低的药学智能问答平台的必要性。
                                                             Transformer 的 多 头 注 意 力 机 制 依 次 计 算 其 查 询
              多家医院虽已将药品说明书、诊疗指南和专家共识
                                                            (Query)、键(Key)和值(Value),最终经 softmax 函数计
          整合至本地数据库以供临床参考,但一些临床问题仍未
                                                             算注意力权重后得到新的高维向量。
          得到满意答复      [4―5] 。究其原因,在于语言模型对已上传
                                                                 若知识库中的文本分块过长,会导致单个分块内包
          的本地文档语义理解不足、向量化表征效率低,导致其
                                                             含多个不同主题或不相关的 chunks。当将这些混合内
          无法与用户查询意图进行有效匹配,从而生成了包含AI
                                                             容转换为一个整体向量时,不同方向的语义信息会在向
          幻觉的答复。为解决上述问题,我院尝试基于 LLM                           量空间中进行“中和”或“平均”,从而稀释了核心目标语
          Transformer 等算法开发一套可在基层医疗机构应用的                     句的向量表征强度。这种“向量稀释”效应会直接导致
          药学智能问答平台,并利用Python代码对本地知识库进                        在检索阶段关键信息的向量与用户查询向量的匹配精
          行批量标准化重构,确保 LLM 对本地知识库的精准检                         度下降,使得最相关的 chunks 难以被精准定位和召回,
          索和信息加工,从而降低AI幻觉率,提升用药咨询的准                          最终影响问答系统的准确率             [10―11] ,故需要通过优化分块
          确性、一致性与可追溯性,现报道如下。                                 策略来避免该问题。
          1 LLM工作原理                                          1.2.2 语义完整性对向量化效果的影响
          1.1 检索原理                                               自然语言中的完整语义通常可抽象为“客体 A-关
                                                             系-客体 B”的结构,如阿莫西林(客体 A)可以抑制(关
              在智能问答平台及本地知识库的构建过程中,先将
                                                             系)金黄色葡萄球菌(客体B)的繁殖。在Transformer架
          文档进行向量化处理,再根据特定算法(如倒排索引
                                                             构中,Query更侧重于映射客体间的关系及动作,Key主
          BM25)构建检索表,存储于本地数据库(如 Dify 平台知
                                                             要关注客体角色(即 A 或 B),而 Value 则负责承载关系
          识库 )。当用户发起查询时,LLM 首先会提取问题中
              [6]
                                                             的具体细节(如方式、程度与结果等)。因此,在构建知
          的关键词与语义特征,随后采用文本检索与语义检索相
                                                             识库时,确保每个chunk内“客体A-关系-客体B”语义单
                                [7]
          结合的方式完成信息匹配 。                                      元的完整性,是信息能够被准确处理与检索的必要条
          1.1.1 文本检索原理                                       件。同时,chunks内语句的排列顺序及上下文联系也会
              文本检索依赖于预先构建的倒排索引。在检索过程                         对检索结果产生显著影响 。
                                                                                   [12]
          中,LLM 先对候选片段(chunks——检索的最小输出单                      2 药学智能问答平台的构建
          元,也是后续语义计算的基本输入单元)进行初步筛选                           2.1 软件与硬件设备
          与相关性排序,再通过余弦相似度进行精确匹配与重排。                          2.1.1 软件工具
          余弦相似度是一种衡量两个语句相似程度(Score值)的                            本研究使用的环境部署工具为Docker;应用开发平
          常用数学方法,广泛应用于自然语言处理、信息检索及机                          台为 Dify;主要服务与工具包括:Rerank 模型管理平台
          器学习领域。其核心思想是将文本转换为高维空间中的                           Xorbits inference,LLM DeepSeek-R1-32B、GLM4,向量
          向量,通过计算两个向量夹角的余弦值来评估其相似性。                          化模型 BGE-m3,Rerank 模型 BGE-Reranker-v2-m3,Py‐
          Score值介于-1到1之间,越接近1,表示两个文本的语                       thon 运行平台 PyCharm,数据储存工具 Redis、Postgres,
                                                             网络请求管理工具Nginx,LLM管理平台Olalma。
          义越相似 。
                 [8]
                                                             2.1.2 硬件设备
          1.1.2 语义检索原理
                                                                 本研究使用的CPU型号为I7-14700KF(美国英特尔
              语义检索依赖于近似近邻检索(approximate nearest
                                                             公司),显卡为火神3090(七彩虹科技发展有限公司),硬
          neighbor,ANN)算法,该算法将相邻的向量划分为特定
                                                             盘为 SN770 1TB M.2(美国西部数据公司),内存条为
          区域或结构,以避免线性扫描带来的高计算成本,从而
                                                             D5-6000/64G[宏基电脑(上海)有限公司],主板为 Z790-
          显著提升检索效率。但该机制不可避免地存在信息遗                            P d5(华硕电脑股份有限公司)。
          漏的风险,即部分潜在相关chunks可能因未落入查询向                        2.2 软件安装和环境部署
          量划定的空间区域而未能被召回。因此,在知识库构建                               首先安装 Docker,在 Docker 的环境中部署 Dify 平
          过程中,应尽量将语义相近的内容划分为同一chunk,而                        台、模型管理平台 Xorbits inference、网络请求管理工具
          将语义差异较大的内容划分为不同chunks,以减少ANN                       Nginx 和数据储存工具 Redis、Postgres 等;安装 LLM 管
                        [9]
          阶段的召回失败 ,提高知识库检索的准确性与完整性。                          理平台Ollama,在Ollama上部署向量化模型BGE-m3和

          中国药房  2026年第37卷第2期                                                 China Pharmacy  2026 Vol. 37  No. 2    · 227 ·
   96   97   98   99   100   101   102   103   104   105   106