AI法律合规助手:基于Agent工作流与知识库的智能系统构建

AI法律合规助手:基于Agent工作流与知识库的智能系统构建 1. 项目概述与核心价值最近在GitHub上看到一个挺有意思的项目叫ai-legal-compliance-assistant作者是Ramseygithub。光看名字你大概就能猜到它的定位一个利用人工智能来辅助处理法律合规事务的助手。我干了这么多年技术也接触过不少法律科技LegalTech的项目这个项目让我眼前一亮因为它切中了一个非常具体且痛点明确的场景——如何让AI在复杂的法律条文和合规要求面前不再是“一本正经地胡说八道”而是成为一个真正可靠、能降低风险的辅助工具。简单来说这个项目旨在构建一个智能体Agent它能够理解用户提出的、与法律合规相关的问题或需求然后通过调用一系列工具比如法律数据库查询、文档分析、风险点识别等给出结构化的、有依据的合规建议或风险提示。它的核心价值在于试图弥合普通业务人员甚至是非法律专业的开发者与晦涩难懂、又时刻在更新的法律法规之间的鸿沟。想象一下产品经理在规划一个新功能时能快速得到关于数据隐私比如GDPR、个人信息保护法的合规性初筛或者法务人员在审阅大量合同时能有一个AI助手先进行一轮关键条款和风险的提取与标注。这能极大地提升效率并前置性地规避一些潜在的法律风险。这个项目之所以吸引我是因为它没有停留在“用大模型做法律问答”的简单层面。从它的架构设计看它更强调“流程”和“可验证性”。AI在这里不仅仅是生成文本更是协调不同专业工具、遵循特定合规审查逻辑的“调度中心”。这对于追求结果可靠性的企业级应用来说是更为务实的设计思路。接下来我就结合自己的经验对这个项目的设计思路、关键技术实现以及在实际落地中可能遇到的坑进行一次深度的拆解和探讨。2. 项目整体架构与设计哲学2.1 核心设计思路从问答到流程很多初涉法律AI的项目容易陷入一个误区把大模型当作一个无所不知的“法律百科全书”用户问它答。但法律合规工作的复杂性在于它往往不是一个简单的QA而是一个需要多步骤、多信息源交叉验证的流程。ai-legal-compliance-assistant的设计显然意识到了这一点。它的核心思路是“智能体Agent驱动的工作流”。在这个框架下AI模型通常是大型语言模型LLM扮演“大脑”或“指挥官”的角色。当用户提出一个需求例如“评估我们这款用户画像功能在欧洲上线的合规风险”时AI大脑不会直接给出答案而是会进行以下思考意图理解与任务分解首先理解这是一个“跨境业务合规风险评估”任务。然后将其分解为子任务识别适用的法律GDPR、识别业务场景中的数据处理动作收集、分析、画像、查找对应的法条要求、对比现有业务设计找出差距、最后综合评估风险等级。工具调用与协调为了完成这些子任务AI大脑会决定调用哪些“工具”。比如调用“法律条文检索工具”去获取GDPR中关于用户画像和自动化决策的最新条款调用“数据流映射工具”来分析功能中的数据收集点调用“合规检查清单工具”来逐项核对。信息整合与推理获取各个工具返回的结果可能是结构化数据、文本片段、风险标签后AI大脑需要综合这些信息进行逻辑推理生成最终的人类可读报告并附上依据来源。这种设计哲学的优势非常明显可解释性强最终的结论不是“黑箱”生成的而是基于一系列可追溯的工具调用结果推导出来的。你可以看到是参考了哪条法条、对比了哪个数据点得出的风险判断。可靠性更高工具可以是经过验证的、更新的专业数据库或分析模块比单纯依赖LLM的“记忆”要可靠得多。LLM可能记错法条版本号但直接查询官方数据库就不会。易于迭代和维护法律在更新你可以更新法律数据库工具风险模型在优化你可以替换新的分析工具。而AI大脑的调度逻辑可以相对稳定。注意这种架构对“任务分解”和“工具描述”的准确性要求极高。如果AI大脑无法正确理解用户意图或对可用工具的功能理解有偏差就会导致调用链错误得出荒谬的结论。这是开发此类Agent系统的首要挑战。2.2 技术栈选型解析从项目命名和常见实践推断其技术栈很可能围绕以下几个核心组件构建智能体Agent框架这是项目的“中枢神经系统”。目前主流的选择有LangChain和LlamaIndex。我个人更倾向于在这个场景下使用LangChain原因在于它的Agent和Tool抽象非常成熟对于构建这种需要复杂逻辑调度和工具调用的工作流支持得更好。LangChain提供了丰富的内置工具也方便自定义而且其ReAct推理行动范式非常适合分步骤解决复杂问题。当然如果项目更侧重于对已有法律文档库的深度检索和索引LlamaIndex作为数据框架也有其优势。大语言模型LLM核心这是AI的“大脑”。选择取决于对效果、成本和控制力的权衡。云端API如OpenAI GPT-4, Anthropic Claude效果通常最好开发快捷但涉及数据出境和API调用成本问题对于处理敏感的法律合规数据需要极其谨慎的合同条款和数据加密保障。本地开源模型如Llama 3, Qwen, DeepSeek数据完全可控部署在内网安全性最高长期成本可能更低。但需要较强的工程能力进行部署、优化和可能的效果调优。对于法律这种高精度要求的领域需要精心挑选和微调模型。项目如果强调合规和安全采用本地化部署的开源模型是更可能的选择。工具集Tools这是项目的“手脚”决定了AI能做什么。合规助手的工具集可能包括法律知识库检索工具连接内部或外部的法律数据库如Westlaw, LexisNexis的API或自建的法条向量数据库实现精准的法条和案例检索。文档解析与摘要工具上传合同、政策文件后能解析PDF/Word提取关键条款、义务、权利、日期等结构化信息。风险模式匹配工具内置一些常见合规风险模式如“未明确告知用户数据保留期限”、“跨境数据传输缺少合法性基础”在文本中进行匹配和标记。合规检查清单工具针对特定场景如APP上架、数据出境的标准化检查项列表AI辅助逐项确认并记录证据。计算与查询工具例如根据用户所在法域计算诉讼时效或查询特定行业的监管机构联系方式。记忆与上下文管理为了进行多轮对话和复杂分析系统需要记住之前的交互内容。这通常通过向量数据库如Chroma, Pinecone, Weaviate存储对话历史和文档片段来实现以便在需要时进行相关信息的检索补充到当前上下文中。前端与交互界面可能是Web应用如用Streamlit、Gradio快速搭建、聊天机器人接口集成到Slack、钉钉等办公软件或直接提供API供其他业务系统调用。下表对比了两种主流技术路径的优劣可供选型参考特性维度路径一云端API LangChain (快速启动)路径二本地模型 定制框架 (深度可控)核心优势开发速度快模型能力强生态丰富数据安全可控无网络依赖可深度定制优化主要挑战数据隐私与合规风险API调用成本网络稳定性部署运维复杂模型效果调优门槛高硬件成本适合场景概念验证PoC对数据敏感性要求不高的内部辅助工具对数据安全要求极高的企业内网部署需与内部系统深度集成成本构成按Token计费的API成本开发人力成本服务器硬件/GPU成本运维人力成本专家调优成本实操心得在项目初期我强烈建议采用“云端API进行原型验证同时规划本地化迁移路径”的策略。先用GPT-4等顶级模型快速跑通整个Agent工作流验证核心逻辑的可行性。在这个过程中严格使用脱敏的测试数据。一旦流程被验证有效再着手将核心LLM替换为本地部署的开源模型并逐步将工具连接到企业内部的安全数据源。这样既能控制早期风险又能明确最终落地的技术方向。3. 核心模块深度解析与实现要点3.1 法律知识库的构建从文本到可查询的知识这是整个系统的基石。一个“死”的文档库和“活”的知识库有本质区别。我们的目标是将海量、非结构化的法律条文、案例、解读文章转化为AI能够精准、高效检索和理解的“知识”。第一步数据收集与清洗来源官方法律法规发布网站、权威商业法律数据库、企业内部合规政策、历史合同与咨询记录、行业标准文件。清洗去除无关格式如页眉页脚、将PDF/图片转换为纯文本、处理多级标题结构、识别和统一法律术语如“个人信息”与“个人数据”。第二步文本切片与向量化这是将文本转化为数学表示的关键步骤直接影响检索质量。切片策略不能简单按字数切分。法律文本逻辑性强最佳实践是按“语义完整性”切片。例如以一个完整的法条Article为单位或者以一个“义务-违反后果”的段落为单位。对于长案例可以按“案情-争议焦点-判决要旨”来切分。这需要一定的领域知识来定义规则。向量模型选择通用模型如text-embedding-ada-002效果不错但针对法律领域微调过的嵌入模型如law-bert或使用法律文本自训的模型在相似性判断上会更精准。向量化后每个文本切片就变成了高维空间中的一个点。第三步向量数据库存储与检索将向量存入如Chroma、Weaviate或Milvus这类数据库中。检索优化单纯靠余弦相似度进行语义搜索有时不够。需要结合混合搜索即同时进行语义搜索和关键词搜索如精确的法条编号“GDPR Article 22”并将结果加权融合。这能确保当用户输入非常具体的术语时能直接命中目标。元数据过滤为每个切片附加丰富的元数据如“法规名称”、“生效日期”、“适用地域”、“主题标签如数据保护、劳动法、反垄断”。检索时可以先通过元数据过滤范围再进行语义搜索大幅提升精度和效率。一个简单的实现示例使用LangChain和Chromafrom langchain_community.document_loaders import DirectoryLoader from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain.embeddings import HuggingFaceEmbeddings from langchain.vectorstores import Chroma # 1. 加载法律文档假设是txt格式 loader DirectoryLoader(./law_docs/, glob**/*.txt) documents loader.load() # 2. 使用更适合法律文本的分割器这里用递归字符分割作为示例实际应自定义 text_splitter RecursiveCharacterTextSplitter( chunk_size1000, # 切片大小 chunk_overlap200, # 重叠部分保持上下文 separators[\n\nArticle, \n\nSection, \n\n, 。, ] # 按法律文本结构分割 ) docs text_splitter.split_documents(documents) # 3. 使用嵌入模型这里用开源模型示例 embeddings HuggingFaceEmbeddings(model_nameBAAI/bge-base-zh) # 4. 创建向量数据库并存储元数据 vectorstore Chroma.from_documents( documentsdocs, embeddingembeddings, persist_directory./chroma_law_db, collection_metadata{hnsw:space: cosine} # 使用余弦相似度 )3.2 智能体Agent的工作流设计这是项目的“灵魂”决定了AI如何思考和工作。我们设计一个处理“合同审阅请求”的Agent工作流作为例子。工作流步骤接收用户输入用户上传一份《数据服务协议》草案并提问“请帮我审阅这份合同中关于数据安全责任的条款指出我方作为数据接收方的主要风险。”初始化Agent与工具系统初始化一个具有“工具调用”能力的LLM并为其配备工具doc_analyzer解析提取合同条款、law_retriever检索相关法律法规、risk_checker匹配风险模式。任务规划与分解LLM根据用户请求自主规划步骤Thought: 用户需要审阅数据安全责任条款。我需要先提取合同中的所有相关条款然后查找适用的数据安全法律标准最后对比找出差距和风险。Action: 调用doc_analyzer输入合同文本指令为“提取所有与‘数据安全’、‘保密’、‘安全措施’、‘责任’、‘赔偿’相关的条款段落”。执行与观察doc_analyzer工具运行返回结构化的条款列表每个条款包含原文、所属章节、类型标签。循环推理与行动LLM接收结果继续思考Thought: 我已获取了合同条款。现在需要知道法律要求是什么。我需要查找《网络安全法》、《数据安全法》以及相关国家标准中对数据接收方安全责任的规定。Action: 调用law_retriever输入查询“数据接收方的安全保护义务 法律条文”。信息综合与生成在获取了合同条款和法条要求后LLM调用risk_checker进行逐条对比识别出诸如“合同约定的安全措施等级低于法律要求”、“责任豁免范围过宽可能无效”、“赔偿上限设置不合理”等风险点。最后LLM综合所有信息生成一份包含风险摘要、具体条款引用、法律依据和修改建议的审阅报告。关键实现细节工具描述Tool Description必须用清晰、无歧义的自然语言描述每个工具的功能、输入和输出格式。这是LLM能否正确调用工具的关键。例如law_retriever的描述应为“根据输入的自然语言问题从法律知识库中检索最相关的法律条文、案例或官方解读。输入是一个查询字符串。输出是检索到的相关文本列表每条包含来源和内容。”提示工程Prompt Engineering需要为Agent设计系统提示词System Prompt明确其角色、目标和约束。例如“你是一个专业的法律合规助手。你的目标是通过分步骤调用工具为用户提供准确、有依据的合规分析。你必须基于工具返回的事实信息进行分析不得编造法律条文。如果信息不足应请求用户澄清或说明局限性。”错误处理与验证Agent可能会陷入循环、调用错误工具或生成不合理结果。需要在代码层面设置最大迭代次数、对工具输出进行合理性校验如检查返回的法条是否真实存在并设计兜底策略比如在多次尝试失败后转为请求人工介入。3.3 合规性检查与风险识别引擎这是体现项目专业深度的模块。它不仅仅是关键词匹配而是需要一定的规则和逻辑。基于规则的检查适用于明确、固定的要求。模式匹配使用正则表达式或更高级的NLP技术如命名实体识别NER来查找文本中的特定模式。例如识别合同中所有的时间期限“应在...日内”、“有效期...年”并与法律规定的上限如劳动争议仲裁时效为一年进行对比。检查清单驱动为不同场景预定义检查清单。例如“APP个人信息收集合规清单”可能包含“是否单独取得用户同意”、“是否明示收集目的、方式、范围”、“是否提供便捷的撤回同意方式”等。AI的任务是遍历清单在文档中寻找支持或违反每项的证据。基于模型的分类与推理适用于更模糊、需要上下文理解的场景。微调文本分类模型训练一个模型来判断某个合同条款属于“对甲方有利”、“对乙方有利”还是“中性”。这需要大量的标注数据。利用LLM进行零样本/少样本学习直接提示LLM进行判断。例如给出几条“不公平格式条款”的示例然后让LLM判断目标条款是否属于此类。这种方式灵活但对提示词设计和示例质量要求高。实操心得风险提示的“置信度”与“可解释性”绝对不能只给一个“高风险”的结论。必须附上依据具体违反了哪部法律的哪一条或者与哪个标准条款不符原文引用风险点对应的合同或政策原文是什么上下文分析为什么这一条构成风险可能引发什么后果例如“此条款可能因免除自身主要责任而被认定为无效格式条款导致在诉讼中不被法院支持。”置信度评分基于规则匹配的可以给高置信度基于LLM推理的如果模型能输出其思考链可以给予中等置信度并建议人工复核。4. 系统集成、部署与安全考量4.1 与企业现有系统的集成一个孤立的AI助手价值有限。它需要融入企业的工作流。输入集成文档管理系统直接从Confluence、SharePoint或OA系统中拉取待审阅的合同、政策草案。业务系统从产品需求文档PRD管理系统、客户关系管理CRM系统中获取新功能描述自动触发隐私影响评估PIA。通信平台集成到Slack、Teams或钉钉法务或业务人员可以在聊天窗口中直接助手提问。输出集成工单系统将识别出的高风险问题自动创建为合规工单分配给相应的责任人法务、安全、产品。报告系统生成的合规报告自动归档到指定的知识库或项目空间。监控仪表盘将合规检查的整体数据通过率、常见风险类型、处理时效可视化供管理层查看。技术实现上这通常意味着将AI助手的核心功能封装成一组RESTful API或GraphQL接口。前端界面和外部系统通过调用这些API来获得服务。例如一个/api/review/contract的POST接口接收合同文件返回审阅结果。4.2 部署模式与安全加固法律合规数据是企业最敏感的数据之一安全是生命线。部署模式全内网部署所有组件LLM、向量数据库、应用服务器均部署在企业内部防火墙之后与公网隔离。这是最安全的模式也是处理核心合规数据的必然要求。混合部署将计算密集的LLM推理部分部署在内部GPU服务器将工具层、前端等部署在可控的私有云上。需要确保内部网络通道的安全。绝对禁止将未经彻底脱敏的真实合同、内部政策等敏感数据发送至任何第三方公有云AI API。安全加固措施身份认证与授权集成企业统一的SSO单点登录确保只有授权人员才能访问。实现基于角色的访问控制RBAC例如普通员工只能进行一般性咨询法务人员可以进行深度合同审阅。数据加密传输层使用TLS/SSL。静态存储的数据向量数据库中的文本切片应进行加密。即使数据库泄露攻击者也无法直接获取明文法律条文。审计日志记录所有用户操作、AI的每一次工具调用、每一次查询和结果生成。日志需包含时间戳、用户ID、操作类型、输入输出摘要可脱敏满足合规审计要求。输入输出过滤与监控对用户输入进行安全检查防止提示词注入攻击。对AI输出进行监控设置关键词过滤防止生成不当或有害内容。4.3 性能优化与成本控制当用户量增大或文档变长时性能问题会凸显。LLM调用优化缓存对常见的、重复性的查询如“GDPR的数据主体权利有哪些”的结果进行缓存避免重复调用LLM节省成本和延迟。思维链压缩在Agent的思考过程中可能会产生很长的上下文。研究如何提炼和压缩之前的“思考”步骤只保留关键决策信息以节省Token。模型分级调用对于简单的意图分类或信息提取任务使用更小、更快的模型如小型微调模型对于复杂的综合推理再调用大模型。这需要设计一个路由机制。检索优化索引优化针对向量数据库进行索引参数调优如HNSW算法的参数ef_construction,M以平衡构建速度、查询速度和精度。多路召回与重排序采用多种检索方式如关键词BM25、语义向量、元数据过滤并行召回候选结果再用一个轻量级模型或规则对结果进行重排序提升Top结果的相关性。异步处理与队列对于耗时的任务如审阅一份上百页的合同不应要求用户同步等待。应设计成异步任务用户提交后立即返回一个任务ID后台处理完成后通过消息通知或让用户凭ID查询结果。5. 常见问题、挑战与应对策略在实际开发和落地过程中你会遇到一系列预料之中和预料之外的挑战。5.1 准确性与幻觉问题这是法律AI应用最大的“阿喀琉斯之踵”。LLM的“幻觉”生成看似合理但实为编造的内容在法律领域是灾难性的。挑战AI可能引用一个不存在的法条或者错误地解释一个法律概念。应对策略严格的事实 grounding强制要求AI的每一个关键结论尤其是法律条文引用、数据引用都必须来自其调用的工具返回的结果。在最终输出中必须附带引用来源。设置置信度阈值与人工复核环节对于低置信度的判断或涉及重大利益的风险点如高额赔偿条款系统应明确标记“建议由专业律师复核”并流转至人工流程。持续评估与反馈循环建立评估体系由法务专家对AI的输出进行评分。利用这些反馈数据可以进一步微调模型或优化工具和提示词。5.2 法律领域的复杂性与动态性法律不是静态的不同法域、不同行业的规定千差万别。挑战法律更新快且存在大量解释和裁量空间。AI难以处理模糊地带和需要价值判断的问题。应对策略知识库的持续更新机制建立自动化或半自动化的流程监控法律法规的更新并及时同步到知识库中。这是一个运维而不仅仅是开发问题。场景化与领域限定不要试图打造一个“万能”的法律助手。初期应聚焦于1-2个垂直领域如“数据隐私合规”或“劳动用工合同”在这些领域内深耕构建更精准的工具和规则。明确系统边界在用户界面和系统描述中清晰告知“本助手提供的是基于现有信息的合规性初步分析和风险提示不构成正式的法律意见。对于重大决策请务必咨询执业律师。”5.3 用户体验与接受度即使技术再先进如果不好用业务人员也不会用。挑战交互不自然回答过于冗长或晦涩无法理解业务侧的真实需求。应对策略设计对话式引导当用户提问“这个功能合规吗”这种模糊问题时AI应能通过多轮对话引导用户澄清是什么功能在哪个地区上线处理哪些用户数据从而将模糊需求转化为可执行的具体任务。提供结构化与可视化输出除了大段文字报告提供风险清单表格、合规进度仪表盘、条款对比图等让信息一目了然。与业务语言对齐训练或提示AI让其用业务人员能听懂的语言而不是纯粹的法言法语来解释风险。例如不说“可能违反《个人信息保护法》第十三条第一款”而说“这里缺少让用户主动点击同意的环节直接上线可能会被监管部门认定为违规收集信息。”5.4 技术实施难点排查表下表汇总了开发中可能遇到的具体技术问题及排查思路问题现象可能原因排查与解决思路Agent陷入循环不停调用同一个工具1. 工具描述不清晰LLM未理解其功能边界。2. 提示词未设定明确的停止条件或最大步数。3. 工具返回的结果未能让LLM进入下一阶段。1. 优化工具描述使其输入输出更明确。2. 在系统提示词中强调“在得到足够信息后应停止并给出最终答案”并在代码中设置max_iterations限制。3. 检查工具输出格式确保其包含LLM决策所需的结构化信息。检索工具返回的结果不相关1. 文本切片策略不合理破坏了语义完整性。2. 嵌入模型不适合法律领域。3. 检索时未结合关键词或元数据过滤。1. 调整文本分割器尝试按法条、章节等自然边界分割。2. 尝试使用在法律文本上训练过的嵌入模型。3. 实现混合检索并让用户或Agent在查询时指定筛选条件如法规名称、年份。LLM生成的内容偏离事实幻觉1. 系统提示词未强调“基于工具返回信息”。2. 工具返回信息不足或质量差LLM被迫“编造”。3. 上下文过长关键信息被淹没。1. 强化提示词如“你必须严格依据提供的法律条文和合同条款进行分析不得自行编造法律内容。”2. 优化检索工具确保其能返回高质量、相关的信息。如果信息不足应教导LLM回答“根据现有信息无法判断”。3. 采用更智能的上下文窗口管理策略如只保留最相关的历史片段。系统响应速度慢1. LLM API调用延迟高。2. 向量检索未优化或数据库规模大。3. 串行执行多个耗时工具。1. 考虑使用更快的模型或部署本地模型减少网络延迟。2. 优化向量索引参数对数据库进行分片。3. 分析工作流将可以并行的工具调用改为异步并行。6. 未来演进方向与个人思考这个项目为我们展示了一个非常清晰的蓝图但它的旅程才刚刚开始。从我个人的经验来看一个AI法律合规助手要真正从“有用”变得“不可或缺”还有几个关键方向可以演进。首先是深度专业化与垂直场景打磨。现在的框架是通用的但法律的不同领域差异巨大。下一步应该是孵化出“数据合规专家Agent”、“金融合规专家Agent”、“知识产权专家Agent”等。每个垂直Agent都配备领域特有的工具链和知识库甚至使用该领域数据微调过的专业模型。例如数据合规Agent会深度集成数据地图工具能自动关联业务流、数据资产和法规要求金融合规Agent则对反洗钱AML的复杂交易模式识别有特殊优化。其次是从分析到执行的闭环。目前的助手主要停留在“风险识别”和“建议提供”层面。未来可以探索与执行系统联动实现半自动化甚至自动化的合规动作。比如识别出隐私政策中缺少“用户权利响应机制”的描述后不仅能给出修改建议还能自动生成符合要求的条款文本草稿或触发一个待办任务提醒产品经理在下一个版本中更新。更进一步可以与代码仓库联动在开发人员提交涉及用户数据处理的代码时自动进行代码扫描检查是否有未加密存储敏感信息等低级错误。最后也是最具挑战的是构建可追溯、可审计的推理链。对于合规这样严肃的事情我们不能只相信一个“答案”。我们需要看到AI得出这个答案的完整“心路历程”它检索了哪些法条对比了合同的哪几个条款基于什么逻辑判断这里存在风险这个推理链本身应该是结构化、可查询、可验证的。这不仅是为了解释和信任更是为了满足内部审计和外部监管的要求。想象一下当监管机构问“你们这个合规结论是怎么得出的”我们能拿出一份清晰的、由AI生成的、每一步都有据可查的分析报告这将是巨大的价值。我个人在实际构建这类系统时最深的一点体会是技术实现固然复杂但更大的挑战在于跨领域的沟通与对齐。你需要让法务专家理解AI的能力边界和不确定性而不是把它当作一个全知的神你也需要让工程师理解法律问题的严谨性和上下文依赖性不能指望用几个简单的if-else规则来解决所有问题。这个项目成功的关键往往不在于用了多先进的模型而在于产品经理、法务、工程师能否坐在一起把一个个具体的合规审查场景拆解成AI能够理解、能够可靠执行的标准化步骤。这是一个不断迭代、相互教育的过程。从这个角度看ai-legal-compliance-assistant不仅仅是一个技术项目它更像是一个推动法律工作数字化转型的“桥梁”和“实验场”。