Skip to content

Agent_Basics 面试专题手册

💡 本章节共收录 2112 道面试真题,建议每天复习 10-20 题。


Q1: 在开发中,你怎么判断任务该用Workflow还是自主决策的Agent?

【核心解析】 任务确定性程度;步骤可预定义性;对灵活性和容错性的需求;工具调用和动态环境交互的复杂度


Q2: 介绍一下你的Agent项目架构

【核心解析】 整体架构设计(如分层、模块划分);Agent的核心组件(规划、记忆、工具使用);技术栈选型与理由;数据流与控制流;架构的扩展性与维护性


Q3: 你的Agent项目用的是什么大模型?

【核心解析】 模型选型依据(性能、成本、延迟);模型版本与特性;是否使用微调或提示工程;模型部署方式;与业务需求的匹配度


Q4: 对模型的推理框架有了解吗?

【核心解析】 主流推理框架(vLLM、TensorRT-LLM、llama.cpp等);推理优化技术(量化、KV缓存、批处理);部署环境(本地、云端);延迟与吞吐量权衡;框架选型理由


Q5: Temperature参数调高和调低,分别会对模型的输出产生什么影响?

【核心解析】 Temperature控制输出概率分布的平滑度;调低(接近0)使模型更确定性,倾向选择高概率词,输出更保守、一致;调高(>1)使分布更平坦,增加低概率词被选中的机会,输出更多样、有创造性,但也可能增加不连贯或幻觉。


Q6: 在Agent开发中,如何通过Prompt实现高效的指代消除和意图识别?

【核心解析】 使用明确的指令要求模型解析代词指代对象;提供上下文示例(few-shot)引导模型进行指代消解;结合对话历史构建完整语义;利用结构化输出(如JSON)强制模型明确意图和实体;对模糊意图进行澄清式反问。


Q7: 提示词工程高阶技巧:什么是思维链(CoT)和思维树(ToT)?

【核心解析】 思维链(Chain-of-Thought)通过逐步推理示例引导模型生成中间推理步骤,提升复杂推理能力;思维树(Tree-of-Thoughts)扩展CoT,允许模型在推理时探索多个分支,评估并回溯,适用于规划、搜索等任务;CoT适合线性推理,ToT适合需要探索和决策的任务;两者均需设计有效的提示模板和停止条件。


Q8: Workflow和Agent的区别是什么?

【核心解析】 Workflow是预定义步骤的静态流程,Agent是动态决策的自主实体;Agent具备环境感知和工具使用能力;Workflow通常无状态,Agent维护上下文记忆;Agent能处理非确定性任务,Workflow适合确定性流程


Q9: 你之前开发过 agent,怎么管理它的 context?

【核心解析】 上下文窗口限制与 token 管理;记忆机制(短期/长期/工作记忆);上下文压缩与摘要技术;多轮对话的状态管理;向量数据库与外部存储


Q10: 了解过Transformer模型结构吗?

【核心解析】 Transformer由编码器和解码器组成,核心为自注意力机制;自注意力计算Query、Key、Value的缩放点积,捕获序列内依赖;多头注意力通过多个注意力头关注不同表示子空间;位置编码注入序列顺序信息;前馈网络进行非线性变换;残差连接和层归一化促进训练;Transformer在NLP和CV等领域广泛应用。


Q11: 你如何理解主Chat产品的核心价值?它和搜索、Agent、传统工具型产品的边界分别在哪里?

【核心解析】 主Chat产品以对话交互为核心,提供拟人化、多轮上下文理解的自然语言体验;搜索强调信息检索与链接导航,边界在于是否直接生成答案并保持对话连续性;Agent侧重自主任务执行与工具调用,边界在于是否主动规划并操作外部环境;传统工具型产品功能明确、交互固定,边界在于灵活性与泛化能力。


Q12: 请解释 workflow、agent 和 skill 之间的区别。

【核心解析】 workflow 是预定义的步骤序列,通常无自主决策;agent 是能感知环境并自主执行动作以实现目标的实体;skill 是 agent 可调用的具体能力或功能单元;三者关系:agent 可通过 workflow 编排多个 skill 完成复杂任务。


Q13: 你如何看待传统算法与 Agent 应用的区别?

【核心解析】 传统算法通常针对特定问题设计确定性步骤;Agent 强调在开放环境中的自主决策与适应性;Agent 常结合 LLM 进行推理和规划,而传统算法依赖人工规则或模型;Agent 更适合动态、多步、需要工具交互的任务。


Q14: 提升 LLM 推理效率和降低成本的方法有哪些?

【核心解析】 模型优化:量化(Quantization)、剪枝(Pruning)、蒸馏(Distillation)、低秩分解(Low-Rank Factorization);推理优化:KV缓存优化(PagedAttention、Multi-Query Attention)、算子融合、批处理(Batching)、投机解码(Speculative Decoding);系统架构:分布式推理、模型并行、流水线并行;服务策略:请求调度、缓存相似请求、动态批处理;硬件加速:使用GPU/TPU、专用推理芯片、混合精度推理


Q15: 线程池的核心构造参数有哪些?

【核心解析】 核心参数:corePoolSize(核心线程数)、maximumPoolSize(最大线程数)、keepAliveTime(空闲线程存活时间)、unit(时间单位)、workQueue(工作队列);拒绝策略:AbortPolicy(抛异常)、CallerRunsPolicy(调用者执行)、DiscardPolicy(丢弃)、DiscardOldestPolicy(丢弃最旧);线程工厂:自定义线程命名、守护线程设置;队列类型:SynchronousQueue、LinkedBlockingQueue、ArrayBlockingQueue;参数设置原则:CPU密集型(核心数+1)、IO密集型(2*CPU核心数)


Q16: 一个有队列的线程池,请求不断进来,说说线程池内部的执行逻辑。

【核心解析】 执行流程:提交任务 -> 若核心线程未满则创建核心线程执行;若核心线程已满则任务入队;若队列已满且最大线程数未满则创建非核心线程执行;若最大线程数已满则执行拒绝策略;线程回收:非核心线程在空闲超过keepAliveTime后回收;队列作用:缓冲任务,解耦提交与执行;注意事项:队列无界可能导致OOM,有界队列需合理设置容量和拒绝策略;状态转换:RUNNING、SHUTDOWN、STOP、TIDYING、TERMINATED


Q17: 目前了解到Agent方向最新的东西有什么

【核心解析】 Agent领域的最新进展,如多模态Agent、工具调用增强、长短期记忆融合;当前主流Agent框架(LangChain、AutoGPT等)的演进;Agent在复杂任务规划与执行上的突破;学术界与工业界的前沿趋势


Q18: Agent和模型方面你更倾向于什么

【核心解析】 对Agent架构与模型能力的权衡;倾向于端到端模型还是模块化Agent设计;模型能力(如推理、规划)与工程化(如工具调用、记忆)的侧重;个人技术偏好与项目经验结合


Q19: 常用的提示词工程技巧有哪些?

【核心解析】 角色扮演(设定专家身份);思维链(Chain-of-Thought)引导逐步推理;少样本提示(Few-shot)提供示例;结构化输出要求(如JSON格式);分步指令和约束条件明确化;使用“让我们一步一步思考”等触发词;避免歧义,提供正反例。


Q20: 请说明 LangChain 和 LangGraph 的主要区别及适用场景。

【核心解析】 LangChain 面向线性链式工作流;LangGraph 支持有状态、循环、条件分支的图结构;LangGraph 更适合复杂多步骤智能体;状态管理与节点编排差异;实际案例对比


Q21: agent系统架构设计和核心优化

【核心解析】 Agent系统的基本架构(感知、规划、执行、记忆);模块化设计与解耦;性能优化(延迟、吞吐量);资源管理与调度;可扩展性与鲁棒性设计


Q22: 自主agent

【核心解析】 自主Agent的定义与特征;自主决策与规划能力;目标驱动与任务分解;环境感知与适应;自主Agent的挑战(安全性、可控性)


Q23: 一个完整的 Agent 包含哪几个核心模块?

【核心解析】 感知模块(输入处理);规划模块(任务分解与决策);记忆模块(短期/长期记忆);工具使用模块;执行与反馈循环


Q24: 阐述Agent(智能体)和LLM(大语言模型)的区别,如果让你从零开发Agent,会重点考虑哪些核心要素?

【核心解析】 LLM是纯文本推理引擎,Agent具备感知、规划、工具使用和记忆等能力;核心要素包括:任务规划模块(如ReAct、Plan-and-Execute)、工具集成框架(函数调用、API封装)、记忆系统(短期/长期/工作记忆)、错误处理与自我反思机制、安全护栏


Q25: 阐述Agent(智能体)和LLM(大语言模型)的区别,如果让你从零开发Agent,会重点考虑哪些核心要素

【核心解析】 Agent是具备自主感知、决策、执行能力的实体,LLM是其核心推理组件;Agent需集成规划、工具使用、记忆等模块;开发Agent需考虑任务规划与分解能力;工具调用与外部环境交互接口;记忆管理与上下文窗口限制;安全性与可靠性机制


Q26: 对整个Agent发展的理解评论

【核心解析】 Agent从单一任务向多步自主决策演进;LLM作为核心推理引擎的突破;工具使用与外部环境交互的增强;多Agent协作与分布式架构;安全、伦理与对齐问题;未来在复杂任务自动化中的潜力


Q27: 项目中 agent 执行一个进程有哪几种方式?

【核心解析】 Agent 执行进程的方式通常包括:同步调用(阻塞等待结果)、异步任务(消息队列或后台任务)、流式执行(SSE 或 WebSocket 逐步返回)、子进程或沙箱执行(安全隔离运行代码或命令);需根据任务耗时、资源隔离需求和实时性要求选择合适方式。


Q28: 你对Agent范式怎么理解

【核心解析】 Agent的定义与核心组件(感知、规划、执行);主流范式如ReAct、Plan-and-Execute、Reflection;与传统程序的差异(自主性、推理能力);LLM在Agent中的角色;Agent的适用场景与局限性


Q29: 模型和 Agent 的区别是什么?

【核心解析】 模型(LLM)是纯文本输入输出的推理引擎,不具备自主行动能力;Agent 是在模型基础上增加了规划、工具调用、记忆等模块,能够感知环境、制定计划并执行动作的自主系统;Agent 强调目标导向和与环境交互,而模型仅提供语言理解和生成。


Q30: Claude Code 的源码结构、Skill 与 Agent 机制是怎样的?如何将普通 Agent 项目升级到 Claude Code 级别?

【核心解析】 Claude Code 的 Skill 模块化设计;Agent 的自主规划与执行流程;从简单 Agent 到复杂 Agent 的架构演进;Spring AI 阿里巴巴渐进式框架的集成思路


Q31: 请整体介绍你的Agent项目,包括模块划分、执行流程、数据量级、遇到的难点以及实现过程中不符合预期的地方。

【核心解析】 Agent项目的整体架构与模块设计;核心执行流程与数据流;项目中的数据量级与规模;开发过程中遇到的主要难点与挑战;实现结果与预期不符的案例分析。


Q32: Agent的Prompt是如何设计的?针对模型幻觉问题做了哪些约束?

【核心解析】 Prompt的设计原则与结构(如角色设定、任务描述、输出格式);减少幻觉的约束策略(如事实核查指令、引用溯源);Prompt迭代优化的方法与案例;幻觉问题的评估与监控。


Q33: Transformer中的位置编码有哪些类型?绝对位置编码和相对位置编码的区别是什么?各自的适用场景和效果如何?

【核心解析】 绝对位置编码(如正弦/余弦、可学习)的原理与特点;相对位置编码(如T5、RoPE)的原理与特点;两者在长序列建模、外推能力上的差异;不同PE对模型性能的影响;典型模型(BERT、GPT、LLaMA)中PE的选择


Q34: 在Transformer中,Norm层(如LayerNorm、RMSNorm)通常放在什么位置?有哪些变体?各自有什么优缺点?

【核心解析】 Post-LN与Pre-LN的差异及对训练稳定性的影响;LayerNorm与RMSNorm的计算原理;Norm层位置(如QKV后、FFN后)的常见设计;不同Norm对梯度流动和收敛速度的影响;DeepNorm等改进方案


Q35: Agent系统通常包含哪些核心组件?请介绍相关技术。

【核心解析】 规划(Planning)模块(任务分解、反思);工具调用(Tool Use)与函数注册;记忆(Memory)与RAG(检索增强生成);多Agent协作与通信;安全与评估机制


Q36: Agent循环的整体流程是怎样的?

【核心解析】 Agent感知环境、规划、执行、观察反馈的循环过程;LLM在循环中的角色(如推理、决策);工具调用与记忆更新的集成;循环终止条件的设计


Q37: 如何管理Agent的状态和上下文?

【核心解析】 状态表示(如对话历史、任务进度);上下文窗口限制与压缩策略;记忆系统(短期/长期记忆)的设计;状态持久化与恢复机制


Q38: 如何看待大模型与Agent的未来发展?

【核心解析】 大模型能力提升对Agent自主性的影响;多模态与具身智能的融合;Agent在垂直领域的落地挑战;安全与伦理问题


Q39: 为什么使用DeepSeek V?Agent项目方案是什么?AI思考是指思考什么?思考依赖大模型本身的推理能力,还是在模型之外搭建了一套机制?

【核心解析】 模型选型依据(性能、成本、开源生态、推理能力);Agent整体架构设计(规划、执行、反思);AI思考的含义(推理、规划、自我反思);模型原生推理能力与外部推理框架(如ReAct、CoT)的结合;思考机制的可解释性与可控性


Q40: 在ReAct框架中,Thought和Action的循环是如何终止的?如果中途解析失败如何处理?

【核心解析】 终止条件包括最大迭代次数、达到最终答案或特殊结束动作;解析失败时的异常处理机制,如重试、回退或返回错误信息;实际实现中需考虑超时、资源限制等边界情况;LangChain等框架中的默认处理与自定义扩展方法。


Q41: 是否有使用Agent开发框架,比如LangChain?

【核心解析】 了解候选人对主流框架的熟悉程度,如LangChain、AutoGen、CrewAI等;考察框架选型理由、使用体验、优缺点;关注是否理解框架底层原理,而非仅调用API


Q42: 对话 LLM 与普通生成模型的核心区别是什么?在多轮交互中如何有效管理对话状态?

【核心解析】 对话 LLM 需维护用户意图、对话状态、约束条件和安全边界,而非仅做 next token prediction;历史信息不等价于有效状态,需根据当前轮次重新解释历史;工程上通常将对话拆分为短期上下文、摘要状态、长期偏好和外部检索证据;核心难点在于上下文一致性、角色一致性、拒答策略、澄清提问和工具调用。


Q43: Python 中元组和列表的区别是什么?函数是对象吗?装饰器的原理是什么?

【核心解析】 元组不可变、列表可变;元组通常用于异构数据,列表用于同构数据;函数是对象,可赋值给变量、作为参数传递或返回;装饰器本质是接受函数作为参数并返回新函数的高阶函数,用于增强函数功能。


Q44: Agent有哪些常见的模式?

【核心解析】 常见的Agent模式包括:ReAct(推理+行动)、Plan-and-Execute(先规划后执行)、Reflection(自我反思改进)、Tool-use(工具调用)、Multi-Agent协作;每种模式适用于不同复杂度的任务;模式的选择影响系统的自主性和可控性。


Q45: 除了工厂模型,还了解哪些模式?

【核心解析】 常见设计模式(如单例、观察者、策略、装饰器);在Agent开发中的应用(如策略模式用于工具选择,观察者模式用于事件驱动);架构模式(如MVC、微服务);Agent特定模式(如ReAct、Plan-and-Execute)


Q46: Token化和Embedding有什么区别?

【核心解析】 Token化是将文本切分为子词/字符;Embedding是将Token映射为稠密向量;Token化是预处理步骤;Embedding是模型参数;两者在NLP流程中的位置不同


Q47: 齐家网AI大模型面试:自我介绍,agent开发语言、环境,是否用过AI编程工具,会使用go吗

【核心解析】 熟悉Python/Go等开发语言;了解Agent开发框架如LangChain;使用过AI编程辅助工具;具备跨语言开发能力


Q48: 请介绍一下你对Agent架构的了解。

【核心解析】 Agent架构通常包含规划、记忆、工具使用等模块;规划模块负责任务分解与决策(如ReAct、Plan-and-Solve);记忆模块包括短期记忆(上下文)和长期记忆(向量数据库);工具使用模块允许Agent调用外部API;架构设计需平衡自主性与可控性


Q49: 大模型在推理时通常分哪两个阶段,每个阶段关注点是什么?

【核心解析】 推理分为 prefill 和 decode 两个阶段;prefill 阶段一次性编码输入 prompt,关注吞吐、并行效率和长序列计算开销;decode 阶段逐 token 生成,关注单步延迟、KV Cache 复用和 batch 调度效率;理解两阶段有助于针对性优化推理性能


Q50: Go 语言中 context 的取消传播和值传递机制是怎样的?

【核心解析】 父context取消会传播到所有子context;值传递用于在调用链中传递元数据,如HTTP请求中的tracer;消息重试可结合NACK机制或死信队列。


Q51: Transformer 中 Attention 的本质是什么?为什么它适合 Agent 场景?

【核心解析】 Attention本质是动态加权信息选择,根据query分配不同token的影响力;优势是处理长距离依赖和内容寻址;Agent场景需从长历史、工具返回和外部知识中挑选有用信息;落地时需注意噪声干扰。


Q52: 在多轮对话 Agent 中,Attention 的局限性体现在哪些方面?

【核心解析】 上下文长度有限,长历史需裁剪;纯Attention只能在已有上下文选信息,无法天然解决外部检索、长期记忆和状态恢复;适合信息融合,不适合单独承担任务记忆和运行时控制。


Q53: 推理模式有一个开关,知道是怎么生效的吗

【核心解析】 推理模式开关通常指模型是否启用思维链(Chain-of-Thought)或慢思考机制;实现方式:通过系统提示或特殊Token控制模型生成详细推理步骤;开关生效原理:在推理时动态调整解码策略(如温度、Top-p)或注入特定前缀;可能涉及模型内部的路由机制(如MoE中的专家选择);对推理质量和延迟的影响


Q54: 你做的 Agent 系统采用的是什么框架?

【核心解析】 常见 Agent 框架(如 LangChain、AutoGPT、MetaGPT 等)的设计理念与适用场景;框架选型的考量因素(如任务复杂度、工具集成、多 Agent 协作需求);自研框架与开源框架的权衡;框架的核心组件(规划、记忆、工具调用)的实现方式


Q55: LangGraph 和 LangChain 的区别是什么?

【核心解析】 LangGraph 基于状态机模型,对循环和分支支持更好,适合复杂 Agent 流程;LangChain 是链式调用框架,适合线性流程;LangGraph 提供更好的可控性和可观测性,如状态显示、便于 trace 和调参;LangGraph 显式管理状态,支持条件路由和循环;在需要动态决策和循环的场景下 LangGraph 更优。


Q56: agent原理是什么?skills和mcp的区别是什么?

【核心解析】 Agent的感知、规划、执行与反馈循环;LLM作为核心推理引擎的角色;Skills通常指预定义的功能模块或工具;MCP(Model Context Protocol)是模型与外部工具/数据源交互的标准化协议;Skills与MCP在集成方式、灵活性和标准化程度上的差异


Q57: 挑了一个agent项目问的,是多agent还是单agent

【核心解析】 区分单Agent与多Agent系统的架构差异;单Agent系统的核心组件与工作流程;多Agent系统中Agent间的通信与协调机制;项目中选择单/多Agent的考量因素


Q58: Agent怎么搭建的

【核心解析】 Agent框架选型(如LangChain、AutoGPT等);核心组件设计(规划、记忆、工具使用);LLM的集成与提示工程;环境交互与任务执行循环


Q59: 请介绍你在项目中是如何搭建 Agent 和实现 RAG 的,包括数据获取、处理、缓存机制、上下文和记忆管理。

【核心解析】 Agent 架构设计(如 ReAct 模式);RAG 的 chunking 策略;数据获取与处理流程;缓存机制(如 Redis 缓存穿透应对);上下文和记忆管理方案;生产级高并发场景的考量


Q60: 你怎么理解上下文窗口,哪个部分最占用token?

【核心解析】 上下文窗口不是单纯能塞多少文本,而是决定哪些信息值得保留在模型视野中;最占token的通常不是用户当前问题,而是多轮对话历史、工具返回结果、系统提示、长文档切片和中间状态摘要;工具返回和历史摘要往往比用户输入更长,容易挤爆窗口;上下文管理的关键是决定哪些信息必须保留、哪些可压缩成状态、哪些可延后检索,而非机械截断


Q61: 美团Agent开发一面中,纯八股文考察了哪些内容?

【核心解析】 Agent基础概念:Agent的定义、核心组件(感知、规划、执行);LLM在Agent中的角色:作为推理引擎,处理自然语言指令,生成计划或调用工具;工具调用机制:Function Calling的原理,如何定义工具接口,参数提取与结果解析;记忆与上下文管理:短期记忆(对话历史)、长期记忆(向量数据库)、工作记忆;多Agent协作:通信协议、任务分配、冲突解决


Q62: 问 agent 项目的架构

【核心解析】 Agent 架构通常包括感知、规划、执行、记忆等模块;需说明各模块职责与交互方式;可结合具体项目阐述技术选型(如 LLM 基座、工具调用协议、记忆存储方案);强调架构的可扩展性、容错性和状态管理;体现对 Agent 整体设计模式的理解。


Q63: 介绍你Agent的三个模块

【核心解析】 Agent架构设计;模块划分与职责;模块间交互与协作


Q64: 请介绍一下你做的Agent项目,包括它实现了什么功能以及具体是如何实现的?

【核心解析】 Agent的核心功能与业务逻辑;技术架构与实现细节;使用的关键技术与框架;遇到的挑战与解决方案


Q65: 你用的 Qwen3-4B,能系统性讲讲这参数量 4B 是什么含义吗?怎么估计出来的?

【核心解析】 4B 指 40 亿参数,包括嵌入层、Transformer 层和输出层的权重矩阵;嵌入层参数量 = 词表大小 × 隐藏维度;每层 Transformer 包含自注意力(QKV 投影和输出投影)和 FFN(两个线性层);总参数量 = 嵌入层 + 层数 × 每层参数 + 输出层(若共享权重则不计);估计时需考虑注意力头数、头维度、FFN 中间维度等超参数。


Q66: KV-cache 占用的显存和哪几个因素有关?

【核心解析】 批次大小(batch size)和序列长度(sequence length);层数(num_layers)和注意力头数(num_heads);每头维度(head_dim)和数据类型(如 FP16 占 2 字节);总显存 ≈ 2 × batch × seq_len × num_layers × num_heads × head_dim × 字节数;与隐藏维度无关,仅与注意力头配置相关。


Q67: Causal mask 如何支持 single user multi-item 推理优化?

【核心解析】 Causal mask 确保每个 token 只能看到之前的 token,维持自回归生成;在 multi-item 推理中,可将多个 item 拼接为一个序列,用 causal mask 隔离 item 间影响;避免 item 间信息泄露,同时利用批处理提高 GPU 利用率;需设计特殊分隔 token 和位置编码;减少重复编码开销,提升推理吞吐。


Q68: 开发你的 Agent 的时候,用的是什么流程?

【核心解析】 需求分析与场景定义;选择 Agent 框架或自研架构;设计工具调用与记忆机制;实现规划与执行循环;迭代测试与评估优化


Q69: 开发你的项目 Agent 的时候,有没有借鉴目前各个产品的思路?

【核心解析】 参考主流 Agent 产品如 AutoGPT、LangChain Agent 的设计模式;借鉴工具调用标准化思路;学习多 Agent 协作与记忆管理方案;结合业务场景进行定制化改进


Q70: 模型和 Agent 的区别是什么?

【核心解析】 模型是纯语言理解与生成能力;Agent 在模型基础上增加规划、工具使用、记忆和行动能力;Agent 能自主分解任务、调用外部工具、与环境交互;模型是被动响应,Agent 是主动执行


Q71: 了解过哪些Agent开发框架

【核心解析】 主流框架如LangChain、AutoGPT、MetaGPT、CrewAI等;框架提供的核心能力(规划、工具调用、记忆);各框架的优缺点和适用场景;框架的扩展性和自定义能力;实际项目中的选型考虑


Q72: OpenClaw 这类设计与传统 Agent 实现最大的区别是什么?

【核心解析】 传统 Agent 多为 Prompt + Tool Call + while loop 的轻量封装;OpenClaw 强调运行时,显式建模计划、状态、工具、观察、回放和恢复;核心区别在于是否有完整的执行语义,包括失败补偿、中断恢复、上下文裁剪和动作可重放性


Q73: 上下文工程解决的核心问题是什么?它和 token 限制的关系是怎样的?

【核心解析】 核心问题是“给模型什么才最有用”,而非单纯塞不下;上下文窗口内多种信息竞争注意力;上下文工程是在有限窗口内选择最小但充分的信息集,本质是信息选择和状态投影问题


Q74: 一个成熟的上下文窗口通常应包含哪些内容?如何根据任务阶段动态调整?

【核心解析】 包含系统角色与边界约束、当前用户请求、任务状态摘要、最近对话、必要长期记忆、工具返回、格式与安全约束、高价值示例;执行型任务侧重工具结果和参数槽位,创作型任务侧重风格约束和用户偏好,恢复型任务侧重 checkpoint 和未完成动作;窗口设计需与状态机联动


Q75: 在压缩上下文时,为什么很多场景下优先压缩模型输出而不是用户输入?

【核心解析】 模型输出通常更冗长、重复性高,包含礼貌话术和低密度内容;用户输入虽短但承载目标、约束、纠错和偏好,压缩易丢失关键条件;优先压缩冗余密度更高的部分,但若用户输入有长段复制文档也需结构化抽取


Q76: 如果连续多轮对话中只压缩过一次模型输出,剩余轮次如何拼接才能减少失真?

【核心解析】 不能简单将摘要插入剩余内容;需考虑信息连贯性和上下文一致性;可能涉及结构化拼接或动态权重调整


Q77: 你认为未来Agent自进化的形式是怎样的?目前的难点在哪里?

【核心解析】 自进化的可能形式,如基于反馈的自我改进、自动提示词优化、模型微调;当前难点包括缺乏可靠评估信号、灾难性遗忘、探索与利用平衡、安全约束;自进化可能带来的风险与挑战


Q78: 谈谈你对Agent的理解,包括其核心概念和关键组件。

【核心解析】 Agent的定义与自主性;感知、规划、执行、记忆等核心模块;与传统程序的本质区别;典型应用场景;当前技术局限与前沿方向


Q79: 未来 Agent 的发展趋势是什么?

【核心解析】 多模态与具身智能融合;自主性与协作能力增强;安全对齐与可解释性;行业垂直场景深化;工具使用与环境交互标准化


Q80: 介绍一下ReAct范式和Plan-and-Execute范式,并说明什么情况下用ReAct,什么情况下用Plan-and-Execute

【核心解析】 ReAct范式将推理与行动交替进行,适合需要动态调整、环境反馈不确定的任务;Plan-and-Execute范式先规划再执行,适合步骤明确、可预先分解的任务;ReAct灵活性高但可能效率低,Plan-and-Execute效率高但缺乏适应性;选择依据包括任务确定性、环境动态性和对效率的要求;实际应用中可结合两者优势进行混合设计


Q81: 讲一讲你对 agent 的理解,从发展路线、早期架构到现在的 harness engineering。

【核心解析】 Agent 从符号推理到强化学习再到 LLM-based 的演进;Harness engineering 强调工程化、可观测与可控性;典型架构如 ReAct、Plan-and-Execute 的演变;LLM 作为核心推理引擎带来的范式变化;当前生产环境中 agent 的可靠性挑战。


Q82: 对 agent 的理解与评论。

【核心解析】 Agent 的自主性与目标驱动;LLM 作为核心推理引擎的优势与局限;工具使用、规划与记忆的协同;当前 agent 的可靠性、安全性与评估挑战。


Q83: 谈谈你对 Agent 的理解,从早期范式到当前范式,以及你对各个组件的理解。

【核心解析】 Agent 的定义与核心概念(感知、规划、执行);从规则型到基于 LLM 的自主 Agent 的演进;Agent 的关键组件(记忆、规划、工具使用)及其交互方式;当前主流范式(如 ReAct、Plan-and-Execute)的特点与优势。


Q84: 请详细介绍一下你实现的 Agent 内部架构和具体实现细节。

【核心解析】 Agent 的核心组件:规划、记忆、工具使用;具体实现中的模型调用流程、提示词设计、上下文管理;如何处理多轮对话和状态维护;工具调用接口的定义和解析;可能涉及的推理循环(ReAct 等)。


Q85: Agent的核心组件有哪些?

【核心解析】 LLM大脑;规划模块;工具使用;记忆系统;行动执行


Q86: Agent的局限性是什么?

【核心解析】 幻觉问题;长期记忆与上下文窗口限制;工具调用的可靠性;复杂推理的准确性;安全与伦理风险


Q87: 有没有做过Agent相关的项目?是否了解一些新型的Agent架构,比如OpenCloud等?

【核心解析】 Agent的基本概念(感知、规划、执行);传统Agent架构(如ReAct、Plan-and-Execute);新型Agent架构的特点(如模块化、云原生、多Agent协作);OpenCloud等架构的设计理念与优势


Q88: 你认为这些新型的Agent架构,相比传统的workflow或者Agent系统,有哪些优势?

【核心解析】 灵活性与可扩展性;对复杂任务的处理能力;资源管理与调度效率;与现有系统的集成能力;容错与自愈机制


Q89: 你这个 Agent 是问答型、决策型,还是执行型?

【核心解析】 区分问答型(信息检索与生成)、决策型(基于推理选择动作)和执行型(直接操作环境)Agent 的核心差异;根据业务场景说明 Agent 类型的选择依据;阐述不同类型 Agent 在架构设计上的关键模块(如决策型需规划模块,执行型需工具调用与安全机制)。


Q90: 你觉得大模型产生幻觉的原因是什么?

【核心解析】 训练数据噪声与偏差,模型学习到错误关联;概率生成机制,模型倾向于生成高概率但不一定正确的序列;缺乏实时事实校验,无法访问外部知识库;上下文误导,不相关的上下文干扰模型判断;过度泛化,模型在知识边界外强行生成内容


Q91: LangGraph 与 LangChain 的区别和差异是什么?分别适用于哪些使用场景?

【核心解析】 LangChain 的链式调用与线性流程;LangGraph 的图结构与循环控制;对复杂 Agent 工作流的支持程度;典型场景对比(如简单 RAG vs 多步 Agent)


Q92: 你最近关注了哪些前沿的Agent项目或技术?请举例说明其底层逻辑。

【核心解析】 跟踪AI Agent领域的最新进展(如OpenClaw等);能够分析前沿Agent的架构设计;理解其核心创新点与解决的问题;具备批判性思考,能指出潜在不足。


Q93: 什么是Agent?它最重要的组成部分有哪些?

【核心解析】 Agent是能够感知环境并采取行动以实现目标的自主实体;核心组成部分包括感知模块、规划模块、记忆模块、工具使用模块和执行模块;自主性(Agency)是其关键特征;LLM-based Agent通常以大语言模型为大脑进行推理和决策;Agent需具备与环境交互并适应变化的能力


Q94: Agent的自主性(Agency)是如何实现的?

【核心解析】 通过规划(Planning)模块将复杂任务分解为子任务;利用工具(Tools)调用外部API或服务;基于记忆(Memory)存储和检索历史信息;结合反思(Reflection)机制自我修正;LLM的推理能力支撑动态决策


Q95: 主模型选型、子Agent类型和上下文内容如何考虑?

【核心解析】 主模型需根据任务复杂度、延迟和成本选择(如GPT-4、Claude等);子Agent类型包括工具调用Agent、规划Agent、记忆Agent等;上下文需包含任务描述、历史交互、工具定义和记忆信息;需平衡上下文长度与模型性能;动态管理上下文避免过载


Q96: Agent的运行流程是怎样的?RAG库在Agent中如何作为技能(skill)使用?

【核心解析】 Agent典型流程:感知-规划-执行-反馈循环;RAG作为工具/技能被Agent调用,用于检索外部知识;Agent根据任务分解决定何时触发RAG检索;检索结果作为上下文增强生成;需设计RAG的输入输出接口与Agent框架集成。


Q97: 请介绍一个你参与或主导的 Agent 项目,包括其架构、核心模块以及你负责的部分。

【核心解析】 项目背景与目标;Agent 架构设计(如感知、规划、执行、记忆等模块);技术选型与关键实现细节;个人职责与贡献;项目成果与反思


Q98: 你了解过哪些其他 Agent 框架,比如 AgentScope、LangChain?

【核心解析】 AgentScope 的设计理念与特点;LangChain 的核心抽象与链式调用;不同框架在工具调用、记忆管理上的差异;框架选型的考量因素


Q99: 你了解Claude Agent SDK吗?请介绍其主要功能和特点。

【核心解析】 Claude Agent SDK是Anthropic提供的开发工具包,用于构建基于Claude的智能体;支持工具使用、多步推理和任务执行;特点包括安全护栏、流式响应和上下文管理;可集成外部API和数据库;简化Agent开发流程,提供预置组件。


Q100: Agent的局限性

【核心解析】 当前Agent在推理、规划、工具使用上的不足;幻觉与错误累积问题;安全与伦理风险;多模态与复杂环境的适应性;可解释性与可控性的挑战