
美的
例如输入我爱,输出的词可能是中国吃股票苹果等。温度高时,输出内容的可选范围就大,像设定范围为1时,LLM会在中国吃股票苹果之中随机选取。温度低时,输出内容的选择范围就小,在极端情形下,即温度设为0时,输出的范围就只有一个词:中国。这便是温度起到的作用。知道温度之后就会明白,大语言模型(LLM)实际上是个概率模型,它会计算给定输入时输出结果的概率。要是想让模型每次输出的结果更固定,那就可以把温度设为0。简单来说,假设温度都设为0,那模型输出就全由输入决定了。不同输入有不同输出,由于温度为0,相同输入也会有相同的输出。不管LLM到底学到了什么,它说到底仍然是个概率模型。这就引出了我们今天的话题:智能体受此有何影响?在我那篇从0实现function call的文章里,提到过如下的ReAct提示词:ReAct的流程为思考、行动、观察、响应的循环,例如:ReAct最大的问题在于,每轮对话都得让LLM先进行一次路由。此路由功能涵盖思考用户意图、选择工具等(路由即下图中的LLM - ReAct节点)。这里最大的问题是路由,它判断与思考的负载过重,流程如下:
大部分的判断与思考逻辑都被LLM - ReAct这一环节卡住了。那它会带来哪些问题?若用户提出一个问题,我期望LLM在调用工具后,能给用户更具创造性的答复。不过这很可能无法达成,要是把工具和输出文字都置于概率模型上,其结构图如下:

中国
有没有思考过这样的问题:coze、dify这些智能体工作流框架已经相当不错了,为何还需要进行代码开发?特别是在越来越多智能体框架涌现,且OpenAI也开源了其多智能体swarm框架的情况下。原因在于,场景细分、流程拆分后,需将其拼凑起来才能完成更复杂的业务场景。仅有工作流的话,简单场景可行,复杂场景开发灵活度就较差。如同乐高积木那样,先划分好各大部分并分别搭建,再把大块部分组合,如此乐高就会有更复杂的功能或构造了。
ReAct存在缺点,它让LLM承担过多事务,在意图识别时易产生不少偏差。解决方案如下:其一,不按数据拆分,而是按场景拆分,先处理最细微的场景。其二,细致拆分小场景中的流程节点,把固定流程先标准化,以减少大模型选择时的不稳定状况。其三,逐步累加小场景,借助多智能体协同合作,最终构建出完整的大场景。深入理解Agent:如何从0实现function call:乐高ev3:">https://mp.weixin.qq.com/s?__biz=MzUxNDg0NTEzOA==&mid=2247483694&idx=1&sn=43c1bce5edbe311b5cd3d568c7a1c53c&chksm=f9bef193cec9788580c24204eae5692545190853c5c164ed9936c9e18a0193a775d39ebf2970&token=1619594190&lang=zh_CNrd乐高ev3:https://www.lego.com/zh - tw/themes/mindstorms/ev3。
Copyright © 2025 IZhiDa.com All Rights Reserved.
知答 版权所有 粤ICP备2023042255号