AI核心概念进化史

你是否曾被这些术语轰炸得晕头转向:LLM、Prompt、Agent、RAG、Function Calling、Langchain、SKILL……如果感觉全都不认识,恭喜你,这篇文章正是为你准备的。我们将彻底揭开这些唬人概念的“底裤”,让你发现所谓“智能体”不过是由“不需要智能的部分”构成,而整个AI技术的演进,实则是一条从“绝对刚性”到“极度柔性”的清晰路径。

第一章:混乱的起点——大语言模型(LLM)与对话

一切始于最古老的语言模型。最初的语言模型堪称“智障”,但随着模型参数爆炸式增长,在某个临界点,它竟涌现出了智能。为了与之前的智障模型区分,我们在前面加了一个“大”字,于是便有了大语言模型(Large Language Model,简称LLM)

大模型的核心能力本质上是“文字接龙”——根据已有文字,预测并输出下一个字。如果仅此而已,它看起来仍然不太聪明。但当我们引入角色扮演,将交互人为划分为“一问一答”时,第一个看似智能的应用模式诞生了:对话

第二章:老板与员工——Prompt、Context与Memory

请立刻将自己想象成一位老板,而LLM就是你新招聘的员工,我们姑且称他为小L。但他的工作方式很特别:只能进行单轮的一问一答,不能主动追问。

你的任务就是最大化压榨这位员工。首先,你给每次的对话指令起了个洋气的名字:提示词(Prompt)。接着你发现,指令内容可以进一步细分:一部分是背景信息,另一部分是具体任务。于是,你将背景信息部分单独拎出来,命名为上下文(Context)

很快,新问题出现了:当你想追问时,小L却记不住之前的对话。聪明的你设计了一个方案:每次沟通前,都将历史对话记录放进Context里,伪装成多人对话。你迫不及待地为这些特殊的上下文赋予新名——记忆(Memory)。这些Memory甚至可以通过大模型自身进行总结和压缩,以节省宝贵的上下文空间。

第三章:赋予手脚与耳目——Agent、搜索与RAG

小L能对话、有记忆了,但你发现他知识陈旧,无法获取实时信息,甚至还会“胡言乱语”。于是,你将“上网查资料”这个动作写成一串程序代码,让这个程序代理你与小L沟通,并完成搜索任务。这个神秘的程序,仿佛为纯思维的大模型装上了可以操作世界的手脚,你将其命名为智能体(Agent)

既然能上网,能否也搜索本地文档?当然可以,只不过技术不同。你需要先将文档切片并转化为向量,存入专门的数据库。当需要时,根据语义相似度找出相关片段,塞进Context中,从而增强回答的可靠性。这套方法被称为检索增强生成(RAG)。事实上,联网搜索也是RAG的一种形式,它们的核心都是为模型获取其参数以外的、新鲜准确的信息

RAG的流程简要描述是用户提问 -> 后端从向量数据库检索相关片段 -> 拼接 Context 与问题 -> LLM 生成答案。

第四章:制定契约——Function Calling与MCP

Agent在调用各种工具(如搜索、计算)时,如果一直用自由的自然语言沟通,程序很难精确解析。因此,最好建立一种契约,让大模型严格按照固定格式(例如JSON)来回复。这种为工具调用约定的对话格式,就是函数调用(Function Calling)

如果工具服务写在外部,Agent如何发现并调用它们?这又需要另一套更底层的约定,例如Anthropic公司推出的模型上下文协议(MCP)。它就像电源插座的标准接口,让不同的Agent能统一、便捷地接入各种外部生产力工具。

第五章:从僵化到灵活——Langchain、Workflow与SKILL

然而,小L依然像个“智者”,只会动口,难以协调完成复杂任务。比如“提取PDF内容 -> 翻译 -> 保存结果”这个流程,你需要通过编写代码来精确控制每一步。这种纯代码、硬编码的实现方式,就是Langchain的思路。

为了照顾非程序员,出现了低代码拖拽式的解决方案,这就是工作流(Workflow)。但问题接踵而至:如果需要处理的流程太多太杂(各种文档格式的转换、组合),为每一个都写死流程将是一场噩梦。

于是,你想出了一个更巧妙的办法:将所有功能脚本都写好,存放在一个目录里,同时配上一份详细的说明文档(例如SKILL.md)。你只需告诉Agent:“请先阅读说明,然后根据我的需求,自行选择并运行合适的脚本。”这个 “提示词+脚本工具包” 的组合模式,就被称为技能(SKILL)。它的本质,其实就是将复杂的提示词和调用逻辑存储在外,实现按需加载

第六章:分身术与终极方法论——SubAgent与刚柔并济

面对极其复杂的任务,主Agent的上下文可能会不堪重负。这时,你可以创造子智能体(SubAgent),让它们去处理独立的子任务,从而实现上下文的隔离与任务的分治。

纵观整个AI应用技术的演进,我们可以清晰地看到一条从“刚性”到“柔性”的频谱

  • Langchain / Workflow(工作流):最刚性、最稳定,但也最死板。一切流程预先确定,像火车轨道。
  • SKILL(技能):中间态。工具和说明已备好,让模型根据情况自行选择,像一本可随时查阅的说明书加工具箱。
  • Agent(纯智能体):最柔性、最智能。将任务直接描述给模型,由它自主规划调用,但也最不可控、最消耗计算资源。

所谓Agent,其精髓正是“由所有不需要智能的部分构成的部分”。 我们将模糊的决策、分流逻辑交给大模型(智能部分),而把确定的、重复的执行逻辑交给程序(非智能部分)。这正是人机协作的完美隐喻。

#ai分享#
全部评论
北✌🏻
点赞 回复 分享
发布于 昨天 19:31 北京

相关推荐

02-07 12:06
已编辑
华侨大学 测试开发
最近看到很多 92 的,甚至是硕士,开始往测开赛道卷,说实话有点看不懂。先把话说清楚,大厂里的测开,绝大多数时间干的还是测试的活,只是写点自动化脚本、维护测试平台、接接流水线,真正像开发一样做系统、做架构、做核心平台的测开少得可怜,基本都集中在核心提效组,而且人很少,外面进去的大概率轮不到你,我想真正干过人都清楚。很多人被洗脑了,以为测开也是开,和后端差不多,只是更简单、更轻松、还高薪。现实情况是,测开和开发的职业路径完全不一样。开发的核心是业务和系统能力,测开的核心是稳定性和覆盖率,前者是往上走,后者天花板非常明显。你可以见到很多开发转测开,但你很少见到干了几年测开还能顺利转回开发的。更现实一点说,92 的高学历如果拿来做测开,大部分时间就是在做重复性很强的杂活,这种工作对个人能力的放大效应非常弱。三年下来,你和一个双非的,甚至本科的测开差距不会太大,但你和同龄的后端、平台开发差距会非常明显。这不是努不努力的问题,是赛道问题。所谓测开简单高薪,本质上是把极少数核心测开的上限,当成了整个岗位的常态来宣传。那些工资高、技术强的测开,本身就是开发水平,只是挂了个测开的名。普通人进去,99% 做的都是项目兜底型工作,而不是你想象中的平台开发。测开不是不能做,但它绝对不是开发的平替,也不是性价比最优解。如果你是真的不想做开发,追求稳定,那测开没问题。但如果你只是觉得测开比后端容易,还能进大厂,那我劝你冷静一点,这只是在用短期安全感换长期天花板。有92的学历,如果你连测开这些重复性工作都能心甘情愿接受,那你把时间精力用在真正的开发、系统、业务深度上,回报大概率比卷测开要高得多。想清楚再下场,别被岗位名和话术带偏了,就算去个前端客户端也是随便占坑的,测开是一个坑位很少赛道,反而大面积学历下放,不用想也能知道会是什么结果,我想各位在JAVA那里已经看到了
小浪_Coding:工作只是谋生的手段 而不是相互比较和歧视
点赞 评论 收藏
分享
评论
3
6
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务