发布于 2025 年 5 月 9 日,星期五
大语言模型通过概率预测生成连贯文本,其“思考”本质是上下文关联的数学计算。模型基于海量训练数据建立词元间的统计关系,利用注意力机制动态分配权重,通过自回归方式逐字生成响应。快速响应的核心在于Transformer架构并行计算能力,结合KV缓存、量化推理等技术优化延迟。模型本身不具备意识,输出是参数空间内最可能的词序列组合。
基上篇文章说道在五一期间看的 Google Prompt Enginner 白皮书,自己对 LLM 的工作原理有了更深的理解,这篇文章也是结合自己的理解做一个小结
这篇文章想聊聊 LLM 是咋“思考”的?它使用了那些核心策略让 AI 快速响应下一步的?
在白皮书中提到,在 LLM 中,使用了贪婪解码(Greedy Decoding) 的方式,而这种方式是一种最简单、最直接的文本生成策略。
个人觉得简单来说就是:它的每一步都会选择“当前最好”的词,不管后面会不会翻车,有没有更适合的词。也就是“走一步看一步,绝不回头”,它的主要特点就是快,让 LLM 能快速获取下一个词,从而更快的响应。
但问题在于它会错过更适合的“词”组合
它的主要核心思想就是:在生成文本序列的每一步,选择当前概率最高的词元,然后将这个词元添加到已生成的序列中,作为下一步要预测的上下文内容
它的大体工作流程:
它的大体的工作流程:
举个例子:
假设你要让 AI 生成一个句子:“我想吃__”
这里 LLM 每一步都选了“当下最好(也是概率最高)”的词,最终的结果就成功了 “苹果派”。
但是这句话并不通顺。我觉得 “我想吃火锅” 好像更合理一点。
所以贪婪解码只管眼前,打死都不回头
它的优点:
缺点:
虽然贪婪解码简单高效,但它牺牲了结果的流畅性和多样性,因为它不会考虑长远的可能性
但 LLM 并不只是使用贪婪解码,直接就会返回对应的结果。
在实际应用中,它还采用了其他更复杂的解码策略,比如Top-K 采样 和 Top-P等等限制。这些规则综合起来就能让 LLM 生成的结果更加自然、更多样化
LLM 输出 JSON 格式频频出错?直到我五一假期发现这个方法https://mp.weixin.qq.com/s/YK_B8a51TmVjtLa-wAa6sw
这个Web新API让任何内容都能画中画!https://mp.weixin.qq.com/s/nsCu6CvYj95inPBNlst8iw
搞定 XLSX 预览?别瞎找了,这几个库(尤其最后一个)真香!https://mp.weixin.qq.com/s/6GdfVnmu30Ki1XeadzuuRg
实战分享】10 大支付平台全方面分析,独立开发必备!https://mp.weixin.qq.com/s/Nf1K_8KHLJH_aegL74NXFA
关于 MCP,这几个网站你一定要知道!https://mp.weixin.qq.com/s/pR76UwvsJQyRE__LVx6Whg
做 Docx 预览,一定要做这个神库!!https://mp.weixin.qq.com/s/gwTbX3hM_GPdDVg3W1ftAQ
【完整汇总】近 5 年 JavaScript 新特性完整总览https://mp.weixin.qq.com/s/f5pIdyY8grx9t6qYxMgR1w
关于 Node,一定要学这个 10+万 Star 项目!https://mp.weixin.qq.com/s/RGFQbqzmrY1NVkdUsQcMBw