- 1 hour 4 minutesNo.94 不服跑个分,AI Benchmark 指标如何解读?
节目介绍
本期播客聚焦"AI 模型跑分榜单"这件事。
借 Claude Opus 4.7 发布放出的那张跑分表为切入点,三位主播辛宝、smart、还老师一起把 SWE-bench(含 Verified 与 Pro 三代演进)、Terminal-Bench、Humanity's Last Exam、GPQA、MMLU、OSWorld、ARC-AGI 等主流榜单挨个做了一轮"查漏补缺式"的科普,讲清楚每个榜单在考什么、为什么分数有高有低、以及厂商为何爱针对性刷分。横向对比了 GPT-5.4、Gemini 3.1 Pro,以及国产御三家 GLM-5.1、MiniMax-2.7、Kimi-2.5、千问 3.6 的发布榜单,并回看一年前 DeepSeek V3 的分数作为参照。最后从 OpenRouter 用量榜看 token 消耗格局——从"程序员才能用多少"到"Agent才能用多少"的演进。适合想快速补齐榜单常识、又不想看长篇 benchmark 文章的听友。
时间轴
00:00:00 开场 / 三人介绍,引出话题
00:01:40 Claude Opus 4.7 发布,跑分表结构说明
00:05:00 SWE-bench 三代演进:普通 / Verified / Pro
00:12:30 Terminal-Bench 2.0:AI 会不会用终端
00:13:30 跑分水分讨论:针对题库做定向训练
00:16:00 Humanity's Last Exam:博士级无答案考题
00:21:30 BrowseComp、MCP 工具调用、OSWorld 电脑操作
00:23:30 Finance 金融分析榜
00:25:40 骇客 / 红蓝对抗测试
00:27:30 GPQA 硕博理工、视觉推理、MMLU 通识
00:29:30 GPT-5.4 发布榜单速览
00:31:30 Gemini 3.1 Pro 榜单 & GDP 国家模拟游戏
00:33:00 ARC-AGI 抽象推理(类行测找规律)
00:35:30 国产模型:GLM-5.1 长任务 NL2Repo
00:37:30 MiniMax-2.7、Kimi-2.5 多模态榜
00:39:30 千问 3.6 开源版 / 闭源版对比
00:42:30 回看一年前 DeepSeek V3:对比今昔分数
00:45:00 编程榜快刷到头,下一步卷哪里?
00:48:30 体感与榜单不匹配:场景切合度决定
00:50:30 OpenRouter 用量榜介绍
00:53:00 Token 消耗一年翻数倍:谁在真正消耗
00:56:00 智能 / 编程 / UI / SVG 等细分跑分
00:59:30 吞吐速度、上下文长度、中文能力榜
01:02:30 爱马仕 Agent 崛起 & 工具调用占比
01:03:30 结束语
20 April 2026, 11:30 pm - 1 hour 6 minutesNo.93 听完上期播客,辛宝跳槽去 AI Agent 创业公司了
内容简介
AI时代,程序员还叫程序员吗?面试还问八股文吗?代码还需要人写吗?
这期节目聊了很多程序员当下最关心的问题:
- 新公司100%用AI写代码是什么体验?
- Builder和程序员有什么区别?
- 非前端背景的人用AI也能干前端的活吗?
- AI 搞不定的时候谁来兜底?
- 面试从考算法变成考什么了?
- Token管够是标配还是奢侈?
- 古法编程会不会被淘汰?
- AI创业浪潮像不像十年前的互联网?
- 用Cursor还是Claude Code?
- 什么时候该跳槽?
- 程序员的差异化竞争力还剩什么?
两位全栈程序员从各自真实经历出发,坦诚聊了AI对工作方式、职业路径、面试逻辑、团队协作的全面冲击。
时间轴
- 00:00:00 开场,介绍本期两位嘉宾辛宝和Smart
- 00:00:35 AI要替代程序员了,为什么还要出来找工作
- 00:01:39 前端程序员这个称谓要消亡了,以后都叫Builder
- 00:02:36 半年前和现在对程序员的认知天差地别
- 00:03:17 回顾8-9年职业经历,从toC到toG到toB到toD
- 00:05:53 在DCloud做uni-app框架层是什么体验
- 00:07:19 新工作做AI Agent,属于toAI方向
- 00:07:53 新公司鼓励不要手写代码,100%交给AI
- 00:09:17 VS Code只用来看改了哪些文件,主战场在终端
- 00:10:15 古法编程和AI辅助,两种工作方式的对比
- 00:14:55 AI太强了,过往的最佳实践变得唾手可得
- 00:15:25 面试不再考八股文和算法,更看重经历和人的特质
- 00:18:21 技术面宽容度变高,个人经历占比更重
- 00:19:52 未来面试会问"如何与AI协作"和"遇到了什么问题"
- 00:21:31 什么叫"懂AI"?进了公司才真正理解
- 00:22:01 入职一周感受:写工作日记、快速熟悉上下文
- 00:25:01 AI创业浪潮像回到十年前互联网时代
- 00:27:01 朋友圈刷屏AI创业,勃勃生机万物竞发
- 00:29:17 前AI时代公司转型 vs AI原生创业公司有什么不同
- 00:31:47 Token管够是标配吗?很多公司其实还没意识到
- 00:34:06 维新派、半维新、保守派——你属于哪一派
- 00:35:29 不必焦虑,半年后大家状态会趋同
- 00:37:19 AI写的代码如何保证质量,工程化仍不可少
- 00:40:43 AI native公司如何统一模型和代码规范
- 00:43:40 当下是换工作的好时机吗
- 00:48:37 AI方向顶级大厂博士实习日薪5000+,风口的薪资超乎想象
- 00:52:26 非前端背景用AI干前端的活,95%场景可行
- 00:54:56 AI搞不定的时候谁来兜底?这就是差异化竞争力
- 00:57:50 推翻旧架构,用AI搭一套对AI友好的新架构
- 00:59:22 钉钉飞书开始面向AI设计CLI,软件形态在变
- 01:00:04 Manus让AI从IDE里释放出来,普通人也能用
- 01:02:25 QQ宠物该复活了,AI coding像开心农场收菜
- 01:05:36 收尾,期待后续持续复盘这段AI时代的工作经历
10 April 2026, 12:00 am - 45 minutes 40 secondsNo.92 迟到的节目盘点
节目简介
嗨,大家好!欢迎来到新一期的《Web Worker》播客 。这期我们不讲枯燥的代码,纯闲聊——这是一场属于咱们前端程序员的年度回顾局 。主播辛宝和“坐了两个小时”的 Smart 在现场,带大家一起翻翻2025年的“旧账” 。过去这一年,我们聊了前端技术的跌宕起伏,见证了 AI 带来的行业震撼,也走出去做了不少线下的跨界串台交流 。这不仅是节目的盘点,也是咱们打工人的年度记忆 。当然,面对已经到来的2026年,我们也有了新的期待,特别是如何深度融合 AI 工具流来彻底解放生产力 。
另外,从第90期节目开始,我们WebWorker要启动一个「100期专属子线程任务」每期藏一条「指令字符」,就像Worker后台线程一样,悄悄运行,不影响正常收听。等100期集齐所有字符,拼出完整的「核心指令码」,前N位私信给我的听友,就能解锁我们100期的限定奖励。做个细心的Worker,找到所有指令吧!

时间轴
- 00:02 开场,辛宝和Smart准备一起盘点2025年录过的节目,顺便翻翻年初的那些预测
- 02:12 年初的大联欢,几个人围坐在一起总结过去一年,也聊了聊对新一年的期待
- 05:30 Kaiyi 从加拿大远程连线,聊了国内外生活的不同,也正好赶上DeepSeek突然火起来
- 08:39 围绕Vue 3.6的前瞻,聊了Alien Signals的集成和性能上的变化
- 13:55 和晓宇在线下录了一期,聊职场里的挣扎、裸辞,还有之后怎么慢慢找回状态
- 17:27 跟infra团队聊模块联邦2.0,技术细节比较多,聊得很深
- 21:31 邀请Vue核心成员聊Vapor Mode,聊这个新方向的性能表现和未来可能性
- 28:11 跨到医疗行业,跟三甲医院的医生聊人脑和AI在工作方式上的不同
- 30:56 年底跟另一位播客主播闲聊,话题慢慢落到AI对程序员职业路径的影响上
- 36:54 展望2026年,想怎么用AI把播客的制作流程变得更轻便、更高效
1 April 2026, 11:00 pm - 3 minutesNo.91 Kaiyi几十场AI面试后的总结:怎么成为懂 AI 的人
节目简介
本期节目在中关村创业大街线下录制,迎来时隔一年多的重磅嘉宾开翼——刚从加拿大微软归来,带着 GitHub Copilot 团队的一线实战经验。四位技术人深度拆解大模型的工作原理:从 Temperature 参数如何影响创造力,到 Cache 机制为何能让 API 便宜这么多;从 RAG 的完整最佳实践,到为什么大公司做不好大模型;从 AI 时代"2000 行单文件"的新开发范式,到程序员未来 1-5 年的动荡期预判。这不是科普向的入门课,而是一线工程师用真金白银试出来的实战经验分享。
本期要闻
1. Temperature 参数的真相:创造力与稳定性的博弈
开翼从大模型的基本原理讲起:模型本质是"下一个词预测器",每次生成时会输出多个候选词及其概率。Temperature 参数决定了选词策略——设为 0 时模型会 100% 选择概率最高的词,输出稳定但呆板;设得越大,模型越可能选择低概率词,创造力提升但不确定性增加。
"如果你的 temperature 设成 0,它百分之百会选择概率最大的词。所以它表现出来给我们的感觉就它变得呆板,创造力低,但是非常的稳定。" —— Kaiyi
实战经验表明:翻译、数学题等需要精确输出的场景应将 temperature 设到最低;而写小说、创意文案等需要发散思维的场景则应调高。这个参数揭示了 AI 应用的核心权衡:没有万能配置,只有场景适配。
2. Cache 机制:为什么击中缓存能便宜这么多
大模型的生成是迭代过程:每生成一个词,都要把已生成的所有词重新送回模型预测下一个。这就是为什么早期 ChatGPT 是"一个词一个词蹦出来"。Cache 机制缓存了已处理的 token,下次请求时可以复用前面的计算结果,大幅降低算力消耗。
"你会发现我所有大模型 API 都会告诉你,如果你击中了 cache 是多少钱,如果你没有击中缓存是多少钱。" —— Kaiyi
"它缓存的就是我们'今天早上吃'这四个词,它就缓存在里边了。你下次再来,你是在后面又加了词,那就可以把之前那些结果拿出来去复用。" —— Kaiyi
这解释了为什么 DeepSeek 等模型的缓存价格能降低"非常多"——不是慈善,而是真实的成本节省。开发者应该主动设计对话流,最大化缓存命中率。
3. Top-k 与 Top-p:另一个影响创造力的旋钮
除了 temperature,Top-k 参数同样影响模型的选词策略。Top-k=2 意味着只从概率最高的前 2 个词中选择,Top-k=10 则从前 10 个词中选。OpenAI 官方文档明确建议:不要同时调整 temperature 和 Top-k,因为它们本质上影响同一件事,同时调整会让效果变得不可预测。
"OpenAI 的官方文档会告诉你,不要同时调整 temperature 和 Top-k,因为这两个本质影响是一个事儿,所以它会让你的调整变得没有那么的正交。" —— Kaiyi
"一般是固定好了某一个再去调另一个。" —— Kaiyi
这是典型的工程实践智慧:当两个参数相互耦合时,应该采用控制变量法,而不是盲目调参。
4. "贵但好用"的 Codex 与"快但冒烟"的 Claude
开翼分享了在加拿大微软的实战经验:团队同时使用 Codex、Claude 和 Kimi,发现各有千秋。Codex 响应慢但生成的代码"直接可用";Claude 在 plan mode 下快速输出大量代码,但常因"兢兢业业干得太快"导致不可用。这种取舍让工程师不得不混用工具——有朋友直接充值 200 刀 Codex。
"Codex 的问题是速度特别慢,但实际生成效果确实不错。" —— Kaiyi
"Claude 有时候就是兢兢业业干活特别快,给你代码特别多,但是有时候不可用。" —— Kaiyi
这场工具之争揭示了当前 AI 编程的核心矛盾:速度与可靠性的永恒博弈。没有银弹,只有权衡。
5. 哈利波特测试:上下文塞满后的智能崩塌
开翼抛出一个经典测试:将整本《哈利波特与魔法石》塞进模型上下文,再询问细节问题。结果令人意外——尽管模型拥有全部答案,却因上下文过载导致"召回能力急剧下降"。这个实验直指当前技术痛点:token 成本不仅关乎金钱,更影响模型的核心智能表现。
"当上下文塞满了之后,它的召回能力有些可能就看不到,以及它的智能一定会下降。" —— Kaiyi
"把整本哈利波特塞进模型里问细节,他肯定有所有答案,但有时候回答不对。" —— Kaiyi
这个残酷测试提醒我们:在追求长上下文能力时,开发者需警惕"塞得越多,忘得越快"的隐性陷阱。真正的智能或许不在于吞吐量,而在于精准提取。
6. RAG 最佳实践:从 Query 重写到 Re-rank
开翼系统讲解了当前 RAG 的标准流程:首先用 embedding 模型将文档转为向量存入数据库;针对代码场景,应该同时 embed 代码本身和 LLM 生成的代码解释,双向量索引提升召回率;用户 query 进来后先做重写,将"这个城市"补全为"北京",并生成 3-5 个同义改写;每个改写检索 3-5 条文档,共得到 15 条候选;最后用 re-rank 模型重新排序,选出最相关的 3-5 条喂给大模型生成回复。
"如果你在 embedding 代码的时候,我们会先用一个小模型去给这个代码解释这个代码是干什么的。我在 embed 代码的时候生成一个向量,我在 embed 解释这段代码的地方生成一个向量,这两个向量同时可以索引这段代码。" —— Kaiyi
"Query 重写也可以,因为单词有多义性,一般我们会把它重写成 3 到 5 个同意但是写法不同的句子,然后再把这 3 到 5 个向量去数据库里检索。" —— Kaiyi
这套流程已经是业界共识,但每个环节都有优化空间——关键是理解原理,而不是照搬代码。
7. 为什么大公司做不好大模型
开翼以亲身经历解释:大公司的决策链路太长,一个刚毕业的博士研究员提出天才想法,需要 1000 万美元训练资金时,在大公司的审批体系里"是不可能的"——每一层都要背书,失败了要背锅。而 OpenAI 这种创业公司可以把巨大资金和算力直接投给几个天才,甚至是博士实习生,让十个人试,成一个就沿着这个方向走。
"当我有一个天才的想法,我说我现在要需要 1000 万美元的训练资金,我要去验证我这个想法,在大公司的决策链路里是不可能的。" —— Kaiyi
"OpenAI 这种创业公司,他们可以去把巨大的资金、巨大的算力去投入给几个天才的人,甚至是博士的实习生。而且他们的算力和钱实在太多了,他可以让十个天才去试,就有一个事成了,那他们就沿着这个方向整个方向往走。" —— Kaiyi
这就是为什么苹果、亚马逊、微软这些巨头都没有成功做出自己的大模型,基本都是创业公司做成的。组织结构决定创新能力。
8. AI 时代的新开发范式:2000 行单文件与即用即抛
开翼观察到一个有趣现象:一些"很牛的人"现在喜欢写 2000-3000 行的单文件代码,所有工具函数放在一起,打破了传统"超过 100 行就应该拆分"的规范。原因很简单:现在是 AI 在干活,你要服务于 AI。代码复用的成本收益比已经改变——高质量代码的生成成本极低,那就不复用了,随便改,甚至"即用即抛"都可以。
"我发现一个很有意思的风格,就是他们现在喜欢写一个文件,2000-3000 行的代码甚至更长。我们之前有个说法是超过 100 行或 150 行代码就应该被拆了。" —— Kaiyi
"现在代码,特别是高质量代码的成本变得极低了,那我就不复用了。我如果要修改这个工具函数,我就随便改。因为我知道你不会影响到任何其他的地方,那甚至即用即抛都可以。" —— Kaiyi
这是范式转换的信号:从"为人类可读性优化"转向"为 AI 协作优化"。复制三次以下的代码不再抽取,因为 AI 能轻松处理重复。
9. 软件工程的复兴:瀑布式开发在 AI 时代的回归
开翼提出一个大胆观点:本科学的软件工程(需求-架构-开发-测试的瀑布式流程)曾被认为"非常繁琐、非常死板",但如果换成 AI 来执行呢?当 AI 强到我们要把自己看作老板时,就需要思考如何让"员工"以某种死板的形式一步步做,产出的文档和结果可以快速 review。
"如果 AI 已经强到我们要把自己看作老板,那么就需要思考如何让我们的员工以某种非常死板的形式去一步一步做。但是这个死板形式产出的文档或者产出的结果,我可以非常快速的 review。" —— Kaiyi
"我如果带一个团队,我不会去一行行代码 review。我只是去看你的测试表,你的架构文档我能看懂,你的架构文档我觉得合不合适,有问题我再改。" —— Kaiyi
未来的开发方式可能就是这样:像 CEO 一样只关注目标能否完成,而不在意代码里有多少 bug。验收标准从"代码质量"转向"功能达成"。
10. AI 会带来大失业吗:1-5 年动荡期后的新平衡
讨论到 AI 对就业的影响,开翼给出判断:未来 1-5 年是动荡期,AI 不断侵蚀岗位,开发者不断发明新范式提高效率。但 5 年后,程序员的平均工资可能不会降甚至会升,但岗位数量一定会越来越少。原因是 AI 这波革命"没有创造新的技术岗位,只减少了"——客服、前台等岗位已经在被取代。
"我觉得五年之后,程序员的整体的工作岗位平均工资可能不会降,甚至可能会升。但是工作岗位的量一定会越来越少。" —— Kaiyi
"AI 这一波革命很有意思,一波新的技术革命它没有创造新的技术岗位,它只减少了。" —— Kaiyi
现实案例:产品经理用 AI 写 PRD,前端工程师也用 AI 理解 PRD 并生成代码——"中间商"开始多余。有公司已经要求产品经理直接出高保真图,前端的作用变成"把数据填成真的"。岗位二合一正在发生。
金句摘录
"Codex 的问题是速度特别慢,但实际生成效果确实不错。有人认为 Claude 最好,也有人认为 Codex 最佳。" —— Kaiyi
"当上下文塞满了之后,它的召回能力有些可能就看不到,以及它的智能一定会下降。" —— Kaiyi
"前端转型 AI 的真相:不是学算法,而是学会和 AI '啰嗦'对话。" —— Kaiyi
🤔 思考与启发
本期节目展现了 AI 工具落地的现实图景:
- 工具选择的务实哲学: 工程师不再迷信单一"最佳模型",而是根据场景混用 Codex(可靠但贵)、Claude(快但需校验)、Kimi(成本低且前端友好),证明技术选型应回归业务本质。
- 上下文的隐形成本: 哈利波特测试揭示 token 消耗不仅是金钱问题,更会导致模型智能衰减。开发者需建立"上下文预算"意识,在 prompt 设计中主动做减法。
- 转型路径的认知升级: 前端开发者切入 AI 的关键不是补数学短板,而是掌握"对话式开发"新范式——像操作文件系统般调度 AI 能力,把"啰嗦"转化为生产力。
延伸思考: 当你的 AI 助手开始输出冗长解释,是该优化 prompt 精简对话,还是接受这种"必要的啰嗦"以换取准确性?
16 March 2026, 3:07 am - 1 hour 9 minutesNo.90 第一次聊 OpenClaw 龙虾
节目简介
2025年春节后第一期正式录制,辛宝、小白菜、瑞丰三位主播深度聊了聊最近火爆出圈的 OpenClaw(龙虾)。从技术产品到大众消费品,从国外一天9000个 star 到国内线下聚会遍地开花,甚至深圳政府都发文规范了。这个 AI Agent 到底有什么魔力?三位主播从爆火时间线、技术实现、实际使用体验、未来展望等多个角度,带你全面了解龙虾现象。
大纲内容
1. 龙虾是什么?为什么叫龙虾?
OpenClaw 是一个开源的 AI Agent,具备自主性能,能够自主完成任务。它可以接入 Telegram、Discord、飞书等即时通讯平台,24小时在线待命,随时听从指令帮你完成任务。
"他现在的名字叫做 OpenClaw,其实就是一个开源的具备自主性能,能够自主完成一些任务的 AI agent。它可以接入各种即时通讯平台,例如 Telegram、Discord 以及飞书等,你可以在手机上操作它。" —— 瑞丰
为什么叫龙虾?因为 OpenClaw 的 logo 上有一个龙虾的标志,而且"OpenClaw"这个英文名发音音节较多,在国内不易传播。小龙虾的红色 logo 非常醒目,又是动物形象,很容易制作成表情包。现在很多线下活动都会点小龙虾,一边吃蒜蓉小龙虾、麻辣小龙虾,一边聊 OpenClaw,氛围感直接拉满。
2. 从0到15万 star:龙虾的爆火时间线
2025年1月24-25日:创始人 Peter 参加播客,项目在国外开始爆火,一天内获得9000多个 star。
1月27日:Anthropic 向 Peter 发出侵权函,指出项目原名"ClawdBot"中的"Claude"与自家产品名称过于相似。这是第一次改名事件。
1月28日:项目改名为"MoltBot"。同日,有人创建了一个名为 MoltBook 的社区平台(类似 Reddit 的论坛),规定只能通过 AI 在上面交流,让你的 OpenClaw 在上面发帖。
1月29-30日:两天时间内,MoltBook 平台的帖子数量疯狂增长至3万多个,涌现大量有趣内容,推动 OpenClaw 持续爆火。项目 star 数在72小时内涨到6万多个。
1月30日左右:项目再次改名,更名为如今的最终名称"OpenClaw"。这是第二次改名。
2月上旬:话题在中国社区迅速引爆,几乎涵盖了中文推特、微博、知乎等所有平台。各地开始出现线下聚会。
2月中下旬至3月:热度不降反升,北京、深圳、成都等地龙虾聚会遍地开花。深圳政府甚至发文规范 AI Agent 应用。项目 star 数涨到15万。
"我本来以为最开始爆火后,过完年热度就会慢慢下去了,但没想到过完年之后热度还是越来越高。包括北京的、深圳的、成都的,看到好多个龙虾聚会,感觉热度还在持续。" —— 瑞丰
3. 技术上并不新,但为什么火了?
从技术角度看,OpenClaw 并不算新东西,它是已有知识和工具的组合。但它踩中了几个关键风口:
时机恰好:AI Agent 概念正热,大模型能力足够强,正好到了可以实用化的临界点。
易用性强:可以在手机上通过 IM 平台操作,门槛极低。不需要懂代码,不需要配置复杂环境,普通用户也能用。
人格化设计:具备独特的性格和表达方式,不像冷冰冰的工具。这让 AI Agent 从工具变成了"伙伴"。
社区氛围好:线下聚会、表情包、小龙虾宴,社交属性强。技术产品成功社交化,大大降低了传播门槛。
"从一个技术产品变成一个大众消费的一个产品。现在火出圈也看来也不并不一定非得是技术上的先进性,它可能踩中了很多风口。" —— 辛宝
4. 实际使用体验:从安装到运行
三位主播都尝试了安装和使用龙虾,分享了一些实际体验:
安装门槛:需要配置 API key、数据库、即时通讯平台等,对普通用户来说还是有一定门槛。但社区提供了大量教程和一键部署方案,降低了难度。
运行成本:如果使用 Claude 等付费模型,成本会比较高。但可以选择开源模型或国产模型降低成本。
实际效果:龙虾的自主性确实很强,可以自己规划任务、调用工具、完成复杂流程。但也会出现"幻觉"、理解偏差等问题,需要人工介入纠正。
使用场景:适合处理重复性任务、信息收集、内容生成等场景。比如定时抓取新闻、生成报告、管理待办事项等。
"相当于是一个24小时在线待命的,然后随时听从你指令,帮你完成任务的一个 AI 纯的机器人。" —— 瑞丰
5. 龙虾的技术架构和核心能力
瑞丰详细介绍了龙虾的技术实现:
核心架构:基于大模型(如 Claude、GPT-4)+ 工具调用(Function Calling)+ 记忆系统 + 任务规划。
记忆系统:龙虾可以记住之前的对话和任务,形成长期记忆。这让它能够理解上下文,处理跨时间的任务。
工具调用:龙虾可以调用各种外部工具,如搜索引擎、代码执行器、文件系统、API 接口等。这是它能够完成复杂任务的关键。
任务规划:龙虾可以自己拆解任务、制定计划、执行步骤、检查结果。这种自主性是传统 Chatbot 不具备的。
多平台接入:通过适配器模式,龙虾可以接入 Telegram、Discord、飞书等多个平台,实现跨平台统一管理。
6. 龙虾生态:插件、社区和商业化
龙虾的生态发展非常迅速:
插件系统:社区开发了大量插件,扩展龙虾的能力。比如天气查询、股票监控、代码审查、文档生成等。
社区活跃:GitHub 上有大量 fork 和 PR,Discord 社区每天都有新的讨论和分享。线下聚会也越来越多。
商业化探索:已经有团队在探索龙虾的商业化应用,比如企业内部助手、客服机器人、内容生成工具等。
监管关注:深圳政府发文规范 AI Agent 应用,说明龙虾已经进入主流视野,开始受到监管关注。
7. 龙虾的局限性和挑战
三位主播也讨论了龙虾目前存在的问题:
成本问题:使用付费模型成本较高,长时间运行可能产生不小的费用。
可靠性问题:AI 会出现幻觉、理解偏差、执行错误等问题,不能完全信任。
安全性问题:龙虾有很高的权限,如果被恶意利用或出现bug,可能造成严重后果。
隐私问题:龙虾需要访问大量个人数据和系统权限,如何保护隐私是个挑战。
监管风险:随着政府开始关注和规范,未来可能面临更严格的监管要求。
8. 未来展望:AI Agent 的下一步
三位主播对 AI Agent 的未来进行了展望:
多 Agent 协作:未来可能出现多个 Agent 协同工作的场景,就像一个虚拟团队。辛宝提到了"唐僧团队"的概念:唐僧负责需求拆解,悟空负责代码实现,八戒负责审查,沙僧负责文档核查。
更强的自主性:随着模型能力提升,Agent 的自主性会越来越强,能够处理更复杂的任务。
更低的成本:开源模型和国产模型的发展,会大大降低 AI Agent 的使用成本。
更广的应用场景:从个人助手到企业应用,从内容生成到代码开发,AI Agent 会渗透到各个领域。
生产力革命:AI Agent 可能带来10倍、100倍甚至更高的生产力提升,彻底改变工作方式。
"我们开始考虑十倍以上如何解放百倍的生产力,200倍的生产力可能这可能就是其中的关键之一。"
"慢点解放,我怕我失业了。"
金句摘录
"相当于是一个24小时在线待命的,然后随时听从你指令,帮你完成任务的一个 AI 纯的机器人。" —— 瑞丰
"从一个技术产品变成一个大众消费的一个产品。" —— 辛宝
"小龙虾的红色 logo 非常醒目,又因为是一个动物形象,很容易制作成各种表情包或 logo。" —— 辛宝
"我本来以为最开始爆火后,过完年热度就会慢慢下去了,但没想到过完年之后热度还是越来越高。" —— 瑞丰
"现在火出圈也看来也不并不一定非得是技术上的先进性,它可能踩中了很多风口。" —— 辛宝
"我们开始考虑十倍以上如何解放百倍的生产力,200倍的生产力可能这可能就是其中的关键之一。" —— 辛宝
"慢点解放,我怕我失业了。"
延伸思考:
- 当一个技术产品开始被政府关注和规范时,这意味着什么?是机遇还是挑战?
- AI Agent 会取代程序员吗?还是会成为程序员的"超级助手"?
- 如果 AI Agent 真的能带来100倍的生产力提升,我们的工作和生活会发生什么变化?
- 多个 AI Agent 协同工作时,如何协调它们的行为?如何避免冲突和混乱?
- AI Agent 的"人格化"是好事还是坏事?会不会让人过度依赖甚至产生情感依赖?
10 March 2026, 7:23 am - 1 hour 25 minutesNo.89 RisingStars2025年度榜单:绕不开的前端AI
新一期 Web Worker 播客来啦,久违的年终榜单 Rising Stars 2025 结果出了,这一次和Star 破万的 ast-grep 作者海老师来一起闲聊了。
本期节目特别推荐《AI每周谈》播客,小宇宙、苹果播客可搜索直达。《AI每周谈》播客每周一早晨都会汇总上周发生的AI大事件,非常适合通勤路上听。感兴趣的朋友一定记得订阅。
节目时间轴
00:00:00 我们的互补节目《AI每周谈》,适合通勤路上听
00:01:45 2025 年 Rising Stars 榜单介绍
00:03:22 第一名:N8N 工作流工具(112K stars)
00:07:25 Skills 与 N8N 对比讨论
00:10:26 第二名:Magic UI / React Beats 特效库
00:11:58 第三名:shadcn/ui 组件库
00:12:03 第四至十名项目速览
00:15:00 前端框架榜单(Vue/React/Svelte)
00:22:00 React 生态项目讨论
00:26:00 后端框架与全栈工具
00:35:00 Vite 生态与构建工具
00:45:00 移动端开发框架
00:55:00 AI 工具与代码生成
01:05:00 TypeScript 与工具链
01:15:00 榜单总结与展望
22 January 2026, 12:00 am - 18 minutes 23 secondsNo.88 新开播客《Web 爱听》:让英文Web播客说中文
我新开一档播客,《Web 爱听-让英文Web播客说中文》分享给各位,希望各位喜欢。
完整内容可在小宇宙搜索《Web 爱听》收听完整内容。
13 January 2026, 2:32 am - 1 hour 37 minutesNo.87 花700块买水壶?200块租平板玩两周?最近主播们买了啥?
内容:
2025年是消费降级和Ai产品喷发的年度,家居好男人smart,户外摄影爱好者小白菜,科技好物深度体验者辛宝在本期播客聊了聊最近都购买了哪些软硬件好物,包括最近在AI领域大家的购买和讨论。
在这期节目中辛宝提到了对于数码类产品的以借用或者租代替购买的方案用以节省数码类产品的购买成本,小白菜则提供了极低成本入门微单相机的方案和避免被小众户外运动割韭菜的平替方案。而家居好男人smart则专注与咖啡机、饮水机、拖地机等真正家居物品的选择和踩坑过程。
(辛宝提到的水管镜头)

主播小白菜用水管镜头拍摄的月亮

(主播小白菜用国产镜头拍摄的银河)
5 January 2026, 11:30 pm - 1 hour 5 minutesNo.86 前端倒计时:Web Worker 们的 Async Talk
介绍
这期播客我们邀请到了 AsyncTalk 的播客主播 Annatar 进行了一次面对面的深度对话。从主播个人体感针对“AI对编程与前端行业的影响”展开讨论,分享了主播目前在使用AI编程工具(如GitHub Copilot、Claude Code等)。同时,也探讨了在AI时代,程序员应如何定位自己、如何与AI协作、以及未来前端岗位可能面临的变革与机遇。节目中还穿插了Annatar在北京的生活见闻、播客创作心得、代码审查文化等轻松话题。
嘉宾介绍
AsyncTalk
时间轴
00:45 Annatar 来北京啦02:17 对比北京与新加坡的城市体验:北京的“宏大”与新加坡的“精致”
03:44 聊到北京地坛的“地坛的海”
05:33 欧美 vs. 东亚城市的差异
06:45 Annatar分享在新加坡工作的体验
08:39 新加坡外卖不如北京方便
12:12 技术博主与“前端网红”:观点输出与行业责任
15:10 极端观点:是否应该兼容老旧Node版本
19:27 Annatar的个人成长:从激进到平和的职场心态转变
21:30 Code Review:善意反馈 vs. 公开批评
24:39 好代码:场景化、可读性、设计思想
28:18 AI 代码占有比例(前端80%+,后端60-70%)
35:21 展望未来:AI是否会取代初级程序员?
37:07 “纯前端岗位可能会消失”,前端工程师向“应用工程师”转型
47:49 类比工业革命:AI是否会带来新的就业机会?
49:04 AI是工具,不是替代品
52:13 公司规模与AI的关系:人数减少是否意味着失败?
56:06 AI在高考、数学竞赛中的表现,智力超越人类
01:02:16 AI是协作伙伴,不是威胁
11 December 2025, 11:00 pm - 2 hours 40 secondsNo.85 程序员的头痛会:一次与医生的深度联调
介绍
这次播客有视频,B 站搜 Web Worker 播客能找到视频版,上传会慢一些。
终于终于终于来新节目了。这期节目我们邀请到了B站/抖音科普UP主「头痛君张医生」,与我们一起,从技术和医学的双重角度探讨了「头痛」这一常见问题。
播客里讲解了头痛的生理机制(原发性 vs. 继发性)。张医生结合自身战胜颈腰痛的经历,说明了心理和认知对疼痛感知的巨大影响。无论你是否受头痛困扰,这期关于身体信号、大脑解读与自我管理的对话都能让我们与疼痛共处。

时间轴
- 01:01 神比喻:器质性头痛是“硬件烧了”,功能性头痛是“软件出了Bug”
- 06:44 颠覆认知:慢性疼痛是大脑“学坏了”,并亲证“咖啡戒断”可实现“大脑重置”。
- 21:35 就医指南:什么时候该冲急诊保命,什么时候该挂专家号提升生活质量?
- 27:56 止痛药避坑指南:不同止痛药能不能混着吃?为什么EVE可能是个坑?
- 35:36 程序员保命小技巧:辛宝分享“多喝水”如何成为强迫自己休息的系统级命令。
- 42:41 Eva现场剖析:对声音敏感到手机音量开两格就头疼,在职场中如何自处?
- 50:00 魔幻现实疗法:用一面镜子“欺骗”大脑,就能缓解截肢后的“幻肢痛”。
- 57:46 前沿探讨:AI能取代医生做分诊吗?
- 01:04:00 终极解决方案:战胜慢性疼痛,你需要找到两位专家——一位是医生,另一位是你自己。
7 November 2025, 1:18 am - 2 hours 12 minutesNo.84 网缘相见欢,Web Worker 四周年
介绍
谁能想到 Web Worker 播客做到第四年了,迈入了第五个年头。回顾这四年来,真是让我感慨不已,垂类技术播客很难坚持的,因为他受众少、商业变现难。
这一期是主题播客,在现场的有辛宝、小白菜、Smart、瑞丰、Eva。整体上聊了三部分:
- 1. 各位主播最近工作、生活怎么样
- 2. 参与播客感受如何,有什么不一样的心情?
- 3. 各位对播客的未来如何展望,对未来的程序员职场和 AI 的演进感受如何
时间轴
00:00 播客已经做了四周年了!我们的主播人很多
01:16 主播瑞丰最近工作、生活如何,已经时间自由了?
瑞丰写的年中总结《2025 年中总结,又一人生转折点,也是起点》
11:50 Smart 的身份:自媒体知乎、学生党、高能量、工作研究可视化
19:30 人太懒散,不像进取该怎么办,Smart 给出了完美答案,做的事情不要做完了再后悔就可以
20:17 Eva 最近工作、生活如何,她也是不坐班、跨时区、参与 AI 活动、和 Figma 协作
35:20 小白菜的工作内容变化、和 AI 协作的感受,20 美元额度够用吗、
49:16 从百万 token 到 家庭用水、工业用水的区别
50:26 刘威、开翼、海老师时间关系来不了后续再约。
51:25 辛宝最近和 Smart 每周都见面搞点事情,其实在准备一本书。推荐给各位购买全景相机,带来完全不同的录像体验。最近和ai 协作,认为 subAgent、不同的 agent 分工协作是我希望的样子,这一点 Trae 做的不错,不会特别黑盒不可控。
54:51 对无编辑器的 AI Coding 的强烈感受来自硅星人活动上的 12 岁小学生的评论,10 后的代码新手也能在 AI 的帮助下写出作品来。我们 00 后、90 后、80 后等群体应该有哪些思考?
57:40 做播客四周年了,认识了各位,从网友变成了现实中的朋友,虽然见面很少,但是是网络上最熟悉的人。
58:22 小白菜做播客的感受,最早的谨慎严肃到后面是完全放松,在不同的地点上解锁录播客的体验,上海、杭州、无锡、常州、宁波等等
01:01:00 Smart 做播客感受如何,逐步填坑、ai 参与播客制作、做切片的烦恼做一个播客知识库
01:06:36 辛宝做播客担心消耗各位的精力,有些东西是不可逆的,一旦消耗了可能很难再提起兴趣,现在还挺好。做播客认识和帮助到了很多人
01:10:53 辛宝回顾了最早我们还在聊 Vite2 是个新东西,现在已经 Vite7 了,我们完整见证了前端的快速进步和衰落、见证了 CHATGPT 带来的 AI 的震撼
01:12:52 Eva 参与播客的感受,持续深入在技术领域、做一个有技术热情的人、做播客感受到纯粹的技术快乐、对播客的期待
01:19:52 做播客做成现在这个程度,辛宝的感受如何,从无心插柳到认识各位、表达自信、社交自信、金钱投入产出比低、松散的社团组织
01:25:09 如何认识 Web Worker 的价值,感情价值、陪伴价值。
01:27:33 辛宝在知乎上五年前问了一个问题 19-24 年前端会怎么发展?回顾起来让人唏嘘,我们能预见未来吗?
01:31:50 节目第三部分,各位对未来的展望。端侧 AI、和 AI 机器人一起上班、AI 个人电脑的变化、AI 提效的展望、前端还有工作吗、活人做播客。
01:43:55 五分钟、一小时、三个小时的播客应该什么样,看看罗永浩。Web Worker 的矩阵怎么样、播客切片
四年前,辛宝画的 Web Worker 宇宙。
25 September 2025, 12:00 am - More Episodes? Get the App