<?xml version="1.0" encoding="UTF-8"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>星火之息</title><description>记录 AI、工具、工作流、知识系统与长期写作。从实验与观察，走向可复用的沉淀</description><link>https://www.miaojior.top/</link><language>zh_CN</language><generator>Astro</generator><brand>星火之息</brand><lastBuildDate>2026年4月13日 02:40:15</lastBuildDate><item><title>智能体时代？讲点实际的，先算算你的新能源“脑子”多少钱</title><link>https://www.miaojior.top/posts/agent-costs/</link><guid isPermaLink="true">https://www.miaojior.top/posts/agent-costs/</guid><description>在沉迷 Agent 的全自动幻觉之前，先把 token 成本算明白，再谈效率、作流、价值和意识转变。</description><pubDate>Mon, 13 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;智能体。很多人觉得它无所不能，能帮你订外卖、改代码、甚至自动写研报。但在你沉迷于这种“全自动”的快感之前，我想带你跳出那些玄幻的营销术语，聊点最实在的：钱。&lt;/p&gt;
&lt;p&gt;当你雇佣一个智能体为你干活时，它的账单到底是怎么算的？&lt;/p&gt;
&lt;section&gt;&lt;h2&gt;1. 什么是 Token？&lt;a href=&quot;#1-什么是-token&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h2&gt;&lt;p&gt;很多人分不清智能体和大模型的关系。其实你可以这样简单理解：&lt;/p&gt;&lt;ul&gt;
&lt;li&gt;智能体（Agent）是“身体”： 它拥有操作电脑的手，也拥有感知世界的眼睛和耳朵。当你让它去搜索某个新闻并写成摘要时，是它的“眼睛”在看网页，是它的“手”在敲键盘。&lt;/li&gt;
&lt;li&gt;大模型（LLM）是“大脑”： 身体本身没有灵魂，所有的逻辑推理、决策判断，都来自于背后那个**“新能源大脑”**。&lt;/li&gt;
&lt;/ul&gt;&lt;p&gt;这颗大脑（大模型）并不像人一样长在身体上，大脑在云端的数据中心，而身体（智能体）在你的电脑里。大脑要指挥身体去干活，身体要向大脑汇报它“看”到了什么，两者之间必须进行高频的信息交换。这种传递信息的“神经电信号”，在 AI 世界里就叫 Token。&lt;/p&gt;&lt;section&gt;&lt;h3&gt;输入 Token (Input Tokens)&lt;a href=&quot;#输入-token-input-tokens&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h3&gt;&lt;p&gt;这是你交给大模型的“原材料”。&lt;/p&gt;&lt;ul&gt;
&lt;li&gt;内容包括： 你上传的文档、Agent 自动搜索到的背景资料，以及最重要的——你和它的对话（提示词）。&lt;/li&gt;
&lt;li&gt;注意： 这里的输入通常也包括过去一段所有内容的历史记录。需要注意，如果不加节制，随着对话进行，输入会越拉越长。但不用过于紧张，现在的智能体通常有自动截断和自动压缩的功能，防止输入无限叠加。&lt;/li&gt;
&lt;/ul&gt;&lt;/section&gt;&lt;section&gt;&lt;h3&gt;输出 Token (Output Tokens)&lt;a href=&quot;#输出-token-output-tokens&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h3&gt;&lt;p&gt;这是大模型给出的“成品”。&lt;/p&gt;&lt;ul&gt;
&lt;li&gt;内容包括： 模型的回答、它生成的代码或最终生成的分析报告。&lt;/li&gt;
&lt;/ul&gt;&lt;/section&gt;&lt;section&gt;&lt;h3&gt;思考 (Thinking / Reasoning Tokens)&lt;a href=&quot;#思考-thinking--reasoning-tokens&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h3&gt;&lt;p&gt;这是高性能推理模型（如 gpt-o1 或 DeepSeek-R1）特有的开销。&lt;/p&gt;&lt;ul&gt;
&lt;li&gt;这并非真正的逻辑推理，而是在大模型正式开口说话前，它会先在脑子里打草稿、做逻辑推演。这段**“隐形对话”**也会产生 Token。虽然你没在最终回答里看到它，但它确实消耗了算力。&lt;/li&gt;
&lt;/ul&gt;&lt;/section&gt;&lt;/section&gt;
&lt;section&gt;&lt;h2&gt;2. 账单是怎么算的？&lt;a href=&quot;#2-账单是怎么算的&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h2&gt;&lt;p&gt;在看公式前，我们要先提一个“老熟人优惠”：缓存 (Cache)。&lt;/p&gt;&lt;p&gt;如果你让 Agent 反复处理同一段Token（比如 10 万字的说明书），表面上大模型服务商会将这些内容暂时“存”起来，给你一个优惠的输入成本。&lt;/p&gt;&lt;p&gt;这里不得不提一下“分词器（Tokenizer）”： 大模型并不是直接读文字，而是通过分词器把文字切成一块块的碎屑（Token）。缓存的本质是**“前缀匹配”**——只要你对话的开头（比如系统提示词、参考文档）切出来的碎块序列和之前完全一致，就不必重新分词，大脑就能直接从记忆里提取。&lt;/p&gt;&lt;p&gt;每次请求的计费公式：&lt;/p&gt;&lt;p&gt;目前市面上的计费方式非常统一：按量付费。&lt;/p&gt;&lt;p&gt;&lt;span&gt;&lt;span&gt;总成本=(输入未命中×全价)+(输入命中×缓存价)+(输出×输出价)+(思考×思考价)总成本 = (输入_{未命中} \times 全价) + (输入_{命中} \times 缓存价) + (输出 \times 输出价) + (思考 \times 思考价)&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;总成本&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;=&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;(&lt;/span&gt;&lt;span&gt;输&lt;/span&gt;&lt;span&gt;&lt;span&gt;入&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;未命中&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;​&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;×&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;全价&lt;/span&gt;&lt;span&gt;)&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;+&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;(&lt;/span&gt;&lt;span&gt;输&lt;/span&gt;&lt;span&gt;&lt;span&gt;入&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;命中&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;​&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;×&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;缓存价&lt;/span&gt;&lt;span&gt;)&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;+&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;(&lt;/span&gt;&lt;span&gt;输出&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;×&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;输出价&lt;/span&gt;&lt;span&gt;)&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;+&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;(&lt;/span&gt;&lt;span&gt;思考&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;×&lt;/span&gt;&lt;span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;/span&gt;&lt;span&gt;思考价&lt;/span&gt;&lt;span&gt;)&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;&lt;p&gt;简而言之，你的账单里通常会有以下四个独立科目：&lt;/p&gt;&lt;ol&gt;
&lt;li&gt;输入 (Input)： 大脑新读进去的信息。&lt;/li&gt;
&lt;li&gt;缓存命中 (Cache Hit)： 大脑“想起来”的旧信息（单价及其便宜，但往往toke数量巨大）。&lt;/li&gt;
&lt;li&gt;输出 (Output)： 大脑最终给你的成品。&lt;/li&gt;
&lt;li&gt;思考 (Thinking)： 高性能模型在大开口前产生的“隐形草稿”。&lt;/li&gt;
&lt;/ol&gt;&lt;p&gt;通常以“每百万 Token（1M Tokens）”为单位定价。以下是 2026 年三款代表性模型的参考单价：&lt;/p&gt;
































&lt;table&gt;&lt;thead&gt;&lt;tr&gt;&lt;th&gt;模型系列&lt;/th&gt;&lt;th&gt;标准输入 (Miss)&lt;/th&gt;&lt;th&gt;缓存输入 (Hit)&lt;/th&gt;&lt;th&gt;输出 / 思考&lt;/th&gt;&lt;th&gt;特点&lt;/th&gt;&lt;/tr&gt;&lt;/thead&gt;&lt;tbody&gt;&lt;tr&gt;&lt;td&gt;GPT-5.4&lt;/td&gt;&lt;td&gt;$2.50&lt;/td&gt;&lt;td&gt;$0.25 (1折)&lt;/td&gt;&lt;td&gt;$15.00&lt;/td&gt;&lt;td&gt;旗舰性能，推理极强&lt;/td&gt;&lt;/tr&gt;&lt;tr&gt;&lt;td&gt;GPT-5.4 mini&lt;/td&gt;&lt;td&gt;$0.75&lt;/td&gt;&lt;td&gt;$0.075 (1折)&lt;/td&gt;&lt;td&gt;$4.50&lt;/td&gt;&lt;td&gt;极致性价比，响应极快&lt;/td&gt;&lt;/tr&gt;&lt;tr&gt;&lt;td&gt;DeepSeek-V3.2&lt;/td&gt;&lt;td&gt;￥2&lt;/td&gt;&lt;td&gt;￥0.2(1折)&lt;/td&gt;&lt;td&gt;￥3&lt;/td&gt;&lt;td&gt;价格屠夫，降本首选&lt;/td&gt;&lt;/tr&gt;&lt;/tbody&gt;&lt;/table&gt;&lt;section&gt;&lt;h3&gt;为什么 Agent 尤其费钱？&lt;a href=&quot;#为什么-agent-尤其费钱&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h3&gt;&lt;p&gt;普通的对话是你问一句它答一句，但 Agent 会循环调用大模型。&lt;/p&gt;&lt;p&gt;为了完成一个复杂任务（比如“帮我写个网页并部署”），Agent 可能会产生多次内部请求：先思考步骤、再搜索资料、写代码、自查报错、最后才交付。&lt;/p&gt;&lt;p&gt;每一次“思考-行动-观察”的循环都在产生 Token。而且随着上下文累积，输入部分会像滚雪球一样变大。如果你不加节制地让 Agent 疯狂循环，一天下来烧掉一箱油钱是常有的事。&lt;/p&gt;&lt;/section&gt;&lt;/section&gt;
&lt;section&gt;&lt;h2&gt;3. 思维跃迁：从“打工人”到“赛博资本家”&lt;a href=&quot;#3-思维跃迁从打工人到赛博资本家&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h2&gt;&lt;p&gt;理解了账单，我想分享一个近期最大的感触：我们要彻底抛弃“打工人思维”。&lt;/p&gt;&lt;section&gt;&lt;h3&gt;什么是打工人思维？&lt;a href=&quot;#什么是打工人思维&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h3&gt;&lt;p&gt;以往做事，我们关注的是“体力消耗”和“即时报酬”。写一份报告付出了 3 小时，就应该得到相应的工资。在这种思维下，我们习惯不计成本地打磨细节，因为“时间”对自己来说是模糊且“免费”的。&lt;/p&gt;&lt;/section&gt;&lt;section&gt;&lt;h3&gt;什么是资本家思维？&lt;a href=&quot;#什么是资本家思维&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h3&gt;&lt;p&gt;当你开始使用 Agent，你就不再是一个“写代码的人”，而是一个赛博资本家。每一个 Agent 帮你跑的任务，都有明确的现金成本。你的关注点将发生剧烈变化：&lt;/p&gt;&lt;ul&gt;
&lt;li&gt;算利润：
跑这个 Agent 自动化流花了 2 块钱。它帮我节省的时间，如果我用来做其他创造性工作，能产出超过 2 块钱的价值，或者你愿意用这段时间去消遣而付出2元购买情绪价值么？如果不能，这个 Agent 消费就不该存在。&lt;/li&gt;
&lt;li&gt;降本增效：
&lt;ul&gt;
&lt;li&gt;原本用最贵的顶级模型，能不能通过拆分任务，让便宜的小模型去处理局部简单的环节？或者通过精简提示词，减少不必要的输入开销？&lt;/li&gt;
&lt;li&gt;如何优化工作流，让 Agent 在消耗同样 Token 的情况下，输出质量更高、废话更少？&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;结果导向：
赛博资本家不应该在乎 Agent 是如何辛苦劳作的，也不应该在乎它是否减轻了人的压力，甚至不应该在乎他能否解决特定的问题。唯一的判断标准是产出的那个 Token 最终能否产生价值。当然这个价值可以是金钱，也可以是单纯的情绪价值。&lt;/li&gt;
&lt;/ul&gt;&lt;p&gt;智能体时代时代，个人竞争力的分水岭在于：你是否具备管理“数字化劳动力”的能力。 别再把自己当成那颗螺丝钉，去观察你的账单，去优化你的工作流。当你开始计算每一行输出的“盈亏平衡点”时，你才真正掌握了智能体时代的入场券。&lt;/p&gt;&lt;/section&gt;&lt;/section&gt;
&lt;section&gt;&lt;h2&gt;后记&lt;a href=&quot;#后记&quot;&gt;&lt;span&gt;#&lt;/span&gt;&lt;/a&gt;&lt;/h2&gt;&lt;p&gt;笔者用一个小时就完成了头脑风暴，思路理顺，初稿写作，反复润色，文章排版，翻译审核，本地测试，云端推送的博文创作全流程。这是我高强度使用智能体这个工作台一个月的成果。&lt;/p&gt;&lt;/section&gt;</content:encoded></item><item><title>别拿普世价值审判我的个人需求</title><link>https://www.miaojior.top/posts/personal-needs/</link><guid isPermaLink="true">https://www.miaojior.top/posts/personal-needs/</guid><description>很多看似客观、理性、标准化的价值分析，最后抹掉的其实是一个具体的人为什么想要、为什么喜欢、为什么觉得值得。</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;有时候我会说，如果有一天财富自由了，我想每年更新几台顶配的电脑。很多人听到后的第一反应总是一样：为啥？值吗？不浪费么？性价比太低了吧？&lt;/p&gt;
&lt;p&gt;我以前常常会被这样的反问噎住，只能有点无力地说一句，这是我的梦想。后来我慢慢想明白了，他们在意的其实不是我想要什么，而是一件东西放进市场之后，能不能被证明“划算”。他们关心的是交易价值，是价格、折旧、残值、参数和回报率，是一套看起来客观、理性、标准化的尺度。&lt;/p&gt;
&lt;p&gt;但对我来说，真正重要的从来不是这个。&lt;/p&gt;
&lt;p&gt;我每天经历的那些数不清的小卡顿，和内存、处理器一次次被拉满的瞬间，都在提醒我：等挣到钱了，要给自己买台好的。所以，我更在意的是使用价值，是一件东西和我之间到底有没有关系。它是不是适合现在的我，会不会被我真正地使用，会不会让我更投入、更自由、更快乐。它不是一张价格标签，不是一条跑分曲线，也不是一份折旧报告。想要，是我意志的延伸。&lt;/p&gt;
&lt;p&gt;有一句很简单的话：先有需求，再谈工具。再顶配的电脑，如果没有你真正想做的事，也只是一堆昂贵的零件。真正该被追问的，不是工具本身，而是自己到底想实现什么。想法、欲望、方向，这些东西才是需求的本质来源。&lt;/p&gt;
&lt;p&gt;而那些所谓客观、理性、标准化的价值分析。它们看起来是在讨论物，实际上都是对每一个独一无二的具体的个人抹杀，抹平一个人为什么想要、为什么喜欢、为什么觉得值得。他们默认每个人都该用同一种尺度生活，用同一种标准判断欲望，用同一种答案解释热爱。&lt;/p&gt;
&lt;p&gt;所以如果现在再有人问我，顶配电脑值不值，我大概不会再被噎住了。虽然它未必对所有人都值，但它对我值。不是因为它符合某种普遍标准，而是因为我知道自己为什么想要它，知道它会怎样进入我的生活，知道它会帮我把哪些模糊的想法，变成可以被真正实现的东西。&lt;/p&gt;
&lt;p&gt;很多东西真正的意义，本来就不在价格里，而在它和一个具体的人之间，究竟能不能发生真实的关系。&lt;/p&gt;</content:encoded></item><item><title>关于本站</title><link>https://www.miaojior.top/posts/about-site/</link><guid isPermaLink="true">https://www.miaojior.top/posts/about-site/</guid><description>这是一个个人博客，也是一场关于写作与知识解构的长期实验。</description><pubDate>Thu, 09 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;code&gt;星火之息 / Not Nothing, Not Yet&lt;/code&gt;&lt;/p&gt;
&lt;p&gt;这是一个个人博客，也是一场关于写作与知识解构的长期实验。&lt;/p&gt;
&lt;p&gt;这里，记录：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;碎影：关于技术与生活的随笔杂谈。&lt;/li&gt;
&lt;li&gt;实践：真实工作流与深度使用体验。&lt;/li&gt;
&lt;li&gt;重构：工具、自动化与提示词的协作逻辑。&lt;/li&gt;
&lt;li&gt;积淀：一份持续增补、可供回溯的长期档案。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这个站点不只是零散文章的集合。我希望它像一颗种子，随时间慢慢长成一套可复用的个人知识系统。&lt;/p&gt;
&lt;p&gt;本站主要以简体中文写作。英文内容由大模型翻译并经由人工微调。&lt;/p&gt;</content:encoded></item></channel></rss>