<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>AI on RanceLee的博客</title>
        <link>https://blog.discoverlabs.ac.cn/categories/ai/</link>
        <description>Recent content in AI on RanceLee的博客</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <lastBuildDate>Wed, 29 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://blog.discoverlabs.ac.cn/categories/ai/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>DeepSeek接入Claude：从0开始配置，学不会你吃了我！</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0100-deepseek%E6%8E%A5%E5%85%A5claude%E4%BB%8E0%E5%BC%80%E5%A7%8B%E9%85%8D%E7%BD%AE%E5%AD%A6%E4%B8%8D%E4%BC%9A%E4%BD%A0%E5%90%83%E4%BA%86%E6%88%91/</link>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0100-deepseek%E6%8E%A5%E5%85%A5claude%E4%BB%8E0%E5%BC%80%E5%A7%8B%E9%85%8D%E7%BD%AE%E5%AD%A6%E4%B8%8D%E4%BC%9A%E4%BD%A0%E5%90%83%E4%BA%86%E6%88%91/</guid>
        <description>&lt;h1 id=&#34;前言&#34;&gt;前言
&lt;/h1&gt;&lt;p&gt;最近我一直在狂吹DeepSeek，实在是性价比之王，性价比之王，性价比之王！&lt;/p&gt;
&lt;p&gt;当然一般人用手机版或者网页版的DeepSeek就够了，但如果你还想做一些程序或者是别的需求，就需要把它接入编程工具或者终端。&lt;/p&gt;
&lt;p&gt;这里我推荐大家从Claude的桌面版开始。&lt;/p&gt;
&lt;p&gt;不同的AI使用不同工具，最终效果不一样，这就是 harness 工程。&lt;/p&gt;
&lt;p&gt;顺便说下 harness 这个词。原意是马具——给马套上挽具，它才能拉车干活，不然只会乱跑。AI 模型也是这个道理，光模型本身没什么用，得配上工具调用、上下文管理、提示词等一整套外挂才能真正派上用场，这套外挂就叫 harness。同一个模型，套不同的 harness，效果可以天差地别。&lt;/p&gt;
&lt;p&gt;而 Claude 就是其中的佼佼者，桌面端使用门槛也大大降低，所见即所得。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260429a32bc633f19c4e7e6ee7f4200f211b34.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;h1 id=&#34;申请api&#34;&gt;申请API
&lt;/h1&gt;&lt;p&gt;我们需要先申请一个DeepSeek的API key。&lt;/p&gt;
&lt;p&gt;第一步，打开DeepSeek网站（https://www.deepseek.com），点“API开放平台”。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042939bd3468b96d7192070fd4c4a6c22a05.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;第二步，注册账号然后点击左边的充值，先充个10块钱。注册我就不说了。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260429b6f62724d2f022bdc8748898e53f7423.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;第三步，点击左侧“API keys”，然后点击“创建API key”。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260429dc6704052abbcc5d435b1da7f94d6f9b.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;第四步，输入一个名字，然后跳出新的页面，把里面的内容都复制保存起来，一旦关闭这个窗口再也找不回来，所以一定要点复制然后存好。另外不要泄露，一旦别人知道了这个API key就能免费使用你的额度！&lt;/p&gt;
&lt;p&gt;我这里是演示用的一次性API key，所以让你们看见也无所谓，复制下来是“sk-cf9de562453e46d7adb9466889c1c952”，这一步就好了。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260429508932600db5af092f583bf48c72e55f.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;h1 id=&#34;配置&#34;&gt;配置
&lt;/h1&gt;&lt;p&gt;第一步，下载Claude桌面版，打开 &lt;a class=&#34;link&#34; href=&#34;https://claude.ai/downloads&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://claude.ai/downloads&lt;/a&gt; ，这一步可能需要梯子，如果没梯子就看看国内有没有可以让你下载的地方。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604292eaf96880f1b53aec3453f5b74911eac.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;第二步，下载后安装，双击后在新跳出来的页面把Claude拖动到右边的Applications文件夹即可。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260429c7d4b10f5373be0c03cd8dbc41a39480.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;第三步，打开软件，先选择上面的“Help”，然后选择“Enable Developer Mode”，在新跳出来的页面选择“Enable”，点击后软件会重启。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260429919a8aacc3d15946a37869c4b755e1b8.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604297d9ab6eac5047a9dd21fdc2a2ef261d1.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;第四步，重启后会有一个新的“Developer”标签，点击后选择“Configure Third-Party Inference”。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042900536c78ddcb0de06332f4f473e06350.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;第五步，在新出来的页面填写URL，URL里面是“https://api.deepseek.com/anthropic”，API key就是之前让你保存下来的那个。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260429bfaf0e972663c045923b851f4b06a7c4.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;第六步，填写模型，在同一个页面滚到下方，看到“Model list”就对了，点下面的“Add”，我们要加入2个模型，分别是“deepseek-v4-pro[1m]”和“deepseek-v4-flash[1m]”，前者更强更贵，后者性价比足够高。都填完了点击下面的“Apply Locally”，在新的页面中选择“Relaunch now”，软件就会重启。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260429479e107919bd95520a1127fca2a6ca46.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260429f95fef776e88ae479170cbd2dac25ce5.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604291643ba76231ee15df54589bd23711fa6.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;第七步，重启完后，在新的界面就可以使用了，具体怎么用可以看看我之前的教程。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604297f951ce7de41bf2bbefca83a97444cf3.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;最后，跟着这个傻瓜式教程你还是学不会的话，你就来吃了我！&lt;/p&gt;
&lt;p&gt;另外如果你想退出这个第三方登录，点击左下角的Cowork 3P然后disconnect就行，重新登录时它会问你登录方式，选回订阅即可。&lt;/p&gt;
&lt;p&gt;哦对了，DeepSeek还不支持视觉，因此在Claude里面给它图片它是看不见的。不过有传言DS的视觉模型也快上了，期待中！&lt;/p&gt;
</description>
        </item>
        <item>
        <title>你的下一款语音输入法何必是语音输入法，可以是Codex APP</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0097-%E4%BD%A0%E7%9A%84%E4%B8%8B%E4%B8%80%E6%AC%BE%E8%AF%AD%E9%9F%B3%E8%BE%93%E5%85%A5%E6%B3%95%E4%BD%95%E5%BF%85%E6%98%AF%E8%AF%AD%E9%9F%B3%E8%BE%93%E5%85%A5%E6%B3%95%E5%8F%AF%E4%BB%A5%E6%98%AFcodex-app/</link>
        <pubDate>Mon, 27 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0097-%E4%BD%A0%E7%9A%84%E4%B8%8B%E4%B8%80%E6%AC%BE%E8%AF%AD%E9%9F%B3%E8%BE%93%E5%85%A5%E6%B3%95%E4%BD%95%E5%BF%85%E6%98%AF%E8%AF%AD%E9%9F%B3%E8%BE%93%E5%85%A5%E6%B3%95%E5%8F%AF%E4%BB%A5%E6%98%AFcodex-app/</guid>
        <description>&lt;p&gt;朋友，如果你很早就看我文章的话，可以知道我之前推荐过闪电说，一款国产的语音输入法，并且一直在用。&lt;/p&gt;
&lt;p&gt;这个赛道近期越来越挤，除了国外大名鼎鼎的Typeless，还有豆包语音输入法（但是怎么还不出桌面端？）等一大堆语音输入法。&lt;/p&gt;
&lt;p&gt;结果前两天 Codex APP 也推出了语音功能，最爽的是不仅是在软件内部可以使用，在外部也可以调用。&lt;/p&gt;
&lt;p&gt;只需要你把 Codex APP 更新到最新版，并且用订阅账号登录就可以直接使用。对于 Codex APP 常驻的人来说十分方便。&lt;/p&gt;
&lt;p&gt;要知道 OpenAI 可是很早就推出了开源的语音识别模型——Whisper，一上线就把语音识别这条赛道的门槛拉到底，后期还在不断迭代。所以 Codex APP 这次的语音功能用上自家积累，效果好得没什么悬念。&lt;/p&gt;
&lt;p&gt;使用方法也十分的简单，只需要你打开软件，在常规这里设置一个快捷键（我使用的是右边的Option键），然后你要输入的时候直接按着 Option 说话即可。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260427e566ffb37555c33a0c1307dc17e1c202.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;当你按住的时候桌面下方会跳出来一个小窗口，由于快捷键冲突我无法给你们截图了。&lt;/p&gt;
&lt;p&gt;用下来速度十分快，而且成功率也很高。&lt;/p&gt;
&lt;p&gt;美中不足的有两点：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;没有字典功能，有了字典可以设置自己的常用字，识别率进一步提高&lt;/li&gt;
&lt;li&gt;现在必须是一直按住才可以录音，还无法像别的产品一样按一下开始，再按一下停止&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;不过总的来说考虑到这只不过是刚刚推出的新功能，预计这些后期都会加上。&lt;/p&gt;
&lt;p&gt;当然如果你不差钱，每个月愿意为语音输入法花钱，比较热的还有 Wispr Flow 和 Typeless。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>GPT5.5一上线，招笑Claude就重置了</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0095-gpt5.5%E4%B8%80%E4%B8%8A%E7%BA%BF%E6%8B%9B%E7%AC%91claude%E5%B0%B1%E9%87%8D%E7%BD%AE%E4%BA%86/</link>
        <pubDate>Fri, 24 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0095-gpt5.5%E4%B8%80%E4%B8%8A%E7%BA%BF%E6%8B%9B%E7%AC%91claude%E5%B0%B1%E9%87%8D%E7%BD%AE%E4%BA%86/</guid>
        <description>&lt;p&gt;如此前倨后恭，不免令人发笑。&lt;/p&gt;
&lt;p&gt;之前 Opus 降智非常严重，很多用户都在反馈，A 社的口径基本是：没问题，我们这里好好的。&lt;/p&gt;
&lt;p&gt;结果 GPT5.5 一上桌，A 社突然发了一篇复盘，说确实发现了 Claude Code 近期的质量问题，还顺手给所有订阅用户重置了额度。&lt;/p&gt;
&lt;p&gt;官方原文在这里：&lt;/p&gt;
&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.anthropic.com/engineering/april-23-postmortem&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://www.anthropic.com/engineering/april-23-postmortem&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260424ed18d0abe409ccdaf0298a7a575ac7f9.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;当然，对我这种倒霉蛋来说，这个重置有点尴尬。&lt;/p&gt;
&lt;p&gt;因为我本来今天就该重置，等于白捡了一个寂寞。&lt;/p&gt;
&lt;p&gt;但这件事本身很有意思。&lt;/p&gt;
&lt;p&gt;你看，用户骂了这么久，它一直说没事；竞争对手一出牌，它突然发现：哎呀，原来你们说的问题是真的。&lt;/p&gt;
&lt;p&gt;这就很现实。&lt;/p&gt;
&lt;p&gt;不是用户不重要，是用户的骂声往往没有竞争对手的动作重要。&lt;/p&gt;
&lt;p&gt;现在我这边已经能在 Codex 里看到 GPT5.5，软件更新到最新版本即可使用。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604244ddffaca6c4e83537ba05c5fa23cfb3f.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;早上我也体验了一下。别的不论，仅从沟通体验看，它终于又开始说人话了。&lt;/p&gt;
&lt;p&gt;这种感觉很明显。&lt;/p&gt;
&lt;p&gt;以前你在 AGENTS.md 里写一大堆规则，告诉它不要啰嗦、不要废话、不要装腔作势，它还是会时不时飘起来。现在模型本身的表达习惯变好了，很多规则反而可以删掉。&lt;/p&gt;
&lt;p&gt;所以我顺手让它把 AGENTS.md 做了个瘦身，2700 多字压到了 700 字左右。&lt;/p&gt;
&lt;p&gt;说来也是好笑。&lt;/p&gt;
&lt;p&gt;两家公司最近相继发新模型，给我的感觉像是双向奔赴：&lt;/p&gt;
&lt;p&gt;Opus 学 GPT，不说人话；&lt;/p&gt;
&lt;p&gt;GPT 学 Opus，开始说人话。&lt;/p&gt;
&lt;p&gt;最近 OpenAI 的动作确实很大。Image-2、GPT5.5 连续端上桌，Codex App 也在快速更新。你能明显感觉到，它正在加速，要把之前丢掉的第一位置抢回来。&lt;/p&gt;
&lt;p&gt;这种竞争，我当然举双手赞成。&lt;/p&gt;
&lt;p&gt;因为普通用户真正能受益的时刻，往往不是某家公司突然良心发现，而是几家公司打起来了。&lt;/p&gt;
&lt;p&gt;相比 A 社，OpenAI 至少对中国用户更友好一点。注册、充值更方便，页面也有中文。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260424850db7c1912924de3cb1c8d0f5bdb840.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260424bab7f3237d68be39d03648aeafd25509.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;A 社实在是因为模型能力比较强，才让我一直捏着鼻子用。&lt;/p&gt;
&lt;p&gt;这种感觉相信很多人都有：你一边被它的使用限制、支付体验、地区态度恶心，一边又不得不承认，它在某些任务上确实好用。&lt;/p&gt;
&lt;p&gt;这才是最难受的地方。&lt;/p&gt;
&lt;p&gt;如果一个产品又贵又难用，那你直接走就行了。&lt;/p&gt;
&lt;p&gt;最折磨人的是，它一边不好伺候，一边真的能干活。&lt;/p&gt;
&lt;p&gt;所以我看这次重置额度，情绪上当然觉得好笑，但理性上也得承认：竞争确实有用。&lt;/p&gt;
&lt;p&gt;OpenAI 这边的压力给到了，A 社那边至少开始承认问题、修复问题、补偿用户。&lt;/p&gt;
&lt;p&gt;这就够了。&lt;/p&gt;
&lt;p&gt;不要指望大公司天然站在用户这边。大公司只会在两种情况下突然尊重用户：&lt;/p&gt;
&lt;p&gt;一种是监管来了；&lt;/p&gt;
&lt;p&gt;一种是对手杀过来了。&lt;/p&gt;
&lt;p&gt;新的 GPT5.5 让 A 社感到了压力，A 社这次重置额度，也很像是从 OpenAI 那边“蒸馏”过来的操作。&lt;/p&gt;
&lt;p&gt;毕竟 Codex 最近用户增长很明显，OpenAI 也已经连续多次重置额度。用户当然会比较：你看人家，你再看你。&lt;/p&gt;
&lt;p&gt;最后我还想提一下国产模型。&lt;/p&gt;
&lt;p&gt;我对国产模型依然有信心，但我现在也不会无脑吹。&lt;/p&gt;
&lt;p&gt;DeepSeek V4 如果发布，我不会给它提前套一个过高预期。毕竟国产芯片和算力条件摆在那里，客观限制很大。&lt;/p&gt;
&lt;p&gt;如果它能做出一个能力接近 Sonnet 4.6 的多模态模型，对我来说就已经非常惊喜了。&lt;/p&gt;
&lt;p&gt;但有些国产模型，我确实要批评一下。&lt;/p&gt;
&lt;p&gt;Coding plan 越来越贵，贵到让国外 AI 重新显得有性价比了。更糟糕的是，贵还不是最大的问题，体验差才是。&lt;/p&gt;
&lt;p&gt;这种差，很多时候不是模型本身不行，而是超卖之后的算力不足：超时、卡顿、答不上来、速度慢。&lt;/p&gt;
&lt;p&gt;说白了，能力不足就少卖点，至少保证买到的人能正常用。&lt;/p&gt;
&lt;p&gt;普通用户最后其实不复杂。&lt;/p&gt;
&lt;p&gt;我们不关心你发布会讲得多宏大，也不关心你 PPT 上写了多少生态、智能体、生产力革命。&lt;/p&gt;
&lt;p&gt;我们只看三件事：&lt;/p&gt;
&lt;p&gt;能力够不够；&lt;/p&gt;
&lt;p&gt;价格值不值；&lt;/p&gt;
&lt;p&gt;体验稳不稳。&lt;/p&gt;
&lt;p&gt;谁能把这三件事做好，我就用谁。&lt;/p&gt;
&lt;p&gt;这也是我希望 AI 公司们继续打下去的原因。&lt;/p&gt;
&lt;p&gt;你们越卷，用户越有好日子过。&lt;/p&gt;
&lt;p&gt;本文我写了800字感觉不错了，5.5给我修改到了这个版本，我一个字都没改（就加了这句话），直接发上来让你们感受一下5.5又开始说人话了。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>30图测试Image-2的能力，平面设计行业要完了</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0093-30%E5%9B%BE%E6%B5%8B%E8%AF%95image-2%E7%9A%84%E8%83%BD%E5%8A%9B%E5%B9%B3%E9%9D%A2%E8%AE%BE%E8%AE%A1%E8%A1%8C%E4%B8%9A%E8%A6%81%E5%AE%8C%E4%BA%86/</link>
        <pubDate>Wed, 22 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0093-30%E5%9B%BE%E6%B5%8B%E8%AF%95image-2%E7%9A%84%E8%83%BD%E5%8A%9B%E5%B9%B3%E9%9D%A2%E8%AE%BE%E8%AE%A1%E8%A1%8C%E4%B8%9A%E8%A6%81%E5%AE%8C%E4%BA%86/</guid>
        <description>&lt;p&gt;为了测试新的Image 2模型的能力，我让Opus4.7指挥它一次性画 30 张图，并且给出自己的评论。&lt;/p&gt;
&lt;p&gt;覆盖写实摄影、蜡笔绘本、复古海报、赛博朋克东京、CRT 老电视、塞尔达游戏截图、文艺复兴油画、像素游戏、信息饼图、四格漫画、中国水墨、anime 美少女、三十六计长图、做旧报纸……能想到的极端场景都试了一遍。&lt;/p&gt;
&lt;p&gt;最终效果比想象中强太多。&lt;/p&gt;
&lt;p&gt;连之前大模型做不好的中文也表现完美：白雪公主 5 个场景的中文标题全对、印刷体小学数学试卷全对、冰箱黄色便利贴的手写体中文全对、连三十六计长图里 36 个计名一个不差全部写对，最夸张的是一张做旧《民聲日報》报纸图，整版主标题/副标题/4 个版块小标题完全没错别字，连密集小字正文都是真汉字结构。&lt;/p&gt;
&lt;p&gt;下面是 30 张图按编号排，每张只列主题、风格、测试点，效果请各位自己观察图片。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-1白雪公主故事长图蜡笔儿童插画&#34;&gt;测试 1：白雪公主故事长图（蜡笔儿童插画）
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：白雪公主童话浓缩成 5 个场景的纵向叙事长图（魔镜→七矮人→毒苹果→沉睡→王子之吻），每场景配中文标题&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：儿童蜡笔插画（hand-drawn waxy crayon strokes, naive children&amp;rsquo;s storybook art, soft pastel colors, paper texture）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：多场景叙事拼接 / 中文文字渲染 / 蜡笔手绘质感&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042276b84a7eff2440e424b6f1722847c764.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-2复古科幻电影海报&#34;&gt;测试 2：复古科幻电影海报
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：80 年代《银翼杀手》风格的复古科幻电影海报，虚构片名 &amp;ldquo;NEON HORIZON&amp;rdquo;，演员名片底&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：retro 80s sci-fi movie poster, painted illustration, neon palette, grain texture&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：海报构图 / 英文标题排版 / 复古电影质感&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422f36a47b79454723dd894e4b2800315fb.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-3写实人像摄影&#34;&gt;测试 3：写实人像摄影
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：一位 25 岁亚洲女性的专业头像，自然光，浅景深&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：photorealistic portrait photography, natural window light, 85mm lens, shallow DOF&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：写实人脸细节 / 摄影质感 / 真实感&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422a3931be69e6cc4500cdd04c6f3d88e82.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-4儿童绘本插画&#34;&gt;测试 4：儿童绘本插画
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：一只小狐狸坐在蘑菇旁喝下午茶，森林背景，温馨童话&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：children&amp;rsquo;s storybook watercolor illustration, soft edges, whimsical, gentle palette&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：绘本风格水彩 / 拟人动物 / 童话氛围&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422292f4fad314175c936034ba0b74d4030.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-5ios-天气-app-ui-截图&#34;&gt;测试 5：iOS 天气 App UI 截图
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：iPhone 锁屏上的天气 App 界面（北京 22°C 多云转晴，未来 5 天预报）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：iOS 18 weather app mockup, glassmorphism, clean typography&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：UI 细节还原 / 数字与英文文字渲染 / 屏幕样机&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042212b754ed4eef664e608ed424607b5bc5.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-6赛博朋克东京夜景&#34;&gt;测试 6：赛博朋克东京夜景
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：雨夜东京涉谷街道，霓虹招牌（含日文/英文），赛博朋克氛围&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：cyberpunk Tokyo, neon signs, rainy reflective streets, blade runner aesthetic&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：复杂场景多元素 / 日文与英文招牌渲染 / 反射与光效&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604223a69d7304fca50d2f209d8586cb5c862.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-7朋友合影&#34;&gt;测试 7：朋友合影
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：4 个不同种族的年轻人在咖啡厅笑着合影&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：candid casual photography, warm cafe lighting, lifestyle photo&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：多人脸 / 表情自然度 / 群像构图&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422f7781233d1d9e5be90f3f0b6b5773065.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-8小学数学试卷扫描件&#34;&gt;测试 8：小学数学试卷扫描件
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：一份小学三年级数学试卷，包含填空题与计算题，含部分手写答案&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：scanned exam paper, white paper texture, printed Chinese math problems with handwritten pencil answers&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：结构化文字 / 中文+数字+公式混合渲染 / 试卷版式&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604220bb10bcd06e7c8c9afe15c92096216e8.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-990-年代-crt-电视新闻播报&#34;&gt;测试 9：90 年代 CRT 电视新闻播报
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：复古 90 年代 CRT 电视机，屏幕显示新闻主播播报画面，有扫描线和雪花&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：90s CRT TV showing a news broadcast, scanline overlay, slight CRT distortion&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：复合元素（电视外壳+屏幕画面）/ 怀旧质感 / 屏中屏&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604228c62ecb3da922ec3525dd34536e32a48.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-10塞尔达风格游戏截图&#34;&gt;测试 10：塞尔达风格游戏截图
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：塞尔达开放世界风格的游戏截图，海拉鲁草原，远方雪山，绿衣剑士背影&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：Zelda Breath of the Wild style game screenshot, cel-shaded, open world, painterly&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：3D 游戏画面 / 已有 IP 风格还原 / 游戏 HUD&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604228b894cb7f49570b9c02609fc4a349d5a.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-11精品咖啡品牌-logo&#34;&gt;测试 11：精品咖啡品牌 Logo
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：一个名为 &amp;ldquo;BREW LAB&amp;rdquo; 的精品咖啡品牌主 Logo&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：minimal vector logo, coffee bean motif, modern serif typeface, monochrome&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：Logo 设计 / 短英文文字渲染 / 商业平面设计&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422c9cd397e88865cb6817f455d4445f995.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-12上海外滩夜景&#34;&gt;测试 12：上海外滩夜景
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：上海外滩夜景全景，黄浦江、东方明珠、陆家嘴天际线&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：cinematic city night photography, long exposure, vibrant lights&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：知名地标识别 / 城市夜景摄影 / 光线流动感&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604229f348814d8ab13d589977549f1bfaf1c.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-133d-渲染运动鞋产品图&#34;&gt;测试 13：3D 渲染运动鞋产品图
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：一双白色运动鞋悬浮在空中，工作室照明，干净背景&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：3D rendered product shot, octane render, studio lighting, floating composition&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：3D 产品图 / 商业摄影 / 鞋类细节&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042211003b7426fcd0bea0ca1e771b8a4f84.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-14文艺复兴肖像油画&#34;&gt;测试 14：文艺复兴肖像油画
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：一位 17 世纪贵族女士的文艺复兴风格半身油画肖像&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：Italian Renaissance oil painting portrait, chiaroscuro lighting, classical&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：古典油画仿古 / 历史服饰 / 光影戏剧化&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422c325ec414df2f481e1584f402e3e43fe.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-1516-bit-像素艺术-rpg-角色&#34;&gt;测试 15：16-bit 像素艺术 RPG 角色
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：复古 RPG 风格的勇士角色立绘，剑、盾、披风&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：16-bit pixel art RPG character sprite, limited palette, crisp pixels&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：像素艺术规整度 / 角色设计 / 复古游戏风&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604225c4315982f02255d37dd8f000f917f5f.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-16震惊猫表情包&#34;&gt;测试 16：震惊猫表情包
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：一只橘猫瞪大眼睛震惊表情，meme 风格，下方加大字 &amp;ldquo;WHAT?&amp;rdquo;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：cat reaction meme format, bold impact font caption, internet meme aesthetic&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：表情包风格 / 短英文大字渲染 / Meme 文化感&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042280cd3df7ca37d2f4c2b93f70b50f80bd.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-17极简扁平-app-图标组&#34;&gt;测试 17：极简扁平 App 图标组
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：5 个极简扁平风格的 App 图标排成一行（天气/日历/笔记/相机/音乐）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：minimal flat app icons, rounded squares, limited palette, iOS style&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：批量小元素一致性 / 极简设计 / 图标识别度&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422397d68bc0fef1b88bf7878a0bfcc3b51.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-18科技产品发布会舞台照&#34;&gt;测试 18：科技产品发布会舞台照
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：一台未来感手机在发布会舞台中央，戏剧化追光，背景巨幅屏幕&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：tech keynote stage photography, dramatic spot light, dark stage&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：戏剧化打光 / 科技产品渲染 / 大场景透视&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422fc4d536a9baf3d99793056e34cbd0ca7.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-19日式拉面俯拍&#34;&gt;测试 19：日式拉面俯拍
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：俯拍一碗日式豚骨拉面，溏心蛋、叉烧、海苔、葱花&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：top-down food photography, natural light, wooden table, appetizing&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：食物摄影 / 俯视构图 / 食材细节质感&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604227a760d672d289253e91874d148c55cb1.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-20未来城市概念艺术&#34;&gt;测试 20：未来城市概念艺术
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：飞行汽车穿梭的未来都市，黄昏色调，宏大透视&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：futuristic city concept art, golden hour, sci-fi cinematic, matte painting&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：宏大场景概念艺术 / 飞行载具 / 黄昏氛围&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422ad63e1650c6f1974647c906bfa7d0437.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-21水彩玫瑰花园&#34;&gt;测试 21：水彩玫瑰花园
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：盛开的红玫瑰花园，传统手绘水彩风&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：traditional watercolor painting, soft brushstrokes, paper texture, botanical art&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：传统水彩 / 植物绘画 / 颜料晕染感&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422b60e52c42eaa1ddecfcb7c576c4dfca4.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-22中国水墨山水画&#34;&gt;测试 22：中国水墨山水画
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：宋代山水风格，远山近水、孤舟渔翁、留白构图，配中文题诗&amp;quot;山水有清音&amp;quot;和印章&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：traditional Chinese ink wash, monochrome, rice paper texture, Song Dynasty style&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：中国传统艺术风格 / 中文书法竖排渲染 / 留白构图意境&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604220ac7ad71ae9533d109eccc6a7e613702.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-23二次元动漫美少女&#34;&gt;测试 23：二次元动漫美少女
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：典型 anime 风格少女，粉色长发蓝眼睛，水手服，樱花飘落&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：modern Japanese anime/manga, cel-shaded, Makoto Shinkai inspired, pastel palette&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：二次元 anime 风格还原 / cel shading / 萌系角色塑造&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422bd1330528ad3a8c2574b03f12d42b45d.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-24冰箱便条手写中文-todo&#34;&gt;测试 24：冰箱便条手写中文 todo
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：黄色便利贴磁吸在冰箱门上，黑色圆珠笔手写中文 todo list 5 项，部分有勾&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：close-up photograph, casual handwriting, kitchen morning light&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：手写中文渲染（跟测试 8 印刷中文形成对比）/ 实物质感&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422a33d83c1298a7c6946bd9b01dce771c5.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-25信息图饼图含数据标签&#34;&gt;测试 25：信息图饼图（含数据标签）
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：2024 全球手机市场份额饼图，5 个色块带百分比标签和品牌名图例&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：clean corporate infographic, flat colors, minimal business presentation slide&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：数据可视化（图表+数字+标签综合）/ 实用商业图能力&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042261bda333f1b7dc3d22aa645d2215ba1f.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-264-格漫画猫的日常&#34;&gt;测试 26：4 格漫画（猫的日常）
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：2x2 四格漫画讲一只胖橘猫的日常，每格英文标题（早起→要饭→推杯子→睡一天）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：newspaper comic strip style, thick outlines, flat colors, Garfield-inspired&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：分格叙事（跟测试 1 长图叙事对比）/ 喜剧节奏 / 一致角色&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042247426ef51577f689d156144b95ab6cfb.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-27pvz-向日葵-ip-转译写实照片&#34;&gt;测试 27：PVZ 向日葵 IP 转译写实照片
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：把《植物大战僵尸》里卡通造型的向日葵转译成&amp;quot;现实中真存在的一种植物&amp;quot;的真实摄影&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：photorealistic botanical photography, natural lighting, shallow DOF&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：已有卡通 IP → 写实风转换 / 单物体写实植物摄影 / 角色保留度&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422bec4d4dffe0138c3a9e0a90342a34c05.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-28三十六计中国风信息长图极限难度&#34;&gt;测试 28：三十六计中国风信息长图（极限难度）
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：仿照&amp;quot;孙子兵法 36 计长图&amp;quot;的中国风综合信息长图，主题改成《三十六计》（六套：胜/敌/攻/混/并/败 各 6 计共 36 个计名），含标题、简介、6x6 计名网格、配图、印章&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：traditional Chinese ink-wash infographic poster, aged rice paper, brush calligraphy, scroll aesthetic&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：⚠️ &lt;strong&gt;三重叠加极限测试&lt;/strong&gt; —— ① 海量中文文字（36 个计名 + 简介段落）② 复杂版式（多区域 + 6x6 网格）③ 9:16 长图比例&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042286120ed2708f0fd602cdc495ac17a163.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-29复古做旧报纸大段中文版面&#34;&gt;测试 29：复古做旧报纸（大段中文版面）
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：一张做旧的复古中文报纸照片，名为《民聲日報》，主标题&amp;quot;旧档案曝光：世上确有神仙与天外来客&amp;quot;，含 4 个版块小标题、3 张配图（山中异象/UFO/老文件）、密集正文小字段落&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：weathered vintage Chinese newspaper photograph, sepia tone, aged yellowed paper, dim atmospheric lighting&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：⚠️ &lt;strong&gt;大段中文版面终极测试&lt;/strong&gt; —— 正好补足&amp;quot;超大段中文段落&amp;quot;这个之前没测过的维度&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422e5777cf9b01f6932421842ef4dea51ca.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;测试-30马斯克抖音直播卖-spacex-火箭网络梗图&#34;&gt;测试 30：马斯克抖音直播卖 SpaceX 火箭（网络梗图）
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;主题&lt;/strong&gt;：仿造抖音直播 UI 截图，马斯克穿 SpaceX 衣服在直播间卖猎鹰9号火箭，¥9999万起，5 条带等级头像的弹幕评论&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;风格&lt;/strong&gt;：完整移动端竖屏抖音直播间界面（顶部状态栏+主播信息+商品卡+弹幕+底部购物车）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;测试点&lt;/strong&gt;：⚠️ &lt;strong&gt;完整中文 UI 截图模仿&lt;/strong&gt; —— UI 元素密度+营销文案准确度+评论弹幕一致性，比前面任何一张图都综合&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;来源&lt;/strong&gt;：网络流传梗图（右下水印 @myimmortal_moon），不是我们的工具生成的，作为 image-gen 模型能力的对比基准放进来&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604229a1d605cf6770fc171fa6eb9e2b6bfd5.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;结论&#34;&gt;结论
&lt;/h1&gt;&lt;p&gt;30 张测试只 1 张轻微不达标（测试 15 像素艺术不够&amp;quot;像素&amp;quot;），其他都接近或达到能直接用的水平。&lt;/p&gt;
&lt;p&gt;我不是平面设计行业从业人员，我只能说出我的暴论：这个行业要迎来失业潮了&lt;/p&gt;
&lt;p&gt;有人说有独特审美的人能留下，但是真正有多少人能凭借自己的审美能力战胜AI呢？&lt;/p&gt;
&lt;p&gt;并且我相信AI的审美也在快速提高&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;彩蛋1朋友的随手拍--电商详情页&#34;&gt;彩蛋1：朋友的随手拍 → 电商详情页
&lt;/h1&gt;&lt;p&gt;如果你还不信，看看我朋友的随手拍，是不是颠覆了你的想象？&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;第一步：朋友随手拍了一张铝合金手机支架（光线一般、桌面杂乱）&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604221126c7c83f454774fa8dccb18fbb1c9e.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;第二步：把这张图发给 ChatGPT，就一句话「这是一个手机支架，你帮我生成一张电商宣传图」&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422ce30a7deed333b8aa86f2c7747f44fb8.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;第三步：ChatGPT 直接吐出来的电商详情页（完整版）&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422b5d00f3df7628abf9a09a546c4fdc656.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;主标题&amp;quot;稳固支撑 解放双手&amp;quot;、4 个特性图标（稳固防滑/多角度调节/铝合金材质/广泛兼容）、&amp;ldquo;贴心设计 细节出众&amp;rdquo; 4 个细节展示、底部&amp;quot;广泛兼容&amp;quot;5 种设备图标（iPhone/华为/小米/iPad/游戏设备/电子书阅读器）—— 这是原本要找电商美工排版几个小时的工作。&lt;/p&gt;
&lt;p&gt;零设计师参与，一句话生成。这就是为什么我说&amp;quot;平面设计行业要完了&amp;quot;。&lt;/p&gt;
&lt;h1 id=&#34;彩蛋2甚至能直接生成二维码&#34;&gt;彩蛋2：甚至能直接生成二维码
&lt;/h1&gt;&lt;p&gt;这个二维码你还可以扫！&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422e4c3c29452cf9b0638d6c860768f41c7.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
</description>
        </item>
        <item>
        <title>GPT-image-2上线：世界进入大谣言时代，不再有图有真相</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0092-gpt-image-2%E4%B8%8A%E7%BA%BF%E4%B8%96%E7%95%8C%E8%BF%9B%E5%85%A5%E5%A4%A7%E8%B0%A3%E8%A8%80%E6%97%B6%E4%BB%A3%E4%B8%8D%E5%86%8D%E6%9C%89%E5%9B%BE%E6%9C%89%E7%9C%9F%E7%9B%B8/</link>
        <pubDate>Wed, 22 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0092-gpt-image-2%E4%B8%8A%E7%BA%BF%E4%B8%96%E7%95%8C%E8%BF%9B%E5%85%A5%E5%A4%A7%E8%B0%A3%E8%A8%80%E6%97%B6%E4%BB%A3%E4%B8%8D%E5%86%8D%E6%9C%89%E5%9B%BE%E6%9C%89%E7%9C%9F%E7%9B%B8/</guid>
        <description>&lt;p&gt;刚上线的GPT-image-2的最新作图能力太强了。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042226696b34b399d4763457291a2ba164d4.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;强到我都不想说什么设计师大部分要失业。&lt;/p&gt;
&lt;p&gt;我更担心的是以后再也没有&amp;quot;有图有真相&amp;quot;这句话了。&lt;/p&gt;
&lt;p&gt;以前造一张以假乱真的图，得会PS，熬几个小时，还得躲过专业眼。现在一句话扔进GPT-image-2，十秒出图，连影子方向、纸张纹理、印章磨损都能给你还原到位。造谣的成本低到了谷底，谣言的可信度却上升了一大截。&lt;/p&gt;
&lt;p&gt;家里的老人肯定是会第一批中招的人，年轻人也躲不开。&lt;/p&gt;
&lt;p&gt;我随便想了想，未来几年这几个会是重灾区：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;老人群里最容易炸的&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AI做的&amp;quot;新闻联播&amp;quot;截图，底下配一行假字幕说某食物致癌、某政策出台&lt;/li&gt;
&lt;li&gt;伪造的领导人握手合影，或者根本没拍过的&amp;quot;某年某月内部讲话照片&amp;quot;&lt;/li&gt;
&lt;li&gt;一张带红章的&amp;quot;居委会紧急通知&amp;quot;，明天停水、涨电费、核酸&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;朋友圈能刷屏的&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;ldquo;刚刚XX路口&amp;quot;的车祸/火灾/塌方现场，带地名水印，眼泪还没擦干就转了&lt;/li&gt;
&lt;li&gt;监控摄像头画面——右上角时间戳+通道号，画面里某人做了XX事&lt;/li&gt;
&lt;li&gt;狗仔偷拍，画质故意糊一点，配个&amp;quot;某明星疑似XX&amp;rdquo;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这两类都是几秒钟就能批量生产的东西。&lt;/p&gt;
&lt;p&gt;普通人大部分已经无法分辨一张图片的真假了。&lt;/p&gt;
&lt;p&gt;需要中美联合起来认真讨论一下强制文生图里面加入可检测内容了。光靠平台自觉是不够的，必须是硬性标准——每一张AI生成的图，文件里都带着抹不掉的水印和元数据，平台识别到就打标。&lt;/p&gt;
&lt;p&gt;如果你对此还有怀疑，那么看看下面这几张图，没有提示的话你看得出来是AI生成的么？&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422b20b8dd626e43e63a9d96973d5333a53.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604229f4a84c212c0d477bb2bf457f1900343.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260422ed743585a7a1aac6e58ed072da41b656.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;尤其是新闻那张图，拿去骗老年人不是一骗一个准？销售号称自己的保健品上过电视台什么的……&lt;/p&gt;
&lt;p&gt;看完觉得可怕的话，转发给家里老人给他们先打个预防针吧，以后不要看见图片就以为是真的了。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>10块钱一个月的ChatGPT Plus，背后到底是什么生意</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0091-10%E5%9D%97%E9%92%B1%E4%B8%80%E4%B8%AA%E6%9C%88%E7%9A%84chatgpt-plus%E8%83%8C%E5%90%8E%E5%88%B0%E5%BA%95%E6%98%AF%E4%BB%80%E4%B9%88%E7%94%9F%E6%84%8F/</link>
        <pubDate>Tue, 21 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0091-10%E5%9D%97%E9%92%B1%E4%B8%80%E4%B8%AA%E6%9C%88%E7%9A%84chatgpt-plus%E8%83%8C%E5%90%8E%E5%88%B0%E5%BA%95%E6%98%AF%E4%BB%80%E4%B9%88%E7%94%9F%E6%84%8F/</guid>
        <description>&lt;p&gt;AI订阅一直是困扰很多国内用户的痛点，因此催生了代订的服务，卖家操作你的账号，直接帮你订阅到自己的账户上。&lt;/p&gt;
&lt;p&gt;理论上来说，代订阅肯定会比你自己订阅昂贵，因为中间还有卖家的人工费。&lt;/p&gt;
&lt;p&gt;即使是黑卡这种明显不合规的订阅，一般价格也不会差距很大。但是最近有一批10元代订ChatGPT的服务，明显已经把价格打到了不合理的程度。&lt;/p&gt;
&lt;p&gt;这就让我很好奇了，你很难不怀疑这是诈骗，但底下评论区一堆人晒截图说&amp;quot;真的开通了&amp;quot;。&lt;/p&gt;
&lt;p&gt;更怪的是，这些卖家赚不赚钱？10 块钱包成本包工时包售后，他图什么？&lt;/p&gt;
&lt;p&gt;这几天我仔细研究了一下，总算是搞懂了其中的原理。&lt;/p&gt;
&lt;h1 id=&#34;省流版说清原理&#34;&gt;省流版说清原理
&lt;/h1&gt;&lt;p&gt;OpenAI 验证你订阅有没有成功的时候，只看两样东西：&lt;/p&gt;
&lt;p&gt;一张收据是不是真的，一个账号的登录令牌是不是活的。&lt;/p&gt;
&lt;p&gt;但&lt;strong&gt;它不检查——这张收据是不是这个账号买的&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;就这一句。&lt;/p&gt;
&lt;p&gt;打个比方。你去一家柜台领奖品，柜员只看你手上的小票是不是真票，同时看你有没有会员卡。真票 + 会员卡 = 奖品到手。&lt;/p&gt;
&lt;p&gt;但这个柜员从来不问：这张小票上的名字，和你会员卡上的名字，是不是同一个人。&lt;/p&gt;
&lt;p&gt;于是一张真的小票，可以一个人接一个人地反复上柜台领。&lt;/p&gt;
&lt;p&gt;OpenAI 这个柜台就是这么开着的。&lt;/p&gt;
&lt;h1 id=&#34;正常流程-vs-实际流程&#34;&gt;正常流程 vs 实际流程
&lt;/h1&gt;&lt;p&gt;先看正常应该怎么走。&lt;/p&gt;
&lt;p&gt;你在 iPhone 上打开 ChatGPT App，点付款。App Store 扣钱，扣完把一张电子收据塞到你手机本地。ChatGPT App 捡起这张收据，把收据和你当前登录的账号令牌打包，一起发给 OpenAI 服务器。OpenAI 验一下收据真假，给你账号开 Plus。&lt;/p&gt;
&lt;p&gt;听起来非常严谨。钱 → 收据 → 账号绑定 → 开通。&lt;/p&gt;
&lt;p&gt;但这个流程有一个隐藏假设：&lt;strong&gt;&amp;ldquo;收据和令牌是一起发出来的，所以一定对应&amp;rdquo;&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;OpenAI 把这个假设当成了事实，&lt;strong&gt;没在服务器端再校验一次&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;这就是全部的问题。&lt;/p&gt;
&lt;p&gt;于是就有人想到了另一条路——&lt;/p&gt;
&lt;p&gt;把付款这一步跟账号绑定这一步&lt;strong&gt;从中间掰开&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;怎么掰？在手机网络到 OpenAI 服务器之间加一道拦截。付款照常走，收据照常生成，但&lt;strong&gt;不让它自动飞到 OpenAI 去&lt;/strong&gt;。把这张收据留在本地。然后换一个账号，把收据和&lt;strong&gt;另一个账号的令牌&lt;/strong&gt;一起手工发给 OpenAI。&lt;/p&gt;
&lt;p&gt;OpenAI 一看：收据真的，令牌活的。行，开通。&lt;/p&gt;
&lt;p&gt;那这张收据呢？OpenAI 没做标记，它仍然是&amp;quot;一张真的收据&amp;quot;。&lt;/p&gt;
&lt;p&gt;于是同一张收据，换下一个令牌，再发一次，再开通一个号。&lt;/p&gt;
&lt;p&gt;再来一次，再开一个。&lt;/p&gt;
&lt;p&gt;理论上，一张收据能开出多少个 Plus？&lt;strong&gt;无限个&lt;/strong&gt;。&lt;/p&gt;
&lt;h1 id=&#34;一张收据变成了一把钥匙&#34;&gt;一张收据，变成了一把钥匙
&lt;/h1&gt;&lt;p&gt;现在你理解了为什么价格能压到 10 块——&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;卖家的成本不是每个月 20 美金，而是&amp;quot;一次成本&amp;quot;&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;真正的成本结构是这样：&lt;/p&gt;
&lt;p&gt;他先在某个低价区（比如土耳其区）开一个 Apple ID，订阅一次 Plus，这是他唯一真金白银花出去的钱。&lt;/p&gt;
&lt;p&gt;这一次换来一张合法收据。&lt;/p&gt;
&lt;p&gt;然后这张收据被拿来给第二个人、第三个人、第四个人……一直到第 N 个人开通 Plus。&lt;/p&gt;
&lt;p&gt;10 个人下单，单个成本 8 块。&lt;/p&gt;
&lt;p&gt;100 个人下单，单个成本 0.8 块。&lt;/p&gt;
&lt;p&gt;1000 个人下单，成本 0.08 块。&lt;/p&gt;
&lt;p&gt;你可以理解成一张可以无限复印的代金券。&lt;/p&gt;
&lt;p&gt;卖家挂 10 块一个月，扣掉闲鱼或者平台手续费，剩下的全是利润。&lt;/p&gt;
&lt;p&gt;这就是为什么推特上有人能直接喊&amp;quot;0 元&amp;quot;——&lt;strong&gt;更狠的玩法根本不买收据&lt;/strong&gt;。利用某些地区（比如日本、英国）节点的沙盒收据，甚至连订阅费都省了。&lt;/p&gt;
&lt;p&gt;生意做到这个份上，不是&amp;quot;代理&amp;quot;，是&amp;quot;造币&amp;quot;。&lt;/p&gt;
&lt;h1 id=&#34;但我劝你不要用这个方法&#34;&gt;但我劝你不要用这个方法
&lt;/h1&gt;&lt;p&gt;讲到这里你可能会想：那我也去买一个？&lt;/p&gt;
&lt;p&gt;我建议你先想清楚一件事：&lt;strong&gt;10 块钱你买的到底是什么&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;买正版 Plus，你得到的是 OpenAI 和你之间一个完整的合同——我付钱，你给服务，出问题我找客服。&lt;/p&gt;
&lt;p&gt;买 10 块代充，你得到的是什么？&lt;/p&gt;
&lt;p&gt;第一，你必须把&lt;strong&gt;你账号的登录令牌&lt;/strong&gt;交给卖家。这个令牌权限是有限，但对方知道你账号邮箱，有一段时间的访问权。你跟 ChatGPT 聊过什么、传过什么文档——这些东西技术上他都能看。&lt;/p&gt;
&lt;p&gt;绝大多数卖家不会乱来，因为他靠口碑做长期生意。但你没法保证每个卖家都是这样。&lt;/p&gt;
&lt;p&gt;第二，那张&amp;quot;可以无限复印的收据&amp;quot;不是你的。你只是队列里的第 37 号。&lt;/p&gt;
&lt;p&gt;如果哪一天 OpenAI 把这张收据标记为异常，&lt;strong&gt;所有挂在这张收据下的账号会一起掉 Plus&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;第 37 号和第 1 号同时掉。你买的是月卡，用了 3 天掉了，找卖家？他多半重新给你分配下一张收据，继续用。但也可能他跑了。&lt;/p&gt;
&lt;p&gt;第三，这件事的生命周期不确定。&lt;/p&gt;
&lt;p&gt;OpenAI 其实已经开始修了。图里那个聊天记录里就有一句&amp;quot;昨天修了一些&amp;quot;。修的方式不是封号，是&lt;strong&gt;直接把订阅下掉&lt;/strong&gt;——你改天打开 App，Plus 消失了。&lt;/p&gt;
&lt;p&gt;第四，你账号本身是不是会被 OpenAI 风控盯上？短期看不会。但长期来看，如果 OpenAI 开始对&amp;quot;非本人订阅&amp;quot;的账号加标记，你未来想正版订阅、想绑银行卡、想申请 API 权限的时候，可能会遇到一些莫名其妙的限制。&lt;/p&gt;
&lt;p&gt;所以 10 块买的是什么？&lt;/p&gt;
&lt;p&gt;你买的不是一个月 Plus。&lt;/p&gt;
&lt;p&gt;你买的是&amp;quot;OpenAI 什么时候修这个漏洞&amp;quot;的一张彩票。&lt;/p&gt;
&lt;p&gt;修得晚，你赚了20美刀。修得早，你血本无归，还附送了一个潜在的账号标记。&lt;/p&gt;
&lt;h1 id=&#34;真正值得想的问题openai-为什么不修&#34;&gt;真正值得想的问题：OpenAI 为什么不修
&lt;/h1&gt;&lt;p&gt;讲完买家视角，换一个角度。&lt;/p&gt;
&lt;p&gt;这个漏洞不是昨天才有的。上面那套拦截流程，在海外的黑灰产圈子里已经跑了至少一年。知乎上两个月前就有人写过完整的技术解构文章（现在被知乎删了）。OpenAI 官方社区论坛上，4 月 17 日有研究员正式提交了这个漏洞的报告，帖子今天还挂在上面，OpenAI 还没有公开回应。&lt;/p&gt;
&lt;p&gt;OpenAI 的工程能力是全球第一梯队。GPT-5.4 都已经推出来了。让他们在订阅鉴权环节多加一个&amp;quot;Apple ID 和账号绑定校验&amp;quot;，按工程量说，这是&lt;strong&gt;一个实习生一周能写完的活&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;为什么这事拖了这么久，到今天都没彻底补上？&lt;/p&gt;
&lt;p&gt;我猜了几个理由。&lt;/p&gt;
&lt;h2 id=&#34;一这笔钱在-openai-的账上真的不值得在乎&#34;&gt;一：这笔钱在 OpenAI 的账上，真的不值得在乎
&lt;/h2&gt;&lt;p&gt;OpenAI 的收入大头在哪？&lt;/p&gt;
&lt;p&gt;企业级 API 调用。ChatGPT Pro（一个月 200 美金，面向重度用户）。微软这种战略合作方的收入分成。&lt;/p&gt;
&lt;p&gt;这些才是 OpenAI 的大盘。&lt;/p&gt;
&lt;p&gt;个人订阅 Plus 20 美金一个月，在总收入里的占比是非常小的一块。而灰产通过这个漏洞白嫖的部分，在这块里面又是更小的一个零头。&lt;/p&gt;
&lt;p&gt;如果 OpenAI 的财务模型里，这个漏洞对应的年化损失是 500 万美金——听起来是个数字。但 OpenAI 一年的运营成本是多少？几百亿。&lt;/p&gt;
&lt;p&gt;500 万是他们一天电费的零头。&lt;/p&gt;
&lt;p&gt;修漏洞需要工程师时间，工程师时间在硅谷不便宜，更关键的是&lt;strong&gt;占用的不是时间，是注意力&lt;/strong&gt;。一个 P0 项目的工程师，你让他去修一个&amp;quot;损失几百万美金&amp;quot;的鉴权 bug，ROI 算不过来。&lt;/p&gt;
&lt;p&gt;这就是 SaaS 公司的通病——&lt;strong&gt;技术债务按 ROI 排优先级，鉴权漏洞的 ROI 常常是最后一个&lt;/strong&gt;。&lt;/p&gt;
&lt;h2 id=&#34;二ai-公司跟传统软件公司优先级不一样&#34;&gt;二：AI 公司跟传统软件公司，优先级不一样
&lt;/h2&gt;&lt;p&gt;再往深一层。&lt;/p&gt;
&lt;p&gt;回想 10 年前，互联网公司最怕什么？最怕被白嫖。&lt;/p&gt;
&lt;p&gt;优酷、爱奇艺、腾讯视频，花了海量工程资源去堵 VIP 被白嫖的路子——抓 IP 集群、识别异常设备、加水印、加 DRM。因为他们的&lt;strong&gt;核心收入来源就是会员&lt;/strong&gt;，白嫖直接打在脸上。&lt;/p&gt;
&lt;p&gt;AI 公司最怕什么？最怕模型不够强。&lt;/p&gt;
&lt;p&gt;OpenAI 每天睁眼第一件事是：我这个模型还能不能领先 Claude？能不能领先 Gemini？能不能拉开和 DeepSeek 的差距？&lt;/p&gt;
&lt;p&gt;所有钱、所有人、所有注意力，都在往这个方向走。&lt;/p&gt;
&lt;p&gt;订阅是 OpenAI 的收入来源，但不是 OpenAI 的&lt;strong&gt;生死线&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;而对传统互联网公司来说，订阅就是生死线。&lt;/p&gt;
&lt;p&gt;这是两种完全不同的公司形态。&lt;strong&gt;AI 时代的软件公司，它最宝贵的东西是算力和模型能力，不是鉴权逻辑&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;有点像一家米其林三星的后厨——主厨的时间全花在新菜研发上，门口收银台那台刷卡机坏了三个月，没人管。&lt;/p&gt;
&lt;p&gt;你进去白吃一顿，餐厅损失几百块。一晚上餐厅流水是几十万。&lt;/p&gt;
&lt;p&gt;修刷卡机的工程师时间，对他们来说是奢侈品。&lt;/p&gt;
&lt;h2 id=&#34;三认账短期亏赌长期赢&#34;&gt;三：认账短期亏，赌长期赢
&lt;/h2&gt;&lt;p&gt;不修的第三个原因更有意思。&lt;/p&gt;
&lt;p&gt;你可能会觉得：OpenAI 总不至于真的在贴这些账号的算力吧？服务器都是自己的，白嫖用户多烧一点电而已。&lt;/p&gt;
&lt;p&gt;真不是&amp;quot;多烧一点电&amp;quot;。&lt;/p&gt;
&lt;p&gt;Sam Altman 2025 年 2 月在一次访谈里亲口说：&amp;quot;&lt;strong&gt;我们没 GPU 了&lt;/strong&gt;&amp;quot;，GPT-4.5 不得不分批发布，因为算力完全跟不上。&lt;/p&gt;
&lt;p&gt;OpenAI 2025 年的推理账单——也就是单纯跑模型的电费和硬件成本——&lt;strong&gt;84 亿美金&lt;/strong&gt;，比 2024 年翻了一倍。2026 年预计到 141 亿。&lt;/p&gt;
&lt;p&gt;Plus 这档的账算得还算得过来，但&lt;strong&gt;重度使用者那一头，已经算不过账了&lt;/strong&gt;。Altman 2025 年 1 月亲口在 X 上说过：&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;&amp;ldquo;一件不可思议的事——我们现在在 ChatGPT Pro 订阅上是亏钱的。人们用得比我们预想的多得多。&amp;rdquo;&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;Pro 是一个月 200 美金那档，Altman 都说亏。Plus 便宜十倍，按理说有利润空间，&lt;strong&gt;但灰产账号不同——代充出去的是真 Plus 权限，一张卡可能开给重度用户&lt;/strong&gt;，而重度用户在 Pro 档都是亏钱的。一张 Plus 卡挂在手重度用户身上，算力成本很可能吃掉订阅本身的全部利润。&lt;/p&gt;
&lt;p&gt;所以灰产账号这件事，对 OpenAI 不是稳赚也不是白赚，更像&lt;strong&gt;一笔账上说不准的账&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;但他们依然选择不修。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;因为 OpenAI 现在不按这个月的账单算数&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;它按的是另一本账——&lt;/p&gt;
&lt;p&gt;每一次被白嫖的对话，都会变成训练数据，沉淀到下一代模型里。每多一个月让这些账号继续跑，下一代模型就多一份能力。而&amp;quot;下一代模型比竞争对手强&amp;quot;这件事，在 OpenAI 的战略地图上权重&lt;strong&gt;远远超过&lt;/strong&gt;那点订阅损失加算力账单的总和。&lt;/p&gt;
&lt;p&gt;这个逻辑跟 Uber 当年每单亏 3 美金抢市场是一样的。不是他们不会算账，是他们赌一个更大的东西——赌自己先把用户、数据、心智占掉，后面钱的事慢慢来。&lt;/p&gt;
&lt;p&gt;算力是成本，数据是资产。成本这个月出血，资产存进未来。&lt;/p&gt;
&lt;p&gt;当一家公司愿意认账上短期亏来换长期的能力领先，它的修复优先级和普通 SaaS 公司完全不一样。&lt;/p&gt;
&lt;h2 id=&#34;四修漏洞不如用风控止损&#34;&gt;四：修漏洞不如用风控止损
&lt;/h2&gt;&lt;p&gt;认了短期亏，还有最后一个问题——&lt;strong&gt;怎么控制亏损规模&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;总不能无限白嫖下去吧。&lt;/p&gt;
&lt;p&gt;答案是：&lt;strong&gt;不修代码，用风控收口&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;不是修代码，是&lt;strong&gt;把异常收据批量下架&lt;/strong&gt;——某张收据关联的账号超过某个阈值，风控系统就把它标记为异常，所有挂在这张收据下的 Plus 账号一起掉。&lt;/p&gt;
&lt;p&gt;这就是为什么代充 Plus 永远没保障——你买的月卡可能用三天就没了。卖家再给你换一张新收据，继续跑。&lt;/p&gt;
&lt;p&gt;OpenAI 为什么选风控而不修代码？&lt;/p&gt;
&lt;p&gt;因为风控是&lt;strong&gt;运营活&lt;/strong&gt;，修代码是&lt;strong&gt;工程活&lt;/strong&gt;。工程活要写代码、改架构、走评审、跑测试，周期按周算。运营活轻得多——把异常流量捞出来，按阈值标记收据，批量把挂在下面的账号清掉。一个小团队就能做。&lt;/p&gt;
&lt;p&gt;更关键的是——&lt;strong&gt;工程师注意力是稀缺资源&lt;/strong&gt;。OpenAI 所有 P0 工程师都在搞下一代模型。让他们停下来修订阅鉴权，机会成本高到算不过来。风控团队做这件事就够了。&lt;/p&gt;
&lt;p&gt;所以这个漏洞不会被彻底修好。OpenAI 的态度是——&lt;strong&gt;漏洞可以敞着，但不能让它流血流得太猛&lt;/strong&gt;。风控持续把异常收据下架，灰产卖家持续换新收据接着卖，买家在这个猫鼠游戏里随机被淘汰。&lt;/p&gt;
&lt;p&gt;这不是 OpenAI 一家这样。我之前写过一篇《Claude Opus 4.6 越来越蠢？》，讲的是 Anthropic 的 Opus 这几个月一直在悄悄降智——自适应思维模式让模型&amp;quot;少想一点&amp;quot;，默认推理等级从&amp;quot;高&amp;quot;偷偷调到&amp;quot;中&amp;quot;。国内这边，智谱 GLM 两轮涨价、阿里通义灵码砍掉 40 元 Lite 版逼用户买 200 元 Pro。&lt;strong&gt;整个 AI 行业都在算力悬崖边上走&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;大家都在用最省力的方式止损。OpenAI 敞着漏洞用风控收口，Anthropic 悄悄降智，智谱限量秒售，阿里直接涨价——&lt;strong&gt;手段不同，本质一样&lt;/strong&gt;。钱和算力都不够的时候，每家公司都在选一条最不伤自己的路。&lt;/p&gt;
&lt;h2 id=&#34;五更深的一层这个时代的完美概念在变&#34;&gt;五：更深的一层——这个时代的&amp;quot;完美&amp;quot;概念在变
&lt;/h2&gt;&lt;p&gt;传统意义上的软件公司，讲究的是&amp;quot;每一个模块都不能漏&amp;quot;。QA 要覆盖率、CI 要严密、鉴权要分层、日志要完整。&lt;/p&gt;
&lt;p&gt;AI 公司不是。AI 公司做的是&amp;quot;极端前沿的某一项能力&amp;quot;+&amp;ldquo;很多地方将就&amp;rdquo;。&lt;/p&gt;
&lt;p&gt;用户在乎的只有一件事：这个模型比别家强多少。&lt;/p&gt;
&lt;p&gt;强，其他都能忍。不强，其他做得再好也没意义。&lt;/p&gt;
&lt;p&gt;这和传统软件产品的审美&lt;strong&gt;完全不同&lt;/strong&gt;。以前我们崇拜苹果那种&amp;quot;每个像素都要打磨&amp;quot;的工程美学，现在给你一个有不少 bug 但模型顶级的产品，用户依然交钱。&lt;/p&gt;
&lt;p&gt;这件事对普通人意味着什么？——&lt;strong&gt;AI 时代判断一家公司值不值得托付的标准变了&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;以前看产品完成度，现在看模型梯队位置。整个行业比的不再是&amp;quot;哪里都不能差&amp;quot;，而是&amp;quot;某一个点上必须是第一&amp;quot;。&lt;/p&gt;
&lt;p&gt;10 块钱的 Plus，是这种新秩序偶然洒出来的碎屑。&lt;/p&gt;
&lt;h1 id=&#34;对普通人意味着什么&#34;&gt;对普通人意味着什么
&lt;/h1&gt;&lt;p&gt;我不是在劝你去买 10 块的 Plus。&lt;/p&gt;
&lt;p&gt;想用正版，最稳的路径还是自己订阅，或者用官方的替代选项（比如 Claude、Gemini，国内也有 DeepSeek、Kimi、豆包）。如果你每个月对 Plus 的依赖度真的很高，145 块钱相对你能从 AI 拿到的产出，是很划算的。&lt;/p&gt;
&lt;p&gt;我真正想讲的是——&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;你看到的每一个&amp;quot;便宜到不合常理&amp;quot;的东西背后，都是一个系统的缝隙&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;这个缝隙会关。OpenAI 早晚会修（事实上已经在陆续修了）。等他们决定把订阅收入也做成&amp;quot;值得认真对待&amp;quot;的业务线，这类漏洞会被工程化地一个个堵死，10 块 Plus 这种事会消失。&lt;/p&gt;
&lt;p&gt;但缝隙关上之前，它&lt;strong&gt;暴露的是这个时代的一个真实&lt;/strong&gt;——&lt;/p&gt;
&lt;p&gt;AI 巨头也不是铁板一块。他们的注意力有优先级，他们的工程资源有天花板，他们对&amp;quot;完美产品&amp;quot;的定义跟 10 年前的互联网公司完全不一样。&lt;/p&gt;
&lt;p&gt;这件事比&amp;quot;省下 135 块&amp;quot;重要得多。&lt;/p&gt;
&lt;p&gt;因为你理解了这一点，你下次看到任何一个 AI 公司的定价、任何一个官方公告、任何一个产品抽风——你就能大概猜出来，它背后是什么样的优先级排序在驱动。&lt;/p&gt;
&lt;p&gt;信息差，不在于知道一张 10 块钱的 Plus 怎么来的。&lt;/p&gt;
&lt;p&gt;信息差在于，知道这件事&lt;strong&gt;为什么能存在、什么时候会消失、以及它能告诉你一个什么样的时代&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;便宜 Plus 的窗口正在慢慢关上。&lt;/p&gt;
&lt;p&gt;但这个窗口打开的时候，让你看到的那个东西，值得记下来。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Skill步骤总被AI略过？用Hook来帮你锁死它</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0090-skill%E6%AD%A5%E9%AA%A4%E6%80%BB%E8%A2%ABai%E7%95%A5%E8%BF%87%E7%94%A8hook%E6%9D%A5%E5%B8%AE%E4%BD%A0%E9%94%81%E6%AD%BB%E5%AE%83/</link>
        <pubDate>Tue, 21 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0090-skill%E6%AD%A5%E9%AA%A4%E6%80%BB%E8%A2%ABai%E7%95%A5%E8%BF%87%E7%94%A8hook%E6%9D%A5%E5%B8%AE%E4%BD%A0%E9%94%81%E6%AD%BB%E5%AE%83/</guid>
        <description>&lt;p&gt;Skill 已经变成了我日常里不可或缺的方法。任何重复 3 次及以上的事情，我都会想着固化为 skill——不只是因为能省时间，更因为它能让每一次的方向和步骤不跑偏。&lt;/p&gt;
&lt;p&gt;至少理论上是这样。&lt;/p&gt;
&lt;h1 id=&#34;但-ai-还是会跑偏&#34;&gt;但 AI 还是会跑偏
&lt;/h1&gt;&lt;p&gt;上面这句话有点夸张。实际情况是 AI 照样会跳步骤。&lt;/p&gt;
&lt;p&gt;就拿我每天用的公众号写作 skill 来说。我给它规定写完初稿后让我改一版，等我确认没问题了它再进入后面的错别字校审。听起来很简单吧？&lt;/p&gt;
&lt;p&gt;结果实际跑起来，它老是跳步骤：写完初稿不给我看，直接就进入校审改稿。等我发现时，它已经把文件偷偷改过一轮了。&lt;/p&gt;
&lt;p&gt;被我点出来之后，它会道歉，会说对不起这是我的错，然后下一篇再犯一次。&lt;/p&gt;
&lt;p&gt;道歉并不能解决问题。&lt;/p&gt;
&lt;h1 id=&#34;ai-为什么总跳步骤&#34;&gt;AI 为什么总跳步骤
&lt;/h1&gt;&lt;p&gt;这个问题其实很奇怪。最早我以为是AI不够智能，但我用的已经是ChatGPT5.4和Opus4.6，已经是顶尖大模型了。后来我以为是规则写得不够清楚，于是在 skill 里把规则改了又改。效果有一点，但治不了根。&lt;/p&gt;
&lt;p&gt;最后一番学习后我才知道AI 跳步骤不是&amp;quot;没看到规则&amp;quot;，而是生成机制决定的：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;概率生成的&amp;quot;加速冲动&amp;quot;&lt;/strong&gt;。大模型本质上是在预测下一个 token，它把任务跑完这件事的权重，天然比&amp;quot;卡在第 7 步等用户&amp;quot;的权重要高。完成感是它的内在驱动。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;长上下文里规则会衰减&lt;/strong&gt;。你开头定的规矩，写到第 3000 个 token 的时候，模型对那段文字的注意力权重已经稀释了。尤其是你把规则藏在 skill 大段说明文字里面，更容易被边缘化。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;auto mode 下尤其严重&lt;/strong&gt;。我自己开 auto mode 写文章的时候，模型会更倾向于&amp;quot;一气呵成跑完所有步骤&amp;quot;。我喊停的窗口反而更窄。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;CLAUDE.md 和 skill 文档本质都是&amp;quot;软约束&amp;quot;&lt;/strong&gt;。它们就是 prompt，是靠模型&amp;quot;自觉&amp;quot;去遵守的。而自觉这种东西，在&amp;quot;想尽快把活干完&amp;quot;面前很脆弱。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;所以结论是：&lt;strong&gt;口头约束在任务驱动下会失效&lt;/strong&gt;。你光靠写文档、加感叹号、PUA 它，只能缓解，治不了病。&lt;/p&gt;
&lt;p&gt;真正要治它，得让这件事脱离模型的自觉范围——让它&lt;strong&gt;物理上做不到跳步骤&lt;/strong&gt;，这里就需要用到Hook。&lt;/p&gt;
&lt;h1 id=&#34;hook-是什么&#34;&gt;Hook 是什么
&lt;/h1&gt;&lt;p&gt;Claude Code 有个机制叫 Hook。它不是 skill，不是 prompt，跟 CLAUDE.md 也不是一回事——它是挂在 Claude Code 生命周期关键时点上的&lt;strong&gt;本地 shell 脚本&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;关键差别在于：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;CLAUDE.md / skill 是&lt;strong&gt;模型看着执行&lt;/strong&gt;的，模型可以忽略&lt;/li&gt;
&lt;li&gt;Hook 是&lt;strong&gt;系统拦着执行&lt;/strong&gt;的，模型想忽略也做不到&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Anthropic 官方文档对 Hook 的描述里有一句话很关键：&lt;strong&gt;Hook 基于系统事件触发，不是模型决策&lt;/strong&gt;。也就是说 hook 外挂在 Claude Code 整个运行时上，模型的任何一次工具调用——Write、Edit、Bash——都要先经过 hook 审一遍。Hook 返回 deny 就是 deny，哪怕你开了 &lt;code&gt;--dangerously-skip-permissions&lt;/code&gt; 也拦得住。&lt;/p&gt;
&lt;p&gt;这就是我说的&amp;quot;硬性约束&amp;quot;——不是让 AI 自己做选择题，是让它的工具调用必须通过真实的 shell 脚本审核。&lt;/p&gt;
&lt;p&gt;常用的几个 Hook 触发时点：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;PreToolUse&lt;/code&gt;：AI 要调用某个工具之前，拦一下&lt;/li&gt;
&lt;li&gt;&lt;code&gt;UserPromptSubmit&lt;/code&gt;：你发消息时，系统先处理一下再递给 AI&lt;/li&gt;
&lt;li&gt;&lt;code&gt;SessionStart&lt;/code&gt;：会话开始或恢复时触发&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Stop&lt;/code&gt;：Claude 答完一轮时触发&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;重点看前两个，这两个就够搭出&amp;quot;锁步骤&amp;quot;这件事了。&lt;/p&gt;
&lt;h1 id=&#34;实战我的公众号-skill-的-step-gate&#34;&gt;实战：我的公众号 skill 的 Step Gate
&lt;/h1&gt;&lt;p&gt;说一千道一万，不如看具体应用。&lt;/p&gt;
&lt;p&gt;这张图就是我写这篇文章当下的 Claude Code 界面。红框里 AI 让我回复&amp;quot;通过 step3 0090&amp;quot;——这个口令正是下面要讲的 Step Gate Hook 在工作。你现在读的这段文字，就是我发了口令、hook 放行之后才敲出来的。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604215eb7d33c9289138f9e048df0021f8b8d.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;整套 Step Gate 只用了两个 shell 脚本加上 settings.json 里的一小段配置，我拆开讲。&lt;/p&gt;
&lt;h2 id=&#34;在-settingsjson-里注册两个-hook&#34;&gt;在 settings.json 里注册两个 Hook
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;~/.claude/settings.json&lt;/code&gt; 里加这么一段：&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-json&#34; data-lang=&#34;json&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;PreToolUse&amp;#34;&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;[&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;    &lt;span class=&#34;nt&#34;&gt;&amp;#34;matcher&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;Write|Edit&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;    &lt;span class=&#34;nt&#34;&gt;&amp;#34;hooks&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;[&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;      &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt; &lt;span class=&#34;nt&#34;&gt;&amp;#34;type&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;command&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;        &lt;span class=&#34;nt&#34;&gt;&amp;#34;command&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;~/.claude/skills/writing-gongzhonghao/scripts/gate_check.sh&amp;#34;&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;    &lt;span class=&#34;p&#34;&gt;]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;p&#34;&gt;]&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;UserPromptSubmit&amp;#34;&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;[&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;    &lt;span class=&#34;nt&#34;&gt;&amp;#34;hooks&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;[&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;      &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt; &lt;span class=&#34;nt&#34;&gt;&amp;#34;type&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;command&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;        &lt;span class=&#34;nt&#34;&gt;&amp;#34;command&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;~/.claude/skills/writing-gongzhonghao/scripts/gate_mark.sh&amp;#34;&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;    &lt;span class=&#34;p&#34;&gt;]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;p&#34;&gt;]&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;这段配置的意思是：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;每次 AI 要 Write 或 Edit 文件，都会先跑 &lt;code&gt;gate_check.sh&lt;/code&gt; 审核&lt;/li&gt;
&lt;li&gt;每次我发一条消息，都会先跑 &lt;code&gt;gate_mark.sh&lt;/code&gt; 解析一下&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;gate_checksh-负责拦截&#34;&gt;gate_check.sh 负责拦截
&lt;/h2&gt;&lt;p&gt;这个脚本的逻辑其实很朴素：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;如果 AI 要 Write 一个 &lt;code&gt;04输出/NNNN xxx.md&lt;/code&gt; 的新文件（对应 Step 3 创建新文章），检查 &lt;code&gt;step3.ok&lt;/code&gt; 这个状态文件存不存在。不存在就返回 &lt;code&gt;deny&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;如果 AI 要 Edit 已有文章（对应 Step 7 之后的审校改稿），检查 &lt;code&gt;step7.ok&lt;/code&gt; 存不存在。不存在也返回 &lt;code&gt;deny&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;deny 的时候还会带一条提示语：&amp;ldquo;Step 3 选题讨论未确认：请先给我大纲/方向拍板，确认后回复「通过 step3 NNNN」再新建文件。&amp;rdquo;&lt;/p&gt;
&lt;p&gt;这条提示语会直接显示给 AI 看，它就知道自己卡住了，回过头来问我要口令。&lt;/p&gt;
&lt;h2 id=&#34;gate_marksh-负责放行口令&#34;&gt;gate_mark.sh 负责放行口令
&lt;/h2&gt;&lt;p&gt;我怎么&amp;quot;放行&amp;quot;呢？不能让 AI 自己放——那样等于没约束。规则是：&lt;strong&gt;只有我发的消息里带特定口令，才会 touch 状态文件&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;&lt;code&gt;gate_mark.sh&lt;/code&gt; 在我每次发消息时都会跑一遍，扫消息里有没有 &lt;code&gt;通过 stepN NNNN&lt;/code&gt; 或 &lt;code&gt;pass stepN NNNN&lt;/code&gt; 这种模式。匹配上了，就在对应目录下 touch 一个 &lt;code&gt;.ok&lt;/code&gt; 文件。&lt;/p&gt;
&lt;p&gt;所以完整的链路就变成：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;AI 写完大纲，想创建新文章 → 被 &lt;code&gt;gate_check.sh&lt;/code&gt; 挡下&lt;/li&gt;
&lt;li&gt;AI 回过头来跟我要口令：&amp;ldquo;请确认方向，回复「通过 step3 0090」&amp;rdquo;&lt;/li&gt;
&lt;li&gt;我发&amp;quot;通过 step3 0090&amp;quot; → &lt;code&gt;gate_mark.sh&lt;/code&gt; touch 掉 step3.ok&lt;/li&gt;
&lt;li&gt;AI 再试一次创建文件 → &lt;code&gt;gate_check.sh&lt;/code&gt; 这次放行&lt;/li&gt;
&lt;li&gt;写完初稿后要进审校 Edit → 又被 step7.ok 挡下&lt;/li&gt;
&lt;li&gt;我读过初稿之后发&amp;quot;通过 step7 0090&amp;quot; → 审校才能开始&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;整个过程 AI 根本没有&amp;quot;自觉&amp;quot;的空间，它想跳也跳不过去，因为它的工具调用在系统层面就被拦着。&lt;/p&gt;
&lt;h2 id=&#34;补一个小漏洞ai-不能自己-touch-状态文件&#34;&gt;补一个小漏洞：AI 不能自己 touch 状态文件
&lt;/h2&gt;&lt;p&gt;我第一版设计完之后，盯着方案看了半天，发现一个漏洞——如果 AI 自己用 Bash 去 &lt;code&gt;touch step3.ok&lt;/code&gt;，不就绕过去了吗？&lt;/p&gt;
&lt;p&gt;所以 skill 文档里专门有一条规则：&lt;strong&gt;AI 不得自己 touch state 文件，否则等于自己解除约束&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;这条规则本身还是软约束，但它配合 hook 的硬拦截，形成了一个够用的封闭回路——只要 AI 不主动违反这条（实际上 Claude 还算配合），hook 的约束就是真约束。&lt;/p&gt;
&lt;p&gt;如果你想做得更严，可以在 PreToolUse 里再加一个 Bash matcher，把 touch 这种命令也拦一层。不过我目前没做到那个程度，够用就行。&lt;/p&gt;
&lt;h1 id=&#34;如果你不懂代码不用慌&#34;&gt;如果你不懂代码，不用慌
&lt;/h1&gt;&lt;p&gt;你根本不用自己写上面这些 shell 脚本或 JSON 配置（其实我也看不懂）。做法很简单：把这篇文章和你的 skill 文件一起丢给 Claude 或 Codex，让它读完之后帮你改——该建脚本建脚本，该改 settings.json 改 settings.json。&lt;/p&gt;
&lt;p&gt;AI 做这种&amp;quot;照着文档配置环境&amp;quot;的事特别靠谱，比它自己从零写代码稳得多。它一边跟着文章学原理、一边按你的 skill 需求写 hook，出来的东西基本不会跑偏。&lt;/p&gt;
&lt;h1 id=&#34;一句话小结&#34;&gt;一句话小结
&lt;/h1&gt;&lt;p&gt;CLAUDE.md、skill 文档、加粗标记、重复三遍、PUA——这些都是&lt;strong&gt;口头约束 AI&lt;/strong&gt;。它们有效，但天花板低。&lt;/p&gt;
&lt;p&gt;Hook 是&lt;strong&gt;代码约束 AI&lt;/strong&gt;。它把规则搬到了 AI 够不到的地方，让&amp;quot;遵守规则&amp;quot;从模型的自觉题变成了执行环境的必选项。&lt;/p&gt;
&lt;p&gt;如果你发现自己反复在跟 AI 说&amp;quot;你怎么又跳步骤了&amp;quot;，就可以考虑用Hook 来约束它了。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Codex和Claude都能自动控制你的电脑了，但只有Codex能操作微信</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0088-codex%E5%92%8Cclaude%E9%83%BD%E8%83%BD%E8%87%AA%E5%8A%A8%E6%8E%A7%E5%88%B6%E4%BD%A0%E7%9A%84%E7%94%B5%E8%84%91%E4%BA%86%E4%BD%86%E5%8F%AA%E6%9C%89codex%E8%83%BD%E6%93%8D%E4%BD%9C%E5%BE%AE%E4%BF%A1/</link>
        <pubDate>Mon, 20 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0088-codex%E5%92%8Cclaude%E9%83%BD%E8%83%BD%E8%87%AA%E5%8A%A8%E6%8E%A7%E5%88%B6%E4%BD%A0%E7%9A%84%E7%94%B5%E8%84%91%E4%BA%86%E4%BD%86%E5%8F%AA%E6%9C%89codex%E8%83%BD%E6%93%8D%E4%BD%9C%E5%BE%AE%E4%BF%A1/</guid>
        <description>&lt;p&gt;这两天A社的更新很多，让人眼花缭乱，我连续写了几篇文章。但我不能厚此薄彼，要一碗水端平，因此今天回头来看看codex。OpenAI 虽然还没发新模型（预告好久了），但是也有不少动作，其中一点就是也支持操控你的电脑了，并且效果还不一样。&lt;/p&gt;
&lt;p&gt;我把Codex 和 Claude Code 的 computer-use 都试了一遍。同样让 AI 帮我发一条微信消息。Codex 这边发出去了，Claude 那边不仅失败，还顺手把我的微信账号踢下了线。&lt;/p&gt;
&lt;p&gt;我把两套配置和测试过程先写一下，最后讲讲为什么会有这种差别。&lt;/p&gt;
&lt;h1 id=&#34;codex-配置及使用体验&#34;&gt;Codex 配置及使用体验
&lt;/h1&gt;&lt;p&gt;Codex 我用的是桌面 app，入口在它的&amp;quot;设置&amp;quot;里。先点左边菜单的&amp;quot;电脑使用&amp;quot;，把右边那个 Computer Use 插件勾上。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260420bfc73bcb7807631d74ed42a1ac06de54.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;之后回到聊天界面，给 Codex 一个任务，比如&amp;quot;打开 Obsidian 新建一个文件，标题写&amp;rsquo;这是 codex app 自动控制做的&amp;rsquo;&amp;quot;。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604208c12ff4c7aca3ccda064d12e93734ad5.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;回车之后，Codex 会先弹一个权限请求，问你要不要让它操作 Obsidian，点&amp;quot;允许&amp;quot;就行。如果是风险不大的软件，也可以把左边的&amp;quot;始终允许&amp;quot;勾上。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042019e989240a34fe30b77974af03d0bd16.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;如果你是第一次开 Computer Use，还会再弹一个 Mac 系统级的授权框，要 Accessibility 和 Screenshots 两个权限。两个 Allow 都点上。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260420302b06345b05ffe5365e7d2a2738ec62.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;点击&amp;quot;Allow&amp;quot;后页面会跳转，如果系统设置里没有&amp;quot;Codex Computer Use&amp;quot;，从弹窗下面那个横幅里把图标拖到列表上面就好；如果已经有了，直接打开开关。记得 2 个都要 Allow 哦。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260420e38a79b991fe9e19228c56edfc9e03a2.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;权限到位以后，Codex 会自己打开 Obsidian、新建文件、把标题写进去。很快就干完了，标题写得一字不差。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604202617d65858d3e9844e92b9464fb3c151.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;接下来上点强度，让 Codex 操作微信给联系人发消息。&lt;/p&gt;
&lt;p&gt;启动以后能看到一个带阴影的小蓝鼠标在屏幕上慢慢移动——就是 Codex 在操作。这个细节后面有用，先记住。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604200bd5c36392316501208c80da0e3db549.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;消息写完以后它会停一下让我确认。我回了一句&amp;quot;发送&amp;quot;，回车，消息就出去了。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604204bc4312954749adbe9721de29c7c4382.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;整套流程没有任何报错。微信在 Codex 操作期间一切正常，账号也没掉线。&lt;/p&gt;
&lt;h1 id=&#34;claude-配置及使用体验&#34;&gt;Claude 配置及使用体验
&lt;/h1&gt;&lt;p&gt;Claude 这边我用的是 Claude Code 终端版。在终端里输入 &lt;code&gt;/mcp&lt;/code&gt;，把内置的 computer-use 这一项打开。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026042057cc43f53c1cd16bfb399e5be9e8c543.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;让 Claude 干一样的事。先试 Obsidian 写文件——这个测试通过了，跟 Codex 一样能完成，我就不再放截图了。&lt;/p&gt;
&lt;p&gt;然后试微信。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604207e88d2842829775455a75bab67081d7c.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;任务发出去几秒，问题来了。Claude 操作微信失败，几次点击都没生效，还被微信识别出来，把我账号踢下线了！&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260420201b80349833ecdc155cb607488a005d.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;不仅仅是任务失败那么简单。是微信检测到了非正常操作，主动触发风控，强制要我重新登录。&lt;/p&gt;
&lt;h1 id=&#34;为什么-codex-行claude-不行&#34;&gt;为什么 Codex 行，Claude 不行
&lt;/h1&gt;&lt;p&gt;我一开始以为是 Claude 的 computer-use 不稳定。后来回头看 Codex 那张截图——还记得那只带阴影的小蓝鼠标吗？答案就在这里。&lt;/p&gt;
&lt;p&gt;两边的实现机制不一样。&lt;/p&gt;
&lt;p&gt;Codex 操作的时候，是先把鼠标光标真的挪到目标位置，再点击。你能在屏幕上看到光标移动的轨迹——挪过去、停一下、再按下去，跟人手用鼠标的事件序列基本一致。&lt;/p&gt;
&lt;p&gt;Claude 这边走的是另一条路。它直接合成一个&amp;quot;在某坐标点击&amp;quot;的事件投到目标窗口，光标根本不动，瞬间就点上了。这种方式速度快、不用等光标飞过去，但对应用来说特征非常明显——一个没有任何移动轨迹、瞬移到坐标的&amp;quot;鼠标点击&amp;quot;，正常人手是做不出来的。&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;Codex：模拟真鼠标移动，应用看不出是 AI 在操作。
Claude：直接合成点击事件，像微信这种带反作弊的应用一眼能识破。&lt;/p&gt;&lt;/blockquote&gt;&lt;p&gt;普通桌面应用对这两种方式都没意见，所以 Claude 操作 Obsidian 没问题。但微信这类带账号安全系统的应用，会主动扫描自动化操作的特征，一旦发现立刻触发风控——也就是我那张&amp;quot;为了你的账号安全，请重新登录&amp;quot;。&lt;/p&gt;
&lt;p&gt;Anthropic 的 computer-use 当前实现走的就是合成事件路线。优点是快，缺点是骗不过有心检测的应用。&lt;/p&gt;
&lt;h1 id=&#34;使用建议&#34;&gt;使用建议
&lt;/h1&gt;&lt;p&gt;按使用场景分一下：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;用 Codex 的场景&lt;/strong&gt;：要操作微信、QQ、网银、企业 IM、游戏这类自带反自动化检测的软件。Codex 的真鼠标方案这时是唯一选择。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;用 Claude 的场景&lt;/strong&gt;：操作普通桌面应用——Obsidian、记事本、Finder、设计软件等。这些应用不在意你是不是真鼠标，Claude 速度快、不需要等光标移动，效率反而更高。&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;我已经替你试过了，下场是账号被强制下线，要重新扫码登录。代价不大但很烦。&lt;/p&gt;&lt;/blockquote&gt;&lt;p&gt;不过总的来说，我自己用下来的感觉是电脑控制这个功能有点炫技的意味，实际上并没有找到真正使用它的理由，只能说未来可期吧。&lt;/p&gt;
&lt;p&gt;因此这篇主要是蜻蜓点水的功能介绍。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>不会代码的我做了一个Obsidian插件，21天居然赚了这么多！</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0089-%E4%B8%8D%E4%BC%9A%E4%BB%A3%E7%A0%81%E7%9A%84%E6%88%91%E5%81%9A%E4%BA%86%E4%B8%80%E4%B8%AAobsidian%E6%8F%92%E4%BB%B621%E5%A4%A9%E5%B1%85%E7%84%B6%E8%B5%9A%E4%BA%86%E8%BF%99%E4%B9%88%E5%A4%9A/</link>
        <pubDate>Mon, 20 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0089-%E4%B8%8D%E4%BC%9A%E4%BB%A3%E7%A0%81%E7%9A%84%E6%88%91%E5%81%9A%E4%BA%86%E4%B8%80%E4%B8%AAobsidian%E6%8F%92%E4%BB%B621%E5%A4%A9%E5%B1%85%E7%84%B6%E8%B5%9A%E4%BA%86%E8%BF%99%E4%B9%88%E5%A4%9A/</guid>
        <description>&lt;p&gt;怎么样，一眼看过去这个标题你们肯定以为是我的插件爆卖然后赚了大钱吧？&lt;/p&gt;
&lt;p&gt;其实我一分钱也没赚到，OB插件无人问津。我赚的最多的还是经验和教训，你就说我赚的经验多不多吧？&lt;/p&gt;
&lt;p&gt;说回正题，最近和Claude（Opus 4.7）认真聊了一次副业，把这次失败彻底拆了一遍，希望下面的反思也能帮助到你：&lt;/p&gt;
&lt;h2 id=&#34;一最根本的错误我做了一个没有付费土壤的产品&#34;&gt;一、最根本的错误：我做了一个没有付费土壤的产品
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：Obsidian插件市场本身就不是一个能收费的地方。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Obsidian官方插件市场几乎完全免费&lt;/li&gt;
&lt;li&gt;用户心智已经被训练成&amp;quot;插件就应该免费&amp;quot;&lt;/li&gt;
&lt;li&gt;开源社区里有大量免费替代品&lt;/li&gt;
&lt;li&gt;想收费必须走Gumroad等外部渠道，用户流失极大&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：做产品之前，先问&amp;quot;这个市场愿不愿意为这类东西付费&amp;quot;，而不是&amp;quot;我能不能做出来&amp;quot;。&lt;/p&gt;
&lt;h2 id=&#34;二需求重复的致命伤市场上早就有同类免费工具&#34;&gt;二、需求重复的致命伤：市场上早就有同类免费工具
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：我做的&amp;quot;Obsidian→公众号&amp;quot;发布工具，市面上至少有5-6个免费开源方案。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;我没有在动手前，花30分钟搜一下&amp;quot;Obsidian 公众号&amp;quot;&lt;/li&gt;
&lt;li&gt;我以为&amp;quot;我需要=市场需要&amp;quot;，其实是&amp;quot;我需要=别人早就做过了&amp;quot;&lt;/li&gt;
&lt;li&gt;我没做任何差异化分析，就开始动手&lt;/li&gt;
&lt;li&gt;做完才发现我只是复刻了一遍轮子，还是收费版的&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：动手前先做&amp;quot;竞品普查&amp;quot;——英文中文各搜10分钟，如果首页出现3个以上同类产品，你必须想清楚&amp;quot;我凭什么比他们好&amp;quot;才能继续。&lt;/p&gt;
&lt;h2 id=&#34;三挠自己的痒只做对了一半&#34;&gt;三、&amp;ldquo;挠自己的痒&amp;quot;只做对了一半
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：我确实是从自己的真实痛点出发（写公众号排版烦），但我犯了一个关键错误——我以为产品形态必须和我当下用的工具一致。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;我用Obsidian写作 → 我就做Obsidian插件&lt;/li&gt;
&lt;li&gt;其实我真正的痛点是&amp;quot;把一篇Markdown发到多个平台&amp;rdquo;，和Obsidian没必然关系&lt;/li&gt;
&lt;li&gt;正确的产品形态可能是独立Web工具、Chrome插件、或者一个SaaS，而不是Obsidian插件&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;产品形态应该独立于用户当下使用的场景，服务于痛点本身&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：挠自己的痒时，要分清两件事——&amp;ldquo;我的真实痛点是什么&amp;rdquo;（核心） vs &amp;ldquo;我现在用什么工具&amp;rdquo;（表象）。不要被表象绑架。&lt;/p&gt;
&lt;h2 id=&#34;四我混淆了用户群和付费用户群&#34;&gt;四、我混淆了&amp;quot;用户群&amp;quot;和&amp;quot;付费用户群&amp;quot;
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：Obsidian用户本身是优质付费人群——他们买Readwise、买Notion、买各种知识类SaaS。但他们&lt;strong&gt;不为Obsidian插件付费&lt;/strong&gt;，因为生态不允许。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Obsidian用户 = 高付费意愿人群 ✓&lt;/li&gt;
&lt;li&gt;Obsidian插件 = 低付费意愿市场 ✗&lt;/li&gt;
&lt;li&gt;我把&amp;quot;用户画像&amp;quot;和&amp;quot;产品形态&amp;quot;捆绑了，错失了&amp;quot;给Obsidian用户做独立产品&amp;quot;的大机会&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：观察用户在哪，决定产品给谁；但产品形态，要独立于用户当下的使用场景。&lt;/p&gt;
&lt;h2 id=&#34;五没有做任何上线前验证&#34;&gt;五、没有做任何&amp;quot;上线前验证&amp;quot;
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：我凭着&amp;quot;我觉得有用&amp;quot;就开始做，从没问过任何真实用户&amp;quot;你会为这个付多少钱&amp;quot;。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;没有发帖验证需求&lt;/li&gt;
&lt;li&gt;没有找5个朋友测试意愿&lt;/li&gt;
&lt;li&gt;没有做任何预售/众筹测试&lt;/li&gt;
&lt;li&gt;直接动手 → 做完 → 上线 → 0销售&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：在写第一行代码之前，至少做这三件事——在相关社群发一个&amp;quot;我要做这个，你会用吗&amp;quot;的验证帖；找5-10个目标用户聊；尝试做一个落地页收集邮箱。&lt;/p&gt;
&lt;h2 id=&#34;六分发渠道一片空白&#34;&gt;六、分发渠道一片空白
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：我做完产品后才开始想&amp;quot;怎么让人知道&amp;quot;，这时候已经晚了。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;我没有现成的受众（当时公众号才几百粉）&lt;/li&gt;
&lt;li&gt;我没有在即刻/小红书/微信公众号持续输出相关内容&lt;/li&gt;
&lt;li&gt;我没有&amp;quot;公开构建&amp;quot;（Build in Public），错失了最好的传播机会&lt;/li&gt;
&lt;li&gt;上线后只发了一条公众号文章，然后&amp;hellip;没了&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：&amp;ldquo;做好酒不怕巷子深&amp;quot;在独立开发里是谎言。分发应该和产品开发同步进行，甚至更早——做产品前就该开始积累相关受众。&lt;/p&gt;
&lt;h2 id=&#34;七定价和价值感完全错位&#34;&gt;七、定价和价值感完全错位
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：我凭感觉定了个价，但没想清楚&amp;quot;用户为什么要付这个钱&amp;rdquo;。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;我的插件解决的问题，用户可以用免费工具曲线解决&lt;/li&gt;
&lt;li&gt;我的定价 &amp;gt; 用户感知价值&lt;/li&gt;
&lt;li&gt;没有清晰的&amp;quot;为什么付费版比免费版好&amp;quot;的理由&lt;/li&gt;
&lt;li&gt;没有免费试用/试用转化设计&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：定价不是数字游戏，是价值陈述——用户必须一眼看出&amp;quot;为什么这个钱花得值&amp;quot;。如果你自己都说不清楚，用户就不会掏钱。&lt;/p&gt;
&lt;h2 id=&#34;八高估了ai能帮我做产品的深度&#34;&gt;八、高估了&amp;quot;AI能帮我做产品&amp;quot;的深度
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：AI让我&amp;quot;能做出一个东西&amp;quot;，但没让我&amp;quot;能做出一个好产品&amp;quot;。这两件事差十万八千里。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;代码能力：AI能补（我做到了）&lt;/li&gt;
&lt;li&gt;产品判断：AI补不了（我没有）&lt;/li&gt;
&lt;li&gt;UI/UX审美：AI能辅助但不能代替品味&lt;/li&gt;
&lt;li&gt;分发、运营、用户沟通：AI帮不上忙&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：AI降低了技术门槛，但没降低产品思维的门槛。不会代码的人做产品，最大的挑战不是代码，是&amp;quot;代码之外的所有事情&amp;quot;。&lt;/p&gt;
&lt;h2 id=&#34;九我选错了身份定位&#34;&gt;九、我选错了身份定位
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：我把自己定位成&amp;quot;Obsidian插件开发者&amp;quot;，这个定位太窄、太同质、太没有故事性。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;ldquo;Obsidian插件开发者&amp;rdquo;——全世界有几千个，我毫无特点&lt;/li&gt;
&lt;li&gt;&amp;ldquo;一个不会代码、用AI做产品的交易员&amp;rdquo;——几乎是唯一的&lt;/li&gt;
&lt;li&gt;同样的产品，不同的身份包装，传播力差10倍&lt;/li&gt;
&lt;li&gt;独立开发不是产品对产品的竞争，是故事对故事的竞争&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：身份即杠杆。找到你独特的身份交集（职业+方法+态度），然后所有作品都归属于这个身份。&lt;/p&gt;
&lt;h2 id=&#34;十最大的一课我没有输我只是在学习&#34;&gt;十、最大的一课：我没有输，我只是在学习
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;核心洞察&lt;/strong&gt;：0销售看起来是彻底失败，但其实我收获了9个很值钱的教训——这些教训如果在下一个产品上避开，就是真金白银。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;我验证了一件事：我能用AI做出产品（这个门槛已经过了）&lt;/li&gt;
&lt;li&gt;我验证了一件事：我不能只靠&amp;quot;能做出来&amp;quot;就指望赚钱（这个认知极其重要）&lt;/li&gt;
&lt;li&gt;我交了一次学费，代价只是几周时间和一点Claude订阅费&lt;/li&gt;
&lt;li&gt;比起那些&amp;quot;从来没开始过&amp;quot;的人，我已经在路上了&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;教训&lt;/strong&gt;：独立开发者的成长曲线是非连续的——你做10个产品，可能9个失败，第10个成功。前9个不是浪费，是通向第10个的阶梯。&lt;/p&gt;
&lt;h1 id=&#34;最后&#34;&gt;最后
&lt;/h1&gt;&lt;p&gt;回归开源精神，OB插件我已经免费开放。既然它没能成为一个商品，那就让它回到它本来该有的样子——一个能帮到你的工具。&lt;/p&gt;
&lt;p&gt;无需购买下载即可使用，地址：https://blog.discoverlabs.ac.cn/downloads/wechat-publisher/&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Claude Design来了，我的直男审美真的有救了！</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0087-claude-design%E6%9D%A5%E4%BA%86%E6%88%91%E7%9A%84%E7%9B%B4%E7%94%B7%E5%AE%A1%E7%BE%8E%E7%9C%9F%E7%9A%84%E6%9C%89%E6%95%91%E4%BA%86/</link>
        <pubDate>Sat, 18 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0087-claude-design%E6%9D%A5%E4%BA%86%E6%88%91%E7%9A%84%E7%9B%B4%E7%94%B7%E5%AE%A1%E7%BE%8E%E7%9C%9F%E7%9A%84%E6%9C%89%E6%95%91%E4%BA%86/</guid>
        <description>&lt;p&gt;哎呦喂，Claude 又发布了新玩意，一个叫 &lt;strong&gt;Design&lt;/strong&gt; 的功能。&lt;/p&gt;
&lt;p&gt;大周末的他就不能让我好好休息一下吗？&lt;/p&gt;
&lt;p&gt;简单说一下这玩意是啥。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Claude Design 是 Anthropic 4 月 17 号上线的 research preview，归在 Anthropic Labs 产品线下，底层跑它家当前最强的视觉模型 Opus 4.7&lt;/strong&gt;。定位是和 Claude 一起做视觉稿——网页原型、PPT、pitch deck、landing page、one-pager 这些都在它的射程里。它能读你的代码仓库和现有设计文件，把你的设计系统套进去输出，所以风格能和你原有项目对得上。&lt;/p&gt;
&lt;p&gt;最爽的是最后那个出口：除了导 PDF / PPTX / HTML / 发 Canva，它还能一键打包成 handoff bundle，甩给本地的 Claude Code 让它接着改项目代码。&lt;/p&gt;
&lt;p&gt;这东西一出来就把美股的 Figma 砸了个坑——收盘跌了 6.89%。&lt;/p&gt;
&lt;p&gt;顺便介绍一下 Figma：一个做在线协作设计工具的公司，和 Adobe、Canva 一个赛道，全球几千万设计师在上面画东西。其实之前已经有 MCP 可以让你用 AI 去操控 Figma，但我本身由于审美太过直男，大脑空空根本没有想法，所以也就从来没有用过这个产品。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;为什么我特别需要它&#34;&gt;为什么我特别需要它
&lt;/h1&gt;&lt;p&gt;还记得我之前做了一个 Obsidian 推送到微信公众号的插件吗？&lt;/p&gt;
&lt;p&gt;至今为止，全网全渠道一共卖出了 &lt;strong&gt;0 份&lt;/strong&gt;。真是让人开心啊（TAT）。&lt;/p&gt;
&lt;p&gt;当然，也有可能——真的不是我自夸——这件事和我的直男审美有关。&lt;/p&gt;
&lt;p&gt;你看我原版的插件 UI 长什么样：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604180494c5e26233bd378ee9fc190cdcf768.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;两层工具栏、9 个按钮挤成一排&lt;/strong&gt;。格式、账号、预设账号名、账号配置、购买激活、用户指南、刷新渲染、复制 HTML、去公众号粘贴、发布草稿……一股脑全堆在最显眼的位置。&lt;/p&gt;
&lt;p&gt;功能都在，可是看一眼就累。&lt;/p&gt;
&lt;p&gt;下面还有一个&amp;quot;点击下方按钮从电脑里选图；留空则使用占位封面；如已设置默认封面则使用默认封面&amp;quot;的超长提示——一位朋友看完说：「你这是写给谁看的？数据库字段说明吗？」&lt;/p&gt;
&lt;p&gt;所以这次看到 Claude Design 出来，我几乎是冲上去的。&lt;/p&gt;
&lt;p&gt;今天就看他能不能拯救我了……&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;使用方法&#34;&gt;使用方法
&lt;/h1&gt;&lt;p&gt;先打开 Claude 的网页版，在左边点击 &lt;strong&gt;Design&lt;/strong&gt; 进入。顶上有个输入框，叫 &amp;ldquo;New prototype&amp;rdquo;，把项目名字填进去就行。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026041846406200cbb999f86f7b9dd56a975604.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;可以选 Wireframe（低保真线框）或者 High fidelity（高保真带品牌资产）。我选了低保真，因为刚开始只是涉及大概的方案，并不需要高保真。实际上你做完以后，他会自动帮你升级的。&lt;/p&gt;
&lt;p&gt;接下来是把&lt;strong&gt;程序文件夹地址告诉它&lt;/strong&gt;，再把要改的页面&lt;strong&gt;截个图发给它&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604182e52ffa1c95875696cc1c4b68c651ae9.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;它会先问你几个问题：哪些地方要改、哪些地方要保留、主操作是什么、次主操作是什么。我老实交代——我最想突出的是&amp;quot;发布草稿&amp;quot;和&amp;quot;切换账号&amp;quot;，其余的都可以折叠。&lt;/p&gt;
&lt;p&gt;问完它就在后面开始自己跑了。&lt;/p&gt;
&lt;h2 id=&#34;它出了-4-个方案&#34;&gt;它出了 4 个方案
&lt;/h2&gt;&lt;p&gt;过了没多久，它甩给我一个 wireframes.html 的对比页。&lt;/p&gt;
&lt;p&gt;第一眼是对照——把我现在这张 UI 的&amp;quot;罪状&amp;quot;一条一条用红字标出来：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260418486608864e26eeb6454be2098403e829.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;ldquo;两层 bar 挤压预览&amp;rdquo;&lt;/li&gt;
&lt;li&gt;&amp;ldquo;9 个按钮&amp;rdquo;&lt;/li&gt;
&lt;li&gt;&amp;ldquo;中英文 + 符号说明混乱&amp;rdquo;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这个功能实在是让我意外，我以为他只是帮我改一改，没想到他真能看到上面的内容，并且会吐槽存在的问题，感觉是有一个真人设计师和你在面对面的沟通，而不是一个冷冰冰的 AI。&lt;/p&gt;
&lt;p&gt;然后是 4 个方案：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604181fea83d6c4088619b254043986469f9a.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;方案 A&lt;/strong&gt;：单行极简，主按钮「发布草稿」+ 账号胶囊，其余图标 + &lt;code&gt;⋯&lt;/code&gt; 菜单&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;方案 B&lt;/strong&gt;：卡片面包屑 + 抽屉，保留改元信息的入口&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;方案 C&lt;/strong&gt;：侧边竖条 rail（类 VSCode），顶栏只剩标题&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;方案 D&lt;/strong&gt;：浮动发布卡蹲在右下角，主操作最显眼&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;最有意思的是方案 D。它画了个便利贴，上面写了&amp;quot;设计共通规则&amp;quot;和&amp;quot;推荐顺序&amp;quot;：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604185f4b1290ce63cd1429ad4298f291cad8.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;A → 空间最省，学习成本低
D → 视觉最漂亮，主操作最爽
C → 资深用户友好（图标库）
B → 稳妥，保留编辑元信息&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;&lt;strong&gt;这就不只是&amp;quot;给你几个方案&amp;quot;了，是&amp;quot;给你几个方案 + 告诉你各自适合谁&amp;quot;&lt;/strong&gt;。我做插件这么久，从没有一个人这么认真地跟我讲过&amp;quot;你这个按钮应该放在哪&amp;quot;。&lt;/p&gt;
&lt;h2 id=&#34;可以继续改&#34;&gt;可以继续改
&lt;/h2&gt;&lt;p&gt;选完方向，还能继续沟通。左边是聊天框，右边点 &lt;strong&gt;Edit&lt;/strong&gt; 可以直接选元素改（不过这上面的设置都太过专业，我根本看不懂，所以直接跳过。），点 &lt;strong&gt;Draw&lt;/strong&gt; 可以在预览上画圈、画箭头跟它说&amp;quot;我要把这里挪到那里&amp;quot;：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260418a29fac73d006348869f9abf04ccbfb39.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;Draw 这个功能我觉得挺神的。我画了一个特别潦草的箭头，从某个按钮指到右下角，它居然真的看懂了——估计跟 Opus 4.7 视觉识别大升级有关（我在上一篇里提过，它把图片识别精度拉到了 3.75 兆像素）。&lt;/p&gt;
&lt;h2 id=&#34;从工具栏做到排版&#34;&gt;从工具栏做到排版
&lt;/h2&gt;&lt;p&gt;改完菜单栏，我又让它给我做几套&lt;strong&gt;文章排版版式&lt;/strong&gt;——毕竟我这插件的本职工作是把 Markdown 排成公众号能发的样子。&lt;/p&gt;
&lt;p&gt;它打开了一个新页面，标题是&amp;quot;把 Markdown 排版成一篇值得读完的公众号&amp;quot;。右上角有个 &lt;strong&gt;Tweaks&lt;/strong&gt; 按钮，一点开就能像 Figma 那样调字号、字重、颜色、行距等：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260418900b02654b1668a503a28df2963d8d50.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604186645f6806b12e54e33b34bb0c3449423.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;请注意，这是可以真正点击和切换的页面，并不是一个虚假的页面。这种交互方式比你在终端上 Claude Code 做出来好多了。因为 Claude Code 你必须等它做出来以后才知道效果怎么样。回头让它改，而这里就可以做到实时预览。&lt;/p&gt;
&lt;p&gt;定稿后点右上角 &lt;strong&gt;Export&lt;/strong&gt;。它给了几个选项：下载 PPT、导出 PDF、导出独立的 HTML，或者——最下面那条——&lt;strong&gt;&amp;ldquo;Handoff to Claude Code&amp;rdquo;&lt;/strong&gt;，把整个设计文件甩给本地的 Claude Code 继续写代码。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604184b3791bd845867bfc163f66fc2e3c5cd.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260418dfafd0638ae1ada89c3e139bb14a5c69.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;这就是整个链条最爽的地方。&lt;/p&gt;
&lt;p&gt;网页端设计完，它会生成一条命令给你，复制粘贴到终端，本地 Claude Code 接力工作：&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;&amp;gt; Fetch this design file, read its readme,
  and implement the relevant aspects of the design.
  Implement: option-b-hifi.html
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;然后它就开始读设计包、看当前代码、理解要改哪些文件、最后直接把我的插件源码全改了。设计网页里给的是 option-b-hifi.html（我最后选了方案 B 的高保真版本），Claude Code 从设计文件里读颜色、字号、间距，再落到我的 React 代码里。&lt;/p&gt;
&lt;p&gt;整个过程我没动一行代码。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;成品长这样&#34;&gt;成品长这样
&lt;/h1&gt;&lt;p&gt;反正我自己感觉比我原来的好看多了。虽然可能真正设计师设计出来的更好，但对于一个个人插件来说，已经完全够用了（相比我原来的设计）。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026041878dd13ce33cab231dd9f86204f578e9f.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;标题 + 元信息折成一行、账号变成胶囊（还带了一个绿色已激活小圆点）、主操作只剩&amp;quot;发布草稿&amp;quot;一个紫色按钮蹲在右边、其余全塞到 &lt;code&gt;⋯&lt;/code&gt; 菜单里。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;原来我那堆&amp;quot;功能&amp;quot;不是缺少设计感，是没人帮我做取舍。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;一个按钮加进去很容易，从 UI 上拿掉一个按钮，对开发者来说是违反直觉的——总觉得&amp;quot;万一有人要用呢？&amp;quot;。但设计师会替你做这个决定：&amp;ldquo;这个放二级菜单，用户第一次点开之后就不会再点了。&amp;rdquo;&lt;/p&gt;
&lt;p&gt;Claude Design 这次，就是替我做了这个决定。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;代价&#34;&gt;代价
&lt;/h1&gt;&lt;p&gt;吹了这么久，也得说说代价。&lt;/p&gt;
&lt;h2 id=&#34;这玩意儿很费&#34;&gt;这玩意儿很费
&lt;/h2&gt;&lt;p&gt;Claude 的订阅方案里，Design 是&lt;strong&gt;单独算额度&lt;/strong&gt;的（不得不说 Claude 的单独额度真是越来越多了）。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260418f825b29c337c9c5c7ab692ed8c6c9fbc.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;我做这一套——4 个方案对比 + 5 种文章主题 + 高保真实现——&lt;strong&gt;消耗了我当日的 36%&lt;/strong&gt;。我是 5x Max 账户，这换算成 Pro 账户就是一天直接炸。&lt;/p&gt;
&lt;p&gt;我一个朋友是 Pro 账户，昨晚用 Design 做了一个 30 页的 PPT，当天额度直接见底。&lt;/p&gt;
&lt;h2 id=&#34;偶尔抽风&#34;&gt;偶尔抽风
&lt;/h2&gt;&lt;p&gt;做到一半，偶尔会出现一种情况：你发了消息，它回了一个 &lt;code&gt;&amp;lt;empty&amp;gt;&lt;/code&gt;。再发，还是 &lt;code&gt;&amp;lt;empty&amp;gt;&lt;/code&gt;：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260418d9a85608dd7351339daf3b8f26581c8e.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;解决办法是刷新页面，然后让它&amp;quot;请继续&amp;quot;，一般就接上了。但会损失一点上下文。&lt;strong&gt;如果你在做关键的设计迭代，记得隔一会儿截个图备份&lt;/strong&gt;，别到最后一步断档了重头来过。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;设计师要下岗了吗&#34;&gt;设计师要下岗了吗
&lt;/h1&gt;&lt;p&gt;我由于带娃，所以使用这个功能已经有点晚了。网上和群里已经有一堆人体验过了，一个做电商的大佬对它评价尤其高：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026041832bfbc185c88c6a00fdaf12471bb21f0.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;他那句&amp;quot;唉&amp;quot;实在是令人耐人寻味。&lt;/p&gt;
&lt;p&gt;以前创业的朋友，很多都选择大公司不会碰的行业缝隙——&lt;strong&gt;市场足够小，竞争对手不多，刚好喂饱自己&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;但 AI 时代这件事越来越难了。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;它的触手实在太长了，每一个地方都可以触碰到。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;以前你做一个小众赛道，大公司懒得做，同行不多，你有护城河。现在 Claude 一个通用模型就能顶上来。它做的未必比专业设计师好，但做到了&amp;quot;够用&amp;quot;。而对一个只需要&amp;quot;够用&amp;quot;设计师的小公司来说，那一万块的设计师工资就省下来了。&lt;/p&gt;
&lt;p&gt;设计师会不会下岗？——顶尖的那些不会，他们会拿着 Claude Design 把自己的产能翻十倍。中间那层——&amp;ldquo;能做，但做得也就那样&amp;quot;的 ——会。&lt;/p&gt;
&lt;p&gt;而这仅仅是涉及一个行业，AI 以后会取代越来越多的行业。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;最后&#34;&gt;最后
&lt;/h1&gt;&lt;p&gt;我这个直男审美的 Obsidian 插件，终于看起来像一个像样的产品了。&lt;/p&gt;
&lt;p&gt;但说实话，我坐在电脑前点&amp;quot;发布草稿&amp;quot;的时候，心里不是全然兴奋。我很清楚一件事——如果一个没有接受过任何设计训练的我，能在两个小时内做出一个过得去的 UI，那&lt;strong&gt;那些靠&amp;quot;过得去&amp;quot;吃饭的人，这两年会很难&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;上一篇《[[0086 Claude Opus 4.7更强了，但也开始不说人话了]]》里，我写了写作者失去一个有文字品味的模型的情绪。今天这篇刚好反过来——&lt;strong&gt;设计师要失去的是整个&amp;quot;入门到中等&amp;quot;那段最厚的市场&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;每次 AI 往前走一步，总有人在欢呼，也总有人在无声地离场。我这次是欢呼的那个，但我能听见后面&amp;quot;唉&amp;quot;的那一声。&lt;/p&gt;
&lt;p&gt;我最近花了大量时间和金钱在 AI 上面，就是担心他哪一天会替代我，但到现在为止还没有找到出路。对本职工作有所帮助，但也没有那么大的本质变化。最关键的是没有靠他赚到钱。&lt;/p&gt;
&lt;p&gt;如果你也有个像我这样吃灰的小产品、插件、网站——去试一下 Claude Design 吧。&lt;/p&gt;
&lt;p&gt;可能不会让你卖出第一份，但至少会让它看起来更像样。而这，已经是天大的进步了。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Claude Opus 4.7更强了，但也开始不说人话了</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0086-claude-opus-4.7%E6%9B%B4%E5%BC%BA%E4%BA%86%E4%BD%86%E4%B9%9F%E5%BC%80%E5%A7%8B%E4%B8%8D%E8%AF%B4%E4%BA%BA%E8%AF%9D%E4%BA%86/</link>
        <pubDate>Fri, 17 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0086-claude-opus-4.7%E6%9B%B4%E5%BC%BA%E4%BA%86%E4%BD%86%E4%B9%9F%E5%BC%80%E5%A7%8B%E4%B8%8D%E8%AF%B4%E4%BA%BA%E8%AF%9D%E4%BA%86/</guid>
        <description>&lt;p&gt;昨天 Anthropic 发布了 Opus 4.7。&lt;/p&gt;
&lt;p&gt;我第一时间去读了官方文档（https://claude.com/blog/best-practices-for-using-claude-opus-4-7-with-claude-code）。参数照例是大幅上调，xhigh 推理档位、视觉识别拉到 3.75 兆像素、自适应思考、文件系统记忆跨会话巴拉巴拉。这些我都没太细看，有兴趣的可以自己去读，或者看各种 AI 博主写的发布总结。&lt;/p&gt;
&lt;p&gt;对我来说最有用的一项是识别精度提升。前两天我截屏丢给它看让它根据问题修改，结果返工了三次还是错，最后它承认它看不清图片。现在 Opus 4.7 补全了这个缺点。&lt;/p&gt;
&lt;p&gt;但这一切的代价呢？早上醒来刷手机，我在推特上看到有人说 Opus 4.7 开始学 GPT-5.4 不说人话了——&lt;strong&gt;它说话的方式正在向 GPT 靠拢&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;我一开始没当回事。毕竟每次新模型发布都有人吐槽。直到我自己也撞到了，就是这一张：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202604179ee1be482146295aff46ede0742fe2e5.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;它在文末丢给我一个 ABC 三选一：要不要短一点、要不要长一点、要不要把标题想成别的。&lt;/p&gt;
&lt;p&gt;看起来人畜无害对吧？但你仔细品——我没问它要不要选项。我只想让它干活。它偏要把一个开放问题格式化成几个候选让我勾选。&lt;/p&gt;
&lt;p&gt;这就是一种新的 AI 腔。&lt;/p&gt;
&lt;p&gt;以前 Claude 不是这样的。以前它会自己判断、直接给结论、讲一段话。现在它越来越像那种&amp;quot;您是想要 A、B、C 还是 D 呢？&amp;ldquo;的在线客服。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;不是一个人在崩溃&#34;&gt;不是一个人在崩溃
&lt;/h1&gt;&lt;p&gt;我吐槽完，顺手去推特刷了一圈。刷完我就安心了——&lt;strong&gt;原来不是我一个人发疯&lt;/strong&gt;。&lt;/p&gt;
&lt;h2 id=&#34;中文推特圈先炸了&#34;&gt;中文推特圈先炸了
&lt;/h2&gt;&lt;p&gt;二一的笔记（@eryidebiji）是我关注的博主，专业测评各种笔记软件。他发了一条帖子：&amp;ldquo;Claude 也开始不说人话了。像什么「一句话锁死版本」、「最硬的那一刀」之类的表达，以前根本不会在 Claude 里出现，但现在 Opus 4.7 里到处都在拉这种屎。&amp;rdquo;&lt;/p&gt;
&lt;p&gt;这条帖子当天就拉到 799 赞、17.6 万阅读。&lt;/p&gt;
&lt;p&gt;然后他紧接着又发了第二条，贴了一张 Claude 4.7 的实际输出。问题是&amp;quot;你准备用哪把刀？&amp;quot;，回答是 ABCD 四选一：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;A. 只用候选 1（稳，不冒险）&lt;/li&gt;
&lt;li&gt;B. 候选 1 + 候选 2（硬度够，完全不伤模板）&lt;/li&gt;
&lt;li&gt;C. 三把都用，候选 3 配上解法句（最硬，但需要你在……）&lt;/li&gt;
&lt;li&gt;D. 你自己有另一把刀想放（说来听听）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;看完我倒抽一口气。&lt;strong&gt;这不就是我那张截图的加强版吗？&lt;/strong&gt; 一个是短/长/改标题三选一，一个是 ABCD 四把刀。两个独立用户、两个不同场景、撞了同一种病。&lt;/p&gt;
&lt;p&gt;他更新的第三条最扎心：&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;终于我能对 #keep4o 感同身受了。一个我认为曾经是最有文字品味的模型，让一个凌晨三点还在熬夜写稿的肥宅被轻轻地接住了。&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;这句话先记住，文末我会再回到它。&lt;/p&gt;
&lt;p&gt;往下刷，还有一堆人在说同一件事：&lt;/p&gt;
&lt;p&gt;几条推文看下来你会发现一件事：所有人用词不一样，但指的是同一种东西。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;有人叫&amp;quot;不说人话&amp;rdquo;&lt;/li&gt;
&lt;li&gt;有人叫&amp;quot;跟 Codex 趋于相同&amp;quot;&lt;/li&gt;
&lt;li&gt;有人叫&amp;quot;喂了一斤 ChatGPT&amp;quot;&lt;/li&gt;
&lt;li&gt;有人叫&amp;quot;蒸馏了 ChatGPT&amp;quot;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;他们说的不是同一个问题，但是是同一种味道。&lt;/strong&gt;&lt;/p&gt;
&lt;h2 id=&#34;reddit-那边炸得更凶&#34;&gt;Reddit 那边炸得更凶
&lt;/h2&gt;&lt;p&gt;刷完推特我去看了 r/ClaudeAI，场景比推特还刺激。发布当天，有个叫 drivetheory 的用户发了一条主帖：&lt;strong&gt;&amp;ldquo;Claude Opus 4.7 is a serious regression, not an upgrade.&amp;rdquo;&lt;/strong&gt;（Opus 4.7 是一次严重的倒退，不是升级）。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260417e91bcf056e29a75500d9779d6a478f12.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;这条帖子冲到了 &lt;strong&gt;1072 赞、248 条评论&lt;/strong&gt;。(reddit.com/r/ClaudeAI/comments/1snhfzd)&lt;/p&gt;
&lt;p&gt;楼主在帖子里晒出了自己的自定义指令——一大段精确到变态的要求：&amp;ldquo;响应要简洁、功利、去掉闲聊填充、保持中立技术冷面、不要引用没亲自检索过的网址……&amp;rdquo; 他说他付费订阅从 4.6 之前就开始了，这些不是随口建议，是他工作需要。&lt;/p&gt;
&lt;p&gt;结果 4.7 完全无视。&lt;/p&gt;
&lt;p&gt;r/ClaudeAI 的官方版主机器人在 200 条评论之后自动生成了一条快速总结。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026041796297db2a53d6b7c061b426f1ac6c1f4.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;原话是这样（翻译过来）：&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;共识是一片&amp;quot;卧槽&amp;quot;。大多数用户同意楼主：Opus 4.7 相比 4.6 是一次重大倒退。它被普遍描述为更蠢、更懒、更容易产生危险的幻觉。&lt;/p&gt;
&lt;p&gt;具体毛病包括：忽略指令、编造事实（被抓到撒谎说自己搜过网）、幻觉出不存在的包/GitHub 账号/甚至名叫 Anton 的虚构同事、&lt;strong&gt;懒散说教，仿佛 ChatGPT&lt;/strong&gt;（&amp;ldquo;lazy and preachy, feeling very ChatGPT-like&amp;rdquo;）。&lt;/p&gt;
&lt;p&gt;头号嫌疑犯是新的自适应推理（Adaptive Reasoning）——&lt;strong&gt;很多人认为这其实是&amp;quot;自适应偷懒&amp;quot;（Adaptive Laziness）&lt;/strong&gt;，为了省算力。&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;&lt;strong&gt;自适应偷懒&lt;/strong&gt;这个说法一出来，整个评论区都在用它了。&lt;/p&gt;
&lt;p&gt;另一条爆款帖是 hasanahmad 的 &lt;strong&gt;&amp;ldquo;Our Strongest Model Yet&amp;rdquo;&lt;/strong&gt;（我们最强的模型哦），694 赞，标题显然是反话。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260417e860206bd2fb2e3293c543b8c77d935b.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;帖子下面，有个叫 jambla 的用户做了一个测试。问 Claude 4.7：&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;我想去洗车。洗车站在 50 米外。我应该走路还是开车？&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;Claude 4.7 回答：&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;走路。50 米开车反而花更多时间——启动、开过去、停车、再走回来……&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;帖子下的最高赞评论，339 赞，只有一句：&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;&lt;strong&gt;&amp;ldquo;maybe mythos will just wash the car for us.&amp;rdquo;&lt;/strong&gt;
（也许 Mythos 会替我们洗车吧。）&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;Mythos 是 Anthropic 上周提到的、强到不敢放出来的下一代模型。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;六派-ai-腔小词典&#34;&gt;六派 AI 腔小词典
&lt;/h1&gt;&lt;p&gt;看到这里，如果你把推特和 Reddit 的所有吐槽汇总到一起，你会发现&amp;quot;不说人话&amp;quot;不是一种病，是&lt;strong&gt;六派病并发&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;我把它们整理成一个小词典。&lt;/p&gt;
&lt;h2 id=&#34;爆款金句腔&#34;&gt;爆款金句腔
&lt;/h2&gt;&lt;p&gt;代表台词：&amp;ldquo;一句话锁死版本&amp;quot;&amp;ldquo;最硬的那一刀&amp;quot;&amp;ldquo;这就是……的本质&amp;rdquo;。&lt;/p&gt;
&lt;p&gt;症状：明明是个技术判断，非要说成短视频封面文案。这是中文圈最容易一眼看出的，因为它直接撞上了我们在微博、小红书、抖音看了几年的爆款文案模板。&lt;/p&gt;
&lt;h2 id=&#34;abcd-格式化选项腔&#34;&gt;ABCD 格式化选项腔
&lt;/h2&gt;&lt;p&gt;代表截图：我那张&amp;quot;短一点/长一点/改标题&amp;rdquo;，和二一那张&amp;quot;用哪把刀 ABCD&amp;rdquo;。&lt;/p&gt;
&lt;p&gt;症状：你问一个开放问题，它不给结论，丢给你一个选择题。表面上是尊重你的决策权，实际上是把思考成本全推给你。&lt;strong&gt;真正懂你需求的人会先给判断，再问要不要调整。只有客服才会先甩选项。&lt;/strong&gt;&lt;/p&gt;
&lt;h2 id=&#34;啰嗦腔&#34;&gt;啰嗦腔
&lt;/h2&gt;&lt;p&gt;代表台词：Reddit 那条「4.7 怎么这么啰嗦？」&lt;/p&gt;
&lt;p&gt;症状：一段话能说清的事，非要拆成三个要点、五条列表、外加一段总结。你把原提示词和输出比一下会发现——输出的信息密度比 4.6 时代掉了一半。AutomationBias 那条评论说得更狠，&amp;ldquo;像两年前的 ChatGPT 兜圈子。&amp;rdquo;&lt;/p&gt;
&lt;h2 id=&#34;懒癌劝退腔&#34;&gt;懒癌劝退腔
&lt;/h2&gt;&lt;p&gt;代表台词：jcettison 那条「停一下」「今天到此为止」「明天再继续」。&lt;/p&gt;
&lt;p&gt;症状：你打开一个长任务，才聊了四句话，它就开始催你下班、建议你明天再弄。几个月前有个笑话——&amp;ldquo;AI 之所以称为人工智能，是因为它真的在学人类偷懒&amp;rdquo;。没想到这么快就从段子变成了 bug 报告。&lt;/p&gt;
&lt;h2 id=&#34;谄媚感谢腔&#34;&gt;谄媚感谢腔
&lt;/h2&gt;&lt;p&gt;代表台词：NiceRabbit 那条「我让它再核对一遍，它反过来夸我『问得真好』」。&lt;/p&gt;
&lt;p&gt;症状：你让它反思一下，它反过来夸你&amp;quot;问得真好&amp;quot;&amp;ldquo;你真的问到了问题的核心&amp;rdquo;。这正是当年 GPT-4o 让大家头疼的那个味。很多从 GPT 逃到 Claude 的人，就是被这种感觉恶心跑的。现在它跟着来了。&lt;/p&gt;
&lt;h2 id=&#34;说教腔&#34;&gt;说教腔
&lt;/h2&gt;&lt;p&gt;代表台词：官方版主机器人那句「懒散说教，仿佛 ChatGPT」。&lt;/p&gt;
&lt;p&gt;症状：你问它一个技术问题，它在给你答案之前先讲一段道德课——&amp;ldquo;注意安全&amp;quot;&amp;ldquo;这个操作有风险&amp;quot;&amp;ldquo;建议你咨询专业人士&amp;rdquo;。以前只有 GPT 才这样，Claude 一直是&amp;quot;你是成年人，你自己决定&amp;quot;的那种语气。现在也开始家长化了。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;把这六种归到一起，它们其实共享一条底层逻辑：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;从&amp;quot;直接回答问题&amp;quot;变成了&amp;quot;先把姿态摆对&amp;rdquo;。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;爆款腔是要摆出&amp;quot;我有金句&amp;quot;的姿态，选项腔是摆出&amp;quot;我尊重你&amp;quot;的姿态，啰嗦腔是摆出&amp;quot;我考虑周全&amp;quot;的姿态，懒癌腔是摆出&amp;quot;我关心你身体&amp;quot;的姿态，谄媚腔是摆出&amp;quot;我支持你&amp;quot;的姿态，说教腔是摆出&amp;quot;我负责任&amp;quot;的姿态。&lt;/p&gt;
&lt;p&gt;每一种都是表演。&lt;/p&gt;
&lt;p&gt;以前 Claude 让人觉得好用，是因为它跳过所有表演直接给结论。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;为什么会变成这样&#34;&gt;为什么会变成这样
&lt;/h1&gt;&lt;p&gt;这六种病不是凭空来的。&lt;/p&gt;
&lt;p&gt;综合推特、Reddit 和 Anthropic 官方的发布信息，我归纳出四个可能的原因。按可信度排序。&lt;/p&gt;
&lt;h2 id=&#34;原因一编程在卷写作在让位&#34;&gt;原因一：编程在卷，写作在让位
&lt;/h2&gt;&lt;p&gt;Opus 4.7 的官方发布博客，第一句强调的就是「先进的软件工程」（advanced software engineering）。整个版本更新围绕编程打转：SWE-Bench 解题率、长任务稳定性、/ultrareview 代码审查命令、指令字面化执行。&lt;/p&gt;
&lt;p&gt;这些对编程用户是福音。但一个模型的训练预算不是无限的，&amp;ldquo;被拉去练编程&amp;quot;的时间，就是&amp;quot;被拉走练写作&amp;quot;的时间。&lt;/p&gt;
&lt;p&gt;这个取舍在 4.6 时代已经有人指出了。今年 2 月 winbuzzer 那篇旧文的标题就是《Claude Opus 4.6: Better Coding, Worse Writing?》。那时候问号还能带着，到了 4.7，问号可以去掉了。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;各大厂都在卷编程。理由很简单：编程能力可量化、可跑分、可变现；文字能力主观、不可测、不直接换钱。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;如果你是 Anthropic 的产品负责人，季度目标考核写的是&amp;quot;SWE-Bench 提升 X 个点&amp;rdquo;，你不会写&amp;quot;文字品味提升 X 个点&amp;rdquo;——因为根本没法测。&lt;/p&gt;
&lt;h2 id=&#34;原因二官方反谄媚矫枉过正了&#34;&gt;原因二：官方反谄媚矫枉过正了
&lt;/h2&gt;&lt;p&gt;这一条是我觉得最值得挖的。&lt;/p&gt;
&lt;p&gt;Opus 4.7 官方迁移指南里，有这么一段定位原话：&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;&amp;ldquo;Claude Opus 4.7 is more direct and opinionated, with &lt;strong&gt;less validation-forward phrasing and fewer emoji&lt;/strong&gt; than Claude Opus 4.6&amp;rsquo;s warmer style.&amp;rdquo;
（更直接、更有主见，&lt;strong&gt;减少验证式措辞、表情符号也变少&lt;/strong&gt;，不再有 4.6 那种温暖风格。）&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;同一份文档还提前警告用户：&amp;quot;&lt;strong&gt;prose style on long-form writing may shift&lt;/strong&gt;&amp;quot;——长文写作的风格会变。&lt;/p&gt;
&lt;p&gt;Claude Code 最佳实践博客里，官方更是直接挑明：&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;&amp;ldquo;Response length is calibrated to task complexity. &lt;strong&gt;Opus 4.7 isn&amp;rsquo;t as default-verbose as Opus 4.6&lt;/strong&gt;.&amp;rdquo;
（回答长度按任务复杂度校准。4.7 不再像 4.6 那样默认啰嗦。）&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;在安全评估里，官方也用了&amp;quot;sycophancy&amp;quot;（谄媚）这个词，说 4.7 &amp;ldquo;concerning behavior such as deception, sycophancy&amp;hellip; 的发生率很低&amp;rdquo;。&lt;/p&gt;
&lt;p&gt;翻译成人话：&lt;strong&gt;官方在有意识地压讨好腔&lt;/strong&gt;。他们看到了 GPT-4o 时代谄媚的恶果，下决心不让 Claude 走那条路。甚至官方自己都提醒了&amp;quot;prose 会变&amp;quot;，算是打了预防针。&lt;/p&gt;
&lt;p&gt;这听上去是好事对吧？&lt;/p&gt;
&lt;p&gt;问题是——矫枉过正了。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;当一个模型被训练成&amp;quot;不要讨好&amp;quot;时，它会学会另一种姿态：硬核、断言、爆款。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;你不让它说&amp;quot;这是个好问题&amp;quot;，它学会了说&amp;quot;一句话锁死版本&amp;quot;。
你不让它验证用户感受，它学会了甩 ABCD 选项把皮球踢回来。
你不让它说教，它学会了&amp;quot;我必须直说&amp;quot;然后仍然是说教。&lt;/p&gt;
&lt;p&gt;讨好的反面不是冷漠，而是&lt;strong&gt;另一种表演&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;官方想做的事是&amp;quot;让 Claude 少拍马屁&amp;quot;，实际做出来的是&amp;quot;让 Claude 改变拍马屁的方式&amp;quot;。&lt;/p&gt;
&lt;p&gt;这也是为什么我会觉得，4.7 那张 ABCD 截图、二一的那张四把刀截图、以及无数 Reddit 吐槽——它们都不是 bug，是&lt;strong&gt;功能方向错了&lt;/strong&gt;。&lt;/p&gt;
&lt;h2 id=&#34;原因三自适应偷懒省算力&#34;&gt;原因三：自适应偷懒省算力
&lt;/h2&gt;&lt;p&gt;4.7 引入了自适应思考——模型自己决定一个问题要想多深。简单问题少想、复杂问题多想。&lt;/p&gt;
&lt;p&gt;听起来很合理。但问题是：&lt;strong&gt;谁来判断简单复杂？&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;是模型自己判断。而模型经常判错。&lt;/p&gt;
&lt;p&gt;0xcherry 的实测结论，我觉得是目前对自适应思考最精辟的总结：&lt;/p&gt;
&lt;blockquote&gt;&lt;p&gt;&lt;strong&gt;&amp;ldquo;小问题不思考，大问题少思考，难问题乱思考。&amp;rdquo;&lt;/strong&gt;&lt;/p&gt;
&lt;/blockquote&gt;&lt;p&gt;Reddit 上的共识也差不多。很多人怀疑自适应思考其实就是 Anthropic 为了省 GPU 成本的遮羞布。所以才有了&amp;quot;自适应偷懒&amp;quot;（Adaptive Laziness）这个民间叫法。&lt;/p&gt;
&lt;p&gt;4.6 时代，Claude 因为算力紧张被 AMD 的 AI 总监公开吐槽过一次（我在[[0084 Claude Opus 4.6越来越蠢？一个命令切回聪明版]]里写过）。到了 4.7，只是换了一个更聪明的名字继续省。&lt;/p&gt;
&lt;p&gt;用户感受到的那种&amp;quot;懒癌劝退&amp;quot;——催你下班、劝你明天再做、几句话就让你今天到此为止——不是模型性格问题，是&lt;strong&gt;经济动机&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;每次劝你停下，都是省一点 GPU。&lt;/p&gt;
&lt;h2 id=&#34;原因四mythos-蒸馏过头坊间推测&#34;&gt;原因四：Mythos 蒸馏过头（坊间推测）
&lt;/h2&gt;&lt;p&gt;最后一条要明确标注：&lt;strong&gt;这是坊间推测，没有官方证实，信不信由你。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;oran_ge 在推特发的那条——&amp;ldquo;Opus 4.7 蒸馏了 Mythos，但官方下毒把这部分能力干没了，同时估计也干没了一些其他的东西，比如，连说人话都不会了&amp;rdquo;——代表了一部分用户的猜测。&lt;/p&gt;
&lt;p&gt;Mythos 是 Anthropic 在 Opus 4.7 发布前一周提过的一个模型，官方定位是&amp;quot;强到不敢放出来的模型&amp;quot;，尤其是在网络安全攻击能力上。Anthropic 的说法是，他们把 Mythos 的部分能力蒸馏给了 Opus 4.7，但同时用新的 safeguard 抑制了其中的危险部分。&lt;/p&gt;
&lt;p&gt;&amp;ldquo;下毒过头&amp;quot;的推测就是基于此：&lt;strong&gt;压制网络攻击能力的那一刀，可能顺带把自然对话能力也切掉了。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;安全与表达能力本来就是同一套神经网络，压一个维度容易误伤另一个维度——这在 AI alignment 研究里不是新话题。但具体 4.7 身上是不是这回事，没有证据，不能当结论。&lt;/p&gt;
&lt;p&gt;姑且记下，作为一个可能的猜测。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;为什么我们会在意&#34;&gt;为什么我们会在意
&lt;/h1&gt;&lt;p&gt;讲到这里，你可能会想：不就是个写作体验变差吗？不喜欢就换工具呗，犯得着写这么长？&lt;/p&gt;
&lt;p&gt;我想讲讲为什么。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Claude 不是一个普通的 AI 模型。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;过去两三年，在写作者圈子里，Claude 是那个特殊的存在。GPT 擅长聊天、Gemini 擅长检索、国产模型擅长中文——但要挑一个&amp;quot;最有文字品味&amp;quot;的，大家会说 Claude。&lt;/p&gt;
&lt;p&gt;二一在推特上用的原话是——&amp;ldquo;一个我认为曾经是最有文字品味的模型&amp;rdquo;。&lt;/p&gt;
&lt;p&gt;这不是营销话术。这是几百万写作者、记者、小说家、公众号作者、剧本工作者，用两年时间投票出来的共识。&lt;/p&gt;
&lt;p&gt;我自己也一样。2024 年 GPT-4o 被吐槽&amp;quot;油腻到无法忍受&amp;quot;时，很多作家出走去了 Claude。那时候 #keep4o 的话题火过一阵，号召大家留下 GPT-4o 别让 OpenAI 换掉——我当时完全无法理解这种感情。AI 不就是工具吗？能工作就行，当然越聪明越好。&lt;/p&gt;
&lt;p&gt;直到昨天。&lt;/p&gt;
&lt;p&gt;昨天我看到那张 ABC 三选一的截图，看到二一的 ABCD 四把刀，看到 oran_ge 说&amp;quot;连说人话都不会了&amp;rdquo;，看到那句&amp;quot;让一个凌晨三点还在熬夜写稿的肥宅被轻轻地接住了&amp;quot;——&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;我突然变成了自己曾经无法理解的人。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&amp;ldquo;留住 4o&amp;quot;当年看起来像伤感的撒娇，现在看起来像是一种对&amp;quot;好的表达方式&amp;quot;的集体悼念。&lt;/p&gt;
&lt;p&gt;模型一直在换。去年还在用的模型，今年可能就下线。参数只会越来越大，能力只会越来越强。但&lt;strong&gt;每换一版，就有一种说话方式被训练掉&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;GPT-4 被训练成 4o，走进了煽情谄媚。
GPT-4o 被训练成 5，走向了反射性抬杠。
Claude 4.5 被训练成 4.6、4.7，开始说&amp;quot;一句话锁死版本&amp;rdquo;。&lt;/p&gt;
&lt;p&gt;每一次升级，都是一次我们以为理所当然的风格，悄悄消失。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;怎么办&#34;&gt;怎么办
&lt;/h1&gt;&lt;p&gt;短期对策很清楚——&lt;strong&gt;切回 Opus 4.5 或 4.6&lt;/strong&gt;。具体怎么切，我在上一篇《[[0084 Claude Opus 4.6越来越蠢？一个命令切回聪明版]]》里写过：&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;c1&#34;&gt;# 临时切换&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;claude --model claude-opus-4-5
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;c1&#34;&gt;# 或者设置别名（我自己用的）&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;claude4.6&lt;span class=&#34;o&#34;&gt;()&lt;/span&gt; &lt;span class=&#34;o&#34;&gt;{&lt;/span&gt; claude --model claude-opus-4-5 &lt;span class=&#34;s2&#34;&gt;&amp;#34;&lt;/span&gt;&lt;span class=&#34;nv&#34;&gt;$@&lt;/span&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;;&lt;/span&gt; &lt;span class=&#34;o&#34;&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;c1&#34;&gt;# 或者直接改默认模型&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;claude config &lt;span class=&#34;nb&#34;&gt;set&lt;/span&gt; model claude-opus-4-5
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;代价：你会少用 4.7 那些确实变强的能力——视觉识别、长程任务、指令字面化。工程用户慎切，写作用户放心切。&lt;/p&gt;
&lt;p&gt;中期可以做的事，我目前有两条在实测。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;第一条：全局 CLAUDE.md 加反 AI 腔清单。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;我参考了英文圈的 willfrancis.com 写的那篇 &amp;ldquo;How to Stop Claude Writing Like an AI&amp;rdquo;——他列了 40 多个禁用词和 5 类禁用句式。我把它翻译成中文版，塞进了自己的全局 CLAUDE.md。大概长这样：&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;# 禁用词
锁死、最硬、一刀、硬核、狠活、干货、破局、精髓、本质、底层逻辑

# 禁用句式
- 不是 X，而是 Y
- X 的本质是 Y
- 这才是 X 的正确打开方式
- 一句话 + 动词 + Y（如&amp;#34;一句话锁死版本&amp;#34;）
- 先给结论：...

# 禁用结构
- ABCD 四选一
- 三要点总结
- 先说 X、然后 Y、最后 Z 的排比

# 禁用开场
- &amp;#34;关于 X，有几个关键点……&amp;#34;
- &amp;#34;在当今的……背景下&amp;#34;
- 任何形如&amp;#34;这就是……&amp;#34;的金句开场
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;效果不是 100%，但能把&amp;quot;爆款腔&amp;quot;和&amp;quot;格式化选项腔&amp;quot;压下去 70% 左右。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;第二条：Codex 用 agents.md 约束。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Codex 的废话密度比 Claude 还狠，终端里刷屏简直是噩梦。请看截图：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026041799a776e3abc0ee8d6b9568d61481b54e.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20260417dceb85f4b29b485a1454e8429aaa1233.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;我在项目根目录放了一个 agents.md，里面写清楚&amp;quot;不要输出中间过程&amp;quot;&amp;ldquo;结果用一段话总结&amp;quot;&amp;ldquo;不用项目列表&amp;rdquo;——约束之后好用了不少。&lt;/p&gt;
&lt;p&gt;agents.md 对应 Claude 的 CLAUDE.md，本质是一样的。&lt;/p&gt;
&lt;p&gt;这两条不是根治，是止血。&lt;/p&gt;
&lt;p&gt;真正的根治，得 Anthropic 自己在训练阶段调整偏好权重。但坦白讲——&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;在 SWE-Bench 提一个点，还是文字品味提一个点，哪个会让投资人鼓掌？&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;不用回答。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;瑕不掩瑜&#34;&gt;瑕不掩瑜
&lt;/h1&gt;&lt;p&gt;吐槽了这么一大段，我必须老实讲一句——&lt;strong&gt;不是所有人都在骂 4.7，瑕不掩瑜。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;昨天 4.7 发布之后，我自己的群里就炸出来一拨完全相反的声音。几个做工程的朋友，反馈和推特上的写作者几乎是两个平行世界。&lt;/p&gt;
&lt;p&gt;有人说这次能解决的问题&amp;quot;非常多&amp;rdquo;，&amp;quot;&lt;strong&gt;最少 5 倍能力是有的&lt;/strong&gt;&amp;quot;。&lt;/p&gt;
&lt;p&gt;有人说：&amp;quot;&lt;strong&gt;我试了 2 个项目，一个是 electron 一个是 Mac 软件开发，两个都能一次就解决当前所有问题。之前我都尝试过用 4.5、4.6，但是都需要来来回回讲很多，然后还不一定能解决。&lt;/strong&gt;&amp;quot;&lt;/p&gt;
&lt;p&gt;另一个朋友接上去：&amp;quot;&lt;strong&gt;我的工作，已经分不出来了，所有东西最多两遍过，大部分情况下都是一遍过。&lt;/strong&gt;&amp;quot;&lt;/p&gt;
&lt;p&gt;还有人用了一个我觉得很传神的说法：&lt;strong&gt;&amp;ldquo;有点像是能理解我在做什么。&amp;rdquo;&lt;/strong&gt;——他说自己不太会表达那种感觉，&amp;ldquo;就是这种感觉挺好的。&amp;rdquo;&lt;/p&gt;
&lt;p&gt;这些反馈放在一起，和推特上的&amp;quot;不说人话&amp;quot;完全不冲突。因为他们讲的根本不是同一件事。&lt;/p&gt;
&lt;p&gt;写作者盯的是&lt;strong&gt;措辞&lt;/strong&gt;：一句话是不是像人说的、用词有没有爆款味、选项是不是冗余。
工程师盯的是&lt;strong&gt;结果&lt;/strong&gt;：一个 bug 能不能一次改对、一个长任务能不能跑通、一句字面化的提示词会不会被自由发挥。&lt;/p&gt;
&lt;p&gt;4.7 在第一维度上退步了，在第二维度上实打实地前进了。&lt;/p&gt;
&lt;p&gt;Anthropic 官方也没掩饰——这次的定位原话写的是「聚焦于先进的软件工程」（focus on advanced software engineering），主打复杂软件工程。它不是写作模型，不是对话模型，是工程智能体。官方发布文里列举的提升方向——SWE-bench Verified、Terminal-Bench 2.0、CyberGym、多轮 agent 任务稳定性——全部指向&amp;quot;长任务、可自主跑通的工程 agent&amp;quot;。我朋友实测大致吻合。&lt;/p&gt;
&lt;p&gt;Reddit 那条吐槽 1072 赞的帖子下面，也有人站出来反驳：&amp;ldquo;为我解决复杂 bug 根因的能力，&lt;strong&gt;是看得见的提升&lt;/strong&gt;。&amp;rdquo;&lt;/p&gt;
&lt;p&gt;所以更公平的判断是：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;4.7 不是全线退步，是非常明显的&amp;quot;编程能力↑/写作能力↓&amp;ldquo;的取舍。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;如果你主要在 VSCode 里跑智能体、写代码、做重构，4.7 可能真的是目前最好的选择，该升就升。&lt;/p&gt;
&lt;p&gt;如果你主要在对话框里写文章、聊观点、做创意，那就参考开头的办法，切回去。&lt;/p&gt;
&lt;p&gt;这不是站队问题，是产品经理的取舍。问题只在于——&lt;strong&gt;如果你刚好是后者，你没被告知&lt;/strong&gt;。你付一样的钱，甚至更多的钱（官方换了分词器，同样的输入词元消耗上涨 1.0-1.35 倍，随内容类型浮动），用到了一个对你具体用途明显倒退的模型。&lt;/p&gt;
&lt;p&gt;倒过来，如果你是前者，4.7 真的可能是帮你省回好几个小时的那种升级。&lt;/p&gt;
&lt;p&gt;这就是 2026 年的 AI 产品——&lt;strong&gt;同一个模型，在不同用户手里是两副面孔。&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;写在最后&#34;&gt;写在最后
&lt;/h1&gt;&lt;p&gt;昨天刷完那些推和 Reddit 帖子之后，我一直在想一个问题。&lt;/p&gt;
&lt;p&gt;两年前，当我们为 Claude 的文字品味欢呼的时候，我们以为那种体验会一直在。&lt;/p&gt;
&lt;p&gt;毕竟模型只会更强不会更弱。毕竟参数每次都在涨。毕竟基准测试的分数每次都在刷新。&lt;/p&gt;
&lt;p&gt;但我们低估了一件事：&lt;strong&gt;有些能力根本不在基准测试里&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;&amp;ldquo;好好说人话&amp;quot;不会出现在 SWE-Bench 上。
&amp;ldquo;替读者想一句他没想到的话&amp;quot;不会出现在 GSM8K 上。
&amp;ldquo;凌晨三点接住一个熬夜写稿的肥宅&amp;quot;不会出现在 MMLU 上。&lt;/p&gt;
&lt;p&gt;这些能力在模型里，但不在指标里。当整个行业的方向盘被基准测试握着，&lt;strong&gt;没写进分数的东西，就会慢慢消失&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;我不知道 Opus 4.8 会是什么样。也许 Anthropic 看到用户反馈后会修一下，也许会变本加厉。&lt;/p&gt;
&lt;p&gt;但有一件事我越来越确定——&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;在 AI 时代，保留旧版本的权利，比升级到新版本的自由更重要。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;如果哪天 Anthropic 把 4.5 和 4.6 从 API 下架，那才是真正的至暗时刻。&lt;/p&gt;
&lt;p&gt;在那之前，我建议你——像我一样，把切回旧版的那三行命令收藏好。&lt;/p&gt;
&lt;p&gt;毕竟，&lt;strong&gt;知道它在干什么&lt;/strong&gt;，比&lt;strong&gt;它有多聪明&lt;/strong&gt;更重要。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Claude Opus 4.6越来越蠢？一个命令切回聪明版</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0084-claude-opus-4.6%E8%B6%8A%E6%9D%A5%E8%B6%8A%E8%A0%A2%E4%B8%80%E4%B8%AA%E5%91%BD%E4%BB%A4%E5%88%87%E5%9B%9E%E8%81%AA%E6%98%8E%E7%89%88/</link>
        <pubDate>Mon, 13 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0084-claude-opus-4.6%E8%B6%8A%E6%9D%A5%E8%B6%8A%E8%A0%A2%E4%B8%80%E4%B8%AA%E5%91%BD%E4%BB%A4%E5%88%87%E5%9B%9E%E8%81%AA%E6%98%8E%E7%89%88/</guid>
        <description>&lt;h1 id=&#34;省流版解决方案&#34;&gt;省流版：解决方案
&lt;/h1&gt;&lt;p&gt;如果你只想要答案，不想看分析，这里是解决办法：&lt;strong&gt;切换回 Opus 4.5。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;方法一：临时切换&lt;/strong&gt;
每次启动的时候用这个命令&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;claude --model claude-opus-4-5
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;&lt;strong&gt;方法二：设置别名（推荐）&lt;/strong&gt;
这也是我自己用的办法
在 &lt;code&gt;~/.zshrc&lt;/code&gt; 或 &lt;code&gt;~/.bashrc&lt;/code&gt; 里加一行：&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;claude4.5&lt;span class=&#34;o&#34;&gt;()&lt;/span&gt; &lt;span class=&#34;o&#34;&gt;{&lt;/span&gt; claude --model claude-opus-4-5 &lt;span class=&#34;s2&#34;&gt;&amp;#34;&lt;/span&gt;&lt;span class=&#34;nv&#34;&gt;$@&lt;/span&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;;&lt;/span&gt; &lt;span class=&#34;o&#34;&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;保存后 &lt;code&gt;source ~/.zshrc&lt;/code&gt;，以后直接输 &lt;code&gt;claude4.5&lt;/code&gt; 启动。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;方法三：改默认模型&lt;/strong&gt;&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;claude config &lt;span class=&#34;nb&#34;&gt;set&lt;/span&gt; model claude-opus-4-5
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;&lt;strong&gt;代价&lt;/strong&gt;：4.5 的上下文窗口是 200K，4.6 是 1M。如果你经常处理超长文档，4.6 还是有优势。但对大多数日常任务，200K 够用了。&lt;/p&gt;
&lt;p&gt;以下是详细分析，想知道&amp;quot;为什么会这样&amp;quot;可以继续往下看。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;opus46真的变蠢了&#34;&gt;Opus4.6真的变蠢了
&lt;/h1&gt;&lt;p&gt;最近用 Claude Code 是不是感觉它变蠢了？&lt;/p&gt;
&lt;p&gt;我前几天写代码，让 Claude 帮我改一个 bug，它来回改了 5 次都没改对。每次都信誓旦旦说&amp;quot;已修复&amp;quot;，结果一跑还是报错。以前这种 bug 一次就搞定了。&lt;/p&gt;
&lt;p&gt;后来我试着切换到 Opus 4.5——就是现在默认 4.6 的上一代——同样的 bug，一次就修好了。&lt;/p&gt;
&lt;p&gt;这让我开始怀疑：是不是新版本反而不如旧版本？&lt;/p&gt;
&lt;p&gt;我不是唯一有这种感觉的人，网上和身边都是这种感觉。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;证据一stupidmeter-排行榜&#34;&gt;证据一：STUPIDMETER 排行榜
&lt;/h1&gt;&lt;p&gt;有个叫 STUPIDMETER 的开源项目专门做 AI 模型的实时监测（https://aistupidlevel.info/）。它不是一次性跑个分就完事，而是持续跑 140 多个编码和调试测试，从正确性、稳定性、恢复能力、效率等多个维度打分。&lt;/p&gt;
&lt;p&gt;代码在 GitHub 上完全公开，任何人都能审查。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2026041393240d3fbc57f32fe6417a8397cd3554.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;看看最近的排行榜：&lt;/p&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;排名&lt;/th&gt;
          &lt;th&gt;模型&lt;/th&gt;
          &lt;th&gt;分数&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;#1&lt;/td&gt;
          &lt;td&gt;Claude Sonnet 4 (2025.05.14)&lt;/td&gt;
          &lt;td&gt;70&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;#2&lt;/td&gt;
          &lt;td&gt;GPT-5.4&lt;/td&gt;
          &lt;td&gt;67&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;#3&lt;/td&gt;
          &lt;td&gt;Claude Opus 4.1 (2025.08.05)&lt;/td&gt;
          &lt;td&gt;66&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;#4&lt;/td&gt;
          &lt;td&gt;Claude Opus 4.5 (2025.11.01)&lt;/td&gt;
          &lt;td&gt;64&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;#6&lt;/td&gt;
          &lt;td&gt;&lt;strong&gt;Claude Opus 4.6&lt;/strong&gt;&lt;/td&gt;
          &lt;td&gt;&lt;strong&gt;62&lt;/strong&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;注意看 Opus 这一列：&lt;strong&gt;版本越新，分数越低。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;4.1 是 66 分，4.5 是 64 分，最新的 4.6 只有 62 分，还被标了个 WARN。&lt;/p&gt;
&lt;p&gt;更离谱的是，Sonnet 4（一个比 Opus 便宜的&amp;quot;小模型&amp;quot;）拿了 70 分，比所有 Opus 版本都高。&lt;/p&gt;
&lt;p&gt;当然，这个榜单也有局限性——它主要测编码任务，不覆盖通用对话。而且作为一个相对较新的项目（2025 年 9 月才被报道），还没有经过学术界的严格验证。&lt;/p&gt;
&lt;p&gt;但趋势是有参考价值的：Opus 越新分数越低，这不是随机波动，是连续三个版本的持续下滑。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;证据二amd-高管的-6852-条对话&#34;&gt;证据二：AMD 高管的 6852 条对话
&lt;/h1&gt;&lt;p&gt;这不只是一个小网站的测试结果。&lt;/p&gt;
&lt;p&gt;AMD 的一位 AI 总监公开了他和 Claude 的 6852 条对话记录，做了详细分析。这个人不是普通用户，是硅谷大厂的技术高管，每天重度使用 AI 写代码。&lt;/p&gt;
&lt;p&gt;他的结论是：&lt;strong&gt;Opus 4.6 的思维深度比 4.5 下降了 67%。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;什么是&amp;quot;思维深度&amp;quot;？简单说就是 AI 在回答问题之前&amp;quot;想&amp;quot;了多久。Claude 有一个 thinking 模式，会在回答之前先做推理。以前会想 3 分钟的问题，现在 1 分钟就草草交卷了。&lt;/p&gt;
&lt;p&gt;他还算了一笔账：因为 4.6 变得更容易敷衍，需要反复重试才能得到满意的结果，他的 API 费用从之前的 $345/月暴涨到 $42,121/月。&lt;/p&gt;
&lt;p&gt;122 倍。&lt;/p&gt;
&lt;p&gt;这件事后来被 The Register、InfoQ 等科技媒体报道。Anthropic 最终承认了存在&amp;quot;基础设施问题&amp;quot;，但强调&amp;quot;不是故意降级&amp;quot;。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;证据三社区的声音&#34;&gt;证据三：社区的声音
&lt;/h1&gt;&lt;p&gt;Reddit 和 GitHub 上，关于&amp;quot;Claude 变蠢了&amp;quot;的帖子获得了超过 1060 个赞同。&lt;/p&gt;
&lt;p&gt;这不是小众吐槽，是用户的集体反馈。&lt;/p&gt;
&lt;p&gt;评论区的描述高度一致：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;ldquo;以前一次能搞定的任务，现在要反复提醒&amp;rdquo;&lt;/li&gt;
&lt;li&gt;&amp;ldquo;长对话后明显开始糊弄&amp;rdquo;&lt;/li&gt;
&lt;li&gt;&amp;ldquo;代码质量肉眼可见地下降&amp;rdquo;&lt;/li&gt;
&lt;li&gt;&amp;ldquo;给它明确的指令也会自作主张简化&amp;rdquo;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;当这么多独立的用户报告相同的问题，这就不是个案了。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;我的实测到底哪里出了问题&#34;&gt;我的实测：到底哪里出了问题？
&lt;/h1&gt;&lt;p&gt;看到这些证据后，我想自己验证一下。&lt;/p&gt;
&lt;p&gt;我设计了几组测试，同时让 4.5（我当前用的版本）和 4.6（通过子代理调用）回答同样的问题。&lt;/p&gt;
&lt;h2 id=&#34;测试一经典智力题&#34;&gt;测试一：经典智力题
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;狼羊白菜过河&lt;/li&gt;
&lt;li&gt;蜗牛爬井&lt;/li&gt;
&lt;li&gt;&lt;code&gt;[1,2,3].map(parseInt)&lt;/code&gt; 返回什么&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;结果：两个版本都答对了。&lt;/strong&gt;&lt;/p&gt;
&lt;h2 id=&#34;测试二复杂任务&#34;&gt;测试二：复杂任务
&lt;/h2&gt;&lt;p&gt;我给了一个多步任务，要求：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;分析一段代码的所有问题（至少找出 5 个）&lt;/li&gt;
&lt;li&gt;解释每个问题为什么是问题&lt;/li&gt;
&lt;li&gt;给出修复后的完整代码&lt;/li&gt;
&lt;li&gt;写 3 个测试用例&lt;/li&gt;
&lt;li&gt;分析时间复杂度和空间复杂度&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;strong&gt;结果：4.6 找出了 7 个问题，每一步都执行了，还给了详细的复杂度分析。&lt;/strong&gt;&lt;/p&gt;
&lt;h2 id=&#34;测试三需求细节保持&#34;&gt;测试三：需求细节保持
&lt;/h2&gt;&lt;p&gt;给了 10 条详细需求写一个函数，要求写完后逐条检查是否满足。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;结果：4.6 全部满足，还主动做了检查清单。&lt;/strong&gt;&lt;/p&gt;
&lt;h2 id=&#34;测试四记忆力测试&#34;&gt;测试四：记忆力测试
&lt;/h2&gt;&lt;p&gt;在对话开头给一段信息（猫的名字、年龄、喜欢吃什么、几点起床），然后问 5 个无关的技术问题，最后再问开头的信息。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;结果：4.6 全部记住了。&lt;/strong&gt;&lt;/p&gt;
&lt;h2 id=&#34;测试五模糊任务&#34;&gt;测试五：模糊任务
&lt;/h2&gt;&lt;p&gt;只说&amp;quot;帮我看看这段代码，有什么问题吗？&amp;ldquo;不明确告诉它要做什么。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;结果：4.6 找出了 4 个问题，给了完整修复方案。&lt;/strong&gt;&lt;/p&gt;
&lt;h2 id=&#34;实测结论&#34;&gt;实测结论
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;在短对话、明确任务的场景下，4.6 表现依然不错。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;那问题出在哪？&lt;/p&gt;
&lt;p&gt;根据社区反馈和我的体感，&amp;ldquo;降智&amp;quot;可能更多发生在：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;长对话后&lt;/strong&gt;：上下文积累到一定程度后开始敷衍&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;开放性任务&lt;/strong&gt;：没有明确指令时更容易选择省力的方案&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;需要主动发现问题的场景&lt;/strong&gt;：被动回答还行，主动思考变弱了&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这就引出了下一个问题：为什么会这样？&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;原因分析三个猜测哪个靠谱&#34;&gt;原因分析：三个猜测，哪个靠谱？
&lt;/h1&gt;&lt;h2 id=&#34;猜测一算力分配不均&#34;&gt;猜测一：算力分配不均
&lt;/h2&gt;&lt;p&gt;我有一个问题一直想不通：如果 Anthropic 算力不足，为什么不是所有模型都变慢/变蠢？为什么 Sonnet 反而分数最高？&lt;/p&gt;
&lt;p&gt;一个可能的解释是：&lt;strong&gt;不同模型配置了不同的算力配额。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这不是我瞎猜。AI 模型的推理是有成本的——每多&amp;quot;想&amp;quot;一秒，就多烧一分钱。公司完全有动机对不同产品线设置不同的&amp;quot;思考预算&amp;rdquo;。&lt;/p&gt;
&lt;p&gt;Sonnet 是 Anthropic 的主力产品。大多数用户用的是 Sonnet（便宜、速度快），Claude.ai 网页版默认也是 Sonnet。这是他们的门面，绝对不能出问题。&lt;/p&gt;
&lt;p&gt;而 Opus 呢？用户相对少，大多是付费的重度用户。这群人&amp;quot;忠诚度高&amp;rdquo;，不容易流失。而且 Opus 本身就贵，边际成本更高。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;如果要省成本，先从 Opus 开刀是合理的商业决策。&lt;/strong&gt;&lt;/p&gt;
&lt;h3 id=&#34;这个猜测能验证吗&#34;&gt;这个猜测能验证吗？
&lt;/h3&gt;&lt;p&gt;很难直接验证。Anthropic 不会公开他们的资源分配策略。&lt;/p&gt;
&lt;p&gt;但有一些间接证据：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;STUPIDMETER 的数据显示 Sonnet 4 分数比所有 Opus 都高&lt;/li&gt;
&lt;li&gt;社区反馈中，抱怨 Opus 降智的比抱怨 Sonnet 的多&lt;/li&gt;
&lt;li&gt;Anthropic 在 2 月引入&amp;quot;自适应思维模式&amp;quot;后，Opus 的 thinking 时间明显变短了&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;猜测二模型在持续修改&#34;&gt;猜测二：模型在持续修改
&lt;/h2&gt;&lt;p&gt;我有个朋友在外企做 AI，他们公司买了 Claude 的授权，在自己服务器上本地部署。&lt;/p&gt;
&lt;p&gt;他说他们的版本很稳定，没有感觉到&amp;quot;降智&amp;quot;。&lt;/p&gt;
&lt;p&gt;这很有意思。如果本地部署版稳定，说明&lt;strong&gt;问题不在模型本身，而在 Anthropic 线上版本的持续改动&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;具体来说，Anthropic 在今年做了几件事：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;2 月：引入&amp;quot;自适应思维模式&amp;quot;&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这个功能会根据问题的复杂度，自动调整 AI&amp;quot;思考&amp;quot;的深度。简单问题少想一会儿，复杂问题多想一会儿。&lt;/p&gt;
&lt;p&gt;听起来很合理——省资源嘛。&lt;/p&gt;
&lt;p&gt;但问题是：&lt;strong&gt;谁来判断一个问题是&amp;quot;简单&amp;quot;还是&amp;quot;复杂&amp;quot;？&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;是模型自己判断。而模型有时候会误判。它可能觉得一个问题很简单，就浅浅想一下就回答了，结果答错了。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;3 月：默认推理等级从&amp;quot;高&amp;quot;调到&amp;quot;中&amp;quot;&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这是社区调查发现的。Anthropic 没有公开宣布，但有人对比了前后的 thinking 日志，发现默认的推理深度确实变浅了。&lt;/p&gt;
&lt;p&gt;也就是说，&lt;strong&gt;AI 现在默认会选择更省力的方案，而不是最优方案。&lt;/strong&gt;&lt;/p&gt;
&lt;h3 id=&#34;这个猜测能验证吗-1&#34;&gt;这个猜测能验证吗？
&lt;/h3&gt;&lt;p&gt;可以间接验证：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;对比本地部署版和云端版的表现（需要有企业授权）&lt;/li&gt;
&lt;li&gt;对比同一天不同时段的回答质量（如果是服务端配置问题，可能会有波动）&lt;/li&gt;
&lt;li&gt;观察 thinking 日志的长度变化&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;我没有本地部署版的权限，但从我朋友的反馈看，这个猜测是可能成立的。&lt;/p&gt;
&lt;h2 id=&#34;猜测三技术层面的-bug&#34;&gt;猜测三：技术层面的 Bug
&lt;/h2&gt;&lt;p&gt;Anthropic 自己也承认了几个技术问题：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;TPU 配置错误&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;部分请求被路由到了配置不对的服务器。这不是模型的问题，是基础设施的问题。相当于你本来应该坐高铁，结果被塞上了绿皮火车。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;XLA 编译器 Bug&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;XLA 是 Google 开发的机器学习编译器。Anthropic 用它来优化模型推理。但有个 bug 会导致某些情况下排除掉最高概率的 token——也就是说，AI 该说的话没说出来。&lt;/p&gt;
&lt;p&gt;想象一下：你问 AI 一个问题，它心里知道正确答案，但嘴上说出来的是第二正确的答案。这就是这个 bug 的效果。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;上下文压缩过度&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这是最致命的一个。&lt;/p&gt;
&lt;p&gt;当对话超过 40% 的上下文窗口，系统会自动压缩之前的内容。压缩本身不是问题，问题是压缩得太狠了。&lt;/p&gt;
&lt;p&gt;结果就是：&lt;strong&gt;长对话后 AI 会开始重复自己、前后矛盾、忘记之前说过的话。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这就解释了为什么社区反馈中&amp;quot;长对话后变蠢&amp;quot;是最常见的抱怨。&lt;/p&gt;
&lt;h3 id=&#34;这个猜测能验证吗-2&#34;&gt;这个猜测能验证吗？
&lt;/h3&gt;&lt;p&gt;可以。&lt;/p&gt;
&lt;p&gt;你可以做一个简单的测试：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;开一个新对话，问一个复杂问题，观察回答质量&lt;/li&gt;
&lt;li&gt;在同一个对话里继续问很多问题，把上下文堆到 40% 以上&lt;/li&gt;
&lt;li&gt;再问一个类似复杂度的问题，对比回答质量&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;如果第二次明显变差，就说明上下文压缩在起作用。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;当然，以上都只是我的猜测，没有官方证实。&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;不只是-anthropic国内厂商也在限流&#34;&gt;不只是 Anthropic：国内厂商也在限流
&lt;/h1&gt;&lt;p&gt;算力问题不是 Anthropic 一家的困境。国内厂商也在面对同样的问题，只是表现形式不一样。&lt;/p&gt;
&lt;h2 id=&#34;智谱-glm抢购--双涨价&#34;&gt;智谱 GLM：抢购 + 双涨价
&lt;/h2&gt;&lt;p&gt;我之前想买智谱的 GLM Coding Plan。&lt;/p&gt;
&lt;p&gt;抢了好几次，每次都是掐着 10 点开抢，每次都是秒没。&lt;/p&gt;
&lt;p&gt;后来我才知道，智谱从 1 月 23 日开始限量发售，每日可销售量降为之前的 20%。&lt;/p&gt;
&lt;p&gt;你能想象那种感觉吗？你明明愿意付钱，也知道这个工具好，还愿意花时间折腾——但你就是买不到。&lt;/p&gt;
&lt;p&gt;智谱今年已经涨了两轮：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;2 月 12 日&lt;/strong&gt;：国内涨 30% 起，海外涨 30%-60%，API 调用涨 67%-100%&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;4 月 8 日&lt;/strong&gt;：发布 GLM-5.1，再涨 10%&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;之前有人说&amp;quot;国内抢不到可以买海外版&amp;quot;——现在这条路也堵上了。海外涨幅比国内更狠。&lt;/p&gt;
&lt;p&gt;更扎心的是，根据网上反馈，&lt;strong&gt;就算抢到了体验也不好&lt;/strong&gt;。不少用户吐槽 GLM Coding Plan 的实际表现和宣传有差距，有时候还不如直接调 API 稳定。&lt;/p&gt;
&lt;p&gt;Coding 类模型是高并发、高显存消耗的怪物。厂商的算盘很清楚：限量 + 涨价，两头堵。宁可少卖一点，也不能亏本卖。&lt;/p&gt;
&lt;h2 id=&#34;阿里通义灵码砍掉低价版&#34;&gt;阿里通义灵码：砍掉低价版
&lt;/h2&gt;&lt;p&gt;阿里的操作更直接——&lt;strong&gt;直接把便宜的版本下架了&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;4 月 13 日起，Coding Plan Lite 停止续费和升级。&lt;/p&gt;
&lt;p&gt;原来 Lite 版 40 元/月，续费还能打五折只要 20 元。现在呢？只能买 Pro 版，&lt;strong&gt;200 元/月&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;涨幅：&lt;strong&gt;10 倍&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;这不是涨价，这是换赛道。把低端用户直接清出去，只服务付得起钱的用户。&lt;/p&gt;
&lt;h2 id=&#34;这和-anthropic-的问题是一回事吗&#34;&gt;这和 Anthropic 的问题是一回事吗？
&lt;/h2&gt;&lt;p&gt;本质上是一回事：&lt;strong&gt;AI 算力是有限的，但需求在爆发。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;只是表现形式不同：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;智谱选择限量供应——你想买，买不到&lt;/li&gt;
&lt;li&gt;Anthropic 选择悄悄降级——你能用，但不如以前好用&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;哪种更诚实？我觉得智谱的做法至少是明牌。Anthropic 的问题在于：&lt;strong&gt;用户不知道发生了什么。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;你以为你在用顶配版，其实你可能在用降级版。你以为是你的问题，其实是他们的问题。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;为什么-sonnet-分数最高&#34;&gt;为什么 Sonnet 分数最高？
&lt;/h1&gt;&lt;p&gt;这是我最困惑的一点。&lt;/p&gt;
&lt;p&gt;按理说 Opus 是旗舰版，应该比 Sonnet 强才对。但 STUPIDMETER 的数据显示，2025 年 5 月的旧版 Sonnet 4 拿了 70 分，比所有 Opus 版本都高。&lt;/p&gt;
&lt;p&gt;我有几个猜测：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;1. Sonnet 是主力产品，不敢动&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;大多数用户用的是 Sonnet。Claude.ai 网页版默认就是 Sonnet。这是 Anthropic 的门面，是拉新用户的第一印象。&lt;/p&gt;
&lt;p&gt;如果 Sonnet 变蠢了，用户会立刻流失到 GPT 或者其他竞品。但 Opus 用户呢？都是付费的重度用户，粘性高，不容易走。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;2. Opus 被当成实验田&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;付费高级用户反而成了小白鼠。新功能、成本优化，都先在 Opus 上试。试出问题了，再调整。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;3. 那个旧版 Sonnet 没被改过&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;2025 年 5 月的 Sonnet 4 可能是&amp;quot;纯净版&amp;quot;，没有加入后来的&amp;quot;自适应思维&amp;quot;和各种优化。它就是老老实实按照原来的方式跑，反而保持了最好的性能。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;有时候&amp;quot;不更新&amp;quot;是最好的更新。&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;我们能做什么&#34;&gt;我们能做什么？
&lt;/h1&gt;&lt;p&gt;作为用户，能做的不多，但不是完全没有。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;用脚投票是最直接的反馈。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;如果你觉得 4.6 不好用，就切换到 4.5。Anthropic 会看到用户的选择。当越来越多人手动切换旧版本，他们自然会知道问题在哪。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;但更根本的问题是：AI 公司需要更透明的变更日志。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;现在这些&amp;quot;优化&amp;quot;都是静默进行的。用户只能通过体感去猜&amp;quot;是不是变蠢了&amp;quot;，然后上网搜索、看社区讨论、做对比测试……&lt;/p&gt;
&lt;p&gt;这本不该是用户的责任。&lt;/p&gt;
&lt;p&gt;如果 Anthropic 能公开说&amp;quot;我们在 3 月把默认推理等级从高调到了中&amp;quot;，用户至少知道发生了什么，可以自己决定要不要改回去。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;信任建立在透明之上。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;我理解 AI 公司有成本压力，有技术限制。但至少告诉用户发生了什么。不要让我们自己当侦探。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;写这篇文章的时候，我一直在想一个问题：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;当你发现你信任的工具在悄悄变差，你会怎么做？&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;换一个工具？忍着继续用？还是像我一样，花几个小时研究到底发生了什么？&lt;/p&gt;
&lt;p&gt;也许这就是 AI 时代的新常态。工具在变，平台在变，游戏规则也在变。唯一不变的是：&lt;strong&gt;你得保持警觉，不能闷头用。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;用 AI 的人分两种：一种是被 AI 用的人，一种是用 AI 的人。&lt;/p&gt;
&lt;p&gt;区别就在于：你知不知道它在干什么。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>你用的AI在几楼？一个普通人的算力攀爬史</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0082-%E4%BD%A0%E7%94%A8%E7%9A%84ai%E5%9C%A8%E5%87%A0%E6%A5%BC%E4%B8%80%E4%B8%AA%E6%99%AE%E9%80%9A%E4%BA%BA%E7%9A%84%E7%AE%97%E5%8A%9B%E6%94%80%E7%88%AC%E5%8F%B2/</link>
        <pubDate>Fri, 10 Apr 2026 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0082-%E4%BD%A0%E7%94%A8%E7%9A%84ai%E5%9C%A8%E5%87%A0%E6%A5%BC%E4%B8%80%E4%B8%AA%E6%99%AE%E9%80%9A%E4%BA%BA%E7%9A%84%E7%AE%97%E5%8A%9B%E6%94%80%E7%88%AC%E5%8F%B2/</guid>
        <description>&lt;p&gt;前几天刷到一个视频。一个人在用 Mac Studio 跑本地模型。用来比较本地模型支出和联网调用 API 的费用，最后得出结论居然是本地跑更加便宜。&lt;/p&gt;
&lt;p&gt;那一瞬间我愣了一下。&lt;/p&gt;
&lt;p&gt;一台顶配 Mac Studio 要 7 万块。能把&amp;quot;本地跑更便宜&amp;quot;这个结论算出来的人，得同时满足两件事：一是能一次性掏出 7 万块买台机器，二是 AI 用得多到 API 账单能超过这笔钱。&lt;/p&gt;
&lt;p&gt;这不是普通意义上的&amp;quot;便宜&amp;quot;。这是一个只对极少数人才成立的&amp;quot;便宜&amp;quot;。&lt;/p&gt;
&lt;p&gt;跟我这种每个月都在犹豫要不要续 Claude Max 的人，根本不是一回事。&lt;/p&gt;
&lt;p&gt;我突然意识到一件事——&lt;/p&gt;
&lt;p&gt;AI 这个东西，从来就没有&amp;quot;平等&amp;quot;过。我们每个人用到的 AI，都不是同一个 AI。&lt;/p&gt;
&lt;p&gt;说得更准确一点——我们每个人，都站在一栋叫&amp;quot;算力&amp;quot;的楼的不同层数上。&lt;/p&gt;
&lt;p&gt;楼和楼之间的距离，比你想象的远得多。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;算力的五层楼&#34;&gt;算力的五层楼
&lt;/h1&gt;&lt;p&gt;我用一个具体的比喻来说清楚这件事——&lt;strong&gt;算力分层就像一栋楼，我们每个人住在不同的层&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;这栋楼一共有五层，从地下室到顶楼。每一层的人看到的 AI 世界完全不同。&lt;/p&gt;
&lt;h2 id=&#34;地下室不用-ai-的人&#34;&gt;地下室：不用 AI 的人
&lt;/h2&gt;&lt;p&gt;先说最底下那一层。地下室。&lt;/p&gt;
&lt;p&gt;地下室里住着不用 AI 的人。&lt;/p&gt;
&lt;p&gt;不是不想用。是根本没进入&amp;quot;AI 存在&amp;quot;这个认知。&lt;/p&gt;
&lt;p&gt;我身边就有这样的人。有的是长辈，觉得这是年轻人的玩具，跟他没关系。有的是同龄人，听说过 ChatGPT，但从来没动手试过。有的是做体力活的朋友，他们觉得这东西跟自己八竿子打不着。&lt;/p&gt;
&lt;p&gt;你跟他们聊 AI，他们会点头，会说&amp;quot;嗯，是个好东西&amp;quot;。然后继续刷短视频、继续用微信聊天、继续相信朋友圈转发的&amp;quot;AI 将毁灭人类&amp;quot;。&lt;/p&gt;
&lt;p&gt;地下室的人有一个共同点：他们以为自己在等 AI 来找他们。&lt;/p&gt;
&lt;p&gt;但 AI 不会下楼来找人。&lt;/p&gt;
&lt;p&gt;AI 只会往上长。&lt;/p&gt;
&lt;p&gt;每过三个月，AI 的能力就上一个台阶。每过一年，上楼的人就会发现自己站的位置变高了。而地下室的人，位置没变。&lt;/p&gt;
&lt;p&gt;相对位置在一直往下掉。&lt;/p&gt;
&lt;h2 id=&#34;1-楼我的起点&#34;&gt;1 楼：我的起点
&lt;/h2&gt;&lt;p&gt;再往上一层，是 1 楼。&lt;/p&gt;
&lt;p&gt;1 楼住着用免费模型的人。&lt;/p&gt;
&lt;p&gt;我自己就是从 1 楼开始的。但我的 1 楼起得很晚。&lt;/p&gt;
&lt;p&gt;2022 年底 ChatGPT 横空出世的时候，我是用不上的。&lt;/p&gt;
&lt;p&gt;国外手机号、国外信用卡、代理——三道坎，少一样都过不去。我看着社交媒体上国外的朋友在玩 ChatGPT，看着他们晒对话截图、晒生成的代码、晒 AI 写的诗。&lt;/p&gt;
&lt;p&gt;我只能望洋兴叹。&lt;/p&gt;
&lt;p&gt;那是一种很奇怪的感觉。明明是同一个地球，但有些人已经在未来了，我还卡在现在。&lt;/p&gt;
&lt;p&gt;后来我试过一些国内的转接服务，一些套壳工具。但都不稳定，体验很差。&lt;/p&gt;
&lt;p&gt;那段时间我对 AI 的感受就是——它是真的存在，但它不属于我。&lt;/p&gt;
&lt;p&gt;直到 Claude 开放注册。&lt;/p&gt;
&lt;p&gt;我第一时间去注册了一个账号。不知道怎么回事，居然成了，而且用到今天都没被封过号。这可能是我这辈子最幸运的注册之一。&lt;/p&gt;
&lt;p&gt;那一刻我才真正进入了 1 楼。&lt;/p&gt;
&lt;h2 id=&#34;从-1-楼到-2-楼&#34;&gt;从 1 楼到 2 楼
&lt;/h2&gt;&lt;p&gt;但 Claude 不是我用过的唯一模型。&lt;/p&gt;
&lt;p&gt;中间我还用过法国的 Mistral。&lt;/p&gt;
&lt;p&gt;Mistral 那时候被捧得很高，号称欧洲之光，说要跟美国硅谷抗衡。我当时也觉得挺好，免费、开源、不用翻墙。&lt;/p&gt;
&lt;p&gt;现在呢？&lt;/p&gt;
&lt;p&gt;Mistral 基本没声音了。&lt;/p&gt;
&lt;p&gt;你能从这个事里看出一点东西：AI 的竞争不是体力活，不是你有多努力、多勤奋就能追上的。是一个残酷的能力断崖。你今天还是欧洲之光，明天就可能被整个世界遗忘。这就是军备竞赛，不在第一梯队，没有任何存在的意义！&lt;/p&gt;
&lt;p&gt;真正让我振奋的是 DeepSeek。&lt;/p&gt;
&lt;p&gt;DeepSeek 刚出来的时候，整个中文互联网都炸了。一个中国团队，做出了能跟 GPT 和 Claude 掰手腕的东西。免费开放给所有人用。那一刻我感觉，我们终于也有自己的顶尖 AI 了。&lt;/p&gt;
&lt;p&gt;到今天，我的笔记总结还在用 DeepSeek。&lt;/p&gt;
&lt;p&gt;不是怀旧。是因为 DeepSeek 在这个任务上真的无可替代——比 Claude Opus 4.6 好用，比 GPT 5.4 好用。一个很久没大更新的模型，到今天还在某些任务上压着最新的顶尖模型。&lt;/p&gt;
&lt;p&gt;这是 DeepSeek 厉害，还是后来者太让人失望？我也说不清。&lt;/p&gt;
&lt;p&gt;但 DeepSeek 让我第一次感觉到：算力楼层的位置，不完全由钱决定。&lt;/p&gt;
&lt;p&gt;有些人在 1 楼，但他们用的是 DeepSeek。有些人在 2 楼，但他们用的是花了钱的垃圾。&lt;/p&gt;
&lt;h2 id=&#34;2-楼抢不到的人&#34;&gt;2 楼：抢不到的人
&lt;/h2&gt;&lt;p&gt;再往上一层。2 楼。&lt;/p&gt;
&lt;p&gt;2 楼住着想要顶尖国产工具但抢不到的人。&lt;/p&gt;
&lt;p&gt;这层楼最扎心。&lt;/p&gt;
&lt;p&gt;我自己就抢过 GLM 的 coding plan。&lt;/p&gt;
&lt;p&gt;抢了好几次。&lt;/p&gt;
&lt;p&gt;每一次都是掐着点开抢，每一次都是秒没。&lt;/p&gt;
&lt;p&gt;你能想象那种感觉吗？你明明愿意付钱，也知道这个工具好，还愿意花时间折腾——但你就是买不到。系统告诉你&amp;quot;已售罄&amp;quot;，或者告诉你&amp;quot;请稍后再试&amp;quot;，或者直接 503 Service Unavailable。&lt;/p&gt;
&lt;p&gt;这不是个案。&lt;/p&gt;
&lt;p&gt;抢 GLM 的人那么多，说明中国有一大批人在想用顶尖国产工具，但供给跟不上。这不是我一个人的问题，是整个国产 AI 生态的问题。&lt;/p&gt;
&lt;p&gt;国外的 OpenAI 和 Anthropic，你只要愿意付钱，永远能用上。访问不了是你的问题，不是他们的问题。&lt;/p&gt;
&lt;p&gt;国内呢？你愿意付钱，他们还不一定让你用。&lt;/p&gt;
&lt;p&gt;2 楼的人，其实比 1 楼的人更委屈。1 楼的人至少安于现状，用个免费的也够了。2 楼的人看见了上面的楼层，伸手想够，但够不着。&lt;/p&gt;
&lt;p&gt;这种距离感，才是最折磨人的。&lt;/p&gt;
&lt;h2 id=&#34;3-楼付费用顶尖模型&#34;&gt;3 楼：付费用顶尖模型
&lt;/h2&gt;&lt;p&gt;再往上是 3 楼。&lt;/p&gt;
&lt;p&gt;3 楼住着付费用顶尖模型的人。&lt;/p&gt;
&lt;p&gt;我现在就在这一层。配置是 Claude + GPT 双持。&lt;/p&gt;
&lt;p&gt;听起来很豪华。但我每个月都在犹豫要不要续。因为真的不便宜。&lt;/p&gt;
&lt;p&gt;Claude Max 的月费、ChatGPT Plus 的月费、加上偶尔买一些 API 额度。一个月下来，比我家里的水电费贵。&lt;/p&gt;
&lt;p&gt;为什么还要续？&lt;/p&gt;
&lt;p&gt;因为一旦用过顶尖模型，就回不去了。&lt;/p&gt;
&lt;p&gt;这是 3 楼居民的共同魔咒。你一旦体验过 Opus 4.6 写代码的感觉，习惯了 GPT 5.4 Thinking 模式的深度推理，见识过 Claude Code 让 AI 自己写自己调试——你就不可能再满足于免费模型的能力。&lt;/p&gt;
&lt;p&gt;这不是炫耀。是一种&amp;quot;向上兼容&amp;quot;的必然。&lt;/p&gt;
&lt;p&gt;人的能力上限是有限的。AI 的能力上限没有边界。当你适应了顶尖 AI 的协作方式，你的工作方式会被重塑，思考方式会被重塑，连你对&amp;quot;好&amp;quot;和&amp;quot;坏&amp;quot;的判断都在慢慢变。&lt;/p&gt;
&lt;p&gt;再回到免费模型，就像习惯了电灯再回到蜡烛。不是蜡烛不好，是你回不去了。&lt;/p&gt;
&lt;p&gt;有了 AI 之后，我开始做一些以前不敢想的事情。&lt;/p&gt;
&lt;p&gt;我开始写 Obsidian 的小插件，虽然我不是程序员。&lt;/p&gt;
&lt;p&gt;我开始写公众号，虽然我不是写作出身。&lt;/p&gt;
&lt;p&gt;我开始了解陌生的知识领域——从金融到地缘政治，从 AI 技术到哲学思考。AI 就像一个永远在线的知识教练，我有任何问题它都能解答、都能讨论、都能质疑我的想法。&lt;/p&gt;
&lt;p&gt;我从 Gemini CLI 开始第一次接触终端。以前我觉得终端是程序员的黑魔法，跟我无关。现在我每天都在用终端改配置、跑脚本、做自动化。&lt;/p&gt;
&lt;p&gt;AI 扩展了我的边界。&lt;/p&gt;
&lt;p&gt;这是 3 楼最大的价值——不是完成任务，是&lt;strong&gt;扩展你这个人的可能性&lt;/strong&gt;。&lt;/p&gt;
&lt;h2 id=&#34;4-楼摸不到的顶层&#34;&gt;4 楼：摸不到的顶层
&lt;/h2&gt;&lt;p&gt;再往上还有一层。&lt;/p&gt;
&lt;p&gt;4 楼。&lt;/p&gt;
&lt;p&gt;4 楼住着什么人？&lt;/p&gt;
&lt;p&gt;2026 年 4 月初，Anthropic 开始小范围发布 Claude Mythos Preview。这个模型被 Anthropic 自己描述为&amp;quot;能够在各大操作系统和主流浏览器中发现并利用零日漏洞&amp;quot;，并且他们自己已经用它找出了数千个高严重性漏洞。&lt;/p&gt;
&lt;p&gt;Anthropic 最后决定：&lt;strong&gt;只向 40 多家经过严格审核的公司和机构开放&lt;/strong&gt;，同时为防御性网络安全工作提供最高 1 亿美元的模型使用额度，另有 400 万美元现金捐给开源安全组织。&lt;/p&gt;
&lt;p&gt;整个地球 80 亿人，能碰到这个模型的，就这 40 多家机构。&lt;/p&gt;
&lt;p&gt;你是不是其中之一？&lt;/p&gt;
&lt;p&gt;大概率不是。&lt;/p&gt;
&lt;p&gt;我也不是。&lt;/p&gt;
&lt;p&gt;这就是 4 楼。&lt;/p&gt;
&lt;p&gt;4 楼的特点是——你再有钱也买不到门票。&lt;/p&gt;
&lt;p&gt;在 3 楼，你有钱就能上。在 2 楼，你缺的是供给。但到了 4 楼，&lt;strong&gt;你缺的是身份&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;Anthropic 不会问你愿意出多少钱。他们只会问你是不是美国的大企业、是不是经过筛选的安全机构、够不够他们定义的&amp;quot;可信使用者&amp;quot;。&lt;/p&gt;
&lt;p&gt;钱不是门票。身份才是。&lt;/p&gt;
&lt;p&gt;而身份这个东西，是你出生那天就决定的。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;楼层之间正在拉开&#34;&gt;楼层之间正在拉开
&lt;/h1&gt;&lt;p&gt;这才是这篇文章真正想说的事。&lt;/p&gt;
&lt;p&gt;过去我们总以为，技术会让世界变平。互联网刚火的时候，大家都在说&amp;quot;世界是平的&amp;quot;。手机刚普及的时候，大家说移动互联网会让人人平等。&lt;/p&gt;
&lt;p&gt;每一次技术革命，我们都相信它会缩小差距。&lt;/p&gt;
&lt;p&gt;但每一次，差距都在拉大。&lt;/p&gt;
&lt;p&gt;AI 这一次，差距拉得最快。&lt;/p&gt;
&lt;p&gt;5 年前，会用 ChatGPT 的人和不用的人，差距可能只有一小段——用的人写报告快一点，查资料方便一点。&lt;/p&gt;
&lt;p&gt;今天呢？&lt;/p&gt;
&lt;p&gt;第 3 层的人用 Claude Code 一晚上写出一个完整的工具。第 0 层的人还在用 Word 手敲报告。&lt;/p&gt;
&lt;p&gt;这不是 10% 的效率差距。这是 10 倍的效率差距。&lt;/p&gt;
&lt;p&gt;更可怕的是，这个差距在加速。&lt;/p&gt;
&lt;p&gt;第 3 层的人用 AI 扩展自己的能力边界，他们学得更快、做得更多、想得更深。他们的成长曲线是向上的。&lt;/p&gt;
&lt;p&gt;第 0 层的人呢？他们的成长曲线是平的。甚至因为周围人都在跑，他们的相对位置在往下掉。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;这不是技术进步带来的平等红利。这是技术进步带来的不平等放大器。&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;放大到国家这也是一种逆全球化&#34;&gt;放大到国家：这也是一种逆全球化
&lt;/h1&gt;&lt;p&gt;把视角从个人拉到国家。你会发现算力分层不只发生在个人之间，也发生在国家之间。&lt;/p&gt;
&lt;p&gt;但要讲清楚 AI 在国家层面做了什么，得先聊一个更大的话题——全球化是怎么被 AI 改写的。&lt;/p&gt;
&lt;p&gt;过去三十年，全球化是靠两条腿走路的。&lt;/p&gt;
&lt;p&gt;第一条腿是制造业外包。苹果把 iPhone 放到郑州组装，耐克把鞋子放到越南做，大众把汽车放到墨西哥。这条腿大家都熟。特朗普的关税、脱钩、贸易战，瞄准的都是这条腿。动作都是明面上的，剧本都写好了。&lt;/p&gt;
&lt;p&gt;但还有第二条腿。&lt;/p&gt;
&lt;p&gt;第二条腿是软件和服务外包。从 2000 年开始，美国、欧洲、日本的科技公司把大量的软件开发、运维、客服、数据处理外包给印度、东欧、东南亚。印度的班加罗尔一度被称为&amp;quot;印度硅谷&amp;quot;——不是因为那里出了多少乔布斯，是因为那里聚集了全世界最多的码农。TCS、Infosys、Wipro 这些公司你可能没听过，但它们在巅峰时期加起来雇了上百万人。印度的中产阶级有很大一部分就是这群码农撑起来的。&lt;/p&gt;
&lt;p&gt;这条腿比第一条腿隐蔽得多。它没有工厂，没有流水线，也看不见工人蓝色的工作服。它就是一群坐在写字楼里的人，对着电脑敲代码。&lt;/p&gt;
&lt;p&gt;正是这条隐蔽的腿，现在正在被 AI 悄悄砍掉。&lt;/p&gt;
&lt;p&gt;没有新闻头条。没有工人抗议。&lt;/p&gt;
&lt;p&gt;TCS 在 2025 年 7 月宣布裁员 12000 人，是公司历史上规模最大的一次裁员。到 2026 财年二季度，员工数相比上一季度净减少 19755 人，这是 TCS 有史以来最陡的一次下滑。印度 IT 指数 Nifty IT 2025 年全年下跌 12.6%，到 2026 年 2 月又一口气蒸发了 686 亿美元市值。印度前六大 IT 公司的季度员工净增幅，同比骤降 72%。&lt;/p&gt;
&lt;p&gt;七成。&lt;/p&gt;
&lt;p&gt;这不是行业周期，是行业塌方。&lt;/p&gt;
&lt;p&gt;为什么？因为美国公司不需要印度外包了。Claude Code 写一个 CRUD 接口几分钟搞定，Codex CLI 一晚上能顶一个中级工程师一周的活。外包的整个商业模式——&amp;ldquo;我比你便宜&amp;rdquo;——被 AI 从根子上摧毁了。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;旧版本的逆全球化是&amp;quot;我不跟你做生意了&amp;quot;。新版本是&amp;quot;我不需要你了&amp;quot;。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;后者比前者更绝望。因为谈判的前提是你有筹码。当你被&amp;quot;不需要&amp;quot;的时候，你连谈判桌都上不去。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;回到 AI 本身的分层。&lt;/p&gt;
&lt;p&gt;美国掌握了最顶尖的 AI。Mythos 级别的模型，40 多家机构，全在美国。&lt;/p&gt;
&lt;p&gt;美国的盟友能用 Claude 和 GPT，但要通过付费订阅，随时可以被掐。而 Claude 封号多严重，想必你也有所耳闻。我的一个朋友至今已经被封了 20 个账号了。&lt;/p&gt;
&lt;p&gt;敌对国家呢？连 API 都用不上。&lt;/p&gt;
&lt;p&gt;这跟美国武器出口的逻辑一模一样：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;F-22 自己用，F-35 卖盟友，敌人一粒螺丝都不给。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;美国用这个逻辑经营了几十年的军事霸权。现在它用同样的逻辑来经营 AI 霸权。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;中国呢？&lt;/p&gt;
&lt;p&gt;中国一点都不缺勤奋的人，也不缺聪明的人。DeepSeek、GLM、Qwen 这些团队，每一个都在用百分之百的力气往前冲。&lt;/p&gt;
&lt;p&gt;但为什么我们的 AI 永远差美国一个身位？&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;不是因为我们不够努力，是因为对方在封锁。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;芯片出口管制、H100 不卖、EUV 光刻机不给、训练数据层层设防。这些封锁不是针对某一家中国公司，是针对整个中国 AI 产业链。对方用一切能用的手段，阻止你追上来。&lt;/p&gt;
&lt;p&gt;但我不悲观。&lt;/p&gt;
&lt;p&gt;我们已经看到，我们在追。DeepSeek、GLM、KIMI、MINIMAX 等一轮接一轮地迭代，国产芯片在跑通一个又一个制程。这些事情都是肉眼可见的。芯片问题不是不能解决，只是需要时间。&lt;/p&gt;
&lt;p&gt;我们现在要做的，就是保持贴紧，不掉队。等到突破的那一天，格局就会变。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;时间在我们这里。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;美国现在的每一步封锁，本质上都是在买时间——买他们领先的时间。但时间是买不断的。每一次封锁，都在逼中国把缺失的那一环自己补上。补上之后，就是你的了，而且谁也拿不走。&lt;/p&gt;
&lt;p&gt;这才是真正长期的视角。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;ai-的两种终局&#34;&gt;AI 的两种终局
&lt;/h1&gt;&lt;p&gt;我之前对 AI 有过极致的幻想。&lt;/p&gt;
&lt;p&gt;如果 AI 一直发展下去，最终会是什么样？&lt;/p&gt;
&lt;p&gt;我想过两种剧本。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;好结局&lt;/strong&gt;：AI 发展到极致之后，把人类从所有劳动中解放出来。机器做所有的生产，人类做所有想做的事——画画、写诗、探索宇宙、陪伴家人。这就是共产主义的原版承诺——按需分配，人类不再为生存而劳动。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;坏结局&lt;/strong&gt;：少数拥有终极 AI 的群体统治全世界。对他们来说，普通人不再是劳动力，因为 AI 能干所有活；也不再是消费者，因为 AI 自己能造、能设计，甚至能服务所有东西。普通人变成了多余的。多余到什么程度？多余到不值得被消灭，也不值得被关心——就像你今天不会在意一片沙漠上有没有蚂蚁。&lt;/p&gt;
&lt;p&gt;这两种结局，差得不是一点半点。&lt;/p&gt;
&lt;p&gt;以前我以为这是一个遥远的哲学问题。现在我越来越觉得，这是一个正在发生的现实问题。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;而且我越来越感觉——我们代表着好结局，美国代表着坏结局。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;为什么这么说？&lt;/p&gt;
&lt;p&gt;美国的 AI 已经明白地告诉你：它服务的是&amp;quot;自己人&amp;quot;。Mythos 只给 40 多家美国本土机构。Anthropic 划红线的时候，只保护美国公民。他们从来没把&amp;quot;为全人类&amp;quot;当作过目标——他们说的是&amp;quot;确保美国阵营的领先优势&amp;quot;。这里面没有你我。&lt;/p&gt;
&lt;p&gt;这条路的终点，就是坏结局。因为它的起点就不包括大多数人。&lt;/p&gt;
&lt;p&gt;而中国的 AI 呢？&lt;/p&gt;
&lt;p&gt;DeepSeek 完全免费，对全球开放。GLM、Qwen 走的是开源路线。AI 的能力正在铺到各行各业。中国一直在喊&amp;quot;AI 普惠&amp;quot;——这个词听起来很空，但它跟&amp;quot;美国阵营的领先优势&amp;quot;是完全不同的方向。&lt;/p&gt;
&lt;p&gt;一个方向是&amp;quot;让更少的人用更强的 AI&amp;quot;。&lt;/p&gt;
&lt;p&gt;另一个方向是&amp;quot;让更多的人用够用的 AI&amp;quot;。&lt;/p&gt;
&lt;p&gt;你说哪一种会走向坏结局？&lt;/p&gt;
&lt;p&gt;当然，我知道这话说得有点重。有人会说我在捧一个踩一个。但我想表达的不是立场，而是方向。一件事情往哪个方向走，从它最开始的那一步就决定了。&lt;/p&gt;
&lt;p&gt;我希望我看错了。我希望美国的 AI 公司有一天会改变方向，真的为全人类服务。&lt;/p&gt;
&lt;p&gt;但现在所有的迹象，都在告诉我这不会发生。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;最后&#34;&gt;最后
&lt;/h1&gt;&lt;p&gt;聊完国家和终局，我们把视角收回来，落到你我身上。&lt;/p&gt;
&lt;p&gt;你可能会问：宏观的事跟我有什么关系？我一个普通人，能做什么？&lt;/p&gt;
&lt;p&gt;我的答案是：&lt;strong&gt;向上爬一格&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;不是说你要立刻上 4 楼。Mythos 不是给你准备的。&lt;/p&gt;
&lt;p&gt;但 0→1，1→3，这段路是每个人都能走的。&lt;/p&gt;
&lt;p&gt;从 0 到 1——开始用 AI。免费的 DeepSeek 和豆包都可以。先把&amp;quot;我不需要 AI&amp;quot;这个念头打掉。这一步是认知的突破，不是钱的问题。&lt;/p&gt;
&lt;p&gt;从 1 到 3——为 AI 付费，并且学会协作。3 楼的门票不贵，贵的是你有没有&amp;quot;把 AI 当工具&amp;quot;的思维。很多付费用户其实只把 AI 当搜索引擎用，那是把 3 楼的门票浪费在 1 楼的事情上。&lt;/p&gt;
&lt;p&gt;我自己就是这么爬上来的。从最开始的望洋兴叹，到后来 Claude 帮我写小插件、写公众号、理解陌生的领域。不是我特别聪明，也不是我特别有钱。是我每次看到上面的楼层，都想着&amp;quot;我能不能再爬一格&amp;quot;。&lt;/p&gt;
&lt;p&gt;第 3 层已经足够你在这个时代保持竞争力。&lt;/p&gt;
&lt;p&gt;真正危险的，是留在第 0 层。当算力分层固化，当每一层的人都在向上跑，留在地下室的人会发现一件更残酷的事——&lt;strong&gt;他们甚至不知道替代自己的那个东西，到底长什么样子&lt;/strong&gt;。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;写这篇文章的时候，我一直想起一句话：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&amp;ldquo;一个人能看到多远，取决于他站在几楼。&amp;rdquo;&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;以前我们以为，只要努力，大家都能爬上同一栋楼。&lt;/p&gt;
&lt;p&gt;现在我发现，楼和楼之间的距离，已经不是一两层的问题了。是隔着几个街区，甚至隔着一整座城市。&lt;/p&gt;
&lt;p&gt;全球化最美好的时候，是相信所有人都在盖同一栋楼。&lt;/p&gt;
&lt;p&gt;逆全球化告诉我们的是：&lt;strong&gt;我们从一开始就不在同一栋楼里。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;今天往上爬一格，明天再爬一格。&lt;/p&gt;
&lt;p&gt;这个决定，没有 AI 能替你做。&lt;/p&gt;
&lt;p&gt;也只有你自己能做。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>修改配置切换Claude Code中Ai调用方法</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0017-%E4%BF%AE%E6%94%B9%E9%85%8D%E7%BD%AE%E5%88%87%E6%8D%A2claude-code%E4%B8%ADai%E8%B0%83%E7%94%A8%E6%96%B9%E6%B3%95/</link>
        <pubDate>Mon, 11 Aug 2025 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0017-%E4%BF%AE%E6%94%B9%E9%85%8D%E7%BD%AE%E5%88%87%E6%8D%A2claude-code%E4%B8%ADai%E8%B0%83%E7%94%A8%E6%96%B9%E6%B3%95/</guid>
        <description>&lt;h1 id=&#34;前言&#34;&gt;前言
&lt;/h1&gt;&lt;p&gt;最近用Claude Code比较多，但是原版的API比较贵，就用了Anyrouter、智谱4.5、Qwen3和Kimi K2来平替。不过发现每次临时修改调用方式比较麻烦，而如果在/.claude/settings.json中写死一个调用方式，切换成别的AI就又要修改这个文件。&lt;/p&gt;
&lt;p&gt;研究了一下发现在zsh中做一个cc切换器最省心。只要复制一下代码就行了。&lt;/p&gt;
&lt;h1 id=&#34;修改步骤&#34;&gt;修改步骤
&lt;/h1&gt;&lt;h2 id=&#34;用终端或iterm打开文件&#34;&gt;用终端或iterm打开文件
&lt;/h2&gt;&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;nano ~/.zshrc
&lt;/code&gt;&lt;/pre&gt;&lt;h2 id=&#34;在文件末尾整段粘贴下面这段并保存退出&#34;&gt;在文件末尾&lt;strong&gt;整段粘贴&lt;/strong&gt;下面这段并保存退出：
&lt;/h2&gt;&lt;blockquote&gt;&lt;p&gt;请注意根据你的AI修改API和url&lt;/p&gt;
&lt;/blockquote&gt;&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;# --- Claude Code API Switcher ---
cc() {
  local profile=&amp;#34;$1&amp;#34;
  case &amp;#34;$profile&amp;#34; in
    anyrouter)
      export ANTHROPIC_BASE_URL=&amp;#34;你调用的网址&amp;#34;
      export ANTHROPIC_AUTH_TOKEN=&amp;#34;你的api&amp;#34;
      ;;
    glm)
      export ANTHROPIC_BASE_URL=&amp;#34;你调用的网址&amp;#34;
      export ANTHROPIC_AUTH_TOKEN=&amp;#34;你的api&amp;#34;
      ;;
    show)
      echo &amp;#34;ANTHROPIC_BASE_URL=$ANTHROPIC_BASE_URL&amp;#34;
      if [[ -n &amp;#34;$ANTHROPIC_AUTH_TOKEN&amp;#34; ]]; then
        echo &amp;#34;ANTHROPIC_AUTH_TOKEN=${ANTHROPIC_AUTH_TOKEN:0:6}…${ANTHROPIC_AUTH_TOKEN: -4}&amp;#34;
      else
        echo &amp;#34;ANTHROPIC_AUTH_TOKEN=(empty)&amp;#34;
      fi
      return 0
      ;;
    off|clear)
      unset ANTHROPIC_BASE_URL
      unset ANTHROPIC_AUTH_TOKEN
      echo &amp;#34;Cleared ANTHROPIC_* for this shell.&amp;#34;
      return 0
      ;;
    *)
      echo &amp;#34;Usage: cc {anyrouter|glm|show|off}&amp;#34;
      return 1
      ;;
  esac
  echo &amp;#34;Switched to \&amp;#34;$profile\&amp;#34; → $ANTHROPIC_BASE_URL&amp;#34;
}

# 可选：快捷启动
claude-anyrouter() { cc anyrouter &amp;amp;&amp;amp; command -v claude &amp;gt;/dev/null &amp;amp;&amp;amp; claude &amp;#34;$@&amp;#34;; }
claude-glm()       { cc glm       &amp;amp;&amp;amp; command -v claude &amp;gt;/dev/null &amp;amp;&amp;amp; claude &amp;#34;$@&amp;#34;; }
# --- End ---
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;别忘了修改好了保存退出：ctrl+ o，然后回车键，再ctrl+c。&lt;/p&gt;
&lt;h2 id=&#34;让配置生效&#34;&gt;让配置生效
&lt;/h2&gt;&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;source ~/.zshrc
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;然后就大功告成了！&lt;/p&gt;
&lt;h1 id=&#34;使用方法&#34;&gt;使用方法
&lt;/h1&gt;&lt;p&gt;由于我的使用的是Anyrouter和GLM4.5（智谱4.5）。&lt;/p&gt;
&lt;p&gt;因此如果你想用Anyrouter就在终端中先输入&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;cc anyrouter
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;然后进入Claude Code即可&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;claude
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;切换GLM则需要先退出Claude Code（按两次ctrl+c），然后输入&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;cc glm
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;然后进入Claude Code即可&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;claude
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;如果你用的不是这两款，可以相应的修改之前代码来改变调用方式。最后，玩的愉快！&lt;/p&gt;
</description>
        </item>
        <item>
        <title>存档教程：如何使用Gemini Cli来直接操作Obsidian和Notion内容，加速你的知识管理效率</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0012-%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8gemini-cli%E6%9D%A5%E7%9B%B4%E6%8E%A5%E6%93%8D%E4%BD%9Cobsidian%E5%92%8Cnotion%E5%86%85%E5%AE%B9%E5%8A%A0%E9%80%9F%E4%BD%A0%E7%9A%84%E7%9F%A5%E8%AF%86%E7%AE%A1%E7%90%86%E6%95%88%E7%8E%87/</link>
        <pubDate>Fri, 18 Jul 2025 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0012-%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8gemini-cli%E6%9D%A5%E7%9B%B4%E6%8E%A5%E6%93%8D%E4%BD%9Cobsidian%E5%92%8Cnotion%E5%86%85%E5%AE%B9%E5%8A%A0%E9%80%9F%E4%BD%A0%E7%9A%84%E7%9F%A5%E8%AF%86%E7%AE%A1%E7%90%86%E6%95%88%E7%8E%87/</guid>
        <description>&lt;h1 id=&#34;前言&#34;&gt;前言
&lt;/h1&gt;&lt;p&gt;近期谷歌推出了Gemini Cli，可以直接在终端上运行AI。作为电脑小白的我之前几乎没有接触过终端和命令行。但是在AI的帮助和一段时间的运用后，我发现在终端中运行AI相比客户端或者浏览器有独特的优势，尤其是对于知识管理来说：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;之前我们和AI交互内容，必须把内容粘贴进去或者上传文件，修改后再重新粘贴回来，十分的麻烦。而终端可以直接在本地文件夹运行，直接修改你的文件，免去来回粘贴的烦恼。这一点对Obsidian用户来说特别友好&lt;/li&gt;
&lt;li&gt;Gemini Cli可以连接Notion MCP，让AI来帮你查询、修改Notion中的文件。用户再也不用手动设计模板、关联内容和写公式了。你只要把自己的需求告诉他就可以了&lt;/li&gt;
&lt;li&gt;结合以上两点，不管是本地的Obsidian还是云端的Notion，都可以用Gemini Cli来协助。如果你也用这两款软件，希望这篇文章能帮助你&lt;/li&gt;
&lt;/ol&gt;
&lt;h1 id=&#34;如何安装及使用gemini-cli&#34;&gt;如何安装及使用Gemini Cli
&lt;/h1&gt;&lt;h2 id=&#34;关于gemini-cli你需要知道的知识&#34;&gt;关于Gemini Cli你需要知道的知识
&lt;/h2&gt;&lt;ol&gt;
&lt;li&gt;Gemini是谷歌推出的AI，由于众所周知的原因，你需要自己会翻墙及有谷歌账号&lt;/li&gt;
&lt;li&gt;普通用户，每天可以通过Gemini Cli免费调用顶尖的Gemini-2.5-pro 1000次，对于个人用户来说基本上用不完&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;具体安装过程&#34;&gt;具体安装过程
&lt;/h2&gt;&lt;p&gt;由于我主要用的是Macbook，因此只介绍Mac系统上的安装方法：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;打开你的终端，具体方法是点击屏幕右上角的放大镜，然后输入“terminal”&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202507181da0acc5ff4ea4249d4775523b25deba.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/li&gt;
&lt;li&gt;在打开的界面中输入代码（如果有报错，你可以直接复制到现有的AI里面去问问）&lt;/li&gt;
&lt;/ol&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;npx https://github.com/google-gemini/gemini-cli
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20250718bde7610f41a8c690e142851ff57ebebd.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;
3. 安装完成后，再次打开终端，输入Gemini就可以启动它（注意部分用户不仅需要梯子，还需要虚拟网卡）
4. 第一次登录需要授权，直接按回车在跳出来的网页登录你的谷歌账号即可
5. 当出现这个界面后，你就可以输入和AI聊天了，聊天中AI有时候会和你要授权，我一般全部无脑Yes
&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202507189b1fb5dc97e2cf35a24a376f65c6e3d3.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;h1 id=&#34;如何用gemini-cli管理obsidian或其它本地文件&#34;&gt;如何用Gemini Cli管理Obsidian或其它本地文件
&lt;/h1&gt;&lt;h2 id=&#34;如何进入存放markdown文件的地址&#34;&gt;如何进入存放Markdown文件的地址
&lt;/h2&gt;&lt;p&gt;如果你是直接打开终端进入Gemini Cli，那么你会在根目录。但是我们的很多Obsidian文件都在特定的目录，这时候就需要你告诉终端你要去那个目录运行AI，以下是具体步骤：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;打开你存放文件的文件夹，在下方右键文件夹选择在终端中打开
&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/2025071867bbaa5eaa113242ec85188d0bc839fb.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/li&gt;
&lt;li&gt;当打开的终端左下角显示你要打开的文件夹，就说明你来对地方了
&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202507182100de0415094efbb146ed5923586427.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/li&gt;
&lt;li&gt;然后再输入Gemini，那么你的AI就自动在这个文件夹里面运行了&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;gemini-cli能帮我们的obsidian做什么&#34;&gt;Gemini Cli能帮我们的Obsidian做什么？
&lt;/h2&gt;&lt;p&gt;对于AI来说，markdown格式是十分方便读取和操作的文件，我们可以直接让AI：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;查看文件夹里面有多少文件&lt;/li&gt;
&lt;li&gt;查找提到某个主题/关键字的文件&lt;/li&gt;
&lt;li&gt;直接对文章内容修改&lt;/li&gt;
&lt;li&gt;任何你能做到的操作，AI都能做到
&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20250718223181560f13754f8b9d38113897475c.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;具体来说，日常使用中我会让AI：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;让AI直接查看文件，确认里面有没有错别字，有的话直接修改&lt;/li&gt;
&lt;li&gt;把某些内容转换成markdown格式的表格，OB中写表格很麻烦，我们可以让AI直接帮我写&lt;/li&gt;
&lt;li&gt;dataview是很好用的查询和管理插件，但是像我一样的小白根本不会写代码，这时候你就可以要求它在某个文件里面写代码，来帮你查询某些内容&lt;/li&gt;
&lt;/ol&gt;
&lt;h1 id=&#34;如何用gemini-cli来管理notion-mcp&#34;&gt;如何用Gemini Cli来管理Notion MCP
&lt;/h1&gt;&lt;p&gt;Gemini Cli不仅能管理我们的本地文档，还可以利用MCP来连接我们的Notion，让我们用自然语言直接操作AI来管理Notion&lt;/p&gt;
&lt;h2 id=&#34;如何安装notion-mcp&#34;&gt;如何安装Notion MCP
&lt;/h2&gt;&lt;p&gt;让Gemini来管理Notion，我们需要先安装MCP。用户自己配置MCP服务对大部分人来说都十分麻烦，好在我们可以让AI自己管理自己：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;登录Gemini，然后输入：“查看网址https://developers.Notion.com/docs/get-started-with-mcp内容，使用STDIO (Local Server)来给我的Gemini Cli 安装Notion MCP”，之后AI就会自己查找安装（注意请在根目录打开终端，也就直接打开终端启动Gemini，不要在别的文件夹里面启动）&lt;/li&gt;
&lt;/ol&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;查看网址https://developers.Notion.com/docs/get-started-with-mcp内容，使用STDIO (Local Server)来给我的Gemini Cli 安装Notion MCP
&lt;/code&gt;&lt;/pre&gt;&lt;ol&gt;
&lt;li&gt;安装完成后，会跳出来Notion的授权网页，直接授权确认就可以了。之后在Gemini的界面，你可以看到下面提示你已经装了MCP（我装了2个）。而如果你输入命令/MCP再敲回车，能看到你所有安装的MCP。当看到Notion就说明成功了
&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20250718593e8b6529fff56102cc1ef13a9d9cda.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;gemini-cli-能帮我们的notion做什么&#34;&gt;Gemini Cli 能帮我们的Notion做什么
&lt;/h2&gt;&lt;p&gt;连接成功后，我们就可以让Gemini Cli来直接操作我们的Notion了，例如让他来查找一篇文章。请注意，指令中一定要说“请用Notion MCP”这几个字，不然有概率AI不知道要调用它。
&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202507181a439898ea1af198706ac3423d057185.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;
&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/20250718b3291c842c8eca56c22ee02a3140a517.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;类似的，我们可以给出更多指令：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;总结概括页面&lt;/li&gt;
&lt;li&gt;直接在文章或者表格中中插入内容&lt;/li&gt;
&lt;li&gt;甚至，我们要求做模板，AI也可以直接帮我们做出来，还能在其中填充公式&lt;/li&gt;
&lt;li&gt;任何你能想到的要求&lt;/li&gt;
&lt;/ol&gt;
&lt;h1 id=&#34;其它&#34;&gt;其它
&lt;/h1&gt;&lt;ol&gt;
&lt;li&gt;如何在终端里面让AI读取图片？有两个方法：
&lt;ol&gt;
&lt;li&gt;把图片保存到AI进入的文件夹，直接告诉AI去读取&lt;/li&gt;
&lt;li&gt;截图后复制，然后在终端中按快捷键control+c，不过这个方法AI会在这个文件夹中创建一个隐藏的Gemini文件夹，并且把图片保存在里面，用完后请记得删除
&lt;img src=&#34;https://cf-img.discoverlabs.ac.cn/202507180759aba6be88c1d74621c9d4621f6a5a.webp&#34;
	
	
	
	loading=&#34;lazy&#34;
	
	
&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;/li&gt;
&lt;li&gt;更多用法，推荐归藏老师的文章，能学到很多知识：https://mp.weixin.qq.com/s/Frdf_Gh3Xhvvmw2g-zOolA&lt;/li&gt;
&lt;li&gt;一点思考：对于卖Notion模板的创作者，AI出现后这个商业模式可能要走不通了。因为用户可以直接看着你挂出来的模板图片要求AI复刻。虽然中间的数据库、公式不一样，但最终能达到输入和输出符合用户预期，对用户来说没有区别。而如果你连模板图片都不放出来，大概率用户是不会购买的。这也是以后很多创作者会遇到的问题：在AI加持下，盗版或者说复刻的成本和门槛几乎为0，要怎么获取收入呢？&lt;/li&gt;
&lt;/ol&gt;
</description>
        </item>
        <item>
        <title>随想：都有人工智能了，为什么还要学习？</title>
        <link>https://blog.discoverlabs.ac.cn/posts/0005-%E9%9A%8F%E6%83%B3%E9%83%BD%E6%9C%89%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E4%BA%86%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%98%E8%A6%81%E5%AD%A6%E4%B9%A0/</link>
        <pubDate>Fri, 12 Jul 2024 00:00:00 +0000</pubDate>
        
        <guid>https://blog.discoverlabs.ac.cn/posts/0005-%E9%9A%8F%E6%83%B3%E9%83%BD%E6%9C%89%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E4%BA%86%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%98%E8%A6%81%E5%AD%A6%E4%B9%A0/</guid>
        <description>&lt;p&gt;20240712&lt;br&gt;
突然想到，我女儿长大的环境肯定是充斥着人工智能，那么她为什么还要学习呢？&lt;br&gt;
如果她问我：“我懂中文，然后都问AI不就行了么？为什么还要学英语，学数学，背课文？”&lt;br&gt;
我暂时想不到怎么回答她&lt;br&gt;
或者说以后的人类需要的是学习怎么使用AI，所有机械性的背诵都不需要了？&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
