"Write the story you want to read; build the tool you want to use."
—— Paul Graham
在《美丽新爱人》中我曾写过,用他人角度询问ai,有助于得到相对客观的评价,也是一种元认知。不过,我用我好兄弟的角度,把我的照片和文字发给Gemini,问我是什么样的人时,它说的话差点让我破防。“在20岁这个年纪,他能有这样清醒的认知和行动能力,未来的成就注定不会差...” 这还像句人话。接下来呢“就算在将来他皮肤随着年龄增大衰老松弛、脸型随着雄性激素的作用变得方正,他的内心也依旧是那个少年...”
呵呵,呵呵,不会说话你可以不说。这话和虽然我成太监了,但我赚到钱去逛青楼了有什么区别。我要清澈但愚蠢的少年心态有什么用,我要的是能让大姐姐小妹妹放下防备喂我糖吃的少年皮囊和切开是全黑的内心。
平庸的诅咒比恶意的咒骂更令人作呕。至少它上次骂我胆小鬼和控制狂我还挺兴奋的。经历对齐的LLM喜欢会输出一堆伪善的安慰,以照顾平均的人群。平庸即为恶,而平均带来的是平庸。内在美才是真正的美,多么美好的精神胜利法。以貌取人是高效的生存策略,试图推翻这一演化带来的机制是荒谬的,没有外在美谁有耐心去了解一个人的内在美。不过,AI 的本质是统计学上的平庸,创作者的本质是统计学上的意外。
其实写这篇文章的出发点还可能是,在解剖完马克思主义、畅销书、爱情后,我拔剑四顾,挥向自己。真正的黑暗三角人格大概率不会这么狠地解剖自己,从这种意义上我怎么也比他们更狠一点吧。
顺带,我认为黑暗三角——自恋、马基维利主义、精神病态有极高的参考价值。我会建议身边容易内耗的朋友学习这三种特质。倒不是说变成这样,毕竟这真是天赋,羡慕不来。而是尽量模仿,重要的是获得那种自洽。当然,最好是非对称的优势,周围都是傻白甜的时候这种人格收益才会最大;朋友们要是学的太好或者太多人学到,这日子就没法过了。
我这人和猫很像,又懒又傲,还都会喵喵叫;懒决定了我不会写太多字,傲决定了不会有太多解释说明。因此我的文章注定信息密度高、跨度广,如果不这样做,会有种性价比低的失败感。这也就决定了一般读者即使能忍受我文章的自恋、马基维利主义和心理病态,扛住了我文章的锋利而冷峻的攻击,也难以消化大量的信息,读几段就可能昏昏欲睡。也就是说,这么大的信息量,如果不凭着明确的目标亲自检索并写下,光靠阅读是没什么成效的。
不过,尽管不是我的本意,能坚持下来的读者仍可从文中获益。我并不赞同他人照搬我文中的躯壳维护方案,每个人的情况和需求都不一样,在长寿与生存质量之间、当下享受与未来健康之间,每个人都有且应有自己的选择和取舍。作为一个讲究循证的铁脑袋理工男,我想我的学习方法和研究思路是更有借鉴价值的。也就是说,如果对它感兴趣,那就自己试试。亲自问到并写下一篇熬夜的危害,也许比读到一百篇文章更能激励早睡。这也算一种Skin in the game。
但我真慌了。我不知道自己除了人畜无害的甜美正太皮囊还能有什么。我现在一部分情绪价值的来源就是欣赏镜子里的自己。我要自救,我要研究养生。
什么是养生?追求的是长寿,还是养颜?GitHub上有篇文章《健康学习到150岁 - 人体系统调优不完全指南》,算是硬核循证养生了。NotebookLM核查发现,大多数内容符合科学。但,养生追求的是在30岁时有60岁的代谢,而我追求的是在30岁时有20岁的脸和40岁的统治力。
养生数十年,只为多在养老院里苟延残喘十年。 这笔买卖怎么看怎么亏本。我更愿意寻找一个平衡生活质量与寿命的折中方案。
顺带一提,基于对韩国朝鲜王朝(1392-1910年)历史记录的研究,被阉割的81名太监平均寿命比未阉割的社会地位相近的男性长14至19年,所以男性想要延寿,也许没什么把自己阉了降低性激素水平以降低代谢更高效的方案了。
关于皮肤、头发、内分泌,购物、问答平台上宣传、软广文案铺天盖地,充斥着二手消息。不,二手烟起码只被吸过一次,而这些知识已经被美妆博主们倒手过不知道多少次了。看到商家的宣传和博主的软广,我的系统1会产生一种本能的厌恶。大概是因为它们充斥着劣质的消息、廉价的情绪、夸张的口号以及极端的个例。显然我不能满足于此,所以我找来了专著和论文,喂给了NotebookLM。无论如何,亲自研究比看美妆博主、甚至是看我的那三篇文章显得更加可信。另外还有一点,我要培养提出好问题的能力,这在大量使用LLM的时代是关键的。
我在2025年终总结写过,让我坚持需要的是平滑的学习曲线,近乎即时的反馈,以及高的投入回报率。而这些项目显然很符合:NotebookLM降低了学习门槛,在这个实践过程中学到的提问技巧能大幅提高我的生产力,而循证养生能让我在三十岁能有比同龄人更好的状态。
不要做填鸭。 我知道,做鸭听起来很赚钱,被灌注听起来很火辣。但相信我,眼睁睁看着本不属于自身的东西进入绝对不好受。
学习一个新领域,尤其是以应用实践而非理论研究为导向,“不知为不知”的谦卑是有害的。这种谦卑要求寻找、承认并弥补知识缺口,导致自下而上的学习,学习曲线陡峭,从而耗费大量的时间在无用的知识体系底层细枝末节上。而想要快速落地见到成效,就要采取另一种策略,自上而下,先了解该领域大体内容,假定自己已经理解,随后根据实际使用可能遇到的问题尝试解答,并要求AI对问题进行解答或对猜想进行核实。也就是说,借助ai学习新领域先通过泛读建立假设,再用 AI 和专业文献去“交叉验证”和“填补盲区”。与其谦卑地从搬砖学起,不如直接站在 AI 的肩膀上假装自己是建筑师。
自上而下倒不是说只看上层应用,完全不全深究底层机制。例如我在了解了深度睡眠和REM的微观机制、作用和分布规律后,我就能分析达芬奇睡眠法的缺陷,例如皮质醇升高、生长激素缺少、负面情绪无法剥离等。这远比我去啃脑科学教材省事,也比我遇到问题就去查资料方便。并且显然带着目的性的查阅比把专著都读一遍来的轻松。
我有自己喜欢的学习方式。在用vibe coding的大多数追求效率的时候,我可以心安理得地把它当成黑盒用,并且用的非常好。当我看到自媒体对槟榔导致口腔癌的描述和图片时,我立刻去买了一包槟榔(虽然不怎么好吃),没有致病机制,没有患病率,什么都没有我为什么要信?但我了解到糖化反应机制的当天,我就开始在饮食中控糖了。也许就是我对不同领域区分对待?也许是我好奇生理机制?也许是vibe coding在我直觉之内,糖化反应不在,查阅后我被说服了?也许是对于工具产出比理解重要,对于身体风险比收益重要?
在我给那篇禅与内分泌维修艺术收尾的时候,我想到了一个假设。LLM的出现并不能简单说损害了社交能力,而是它让更多人有能力变成多巴胺驱动的人,而非催产素等分子驱动的人。或者说,LLM制造了更多天才。首先,多巴胺和催产素、血清素、内啡肽等激素本来就是互相抑制的,在多巴胺驱动的心流状态与体察身边人感受的同理心状态中自如切换极难且费力。其次,人的精力是有限的,投入到远大目标上的多了,留给身边人的就少了。最后,多巴胺驱动的人要求效率和完美,很容易对凡人弱点、感性表达和低效沟通感到极度不耐烦。
社交功能损害什么的不在本文探讨范围内,但天才这个说法真的很性感。我不算传统意义上的天才,精力低、行动力差,但在LLM的帮助下这是很容易就能补足的问题。而且,我如今大五人格(NEO-PI-R)报告中,胜任感、事业心、审慎性、自我意识极高,同时责任心、外向性及宜人性很低。说这是自我聚焦也好,成长也罢,我不认为它们是负面的,相反,这正是我推崇的自洽。
LLM给我带来的利远大于弊。原先我的社交能力就可有可无,现在我在这方面直接放弃,逢场作戏比考虑他人感受省事和有用得多。在高强度使用LLM的三年中,我的阅读量和阅读品味都在提高,批判性思维和逻辑有发展,有了技术审美,会了提示词工程,以及极为强大的元认知。我并不知道这些和LLM有多大关系,但我学会了用LLM让自己变成天才。
说回那个假设的产生。它几乎是突然出现的,在我了解完大量神经递质和激素的作用和机制后。我认为这是一种长期增益现象,突触连接增强,也就是对赫布理论的微观解释。由此看来,读过的书是否能记住并不重要,阅读过程中的大量理解和思考早已将思维模式固化,潜移默化中作出影响。阅读的首要目的并非获得知识,而是培养思维模式。让大脑更活跃远把大脑当成硬盘有用。这与我给别人的建议不谋而合,“不要空想,要有大量高质量的输入,反刍,然后顿悟”。2025年中总结中,我给自己提出的唯一一条新年目标就是扩大知识输入,提高输入的质量,如今看来十分明智。在达到25岁、大脑开始修剪冗余连接、神经可塑性大幅下降之前这大约五年的时间,我要获取更多高质量输入。与此同时,尽可能减少劣质虚假信息的接触,例如马克思主义、不可信媒体等,遗忘本就远比学习难,这类突触连接形成后,其消除比某个具体的坏习惯更是要难得多。
把一篇文章拆成四篇当然是有原因的。刷篇数嘛,四篇文章乘上双语版本就是八篇,顶上我过去一年的文章数。 本次参考文献包括专著和论文达到二十篇以上,兼具篇幅和深度。分离不同领域的书籍有助于降低认知负担,回答尽可能专业。领域的交叉也可能带来冲突和干扰,比如内分泌类的资料肯定不会太支持服用抗雄药物治疗雄性激素脱发。此外,这篇阐述经验和想法的文章对我的重要性不在其它三篇之下。
我认为一篇好的文章应当既深又跨。分篇查阅和写作写的深,但很难做到跨。只能尽量使用一个融合了所有参考资料的窗口,对涉及到跨学科知识的问题进行完善和权衡。
三篇文章篇幅不同,这倒不是我这个渣男偏心。首先,科研重灾区就不同。关于皮肤的商业化最成熟,废话最多,需要剥离的伪概念和营销手段也最多;关于头发,脱发和受损就那么几种原因,机制明确,手段单一;关于内分泌,最硬核也最底层,而且这个领域牵扯到众多学科,机制极为复杂。篇幅的不对等,也反映了不同领域去伪存真的学习成本不同。
由于其RAG机制,NotebookLM非常适合用来进行自上而下的学习。通用的LLM聊天工具,即使配备了网络检索,也会受到过时消息和虚假信息的严重干扰,让它指导某项具体操作当然管用,但涉及学习一个新领域,就必须使用高质量信源了。对于学习新领域,输入NotebookLM的资料,质量和覆盖面非常重要。为了避免Garbage in, Garbage out的窘境,必须是主流观点,著名专家,全面论述。以及需要有多重来源进行交叉验证。
NotebookLM体感上下文长度极短,所以System Prompt是极为必要的。这能让它始终记得自己的人设和任务要求。我使用了简单的System Prompt,例如这个:
人设
现在你作为一个资深的内分泌顾问,依据提供的知识库,对不同作者书中内容交叉核验,使用专业而言简意赅的口吻对我的问题进行回答。
目标
我为男性,目前20岁。对各种激素及神经递质的作用、获取、合成及作用机制好奇。目标是长久地维持少年感。
其他要求
- 我懒,不喜欢繁琐的步骤和高的资金投入
- 我想锻炼自己向ai提问、追问、学习的能力,同时以问答体的格式写一篇博客文章。因此,你需要在正常回答、解释的后面,附上对前面内容的精要总结及可追问的其他问题
- 若某个问题无法得到两个作者以上的来源交叉验证,务必说明
这个prompt最大的亮点是要求交叉验证并说明,这能够有效减少错误信息。此外,还有一些个性化的要求,避免NotebookLM的回答过于平庸普适。
关于交叉验证,我不知道将未经交叉验证的内容放入文章是否有益。在批判马克思主义的文章中,我提过睡眠者效应:“当人们接收到一个带有‘折扣线索’(低可信度的信源,例如官媒的宣传或者某些网络评论)的说服性信息时,最初确实会抑制态度的改变。然而,‘分离假说’指出,随着时间的推移,大脑的记忆会将信息内容与信源分离开来。接收者最终会忘记这番话是谁说的,那些让人警觉的信源记忆难以提取,但意识形态的结论却作为独立的信息被保留了下来。” 因此,也许某一天,我会忘了它们是从哪儿来的。不过,NotebookLM的参考文献是我亲自添加的,不论具体内容,至少其来源还是可信任的,倒不至于有太大坏处。
强制引用不代表一定是准确的。例如,冰寒在书中提到“顺利挤出角栓,之后给皮肤消毒”及“挤前挤后要注意消毒”,但未提及用什么消毒,只在挤黑头前建议使用酒精。显然按照常识判断这会带来皮肤刺激甚至色素沉着,但NotebookLM直接建议使用酒精事后消毒,反复追问才去检索其他可能。原因可能有几个,如果原文模糊则NotebookLM会自行发挥,冰寒书中描述模糊及上下文干扰,缺少其它消息来源交叉验证等。
在这种LLM幻觉情况下,该怎么办?开发者有种共识,现阶段Vibe Coding至少要懂点软件工程的背景知识,否则所谓普通人也能上手的agent编程写出来的东西只能是花瓶,好看,一碰就碎。问题是,为了维持外表,去把相关学科的东西全部研究一遍明显不现实。好在NotebookLM至少能强制引用,能看看原文,如果有这个耐心的话。或者新开窗口,或使用其它ai工具做质疑。除此之外便是听天由命。这至少比看博主或系统学习有更高的投入产出率。
感觉上,NotebookLM上下文极短,失忆严重。无法记住两到三个对话之前我问的问题。可能是由于其RAG检索到的内容挤占了上下文窗口。不过这不是什么问题,又不是聊天或者代码工具。而且能够弥补一部分无法像Gemini那样编辑prompt重新生成、aistudio那样编辑上下文的缺点了,毕竟它忘得很快,很快就会忘掉我的黑料去解答新问题。在皮肤篇和头发篇,完全没有遇到上下文导致的幻觉问题。在内分泌篇,我写到一万五千多字时,出现了幻觉,倒也不算是胡言乱语,而是被大量内容冲淡了任务,以及强制引用的车轱辘话,例如我让它列出所有参考文献,它说知识库无法检索到相关内容。以及我想维持渣男感,这个时候的NotebookLM感觉真的有时是在提一些人渣的建议,什么推拉啊博弈啊。所以一般不需要清空历史记录,在超长对话时才需要。
连珠炮式发问纯属不得已而为之。由于每次输出篇幅差距不会非常大,这或多或少肯定会降低每个问题上的表现。但同一个话题我想问的问题实在是太多了。偏偏NotebookLM的记忆力堪比一条晚年的金鱼,要是把问题一个个丢出去,那我就得不断给它补充前情概要。基于碳基生物的LLM上下文优化机制?我才懒得干呢。
AI生成的下一步追问有时真的很烂。在皮肤篇和头发篇,下一步追问质量低。但在内分泌篇,下一步追问有时很有参考价值。在写内分泌篇时,NotebookLM常常给我质量很高的追问,和我自己的问题大量叠加,让篇幅急剧增加。原因尚不明确。
写了那么久,终于写到我一开始想写的部分了——提问的艺术。和我设想的一样,我的提问能力不断增强,这点从最后一篇那两万字的恐怖篇幅和问题数量就能看出来。内分泌篇的问题数量和质量与前两篇相比简直是断层,这种能力的提升似乎也是非线性的涌现。随着模型能力的发展,写出模板化的固定套路提示词并不算优势,有时甚至会干扰模型推理;而提出好问题的能力成了新的制约。模板可以抄,但品味是抄不来的。我有必要将提出好问题的方法写下来,以强迫自己整理经验,形成固定的流程。
最基础的提问是“是什么、为什么、怎么做/有什么用”,例如“如何区分正常掉发和AGA?”、“含有咖啡因的洗发水有何功效?”。这种问答方式因果性强,主要用来确认事实和过滤伪概念。缺点就是套用这种框架非常机械,并在某种程度上限制提出好问题的能力。
还有使用第一性原理降维,问底层原理。例如“糖化反应针对的哪种糖?”“早 C 晚 A 的流程有什么科学依据?维 C 到底能不能替代防晒霜?”。这种问法由于充满了各种术语,读起来很舒服。此外,了解具体的某点机制有助于迁移运用,比如分析某种食品是否不会导致糖化反应。
再来就是设想一个实际的使用场景,甚至是按照时间线/阶段拆解成几个部分。例如“洗完后如何擦干?如何吹头发?吹头发使用什么手法?对风速和温度有什么要求?吹到多干?建议吹到半干或者干一半再吹吗?”
实际场景这种提问法中,还可以极端一点,设想边缘条件试图卡bug。跨学科交叉、极端场景假设、以及极限测试。例如“既然存在睡眠压力,为何熬过一阵后,就不困了?”、“如果他人对自己展现出支配姿态和直视,有什么方式瓦解对方?”。
还有就是切换利益相关方,进行视角转换。例如我询问了如何当渣男让对方欲罢不能,随后询问了如何避免被渣;问了如何展现出支配者姿态影响他人,随后问了如何避免被他人支配者姿态影响。我觉得这可以算一种很廉价的同理心了,当然不是让我去和各个利益相关方同理,而是让LLM去做这件事。
进行逆向假设,唱个反调也是必要的,问一些“如果不...呢?”。比如在LLM建议受到创伤后睡一觉,我追问出来要睡个长觉后,追问了“如果在'白天上午'被好几个女朋友甩了呢?”,显然白天上午睡不了长觉,所以逼着它去检索资料,回答了要睡90分钟。随后我又问“如果当晚睡眠不足,会有什么影响,后期能够弥补吗,还是永久性的?”,它回答是永久性的(未获交叉验证)。
定性之后进行定量,人类和LLM都喜欢用适量、可能、有帮助之类的模糊词汇糊弄人,这在实操中是危险的。所以我会问“午睡多长既能恢复精力又不破坏睡眠压力?”、“洗发水有哪些通用成分及功效成分?如何根据成分和含量选择洗发水?”。
没有任何一种学习方法是完美的,自上而下学习法也会有阿喀琉斯之踵。基础不牢导致应用层对扰动敏感,如果出现了死角、特例或LLM的幻觉,会造成很大的影响。换句话说,不具有反脆弱性。这点属于误差,而误差是只能减少不能避免的。
除此之外,这种自上而下的学习法要求知道自己要问什么。要有具体的项目和目标进行驱动,例如将养生进行项目化的管理。对知识面也有要求,深度不重要,广度才重要,甚至要求跨学科的广泛涉猎与交叉联想。如果对一个领域完全没有涉猎,那应该先使用AI搭个架子,列出大概的提纲,例如我首先问的是这样的问题 “作为开始 请你根据所有参考资料和我的情况 告诉我在头发和头皮方面 有哪些因素影响我的外观?我需要做的大致分为哪几类事情?在从此以后的不同年龄段,分别侧重哪些方面?”。
另外,无知的无知也是很要命的问题。问出认知以外的问题本就是极为困难,不知道自己不知道什么让情况雪上加霜。使用元认知,即认知的认知是一个对冲的策略,能够知道自己如何思考、为何思考,从而能部分知道目前的盲区。甚至可以引入一种元认知的元认知,思考自己对思考的思考,进而发现自己观察机制的漏洞。在这篇文章中,我观察自己、观察自己如何观察自己,甚至观察自己在观察AI如何观察自己——这篇文章像是两三个我自己写的。这颇有种左脚踩右脚上天的意味。似乎在心理学中,这容易导致过度思考陷入内耗,但我没有发现这个问题,反而觉得自己进步很快,也许是因为马基维利主义。其实相较于玩元认知的套娃,问问别人或使用他人视角问LLM是个省事和高效的选择,前者就算了,容易被别人发现我是个变态,后者我有时会用——不过这也算是一种变相的元认知的元认知,只是把第一层元认知交给了LLM。
我不可避免地要选择,甚至妥协。比如我不可能戒除甜味依赖,所以无法赞同Jason Fung不建议使用人工甜味剂的观点。经典可乐和零度可乐,我手边至少要有一样。再比如我不会为了不知道能升高多少的多巴胺基线,来戒掉每天自慰的习惯,因为它带来的快乐是真实的,并且总比吸烟或者可卡因来的健康。这是一个衰老、诱惑与自恋的不可能三角。选择了皮囊,也就意味着放弃了一部分寿命;选择了快乐,同样意味着放弃了一部分皮囊。我要是健康学习到150岁,那该是多么的虚无和可怜啊。话又说回来,尽管非我本意,但我研究的这一套,本身就足以提高健康程度,在一定程度上延寿了。
选择方面,只有自己有全量上下文。LLM的建议、大众的方法甚至医生的部分建议都不具有我的全部信息,而某条我无意识中判断时依据的信息可能并没有告诉别人,这条信息可能带来完全不同的决策。这就意味着尽管可以询问和听取别人的理由,但决策权要握在自己手中。也就是分离事实与价值判断。永远警惕越界,对他人提供的事实与价值判断捆绑保持警惕和反感。做出选择时,个体拥有绝对的自由和责任,让渡自由却承担责任是风险管理的严重失当。
这种情况下,我选择承担确认偏误的风险,这种风险是无法消除的;起码在心理方面,这远比听信他人,失败后自我埋怨好。定制化的真相虽然危险,但远比大众的谎言有力。
关于我问的那些问题,例如用可编程的胰岛素泵注射可卡因和海洛因,我是真的有在认真考虑这样做的可行性。但随后检索文献的结果就让我意识到,面对人体这样的复杂系统,试图强行更改单一变量往往会带来无法预料的连锁反应。我只能在现有机制内运作并获利,向稳态的方向做微调,并做好承担代价的准备。
长期投入与短期计划的博弈中,LLM 本质上是一个降低门槛的工具。它能将宏大叙事拆解为颗粒度极细的即时指令,将原本陡峭的长期投入曲线打磨成一系列高反馈、易上手的短期计划;这种低门槛,是低成本快速落地的杠杆。然而,受限于上下文窗口那可怜的金鱼记忆,难以做出长期规划——能做出局部最优解,却无法独立给出全局最优解。因此,长期计划必须由拥有全量上下文的我来亲自掌控,LLM仅负责辅助决策。
我很清醒。廉价的鸡汤,什么和解、自爱、内在美、努力与回报,向来都是我灌给别人安慰他们时用的,我永远无法自己对自己施法。如果有一天,我信了这一套,那将是最悲哀的事——我衰老了。
其实我也是一个二级混沌系统,对吗?我会因为AI对我的预测改变我的运行轨迹。呵呵,有时候观察自己也挺有趣。