打脸哲学无用!牛津博士教出Claude,自曝百万年薪提示词秘诀
【导读】在Anthropic,有一位驻场哲学家Amanda Askell专门研究如何与AI模型打交道。她不仅主导设计了Claude的性格、对齐与价值观机制,还总结出一些行之有效的提示词技巧。哲学在AI时代不仅没有落伍,反而那些通过哲学训练掌握提示词技巧的人,年薪中位数可以高达15万美元。
假设你手上有一台最新款的超级咖啡机。
你按了十几次按钮,就是做不出来你想要喝的那种咖啡。
问题不在于咖啡机的性能不够强大,而在于你不知道正确的指令是什么。
在Anthropic,就有一个专门研究和AI这台「超级智能咖啡机」沟通的人。
她既不是工程师,也不是程序员,而是一位驻场哲学家Amanda Askell。

Amanda Askell是一位受过哲学训练的学者,负责协助管理Claude的性格设定
Askell是正儿八经的哲学科班出身。
她曾在牛津大学和纽约大学学习哲学,2018年获得了纽约大学哲学博士学位。

毕业后,Askell曾在OpenAI担任政策方向的研究科学家。
2021年她加入Anthropic,至今一直在该公司担任对齐微调方向的研究科学家。
Askell负责为Anthropic的Claude注入某些性格特质,同时避免其他特质。
她因为主导设计了Claude的性格、对齐与价值观机制,而被列入「2024年最具影响力的100位AI人物」 。

在Anthropic,Askell有一个「Claude耳语者」(Claude whisperer)的绰号。
这大概是因为她的研究方向,是如何与Claude沟通,并调整优化它的输出。
用好AI
你需要一把「哲学钥匙」
哲学,就好比打开AI这台复杂机器的钥匙。
近日,Askell分享了她制定有效AI提示词的方法。
她认为提示词工程需要清晰表达、不断尝试,以及哲学式的思考方式。
在Askell看来,哲学的一大核心能力,是能把思想表达得清楚而准确,而这正是发挥AI最大价值的关键:
「很难总结其中的奥妙,一个关键是要愿意频繁地与模型互动,并且认真观察它每一次的输出」。
Askell认为好的提示词作者应该「非常爱尝试、敢于试验」,但比不断试错更重要的是哲学思维。
「哲学思维确实能帮助写提示词,我很大一部分的工作就是尽可能清晰地向模型解释我正在思考的问题、担忧或想法是什么」。
哲学思维对于清晰表达的重视,不仅能帮助人们优化自己的提示词,也有助于更好地理解AI本身。

https://platform.claude.com/docs/en/build-with-claude/prompt-engineering/overview?utm_source=chatgpt.com
在Anthropic发布的《提示词工程概览》中,就提出了包含清晰表达在内的提示词技巧:
清晰且直接(Be clear and direct);
给出示例(multishot/few-shot prompting),使用多轮示例来说明预期输出;
如果任务复杂,让模型分步思考(chain-of-thought),以提高准确性;
给Claude一个角色(system prompt/role prompt),以便设定上下文、风格、任务边界。
这意味着我们在与Claude聊天时,可以把它设想为一个知识丰富、非常聪明,但又时常健忘、缺乏背景知识的新员工,需要你给出明确的指示。
也就是说,它并不了解你的规范、风格、偏好或工作方式。
你越精确说明需求,Claude的回复就会越好。

Netscape(网景)联合创始人Marc Andreessen
Netscape(网景)联合创始人,硅谷著名技术企业家与风险投资人Marc Andreessen不久前也表示,AI的强大之处在于把它当成「思维伙伴」:
「AI的艺术就在于你问它什么问题」。
在AI时代,提出一个问题往往比解决一个问题更重要。
或者说,正确地提出问题(提示词工程),就是在高效解决问题。
人类把提问的部分(提示词)做好了,解决问题的部分主要交给AI就可以了。
这也是为什么掌握提示词技能的人能够找到高薪工作的原因。
根据levels.fyi(科技从业者查询薪资的平台)的数据,提示词工程师的年薪中位数高达15万美元。
AI不是「某个人」
别再问它「你怎么看了?」

近日,Karpathy在一篇推文中表达了他对提示词的看法。
他建议人们不要把大模型当成一个「实体」,而要把它看作一个「模拟器」。
比如,在探索某个话题时不要问它你怎么看xyz(某个问题),因为你的提问对象并不是一个真正的个体。
而是应当这样问:
「如果要讨论xyz,找哪些角色/人群会比较合适?他们会怎么说?」
Karpathy认大模型可以切换、模拟很多不同的视角,但它并不会像我们那样,长时间地思考xyz并逐渐形成自己的观点。
因此,如果你用「你」来提问,它会根据微调数据里的统计特征,自动套用某种隐含的「人格嵌入向量」,再以那种人格的方式来回答。
Karpathy的这种解释,在一定程度上破除了大家想象中「在向一个AI发问」时所带来的那种神秘感。

针对Karpathy的观点,网友Dimitris提到,模型是否会自动「扮演」成最有能力回答问题的专家人格。
Karpathy回答这种现象确实存在,在某些任务中确实可能工程化了一个「人格」,比如让模型模仿专家、通过奖励模型得到高分、模仿用户喜欢的风格等。
这样会出现某种「复合型人格」,但这种人格是刻意工程叠加而形成的,并非自然形成的人类心智。
所以,AI从本质上仍然是token预测机器。模型的所谓「人格」,只是通过训练、人为约束、系统指令等手段叠加上的「外壳」。
对此,Askell也提到了类似观点。
尽管Claude的个性中仍有一种「类人的特质」,但它没有情感、记忆或自我意识。
因此,它所表现出的任何「个性」都只是复杂语言处理的结果,而非内在生命的体现。
你以为AI在「理解世界」
它可能只是「换频道」
开发AI模型,有时感觉就好像在玩打地鼠游戏。
刚修好了模型在一个问题上的错误回答,它又开始在别的问题上出错。
层出不穷的问题就像那些不断从洞口探出头的地鼠一样。
OpenAI等机构研究人员,将这类现象的一种表现被称为「裂脑问题」(split-brain problem):
提问方式稍微改变一下,就可能让模型给出完全不同的答案。
「裂脑问题」背后反映出当今大模型的一个致命缺陷:
它并不会像人类那样逐步形成对世界运作方式的理解。
一些专家据此认为,它们无法很好地泛化,难以处理训练数据之外的任务。
这也可能带来一个质疑:
投资者向OpenAI、Anthropic等实验室投入数百亿美元,希望它们训练出的模型能在医学、数学等领域做出新的发现,这样的投入是否真正有效?
「裂脑问题」通常出现在模型开发的后期阶段,也就是后训练阶段。
在这一阶段,模型会被输入经过精心挑选的数据,比如医学、法律等特定领域的知识,或者是学习如何更好地回应使用者。
比如,一个模型可能被训练在数学题数据集上,以便更准确地解答数学问题。
它也可能被训练在另一个数据集上,以提升回答时的语气、个性和格式。
但这样做有时会让模型无意间学到「分场景作答」,它会根据自「以为」遇到的场景来决定回答方式:
是一个明确的数学问题,还是它在另一个训练数据集中经常见到的那类更泛化的问答场景。
如果用户用正式的证明风格来提数学问题,模型通常能答对。
但如果用户用更随意的口吻提问,它可能误以为自己是在一个更偏向被奖励「友好表达、格式漂亮」的场景里。
于是可能为了这些附加属性而牺牲准确性,比如写出一个排版很好、甚至带表情符号的答案。
也就是说A在回答问题的时候也会「看人下菜碟」:
如果觉得用户问的是「低水平」的问题,它就会给出「低水平」的回答;如果它觉得用户问的是「高水平」的问题,它也会呈现「高水平」的回答。
这是模型在对提示词格式「过度敏感」,而导致出现的一些本来不该出现的细微差别。
比如提示词里是用破折号还是冒号,都可能影响模型回答的质量。
「裂脑问题」凸显了训练模型的困难性和微妙之处,尤其是要确保训练数据的组合恰到好处。
它也解释了为什么许多AI公司愿意砸下数十亿美元,请数学、编程、法律等领域的专家来生成训练数据,避免他们的模型在专业用户面前继续犯一些基础错误。
「裂脑问题」的出现,也降低了人们对于AI即将自动化多个行业(从投行到软件开发)的预期。
虽然像AI一样,人类同样也会误解问题。
但AI存在的意义正是在于弥补这些人类的不足,而不是通过「裂脑问题」放大这种不足。
因此,必须要有具备哲学思维和某个领域的专业知识的人类专家,通过提示词工程来形成大模型训练和使用的「说明书」,人们使用这些「说明书」与大模型沟通,才能应对大模型的「裂脑问题」。
而且,在大模型出现「拟人」特征时,还要避免把大模型当成「人」的错觉,也有助于我们更好地发挥它的价值,降低机器幻觉。
这其实都非常需要哲学训练,使自己与AI的对话清晰富有逻辑。
从这个角度来说,对于大部分人来说,能不能用好AI,不是取决于你的AI专业知识,而是取决于你的哲学思维能力。
参考资料:
https://www.theinformation.com/articles/ais-split-brain-problem?rc=epv9gi%20
https://x.com/karpathy/status/1997731268969304070%20
https://www.businessinsider.com/anthropic-philosopher-amanda-askell-tips-ai-prompting-whispering-claude-2025-12
秒追ASI
⭐点赞、转发、在看一键三连⭐
点亮星标,锁定极速推送!
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社