type
Post
status
Published
date
Mar 11, 2026
slug
summary
tags
GPT+AI+Notion
category
资源推荐
icon
password
Property
Mar 24, 2026 09:16 AM
文章来源
一把刀好不好用,取决于刀有多快、人有多熟练、要切的东西有多硬。
前言:为什么要造一个新公式?
人机交互(HCI)领域已有不少经典理论——Fitts's Law 预测指点操作的耗时,TAM(技术接受模型)解释用户为什么接受或拒绝一个系统,Flow Theory 描述挑战与技能匹配时的心流状态,GOMS 模型将交互拆解为原子动作来预测操作时间。
这些理论,从做产品以来,都学习过,觉得很好,但总觉得不够。它们要么聚焦于单次操作的微观效率,要么停留在态度层面的定性描述——始终无法回答一个根本问题:为什么有的工具用起来像热刀切黄油,有的却像钝刀切肉? 我们需要一把尺子——一个能对工具的"好用程度"做一致性评价的思考框架。
这个想法搁置了很久,一直没有突破。直到最近偶然想到物理学的摩擦力公式 f = \mu N——摩擦力是粗糙度和压力的乘积,跟我们"用工具做事"的体感如出一辙。于是开始了推导。
或许,世间万物都能用公式来描述,算是数学专业的强迫症吧——虽然我是学渣,大学经常挂科。
同时也必须提一句,产品前辈俞军的俞军公式(用户价值 = 新体验 - 旧体验 - 替换成本),一直让我佩服不已、心向往之。今天这个锋利度公式,算是我个人往前走了一小步,以博诸君一笑。若多年后不再做产品,也算留下自己奋斗过的痕迹。
一、物理学起源:从摩擦力公式到锋利度公式
工具锋利度理论不是凭空创造的公式,而是物理学两个经典公式(摩擦力公式 + 压强公式)在交互领域的组合与再应用。
1.1 起点:经典摩擦力公式
物理学中,摩擦力的计算取决于两种情况:
滑动摩擦力(物体已经在动):
- u:动摩擦因数(coefficient of kinetic friction),取决于接触面的材料和粗糙程度
- N:正压力(Normal Force),垂直于接触面作用在物体上的力
静摩擦力(物体还没动):
静摩擦力没有固定值——你用 10N 推桌子没推动,摩擦力就是 10N;用 20N 还没推动,摩擦力就是 20N。它总是"刚好等于你施加的力",直到达到临界值 f_{\max},物体才开始滑动。
1.2 关键映射:从物理到交互
观察 的结构——摩擦力是两个独立因素的乘积。这个结构可以自然地映射到工具交互场景。
第一步:替换
摩擦系数 衡量的是接触面有多粗糙。在工具交互中,对应的就是工具有多难用。
我们引入 Q(Quality)表示工具的设计质量,。Q 越大,设计越好,使用难度越低。因此:
代入得:
第二步:替换 N
那 N 代表什么?物理学中正压力是"压在物体上的重量"。在交互中,这个"重量"来自用户的小白程度——做产品时我们经常需要考虑用户有多不专业,这正是压在交互过程上的负担。
Knowledge(知识)的首字母是 k,用它来代表用户的专业度,。k 越大,越专业,小白程度越低。因此:
第三步:代入得到使用阻力公式
物理学 | 含义 | 工具交互 | 含义 |
(摩擦系数) | 接触面有多粗糙 | (1-Q)(使用难度) | 工具设计质量越低,使用难度越大 |
N(正压力) | 物体被压在表面上的力 | (1-k)(小白程度) | 用户专业度越低,小白程度越大 |
摩擦力 | 使用阻力 |
这个映射同时揭示了为什么使用阻力公式必须是乘法而非加法:
物理学告诉我们:摩擦力不是"粗糙度 + 压力",而是"粗糙度 × 压力"。
如果地面光滑,无论你压多大力,摩擦力都是零——对应工具完美时,无论用户多菜,阻力都消失。
如果没有正压力,无论地面多粗糙,摩擦力也是零——对应用户完美时,无论工具多烂,阻力也消失。
这就是乘法结构的物理学根基。
除了物理类比,乘法结构还被笔者自己质疑过,是不是加法更好。考虑加法的替代方案:如果阻力是 ,那么当工具完美时,——用户的小白程度依然会独立产生阻力。但在现实中,如果一个工具真的能完美理解并执行你的意图(想想理想中的 AI 助手),用户仅需提供目标,而不需要任何过程性的专业知识也能完成任务——此时执行阻力应该趋近于零。只有乘法结构才能表达这种"一个因素归零则整体归零"的效应。 因此,乘法不仅是物理学的启发,也是交互逻辑本身的要求,才确定如此。
1.3 静摩擦力的启示:入门门槛
静摩擦力的特性同样有深刻的映射意义:
- 静摩擦 > 动摩擦:让一个静止的物体开始运动,比维持它运动需要更大的力
- 交互映射:用户开始使用一个新工具的阻力,大于继续使用它的阻力
这解释了为什么"上手难度"(静摩擦)往往是用户放弃工具的首要原因——不是工具不好用,而是用户根本没能跨过最初的那道坎。
一旦用户"动起来"了(跨过了静摩擦),后续的阻力反而会变小。这就是为什么好的工具设计要特别重视首次体验(Onboarding)——目标是帮用户突破 f_{\max}。
需要说明:本理论后续的锋利度公式 S,主要讨论的是用户"动起来"之后的动摩擦状态——即持续使用过程中的效能。至于如何突破静摩擦、让用户从"不用"到"开始用",那是关于转化率(Conversion Rate) 的课题,逻辑与本公式相通,但暂不在此展开。
1.4 完整推导链
每一步的逻辑:
- f \to F:f 是使用工具的阻力,但我们要衡量的是工具的好用程度——以"及格线"为基准取倒数,F > 1 代表超过及格,F < 1 代表不及格
- F \to S:借用压强公式 P = F/A,同样的刃力面对更小的问题体量,锋利度越高
二、符号约定
符号 | 含义 | 物理学对应 | 取值范围 |
工具设计质量 / 系统智能度 | 表面光滑度 | ||
用户能力 / 领域熟练度 | 减轻正压力 | ||
问题体量 / 复杂度 | 受力面积 A | ||
使用阻力——用工具做事有多费劲 | 摩擦力 f = \mu N | ㅤ | |
及格基准阻力 | 参考摩擦力 | ||
刃力——相对于及格线的放大倍数 | ㅤ | ||
锋利度——切入问题的穿透力 | 压强 | ㅤ |
三、第一步:定义使用阻力(Friction)
- (1-Q):工具的使用难度——设计质量越低,难度越大。对应物理学中的摩擦系数 \mu。
- (1-k):用户的小白程度——专业度越低,小白程度越大。对应物理学中的正压力 N。
- f 的本质:使用难度 × 小白程度 = 使用阻力。对应物理学中的 f = \mu N。
边界分析
条件 | f 的值 | 含义 | 物理类比 |
Q=0, k=0 | f = 1 | 阻力最大:烂工具 + 纯小白 | 粗糙面 + 重物,最大摩擦 |
或 | 工具够好或人够专业,阻力趋于消失 | 光滑面或零压力,摩擦消失 | |
Q=0.5, k=0.5 | f = 0.25 | 中等水平,阻力降至 1/4 | ㅤ |
关键洞察:Q 和 k 是乘法关系而非加法,这不是主观选择,而是物理学摩擦力公式 f = \mu N 的结构性要求——两个独立因素的协同效应。
四、第二步:定义刃力(Empowerment)
前面推导出来的 f,是使用工具时的摩擦力——即使用阻力。但我们真正需要衡量的,是工具的好用程度。
逻辑很直接:使用阻力越小,工具越好用。但如果直接取倒数 F = 1/f,我们用实际场景验证一下:当工具设计极差(Q = 0.1)、用户是纯小白(k = 0.1)时,——这显然不合理,烂工具加小白居然还有 1.23 倍的"放大"?
问题出在:原公式的 F 永远大于等于 1,无法表达"不及格"的状态。所以需要做缩放(Scaling)——给公式乘上一个基准系数,让数值回到合理区间。我终于知道当年觉得脱裤子放屁的缩放有什么实际用处了,之前真的都是和尚念经。
引入及格基准:设定(及格线),对应的基准阻力:
0.6 不是物理常数,而是认知锚点。 无论将及格线设为 0.5 还是 0.7,都不会改变公式的核心杠杆结构(即趋近 1 时的指数爆发),它的作用仅仅是将标尺归一化,让 F = 1 成为体感上的"刚刚好"。
然后定义刃力为相对于及格水平的放大倍数:
就像温度用摄氏度(以冰点为 0)而非绝对零度——选一个有实际意义的参考点,让数字更直观:
- F > 1:超过及格线,工具 + 用户的组合开始有放大效果
- F = 1:刚好及格,勉强够用
- F < 1:不及格,做事费劲
刃力的放大特性
Q | k | F | 直觉 |
0.1 | 0.1 | 0.20 | 烂工具 + 纯小白,远低于及格 |
0.5 | 0.5 | 0.64 | 中等偏下,还没到及格线 |
0.6 | 0.6 | 1.0 | 及格线:刚好够用 |
0.9 | 0.1 | 1.78 | 好工具让小白也能超过及格线 |
0.9 | 0.9 | 16 | 好工具 + 老手 = 16 倍及格水平 |
0.99 | 0.99 | 1600 | 趋近完美时,能力爆炸式增长 |
杠杆效应:当。好的工具是能力杠杆,它不是简单地"帮你省事",而是将你的能力指数级放大。
五、第三步:定义锋利度(Sharpness)
有了刃力 F,为什么还不够?因为在实际场景中,我们衡量一个工具好不好用,从来不是抽象地讨论"这把刀快不快"——而是看它能不能帮我切开眼前这块具体的食材。
比如当下最常见的场景:一个编程工具,能不能让没有编程基础的人搭建一个个人网站?这里"搭建个人网站"就是 v。刀再快(F 再大),如果食材太硬(v 太大),用户依然切不动。
所以,刃力 F 必须放到具体问题中才有意义。借用压强公式 P = F/A——同样的力,作用面积越小,压强越大——我们得到锋利度:
这才是最终的效能度量:不是"刀有多快",而是**"这把刀对这个问题的穿透力有多大"**。
物理类比
- 物理学中:同样的力,作用面积越小,压强越大(针尖刺穿纸张)。
- 锋利度模型中:同样的刃力 F,问题体量 v 越小,切入越轻松。
注:这里取的是压强公式的结构(力 ÷ 阻碍 = 穿透效果),而非严格的物理量纲对应。v 代表的是问题对能力的"抵抗面",而非物理学中的面积。
完整语义
其中:v = 问题复杂度,(1-Q) = 使用难度,(1-k) = 小白程度
角色 | 变量 | 控制方 |
刀的锋利程度 | 工具设计 + 用户学习 | |
食材的硬度 | v | 问题本身的复杂度 |
切入的轻松度 | S = F/v | 最终效能 |
- S 大 → 热刀切黄油,用户感受到"爽感"。
- S 小 → 钝刀切肉,用户感受到"挫败感"。
从数学上对 S 求导可以证明,工具越接近完美,每一分改进带来的杠杆效应越大——这就是为什么 AI 时代大家都在卷最后的 1%。具体数学证明见文末【附录】。
六、验证与推演
公式推导完了,接下来拿到真实场景中验一验——先看具体案例的数值是否符合直觉,再看极端情况下的数学行为,最后讨论变量如何落地度量。
6.1 实例推演
场景:修一张图(v 固定)
场景 A:钝刀
- 工具:Windows 画图(Q = 0.1)
- 用户:小白(k = 0.1)
- 计算:
- 结果:F < 1,远低于及格线。用户觉得"修图好难,甚至修不了"。
场景 B:利刃
- 工具:Google Nano Banana 修图(Q = 0.9)
- 用户:依然是小白(k = 0.1)
- 计算:
- 结果:F > 1,超过及格线。虽然人没变、问题没变,但 S 大幅提升——"稍微点一下就搞定了"。
启示:用户感受到的"爽"与"难",本质上是锋利度 S 的大小。产品设计的核心目标就是最大化 S。
具体场景的数值验证通过了,接下来看公式在极端条件下的行为——边界处不崩,才说明结构是稳的。
6.2 渐近行为与理论极限
当 (工具趋于完美)
Sharpness Singularity(锋利度奇点):工具完美理解用户意图时,理论上锋利度无限大——任何问题都能一刀切开。这是所有 AI-native 产品追求的终极目标。当然,现实中 Q 永远无法真正等于 1——这个奇点标示的是模型的渐近方向,而非可达的终点。
当(问题无限复杂)
无论刀多快、手多熟,面对无限硬的食材,锋利度终将归零。这意味着不拆解问题就直接扔给工具,是最愚蠢的使用方式——对大模型也是如此。再强的模型,面对一个未经拆解的巨大 v,锋利度也会被稀释到接近无效。
当 且(AI 时代的核心矛盾)
如果磨刀的速度(Q 增长)快于食材变硬的速度(v 膨胀),则 S 仍然可以维持甚至增长——这就是 AI 工具竞赛的本质:磨刀能否跑赢食材变硬?
v 的通货膨胀(The Inflation of v)
上面的分析还隐藏了一个更深的悖论:当工具变得极其锋利(Q \to 1),锋利度 S 暴涨时,人类不会停下来享受轻松——人类会立刻去切更硬的东西。
以前 Q 提升了,我们用来快速修图;现在 Q 接近完美了,我们开始尝试生成视频、重构整个系统。
省下来的锋利度 S,总是被兑换成更大的问题规模 v。
这解释了一个反直觉的现象:工具越强,我们反而越忙。 不是因为工具不够好,而是因为我们每磨好一把刀,都会转身走向更硬的食材。
这一现象在经济学中有一个经典的对应:Jevons Paradox(杰文斯悖论,1865)。英国经济学家 William Stanley Jevons 发现,蒸汽机的燃煤效率提升后,煤炭的总消耗量不降反升——因为效率提升使更多使用场景变得经济可行。v 的通货膨胀,本质上是 Jevons Paradox 在工具交互领域的再现。
这也许是工具进化的永恒宿命——S 的剩余价值,永远会被人类的野心吞噬。
6.3 度量路径:Q、k、v 如何测量?
数学上自洽、直觉上合理之后,最后要回答一个务实的问题:这些变量在现实中怎么测量?
我一直坚信如果理论不能指导实践,近乎等于放屁。Q、k、v 作为抽象变量,需要在具体场景中落地为可度量的指标。以下是几种可行的度量方式:
变量 | 度量方式 | 说明 |
Q | SUS 问卷得分 ÷ 100 | SUS(System Usability Scale)是 HCI 领域广泛使用的标准化可用性问卷,满分 100,归一化后可直接映射到 [0, 1) |
Q | 任务完成率 | 给定标准任务集,用户成功完成的比例 |
Q | 专家启发式评估 | 多位 UX 专家按 Nielsen 十项原则打分取均值 |
k | 领域经验归一化 | 如:行业年限 ÷ 行业平均资深年限 |
k | 前置测试得分 | 任务开始前的领域知识测试,得分归一化到 [0, 1) |
v | 功能点数(Function Points) | 软件工程中衡量功能复杂度的标准方法 |
v | 子任务拆解数 | 将问题拆解为原子任务的数量 |
v | 专家评定等级 | 多位领域专家对任务难度的共识评分 |
需要强调:本公式的核心贡献在于结构(乘法关系、归零效应、边际递增),而非某组具体的数值。上述度量方式是将公式从定性分析推向实证验证的起点,而非唯一路径。
还需要指出的是,由于 v 的度量单位(如功能点数、任务步数)在不同场景下差异巨大,本公式计算出的锋利度 S 并非一个带有绝对物理量纲的常数,而是一个相对比较指数(Relative Index)。它的核心价值在于横向对比——比如同一个任务,用传统软件 vs 用 AI 工具的 S 值倍数差——而不是追求一个绝对的数值标准。
七、设计启示:磨刀的三条路径
要让用户觉得"爽"(提高 S),有且仅有三条路:
路径 | 操作 | 责任方 |
磨刀刃(提升 Q) | 把工具做得更好 | 交互设计师 / AI 工程师 |
练刀法(提升 k) | 把用户教得更聪明 | 教育 / 文档 / 社区 |
选软柿子(减小 v) | 把问题拆解得更小 | 产品经理 / 策略设计 |
路径间的优先级
由于 Q 和 k 的乘法协同效应,同时提升两者的回报远大于只提升其一。而减小 v 是"降维打击"——不换刀、不练功,只挑软的切。
写在最后的话
动笔写这最后一段的时候,其实颇为纠结。讲出来像笑话,但想了想还是写下来好了。
目前基本已经达成共识:人类再次迎来了"原子弹时刻"。AI 的威力如此巨大,似乎一切都触手可及。但越是这样,越需要我们把产品的基本功做扎实,进行新的理论创新。
算法的同志,先是提出了 Transformer,然后做出了 GPT。开发的同志,做出了 Claude Code、OpenClaw 这种工程化到极致的东西。而纯产品输出,或者以产品为主的产出,目前来看乏善可陈。诸位产品同行也得多多努力——不能让算法、开发专美于前啊。
同时也必须坦率地承认一个遗憾:受限于个人的数学能力和专业洞察力,本文虽然用了公式,但本质上仍是定性分析——更多是对过去经验的解构和验证,缺乏对未来的量化指导和落地方案。公式搭好了骨架,血肉还需要更多人来填。
最后说一下 AI 在本文中的参与。公式的核心推导和理论构建,基本是在 A4 纸上用笔完成的——这是做产品以来的习惯,A4纸束缚最小。AI 主要承担了四个角色:一是文章审查(Gemini),帮我检查推导中是否存在逻辑漏洞;二是在基准常量 f_0 = 0.16 的引入上提供了关键灵感——之前自己尝试了好几种归一化方案,要么过于复杂,要么解释性不好,最终是在与 Gemini 的对话中敲定了"60 分及格线"这个简洁的锚点;三是附录中 (1-x) vs 1/x 的求导分析——我知道需要求导来比较两种方案的斜率特征,但怎么求导真的全忘了,这部分全是 Gemini 帮我算的;四是文章的格式整理——在 Obsidian 里写 LaTeX 公式实在折磨人(也可能是我不熟练),这部分由 Claude Code 完成。
这篇文章,就算是我这个能力有限的产品人所贡献的一块垫脚石吧。毕竟天赋有限,在天下英雄如过江之鲫的当下,也只能给各位垫垫脚了。
联系作者:如果你对这个公式有任何想法、质疑或延伸思考,欢迎来信交流:lhuafmaof@163.com
附录:公式的数学性质讨论
为什么是 (1-x) 而不是 1/x?
坦白讲,最初选择用 (1-Q) 和 (1-k) 做参数转换,纯粹是出于直觉——物理公式 f = \mu N 里 \mu 和 N 都是正向量,用"1 减"刚好把正向的"质量"翻转成正向的"阻力因子"。做完之后回头做逻辑检查,才意识到一个问题:为什么有的地方用"1 减",有的地方用倒数?这两种翻转方式有什么区别?
于是对两种方案分别求导,比较它们的数学性质。
当前方案:(1-x) 型
对 Q 求偏导(k, v 视为常量):
对 k 求偏导(Q, v 视为常量):
关键特征:分母中有——Q 或 k 越接近 1,导数越大。从 0.9 提升到 0.95 的边际效果,远大于从 0.1 提升到 0.15。这意味着边际递增:越接近完美,每一分改进的回报越大。
替代方案:全用倒数
如果不用 (1-Q) 而用 1/Q 表示阻力因子,公式变为 S = c \cdot Q \cdot k / v。对 Q 求偏导:
导数是常数——每一分改进的回报完全一样,无论你在 0.1 还是 0.9。没有加速,没有奇点。
对比
ㅤ | (1-x) 方案(当前) | 1/x 方案(替代) |
边际效应 | 递增——越好越值得打磨 | 恒定——改进回报不变 |
极限行为 | Q \to 1 时 S \to \infty(奇点) | Q \to 1 时 S 有上界(无奇点) |
产品直觉 | 顶级产品的"最后一公里"价值极高 | 所有改进等价 |
(1-x) 结构天然产生了**"最后一公里"效应**:越接近完美,每一步改进的回报越大。这恰好解释了为什么顶级产品在细节打磨上投入巨大——因为在 Q 的高位区间,每一分努力的杠杆效应是指数级的。
全用倒数则丢失了这个特性。所以,(1-x) 不仅是直觉上的选择,也是数学上更优的结构。
三个变量的灵敏度分析
进一步,把三个偏导数都写成相对形式,会发现一个非常简洁的结构:
每个导数都是"当前锋利度 ÷ 剩余空间"。含义非常直观:
磨刀效应:Q 离 1 越近,(1-Q) 越小,导数越大。行百里者半九十——把准确率从 95% 提升到 99%,带来的锋利度爆发远超从 50% 到 54%。这解释了为什么 AI 时代大家都在卷最后那 1%。
练功效应:结构与 完全对称。"磨刀"和"练功"在数学上是等价的——提升工具质量和提升用户能力,对锋利度的贡献机制一模一样。产品经理不仅要造刀,还要写好说明书。
拆解红利:导数为负,且分母是 v——问题规模翻倍,锋利度减半。反过来说,把大问题拆成若干小问题,每一步的锋利度都会回升。这提供了一个直觉层面的解释视角:大模型引入思维链(Chain-of-Thought)后之所以表现更好,可能正是因为 CoT 把一个复杂问题拆解成多个小步骤,让模型在每一步面对更小的 v,从而保住每一步的 S。当然,CoT 的有效性涉及更多底层机制,这里仅作为模型视角下的一种理解方式。
- 作者:Blacksmith
- 链接:https://www.lhuafmaof.cn//article/32d2fd79-8cf0-8021-8fd5-c3ed1d3aae3b
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。

