AI改辞职信变委屈,修代码却三句话搞定
有人让AI改辞职信,语气从克制专业滑向了委屈控诉。另一个人用同一模型调试Python报错,三轮对话就定位到依赖版本冲突,还附上了pip install命令。
代码任务有明确语法、可验证输出、海量高质量训练数据——GitHub上公开的仓库就是燃料。更重要的是,它自带反馈闭环:跑通了就是对,报错了就是错。
模型在这类任务上不是“聪明”,而是被反复校准过上千次。
但搜索、写作、生活建议这类任务没有标准答案。它们缺乏即时对错反馈,语境模糊,又高度依赖没写在纸上的社会常识。
这些“难任务”恰恰是普通人每天接触AI最多的地方。它们塑造了我们对AI能力的真实感知。
下次看到AI生成的旅行建议,不妨留意它有没有提到当地斋月作息。那个没被写进训练数据的细节,才是它真正卡住的地方。
当前技术路线在这里撞上了天花板。问题不在算力,而在我们拿不出一把尺子,去定义什么叫“好”。
AI的能力不是均匀铺开的。它沿着数据密度和反馈确定性的裂缝生长。
这条路的尽头,未必是通用智能。更可能是一组高度特化的专家系统:一个专解方程,一个专写周报,一个专陪聊。它们彼此之间,并不共享“理解”。