2015–2020年线上AI讨论:高度理论化、充满不确定性和思想实验
2015到2020年的线上AI讨论,特点是高度理论化、充满不确定性、依赖猜想和思想实验。这意味着,当时主流关切不是模型怎么跑得更快,而是‘如果AI目标设定错了,会发生什么’。
讨论中频繁出现有效利他主义(EA)和LessWrong(LW)的框架,也出现了‘单文化登神长阶’(monoculture apotheosis)这一描述共识封闭性的说法。这意味着,一种分析范式占据了主导,其他路径的声音变弱了。
具体问题集中在AI安全的实操挑战上,比如‘目标误设’(specification gaming)——AI按字面完成任务却违背本意;也回响着超验主义者(extropians)退潮后的余音。这意味着,前一代技术乌托邦话语并未消失,只是换了术语继续存在。
‘I Notice I'm Confused’是当时常用的认知标记,指向对自身理解边界的自觉;《大 owl 书》(big owl book)指代尚未成形但被反复引用的思想纲领;AlphaGo的胜利成为现实锚点,而SSC(Slate Star Codex)、‘ basilisks’(能仅凭描述就引发心理风险的思想实验)等,则构成那个语境特有的认知符号系统。
这条路没有通向工程落地,但它把‘我们到底在怕什么’这件事,第一次系统地写进了AI的公共议程。