AI Pulse

它写了一篇关于独角兽的假新闻,然后OpenAI决定不把它交给公众

它写了一篇关于独角兽的假新闻,然后OpenAI决定不把它交给公众

有人在Reddit上发帖,用一段荒诞的‘安第斯山脉独角兽会说英语’当开头,让AI续写。三分钟后,屏幕上出现了一篇结构完整、有引语、有机构名称、有虚构科学家姓名和单位的‘新闻稿’,连水下起火这种明显错误都混在细节里,让人第一眼不敢断定是假的。

这就是GPT-2:2019年OpenAI训练出的语言模型,能根据任意提示生成连贯长文本,风格可切换,逻辑有惯性,错误有迷惑性。它不是靠模板拼接,而是从800万网页中自学语言的统计规律。 这意味着:伪造内容第一次不再需要写作能力,只需要一个提示词。

OpenAI没公开完整模型,只放出一个缩水版,连训练数据和代码一并封存。他们说这是‘安全考量’——不是防黑客攻击,而是防普通人随手生成以假乱真的新闻、评论、客服回复甚至法律文书。 这意味着:技术首次走到这一步——开发者主动卡住自己的发布按钮,不是因为做不出来,而是怕别人用得太顺手。

当时多数同行私下质疑:这真有那么危险?毕竟它还会胡诌‘水下火灾’,段落之间常突然跳题。但争议本身暴露了一个拐点:人们争论的已不是‘能不能造出来’,而是‘该不该让人立刻用上’。 这意味着:AI不再只是工具演进,它开始倒逼社会重新校准‘可用’和‘应有’之间的边界。

后来的事大家都知道了:GPT-2的完整版半年后还是公开了;再之后,GPT-3、4、Claude、Gemini陆续登场,而‘水下火灾’式的低级错误越来越少,但‘看不出是AI写的’却越来越难判断。 那个被锁起来的模型,其实没拦住什么——它真正暴露的是:我们从未建立过对‘类人表达力’的使用共识。 现在,每个手机里都装着比GPT-2强十倍的模型,而我们还在用‘复制粘贴’和‘人工审核’应对它生成的内容。

📎 阅读原文 · Slate