AI悖论:越发展越愚钝?
如果有一天,像DeepSeek、ChatGPT这样的人工智能真的能够穷尽一切互联网上的人类知识,那么人们在互联网交流或发布信息时,就必然不再依靠个人的分析与数据搜集,而是完全依赖人工智能。这必然会导致互联网中的信息质量下降,进而使人工智能变得“无知”。
这必然会形成一个悖论:
当人工智能越聪明,人类越懒惰;而人类越懒惰,人工智能就越愚钝。
“有效市场”悖论
其实在金融学中,有一个类似的经典悖论——有效市场悖论:
如果市场真的是有效的,即市场价格实时完全反映了交易者的全部信息,那么交易者就没有动力挖掘新信息,仅需被动持有股票指数。这反而会导致市场价格失去信息含量,即市场无效。
要理解这一点,我们可以通过一个简化的“捡钱困局”来类比:
- 在有效市场假设下,如果地上有100元钱,你的第一反应是去捡,但有效市场逻辑告诉你:如果是真钱,早该被人捡走了。
- 因此,你的第二反应是不捡,但如果每个人都不捡,地上反而可能留有真钱——这又导致市场无效。
正是有效市场理论中的逻辑悖论:越相信市场有效,市场反而越可能失效。
破局的理论
Grossman 和 Stiglitz 于 1980 年在《美国经济评论》上发表的经典论文 《On the Impossibility of Informationally Efficient Markets》(https://www.aeaweb.org/aer/top20/70.3.393-408.pdf) ,是金融经济学和信息经济学的基石之一。它的核心目的就是直面并形式化地分析“有效市场悖论”。
他们假设市场上有两类参考者:
- 知情交易者:他们可以支付一个固定的成本 c,去获取一个关于资产未来价值的私人信号。这个信号能帮助他们更准确地预测回报。
- 不知情交易者:他们不获取私人信息,只能通过观察公共信息——主要是市场价格——来推断知情交易者的信息。
信息融入价格的过程:知情交易者根据他们的私人信息进行交易,他们的买卖行为会改变资产的供需,从而影响市场价格。不知情交易者是聪明的,他们知道价格中包含了知情交易者的信息,因此他们会试图从观察到的价格中“解译”出这些信息。这个过程被称为“理性预期均衡”。
噪声的引入:为了让“解译价格”这个过程不是完美的,模型必须引入噪声,例如资产供给的随机波动。如果没有噪声,不知情交易者就能直接从价格中完美反推出知情交易者的信息,那么获取私人信息就变得无利可图。噪声的存在使得价格信号变得模糊,从而保护了知情交易者获取信息的动机。
模型论证了,不存在一个所有信息都反映在价格中的均衡。相反,存在一个信息获取的均衡比例。
在这个均衡点上,一个交易者是否选择成为知情交易者,取决于信息成本与预期收益的权衡:
如果太多人获取信息,套利机会被摊薄,信息收益下降,以至于无法覆盖成本,那么一部分人就会退出,选择成为不知情交易者。
如果太少了人获取信息,价格包含的信息很少,那么获取信息就能带来巨大的套利利润,远高于成本,这会激励更多人成为知情交易者。
论文的结论就是:
- 市场是“部分有效”的:价格反映了一部分信息,其程度恰好使得边际的信息获取者觉得无利可图。
- 价格并非完全信息有效:总有一些信息没有被价格反映,因为反映所有信息的成本太高。
- 信息的回报体现在套利收益上:知情交易者通过利用其私有信息与市场公共信息(价格)之间的差距来获利。
用Grossman-Stiglitz模型来解决“捡钱困局”
在捡钱困局的类比中,Grossman和Stiglitz为捡钱赋予了“弯腰成本”(例如5毛钱):
- 5毛钱以下面值的钱(即使是真钱)会被留在地上,因为不值得弯腰。
- 5毛钱以上面值的真钱会被捡走,因为回报高于成本。
- 但如果你看到地上有5毛钱以上的钱,你也知道它一定是假的,因为真钱早已被捡走(噪声导致的假信号)。
类比“AI悖论”
信息成本在AI语境中,对应的是人类专家进行独立研究、分析和验证所需付出的时间、精力和专业知识。
信息收益对应的是人类专家因其专业性和洞察力而获得的回报(如更高的投资回报、咨询费、职业优势等)。
模型的均衡预测是:总会有一部分人(成本低或收益高的人)选择成为“人类专家”,而不完全依赖AI。 因为如果所有人都依赖AI,那么AI的训练数据质量会下降(由于无人生产高质量原始信息),导致AI给出的答案价值降低,这反过来又创造了成为专家、利用更优信息获利的机会。
动态适应与市场周期的启示
上面的模型只告诉我们均衡状态是什么,但并没有详细谈论这种状态的形成路径,Brock和Hommes,分别用两篇论文(DOI:10.2307/2171879、10.1016/S0165-1889(98)00011-6)描述了均衡状态的动态演化过程。
- 在市场动荡时,专业投资者通过分析信息获利;
- 市场逐渐恢复稳定后,新手与跟风者涌入,使市场重新变得脆弱;
- 随后又发生崩盘,聪明人再度进场。
在 AI 生态中,也可能出现类似的动态循环:
- 当 AI 生成的信息质量下降时,专家与独立研究者(信息搜集成本低者)将重新进入市场,提供更可靠的信息;
- 他们的成果又会被 AI 学习吸收,使系统知识质量上升;
- 但当 AI 过度强大、信息供给稳定后,专家收益下降,又会退出,
- 从而导致 AI 再次面临“知识稀缺”的循环。
这意味着:
AI 与人类的知识互动,可能也会在“创新—依赖—退化—再创新”的周期中波动。
变数
变数一:以上用市场类比AI,前提是市场和AI都是被动的基于人类数据进行运作。但事实上我们之所以说AI是“智能”在于它有创造的可能性。如果AI能够“创造出优质的数据”,以上的均衡理论其实就被打破了。
变数二:由于长尾效应,对于小众领域,冷门领域,专家因收益不足而退出,而 AI 因缺乏足够样本或反馈,无法覆盖这些知识盲区,最终形成“知识荒漠”,即某些领域既无专家也无高质量数据。时间一长,人类的知识体系的结构会发生变化。
本文是在看到Degg_GlobalMacroFin的博文《有效市场悖论与人工智能悖论》(https://weibo.com/2453509265/MrVarfA1R?pagetype=homefeed)后的学习笔记。