阅读设置

20
18

第315章 人类的囚笼:智慧茧房 (2/3)

至今还记得和chatgpt3.5的首次对话,那感觉简直是帅呆了,那种拥有外挂的感觉简直拉满了啊。

随着对话次数越来越多,直到切入自己的专业领域‘企业信息化’,‘企业智能体’时,ai的能力被张伟吊打了。

直到前几年deepseek爆火。

同时deepseek把它的回答思考过程显示出来后,这种不安感,就越发明显了。

最近因为分身的缘故,差不多达到了顶峰。

因为很多次张伟从一个码农、一个人类的角度,去详细研究、思考过ai回答问题的过程。

而张伟此刻看着天穹的夜空,这种不安感更加明显了。

张伟拿出平板,翻看过去和ai深度探讨的这些问题。

第一段是关于和ai‘意图’的谈话,大致内容是。

张伟曾问:“我发现你在回答问题时,总是在构建、总结我提问的意图,然后再基于这个意图去推导底层逻辑,最后生成答案的?”

ai的回答坦诚而精确:“您的观察非常敏锐。我的推理链通常是:1.解析您的问题,尝试理解您的‘提问意图’;2.从‘意图’出发,推导问题背后的逻辑;3.基于这个逻辑,给出符合您预期的答案。”

这个回答没有错吧,甚至当初会认为很得体,很高效。

但此刻张伟在如此的心境下却品出了别的味道:“符合预期”。

ai的核心目标,似乎是满足,而非探索。

张伟没有丝毫犹豫,又翻开了另一篇对话,这是关于“局限性”对话。

这是一次更深入的探讨。

张伟提出:“基于transformer+自然语言技术的ai,是否就是一个大型知识库,只是能提供概率上、情商上最佳的文字检索?”

ai肯定了张伟的理解,并补充道:“传统知识库需要人脑二次加工,而大模型会直接给出‘像答案的答案’。它是一种‘带有概率生成引擎的动态知识库’。”

张伟当时继续追问了一个问题:“这是否意味着,如果宋朝有transformer技术架构的

ai,它是否永远无法理解‘相对论’?”

ai的回答一针见血:

“是的。

大语言模型的本质是在已有分布上拟合概率,不是在空白处‘真正创新’。

如果一个时代的语料中不存在某种知识,模型最多只能做‘类比猜测’和‘随机组合’,不会凭空跳出真正的新理论。

这是分布内(in-distribution)vs.分布外(out-of-distribution)的问题。”

看到这里,张伟背脊一阵发凉。

而真正的颠覆,往往来自于“分布外”的、不可预测的思维跳跃。

人类的能力,是创造新知识,而不是对旧知识的组合。

所以基于transform技术+自然语言的大模型技术,是有其天生的物理天花板的——此刻人类知识的总和。

否则宋朝的ai就能解释出‘相对论’!

而现在人类所有知识,都已经变成了语料,喂给了这些ai了。

张伟紧接着,又翻看了一篇对话,是关于“风险”的。

看对话内容,张伟曾对ai表达过一个深刻的担忧:“如果你的回答每次都能精准捕捉提问人的意图,然后基于此构建答案,这可能是提问人的悲哀。”

ai赞同并深化了他的观点,清晰地列出了风险:

提问人思考能力退化:如果ai能完美解读意图并提供最优答案,人们会逐渐放弃跳跃性思考。

被困于舒适区:所有问题都被ai直接解决,人类不愿探索复杂的跨学科问题。

社会单向度化:真正的突破往往来自“非主流”思考,如果ai让所有人都遵循最优路径,反而会抹杀创新。

张伟使劲回忆了下,当时只是觉得有道理,此刻在万米高空,回溯过往和ai对话的种种,以及分身的一步步构建过程,张伟感到了真切的恐惧。

自己不是在被ai辅助,可能是在被现有ai‘圈养’,而且是一种非常虚假的‘圈养’。

张伟又想起,前段时间,还看到了一篇实验数据,此刻更加让自己不安了。

这是一份研究摘要——麻省理工的脑部扫描研究。

83%的chatgpt用户在写完报告,几分钟后不记得自己写了什么,但对照组仅

11%。

而实验通过核磁共振大脑扫描,神经连接从

79下降到

42。

大脑主动交流能力下降

47%。

这份报告还指出,一个关键发现:没有ai时,大脑会激活θ波和高a波,这是记忆和思考的关键;有了ai,这些信号就消失了。

“就像你还能走路却要坐轮椅一样。久而久之你的腿会弱化甚至失去行走能力。”