先说结论:
《暗知识ai》真正可怕的,从来不是它多聪明,而是我们以为自己已经看懂它。
很多人一提到 AI,要么是兴奋:“效率工具!赚钱机会!”要么是恐慌:“会不会被取代?”但这两种反应,都有点浅表。更隐蔽、也更真实的东西,是那种不说出口,却一直在发生的——暗知识。
我第一次意识到“暗知识”这玩意儿,是在刷一个智能推荐的短视频。
点开那条视频之前,我刚跟朋友聊完工作焦虑,顺手搜了几句“职业转型”“中年危机”。五分钟后,首页开始一条接一条推:
- 如何用 AI 做副业
- 程序员被裁员之后怎么办
- “30 岁再不改变就晚了”
那一瞬间,我有点恍惚。
是我在看内容,还是内容在读我?
那种被看穿的感觉,既精准又让人不安。
后来我才慢慢意识到:这就是《暗知识ai》的现实版本——系统通过你没意识到的行为,拼出一个比你自己更清晰的“你”,但它又不会告诉你自己是怎么做到的。
一、《暗知识ai》到底在“暗”什么?
先把抽象的词按住,拆开看。别急着上升到“技术改变世界”那种宏大叙事,就放到日常里说。
1)你以为的“好用”,背后是“不可说”的规则
你看到的只是:
- 智能相册自动帮你归类人物
- 办公软件自动总结会议纪要
- AI 写作给出一堆“看起来还不错”的句子
真正没被看见的是:
- 模型是怎么区分你老板和你同事的
- 为什么它总是给你推同一个风格的内容
- 明明你没有明说,系统却能猜出你大致的消费能力
这些“怎么做到的”,就是典型的暗知识:
那些存在于模型参数之间、人却说不清楚的经验、偏好和模式。
开发者自己往往也解释不明白,只能说:
“模型是这么学出来的,我们也不知道它具体在内部怎么表示这些东西。”
听上去有点像:
“别问,问就是算出来的。”
2)机器学到的是结果,不是道理
打个比方:
- 人学开车,会知道“看到行人要减速”是规则;
- AI 学开车,只知道“在大量类似像素分布的画面里,这样控制方向盘、油门、刹车,安全率更高”。
看似都能把车开好,但路径完全不一样。
这种只学会“怎么做”,没学会“为什么”的能力,就是《暗知识ai》的典型气质——
高效、精准、却难以解释。
而这,正是它让人又依赖又不安的原因。
二、当《暗知识ai》碰到真实生活
如果只停留在“概念”层面,这些东西会显得很虚。可一旦落到具体场景,就不那么抽象了。
1)职场:你的简历,可能早就被“暗中判过分”
现在很多大公司筛简历,第一轮其实已经是 AI 在做了。你看到的是:
- 一封冷冰冰的“很遗憾与您无缘”
你看不到的是:
- 模型根据你的学校、公司、岗位关键词、工作年限,甚至简历里的措辞风格,给你算了一个“匹配分”
更诡异的是:
- 有时候你只是换了一个更“正式”的邮件名
- 或者把某个项目的描述从口语改成了偏书面
评分就有可能发生微妙变化。
你以为是运气差,可能只是算法的“暗知识”不太喜欢你这一类表述方式。
这听着有点荒诞,但又异常合理。因为模型学的是大数据里的“主流偏好”,它不会懂什么“个体尊严”,只会执行:“过去类似的人,被录用的概率多少”。
2)关系:推荐算法不只懂你爱看什么,还懂你在逃什么
有一阵我挺明显能感觉到:自己情绪不稳的时候,推荐内容会越来越极端。
- 刚开始只是一些普通的情绪共鸣
- 后面就开始出现“放弃吧”“没救了”那种极端标题
不是系统故意要“搞你”,而是它察觉到:
- 你对哪类内容停留得更久
- 哪些标题能勾起你反复点开
于是它非常“善解人意”地加码。
这就是《暗知识ai》对你情绪节奏的“偷学”:
它不懂你为什么难过,但懂你难过时更容易点什么。
这个时候,它不是工具,更像一面会反射、却不负责的镜子。
3)消费:你以为是冲动,其实有人在“精准推波助澜”
有一次我要买一个很普通的鼠标。
搜索之后的一周里:
- 社交平台开始给我推“桌面改造必备器材”
- 视频里各种机械键盘、显示器支架轮番出镜
- 各种“理性生活方式”“提升工作幸福感”的说辞一股脑儿涌出来
最后:
- 本来只想买一个几十块的鼠标
- 结果整套桌搭直接上升到“幸福工程”级别
钱是我主动花的,欲望也确实是我自己的。只是其中那个被轻轻推了一把的瞬间,我后来才意识到:
那个“推”的动作,其实就是《暗知识ai》的手。它比我更早知道,我一旦看到整套桌面改造图,就很难只买一个鼠标了。
三、那我们到底在害怕什么?
坦白说,我并不排斥 AI,相反我用得还挺狠:
- 写作前用它整理资料
- 工作上用它做数据清洗、写脚本
- 日常甚至会用语音助手记灵感
但我越来越清楚一个事实:
真正需要警惕的,不是“AI 会不会变得太聪明”,而是“我们会不会在太轻松里放弃思考”。
1)“我懂它”的错觉
很多人现在聊 AI,说得头头是道:
- “就是大模型嘛,本质是预测下一个词”
- “就是推荐算法嘛,优化停留时长和点击率”
这些都没错,但都太浅了。
危险的地方就卡在这里:
- 一旦你以为“懂了”,你就不会再继续追问
- 不追问,就会自然地把选择权交出去
你会习惯:
- 让推荐帮你决定看什么
- 让导航帮你决定走哪条路
- 让算法帮你筛选认识谁、信任谁
慢慢的,你不再训练自己的判断力和耐心,而是训练出一种本能:
“算了,系统给啥就用啥吧,反正也挺准。”
2)被看见,却说不清自己
《暗知识ai》在做的一件很奇妙的事情是:
它越来越懂“你会怎么行动”,但你却越来越不知道“自己为什么这样行动”。
- 你以为自己是“性格孤僻”,但数据可能写着“超爱在深夜看情绪类视频”
- 你以为自己“不太爱花钱”,但模型知道“一旦有优惠+限时+分期,就会立刻下单”
这种“被洞察却没有语言去描述”的状态,其实是挺危险的。
因为当你说不清自己时,就更容易被别人定义。
而《暗知识ai》,恰好是一个特别擅长给你下定义的东西,只是这些定义是藏在后台参数里的,不会明说。
四、和《暗知识ai》相处,我现在的做法
说一点更落实的东西,不搞那种宏大空谈。
1)接受它很强,同时承认它并不懂“意义”
现在只要我用 AI 工具,我会在脑子里默念一句:
“它擅长的是模式,不是理解。”
这句话会有两个很实际的效果:
- 当它给出一个看上去很有道理的建议,我会多问一次:
- 这个建议是基于什么假设?
- 换到我的具体场景真的合适吗?
- 不再追求它“完美正确”,而是把它当一个特别能给例子的人,最终拍板仍然在自己手里。
2)刻意保留“自己的噪音”
推荐系统希望世界是干净、可预测的,但真实的人生往往就是乱糟糟的。
所以我会有意识地做几件“小事”:
- 偶尔搜索一些完全不相关、甚至自己不感兴趣的东西,让系统别那么快把我“归类死”
- 订阅少量不走主流风格的内容来源,用来打乱自己的信息流节奏
- 在做某些重要选择时,刻意不看推荐,先拿纸笔自己写几条 pros & cons
这些动作看似小,但对我来说是一种提醒:
“我还有主动制造噪音的能力,不是完全被动地被喂养。”
3)学一点点原理,但不神化技术
不需要人人都变成算法工程师,但对 AI 的基本工作方式,有一点点模糊却正确的认识,就已经足够抵抗很多荒谬的焦虑了。
比如知道:
- 内容推荐不是“懂你灵魂”,只是追踪你的行为路径
- 图像生成不是“有审美”,只是学了海量图像之间的相关性
- 文本大模型不是“有世界观”,只是极擅长延长一段话的“合理续写”
在这个基础上,再去看那些“AI 将取代一切”的标题,就不会那么容易被吓到,或者被煽动得冲动转型。
4)把 AI 当“外化的大脑”,而不是“替代的大脑”
我自己现在的分工方式是这样的:
- 让 AI 做:
- 繁琐的资料整理
- 初稿式的结构搭建
-
重复性强、但规则明确的工作
-
自己做:
- 判断事情的优先级
- 决定哪些信息值得相信
- 承受选择带来的后果
换句话说:
《暗知识ai》可以帮我省时间,但不能帮我省掉“负责”。
这一点,我会反复提醒自己。
五、写在后面:不要怕“暗”,要怕“盲”
《暗知识ai》本身并不是一个邪恶的存在,它更像是时代里被放大的那部分“看不见的经验积累”。
- 它让工具变得更聪明
- 也让偏见有可能被放大
- 它能提高效率
- 也可能在不知不觉间,收紧了我们的选择范围
真正决定方向的,仍然是我们怎么用、怎么想。
我越来越觉得,一个在这个时代活得相对清醒的人,大概会同时具备这几种状态:
- 敢用: 不排斥新工具,愿意试、愿意学
- 会停: 关键节点知道把手机、屏幕、推荐统统关掉,留一点只属于自己的“处理时间”
- 能辨: 分得清“这是系统推给我的”和“这是我真心想要的”
《暗知识ai》会越来越多地渗进我们生活,躲不开。
那就学着和它打个不那么对称、但至少不完全失控的交道。
你可以让它帮你写文案、做表格、整理计划,但在那些真正重要的地方——选择亲密关系、决定人生方向、判断什么有价值——最好还是慢一点,笨一点,用自己的方式绕一圈。
因为那部分“笨拙”,恰好是目前所有 AI 都学不来的地方,也是你仍然像一个完整的人,而不是一串行为数据的根。