AI 日渐普及,但大家知道什么是 BI 吗?
简单来说,AI 是依赖算力、显卡、处理器,基于计算机科学和数学的超级计算器。
而BI(Biological Intelligence),全称生物智能,它是模拟人类神经元思考的迷你大脑,是“活”着的计算机。
它把人类神经元直接集成到硅芯片上,不需要显卡、处理器、内存条,也不需要大量的电来驱动,30w 功耗,和一个白炽灯泡差不多;
它是一个活着的生命体,需要吃饭,需要呼吸,需要调节体温;
它有着比硅基 AI 更高的学习效率,在一些特定任务中,它的表现甚至优于当前最先进的 AI 模型。
听起来很魔幻对不对?
更魔幻的是,它已经过了工程测试阶段,3 个月后就会开始发售。
未来以来
澳大利亚科技公司Cortical Labs正式发布了全球首台商用可编程生物计算机CL1!
这一划时代的设备将人类神经元与硅基芯片深度融合,以“合成生物智能(SBI)”技术重新定义了计算的边界——它不仅具备类脑的自主学习能力,更以超低能耗、超高效率颠覆了传统AI的范式。
CL1的核心是一套“生物-硅基共生系统”。
科学家从人体血液中提取细胞,通过非侵入性技术转化为诱导多能干细胞(iPSC),再分化为约80万个功能性神经元。
这些神经元被精准培养在硅芯片表面的微电极阵列(MEA)上,形成动态神经网络。
芯片与神经元之间通过电脉冲实现双向实时交互——芯片发送编码后的电信号作为“问题”,神经元通过突触连接重组生成“答案”,再以电信号形式反馈给芯片,形成闭环学习系统。
除计算机本体外,还附带一个生命维持系统,全自动料理神经元的吃喝拉撒,让你不需要像养宠物一样去照顾它。

Cortical Labs还给CL1开发了一个专属的操作系统,叫biOS。
有了这个系统,我们就能像操作普通电脑一样,给CL1下达指令了。
而且,他们还提供了Python API接口,也就是说,咱们这些程序员可以直接用Python代码来给神经元网络“布置任务”!
性能碾压:5分钟学会打游戏,能耗仅为GPU的千分之一
在经典游戏《Pong》测试中,CL1仅用5分钟便掌握操作技巧,而传统AI模型需90分钟训练,连击成功率还高出30%。
这得益于生物神经元的先天优势:它们能实时重组突触连接,像人脑一样通过“试错”快速适应环境。
更颠覆性的是其能耗效率——单个CL1单元功耗仅30瓦,30台集群总功耗850-1000瓦,相当于一台家用微波炉。

伦理争议:我们是否在创造硅基生命?
尽管CorticalLab的技术取得了显著进展,但同时也面临一些伦理和挑战。
例如,当脑细胞学会打游戏时,科学家们也在思考这些细胞是否有痛觉、是否会厌倦工作等问题。
尽管当前技术离意识还很远,但这些问题的探讨对于未来的生物智能计算发展至关重要。
说到用人脑细胞来做计算机,你脑海里可能会出现这个疑问:这玩意儿安全吗?
会不会产生意识,然后像科幻电影里那样,反过来控制人类?
对此,CL1采用了一种神经元活性监测机制,可以随时监控神经元的状态,避免它们产生意识。
焦虑的本质:信息无用感
不知道有没有人和我有同样的想法,直观感受除了震撼以外,还有一点点恐慌。
春节刚过去一个多月,deepseek、manus 等国产 AI 在 25 年初不断的破圈,进入大家的生活;
所有人都在紧锣密鼓的规划怎样学习了解 AI ,让自己跟上时代;
然后现在到了 3 月,突然冒出来一个 BI,跟你说它 6 月就能完成商品化落地,AI 已经是上世代产品了。
2016 年是普通人的人工智能元年,这一年 3 月谷歌 alpha go 战胜人类顶尖围棋手,人工智能才开始大规模进入普通民众的视野。
到现在已经过去整整 9 年,大部分人到了 21、22 年才开始正式用上 ai,那时候的油管,几乎所有人都开始谈论“training your robot”。
所以,AI 时代实际上已经给足了普通人面对新事物的反应时间。
但大家还是会焦虑,总感觉自己还是慢了半拍。
我们已经迈入了一个新工具会不断快速落地的时代,慢半拍和焦虑,以后会是常态。
很多人以为,信息焦虑,是知道得太少,但恰好相反,信息焦虑,其实是知道得太多,但,用不上。
一是我们不是这个行业的从业者,赶不上风口;
二是我们也不具备过硬的资产配置能力,能笃定去追风口的股票。
那么结果是什么?
结果就是,这条信息只是在你的大脑中建立了一个锚点,去了解,能理解。
这其实就已经足够。
庄子说,夏虫不可语冰,人的认知局限就是会被时空限制住:
人没有那么多精力去学习了解世界上的所有事物,只活一个夏天的虫子,自然不可能知道冬天的雪花是什么样。
所以,在时间精力都有限的大前提下,应对未来的最好方式就是:
你不需要了解茫茫多的新技术新工具,只需要找到最能帮自己提效的那一个,再用它来深耕自己的壁垒。
适合自己的才是最好的
什么样的工具是适合自己的工具?
可以参考以下判断标准:
能解决实际问题的,能快速上手的,能长期提升的,就是好工具。
我们不必考虑它的先进程度和迭代潜力,放在第一位的一定是,能不能解决问题。
打个比方,Claude 是公认的优秀推理大模型,但想在国内使用非常麻烦;
deepseek 几乎没有门槛限制,收个验证码即可上手使用。
两个 ai 可能在某些跑分测试上存在差异,但其实都是通过对话在做信息交换,帮你解决问题。
选哪一个?
当然是选能尽快开始使用的那一个。
为什么?
因为使用工具提效,最理想的状态是把它内化为你的生物本能。
就像专业的棒球运动员,每一次都能准确的用细小的球棒打中高速飞来的球;
球棒已经延伸为运动员身体的一部分,让他做到普通人看来很难做到的精确击球。
这是现象学中提到”具身认知”理论,当工具和人的相性达到融为一体的时候,效率最大化。
这个过程非常漫长,且需要投入大量精力去刻意培养。
但收益也很大:
- 它尽可能地为你的本职工作提效,让你的时间投资到对个人价值最高的事上;
- 工具设计的底层逻辑都是趋同的,未来不断迭代的新工具,你上手也不会那么吃力。
最关键的是,它能赋予你对新事物延迟响应的底气:
让你不必为不断迭代涌现的新工具感到焦虑,像无头苍蝇一样去追逐每一个科技热点,可以安心在自己的一亩三分地上慢半拍;
或许,刻意的”慢半拍“,才是对抗认知熵增的最佳策略。
科技变革只会越来越快,但你的节奏,只能你自己掌控;
选定一个方向,深耕下去,才能在未来保住竞争力,而不再成为焦虑的旁观者。