芯片这行,说起来都他妈是泪。打从入行头一天,师傅就拎着耳朵跟你嚎:时间就是钱,流片失败就是世界末日。一颗片子从立项到出来,少说一年,多则三四年。中间你哪个环节拉胯,那冤枉钱扔出去,跟不是自己的一样,听着响儿都听不见。
于是大伙儿急眼了,开始疯狂堆人、堆工具、堆流程。堆人堆到一定份儿上,就他妈奇怪,人越多越乱,光互相解释就耗掉半条命。工具更别提,工程师一天切换的系统能从三个变十个,天天在不同窗口之间复制粘贴,干得跟打字员似的。这不叫研发,这叫交配——不,叫交接成本爆炸。
这就不是一家公司的事儿,全行业都困在这了。法子都用尽了,天花板就在脑门上顶着。
这时候,大模型屁颠屁颠来了。不是它有多神,是实在没别的辙了。它不堆资源,它让每个工程师能多干点儿。RTL设计查文档查历史代码,验证写约束写断言,物理设计做timing分析,这些活儿说白了就是有规律的搬砖,大模型干这玩意儿天生合适。
有人胆小,说AI搞错了咋整,再引入新Bug。这个担心对是对,可你问反了。你得问:现在人工流程,Bug率是多少?他妈的也没低到哪儿去。如果AI能把一个枯燥验证的出错率从5%降到2%,速度还快十倍,你是老板你用不用?傻子才不用。
所以别扯虚的,AI进芯片研发不是浪漫主义实验,是逼到墙角想活命。问题早就不是“要不要”,而是“怎么弄、往哪儿插、弄完怎么算账”。
但我今儿想聊的,是个更邪乎的念头——
AI对芯片最大的冲击,可能根本不是替人干活儿,而是要改整个行当的规矩,把“啥叫好芯片”这话给重写一遍。
过去三十年,芯片设计的金科玉律就一句话:性能给老子拉满,然后在面积、功耗、成本上抠抠搜搜。翻译成人话就是:做一块跑得最快、又能塞进壳子、又不烫手、还别太贵的祖宗玩意儿。就这目标,养出了无穷无尽的流程、规范和验证套路,因为每一代工艺进步了,你得往死了榨它的油水。
AI一来,这目标眼看要换。可能变成:效率给老子拉满,性能别太寒碜就行。
换成方程式就是:最大化(设计速度),在性能够得上某条线的条件下。
差一个字儿,天差地别。当“设计速度”成了老大——
“够用就行”这套哲学就要站起来了。 你琢磨琢磨,一个AI小子几小时内给你生成一个80分的RTL模块,bug少得可预期,你还用得着花三个月手雕一个95分的?除非是那种非拿性能当命的极端场景,剩下谁费那劲。就跟吃饭一样,微波炉叮一下就能填饱,你还要花四个小时炖佛跳墙,你是闲得蛋疼。
· “验证”这俩字儿得重新定义。 以前咱们验证,是跟丫死磕:你设计得对不对?以后多半是验个态度:AI做得够不够用?设计成本一旦趋近于零,设计迭代的速度就会比验证流程还他妈快。这时候你还在埋头“过度验证”,就成了新的败家子儿,迭代窗口都让你验没了。
芯片公司要从“手艺人作坊”变成“AI大牲口养殖场”。 核心竞争力不再是养几个十年功力的架构大仙,而是谁训出的设计智能体更溜,谁家代码库更肥,谁那套自动化流水线更顺。壁垒从人挪到了模型和数据上。以后面试不问你写过多少行Verilog,问你会不会逗AI干活儿。
这就是最让人又哆嗦又激动的地方了。
咱一直觉得芯片是人类智商的尖儿货,得是精英一针一线绣出来的艺术品。可在效率这头饿狼撵着的情况下,它可能不得不往下出溜,变成一个可以被AI成批印出来的工程品——就跟印刷术干挺了手抄圣经一样。活字印刷追求的不是比修士们描得还精致,而是“够清楚、够快、够满大街都是”。
结构性困境这王八蛋不讲人情,它不管你好不好看,它只管你活不活得下去。等有头一家公司用这新活儿把片子流出来了,它对手们会傻眼地发现:自己花两倍时间抠出来的那块更漂亮的片子,在市场上已经晚了整整一代的买卖。
所以AI带来的,恐怕不只是给流程提个速,而会直接催出一类“AI亲生的”芯片。它们可能浑身小毛病,不完美,但生得太快,快到重新定义了什么叫“好”。
这就跟京城的哥聊天似的:您这车是手工敲的,百公里加速三秒八;我这是流水线攒的,加速五秒,但我已经拉了三趟活儿回家喝茶了,您还在那儿磨缸呢。谁好?活下来的那个好。
这世道,就这么势利。

