大模型写的 Verilog,为什么总在最关键的地方出错?
芯片工程师用 AI 写代码这件事,已经不新鲜了。很多人用下来的感受是:简单的活儿它做得还行,但一碰到稍微复杂的逻辑,就开始出岔子。
这是大模型的工作方式决定的。
它给的是"最可能的答案",而不是"正确的答案"
大模型本质上是一个概率机器。给它一个问题,它做的事情是:在训练数据里找到最相似的模式,然后生成概率最高的输出。
这个过程和人类的直觉很像——快,流畅,但不经过深度推理。
心理学里有个词叫"System 1 thinking",就是那种不假思索、条件反射式的判断。大模型目前基本上就停留在这个层面。遇到问题,直接给答案,不会停下来想:这个答案在当前场景下真的对吗?
一个初级工程师犯错,通常也是因为同样的原因——靠直觉写代码,而不是先把问题想清楚。
