077、代码实战十九:扩散模型生成结果的偏见与多样性分析
一、从一次深夜调试说起
上周团队 review 生成结果时,发现一个诡异现象:连续生成 100 张“医生”图片,89 张是男性戴眼镜的白大褂形象;生成“护士”则 94 张是女性。数据组同事把统计结果扔过来时,我背后一凉——这模型怕不是从训练数据里学到了全套社会刻板印象。
更麻烦的是,产品那边反馈生成内容“越来越像”,用户开始抱怨缺乏惊喜。这两个问题看似无关,实则同根:模型在潜空间中的分布偏好。今晚就聊聊怎么用代码把它挖出来。
二、偏见检测:不只是统计性别比例
很多人一提到偏见分析,就只统计性别、种族比例。太浅了。真正的偏见藏在条件概率的扭曲里。看看我们写的检测脚本:
defanalyze_conditional_bias(pipe,prompts,neutral_base="a photo of a")