comfyui支持使用flash_attn进行加速,但是flash_attn官方并没有发布Windows系统的cuda13.2版本的编译好的包,只能自己编译了,分享出来节约大家时间。
https://github.com/Dao-AILab/flash-attention
基于2026年4月15日最新的主线版本编译。
https://pan.quark.cn/s/1992f1de9dd8?pwd=3vwR
comfyui支持使用flash_attn进行加速,但是flash_attn官方并没有发布Windows系统的cuda13.2版本的编译好的包,只能自己编译了,分享出来节约大家时间。
https://github.com/Dao-AILab/flash-attention
基于2026年4月15日最新的主线版本编译。
https://pan.quark.cn/s/1992f1de9dd8?pwd=3vwR