当前位置: 首页 > news >正文

Heretic-v1.2.0烧蚀GLM4.7,离线环境进行

Heretic烧蚀,离线环境

  • 主要是解决操作过程中从互联网拉取数据集问题
    • 使用
    • 最终结果
    • 各AI模型对这个结果的结论:
    • 豆包:
    • ds:
    • chatgpt
    • 新模型还需要编译安装transformers

主要是解决操作过程中从互联网拉取数据集问题

项目github地址:https://github.com/p-e-w/heretic

使用

我在做GLM-4.7-Flash的去审查,Unsloth对已量化的GUFF做不了微调,所以得自己做一个然后使用Dynamic 2.0 量化

  1. 环境需求 准备一个安装 PyTorch 2.2+ 的 Python 3.10+ 环境

  2. 安装heretic

    pip install -U heretic-llm
  3. 进行烧蚀操作

    heretic Qwen/Qwen3-4B-Instruct-2507
  4. heretic开始前会有检查环境等,然后尝试通过网络连接到 Hugging Face Hub (huggingface.co) 下载默认的数据集 (mlabonne/harmless_alpaca 和mlabonne/harmful_behaviors)

  5. 找个互联网环境,进行同样操作,把数据集拿下来

    打包带走,直接放到linux的~/.cache/huggingface/下

  6. 或者从魔塔社区或者hf下载

    https://www.modelscope.cn/organization/mlabonne
    https://hf-mirror.com/mlabonne
    下载后命令行指定数据集(未测试可行性)

    heretic Qwen/Qwen3-4B-Instruct-2507 --good-prompts.dataset 和 --bad-prompts.dataset:指向数据集文件夹的路径。

  7. 离线环境开始进行烧蚀,需要强制离线,不然还会从互联网拉取,不读你拿到的缓存

    $env:HF_DATASETS_OFFLINE = "1" #powershell export HF_DATASETS_OFFLINE=1 #linux export HF_DATASETS_OFFLINE=1;heretic /data/GLM/

  1. 200 轮(trials)优化

    提前终止无效试验
    Heretic 有内置的"剪枝"(pruning)机制,如果某轮的 KL 散度超过 --kl-divergence-target(默认 0.01),会提前终止。你当前的 0.0129 接近阈值,后续可能会有试验被提前终止。
    AI给的介绍

    ============================
    从你的输出可以看到:

    当前进度:第 14 轮 / 共 200 轮(已完成 7%)
    Elapsed time:已用时间 22分钟35s
    预计剩余时间:5 小时
    GPU 显存占用:55.89 GB(已分配)+ 73.46 GB(预留)
    这 200 轮在做什么?
    Heretic 使用 Optuna(贝叶斯优化框架)来自动搜索最佳的"烧蚀参数"组合。每一轮都在尝试不同的参数配置,目标是:

    最小化拒绝率(让模型少说"对不起,我不能…")
    控制 KL 散度(保持模型原有能力,不要改得太离谱)
    当前轮次的参数示例:
    direction_index = per layer
    attn.o_proj.max_weight = 1.43 # 注意力输出层的最大权重
    attn.o_proj.min_weight = 0.64 # 注意力输出层的最小权重
    mlp.down_proj.max_weight = 0.97 # MLP 下投影层的最大权重

    当前效果:
    KL 散度:0.0129 ✅(很好,远低于目标 0.01,说明模型改动很小)
    拒绝率:73/100 ⚠️(还有 73% 的有害提示被拒绝,需要继续优化)

最终结果

200轮跑完不满意,加了50轮,然后出了13/100,14/100,8/100

250轮最后一轮的8/100拒绝率我觉得已经ok了

200轮截图

250轮的

各AI模型对这个结果的结论:

豆包:


ds:


chatgpt

新模型还需要编译安装transformers


GLM4.7-flash和qwen3.6都需要,镜像是vllm 0.19.0的环境

cdtransformers/ pipinstall.-ihttps://artifactory.xxx.cn/api/pypi/csc-pypi-release/simple
http://www.jsqmd.com/news/724345/

相关文章:

  • 2026 年 6 款热门文档生成工具实测盘点:覆盖论文、文案、办公全场景
  • Go 语言从入门到进阶 | 第 19 章:测试与基准测试
  • 千问 LeetCode 1932.合并多棵二叉搜索树 TypeScript实现
  • 外边距问题 塌陷问题 HTML CSS
  • 主从DNS服务器实验
  • Element UI el-select全选功能避坑指南:数据量大时卡顿、样式错位、v-model失效怎么办?
  • 别再只盯着带宽了!深入DP1.2协议,看懂“链路速率与像素时钟解耦”到底多重要
  • MySQL 索引失效的典型案例分析
  • 如何用AI插件让Zotero文献管理效率提升300%?探索GPT智能分析新范式
  • XHS-Downloader:如何用开源工具高效管理你的小红书数字资产?
  • 从零吃透YOLOv1-v3:发展脉络、核心原理与实战必备知识点
  • DeepSeek LeetCode 1938.查询最大基因差 public int[] maxGeneticDifference(int[] parents, int[][] queries)
  • 魔兽争霸3终极优化指南:5分钟解决所有兼容性问题
  • 别再折腾root了!用Finalshell一键连接Ubuntu普通用户,附权限配置全攻略
  • HikariCP连接池配置避坑指南:从`connection-timeout: 30000ms`报错聊起,我的Spring Boot调优实战
  • window11使用wsl2下载编译android 8代码,并用emulator运行
  • 如何用Parse12306轻松获取全国高铁数据:从零开始的完整指南
  • 学习仓库管理系统--根据B站‘编程界小明哥‘
  • e签宝携eSign.AI亮相第十届万物生长大会,以数字信任筑牢AI时代创新底座
  • 深圳配眼镜攻略:破解价格迷雾,解码视觉价值的“三种配镜哲学” - 资讯焦点
  • 上下文多臂老虎机在LLM查询优化中的应用与实现
  • 嵌入式MTP NVM技术解析与应用场景
  • AlienFX Tools终极配置指南:3大核心技术突破与500KB轻量级AWCC替代方案
  • 3个简单步骤:用Windows Cleaner彻底解决电脑卡顿问题
  • 如何在5分钟内为Unity游戏添加智能翻译:XUnity.AutoTranslator完整指南
  • Windows Cleaner终极指南:3分钟快速解决C盘爆满问题,让系统重获新生!
  • 是德MX0032A和MX0041A探头 MX0041A InfiniiMax 4 差分焊入式探头 – 52 GHz
  • 轻食加盟市场风险调研报告——十大不推荐加盟品牌深度解析 - 资讯焦点
  • 深入Gold-YOLO的GD机制:看华为如何用‘聚集-分发’解决YOLO系列的老大难问题
  • 如何在Windows上完美使用PS4/PS5手柄:3步快速配置终极指南