
1. 商业决策
1.1. 人工智能并不便宜,而且本就不应便宜
-
1.1.1. 如果你不付费购买产品,你自己就是产品
-
1.1.2. 人工智能模型并非免费的,其应用所涉及的资金规模相当庞大
1.2. 人工智能的具体应用场景不同—是微调前沿模型还是自主研发模型,其成本构成也会有显著差异
1.3. 现成方案
-
1.3.1. 向基础模型提供商(支付许可费,通常按用户数计费,有时也会依据令牌使用量(即输入数据量)计费
-
1.3.2. 商业合作关系简单且直接,偏向交易性质
-
1.3.3. 既可以按个人规模付费,也可以按团队规模采购,后者通常能享受到一定的规模经济优惠
1.4. 即插即用
-
1.4.1. 向基础模型提供商购买更高级的企业版许可,这类服务需要通过API接入,最常见的例子就是ChatGPT企业版
-
1.4.2. 其定价采用定制化模式,不仅基于服务使用量和用户数量,还会考量数据摄入、训练及存储的规模
-
1.4.3. 多数情况下,你会获得管理控制权限、分析工具和账户支持,还能自主决定企业数据的存储位置,以及是否将其排除在模型未来的训练数据集之外
1.5. 内部模型开发
-
1.5.1. 在此场景下你能获得最大程度的控制权
-
1.5.2. 现成方案和即插即用模型的成本概念相对简单
-
1.5.3. 初始搭建成本:包括图形处理器等硬件成本、基础设施搭建费用,以及模型训练所需的数据获取成本
-
1.5.4. 开发成本:涵盖数据科学家和软件工程师的人力成本(用于模型开发与打磨)、训练人工智能模型的计算资源成本,以及测试费用
-
1.5.5. 运营成本:包括云计算费用、本地服务器的能源成本,以及模型维护、保养、漏洞修复、故障排除和安全测试的人员成本
-
1.5.6. 许可与法律成本:可能涉及人工智能生成内容的知识产权许可费用,以及为确保合规而产生的法律服务费
-
1.5.7. 这些成本既包含固定成本,也包含可变成本,其中可变成本会随着用户数量和数据量的增加而递增
1.6. 企业的决策往往基于成本
1.7. 成本节约:若已为企业级人工智能做好预算,可以通过争取最具性价比的方案来实现成本节约
1.8. 生产力与效率提升:最终体现在通过使用人工智能工具节省的员工工时上
1.9. 质量改进
-
1.9.1. 有助于减少欺诈
-
1.9.2. 降低行政错误成本
-
1.9.3. 改进能带来明确的财务价值,那么你或许可以将其纳入人工智能的商业案例中
1.10. 需要确保未来能轻松切换提供商,其中一个关键考量因素是数据的可移植性和所有权
- 1.10.1. 应致力于保留在合同范围内开发的知识产权和数据的控制权,并且确保未来能轻松将相关数据迁移至其他提供商
1.11. 与人工智能公司没有直接商业关系的咨询机构可以充当公正的中间人
1.12. 直接与人工智能公司的客户代表沟通
1.13. 甚至可以用人工智能来帮自己争取最划算的人工智能交易
2. 风险
2.1. 生存性风险
-
2.1.1. 21世纪20年代初,一股重要思潮兴起,痛斥人工智能会对人类构成“生存性风险”
-
2.1.2. 人工智能可能达到“奇点”—届时,技术的影响与能力将变得如此广泛、深远且不可逆转,人类文明或面临威胁
-
2.1.3. “回形针理论”
-
2.1.3.1. 该理论认为,若出现一个以优化回形针生产为目标的超级人工智能(Artificial Super Intelligence,ASI),且缺乏约束或监管,它会想方设法接管国家、挪用所有经济与自然资源投入回形针生产中,甚至会铲除所有阻碍其实现目标的人类
-
2.1.4. 缓解措施
-
2.1.4.1. 意识到人们对生存性风险的担忧
-
2.1.4.2. 及时了解人工智能安全领域的重要讨论与相关法规
-
2.1.4.3. 向客户说明你方为应对风险所采取的行动
-
2.1.4.4. 推动风险委员会主动管理人工智能相关风险
2.2. 偏见
-
2.2.1. 人工智能以数据为训练基础
-
2.2.2. 数据可能来自开放互联网、各类数据集,有时甚至是人工合成数据
-
2.2.3. 数据,恰恰反映了它们所来源的社会中存在的各种偏见
-
2.2.4. 偏见与歧视在每个社会都普遍存在,对此视而不见不仅天真,更是一种错误
-
2.2.5. 清除训练数据中的偏见,例如确保输入数据具备多样性和全面的代表性
-
2.2.6. 保证逻辑与算法的公正性,例如确保计算权重不会不公平地偏向某一群体
-
2.2.7. 若模型产生带有偏见的响应,及时给予强化反馈
-
2.2.8. 缓解措施
-
2.2.8.1. 在组织内部组建“红队”,全面审查模型中可能存在的偏见
-
2.2.8.2. 按逻辑梳理模型开发的每个环节—从训练数据、参数设置到输出检查
-
2.2.8.3. 始终对偏见保持警惕,秉持“默认存在偏见”的心态,并持续致力于消除偏见
2.3. 虚假信息与深度伪造
-
2.3.1. 生成式人工智能可制作出极具可信度的名人、政客及普通人的图像、音频和视频
-
2.3.2. 缓解措施
-
2.3.2.1. 完全遵守相关法律法规
-
2.3.2.2. 始终向消费者和客户说明哪些输出内容是人工智能生成的
-
2.3.2.3. 秉持“不造成伤害”的理念—技术上可行,并不意味着就应该去做
2.4. 数据保护与隐私
-
2.4.1. 无法完全确保模型开发过程中没有不良行为者参与
-
2.4.2. 无法确定(除非另行签署协议)提交给人工智能的数据不会被存储并用于模型训练
-
2.4.3. 缓解措施
-
2.4.3.1. 确保了解自身数据的使用方式
-
2.4.3.2. 若数据存在被用于模型训练的可能,需制定相应的保护措施与政策;必要时,应让客户或用户知晓这一点
-
2.4.3.3. 保持警惕,牢记并善用自身的法律权利
2.5. 恶意行为者
-
2.5.1. “多轮越狱”,通过长篇幅的类苏格拉底式对话,试图诱导模型生成有害内容
-
2.5.2. “少轮越狱”,方式更直接,但成功率通常较低
-
2.5.3. 黑客发现,随着人工智能模型的“上下文窗口”(即模型用于处理长篇对话的存储空间)日益扩大,若持续向模型发送恶意提示词,模型会重新调整语境,进而回答那些预训练中被设定为拒绝回应的问题
-
2.5.4. 缓解措施
-
2.5.4.1. 对于人工智能开发者而言,需警惕并创造性地应对新型模型破解技术
-
2.5.4.2. 对于企业而言,应制定明确政策,规范员工使用模型的方式
2.5.4.2.1. 可以要求人工智能提供商在发现可疑提示词时向你发出警报
- 2.5.4.3. 对于企业领导者而言,要记住世上存在恶意行为者,他们有极强的动机将这些新技术用于不法目的
2.5.4.3.1. 必须对此始终保持警惕,并确保企业投入适当资源来应对这种新型风险
2.6. 采用最佳实践的风险管理方法,预判潜在问题,识别并将其归类为相应风险,确保制定有效的缓解措施
3. 伦理
3.1. 自主决策
- 3.1.1. 自主决策带来的伦理风险在哲学经典的“电车难题”中体现得淋漓尽致—这个哲学难题在无人驾驶时代被赋予了新的现实意义
3.2. 就业替代
-
3.2.1. 是人工智能为你服务,还是你为人工智能服务?
-
3.2.2. 人工智能很可能也会对人类产生类似的影响,只是在不同时期影响不同领域的工作
-
3.2.3. 企业既要对股东负责,也要对更广泛的社会群体负责
-
3.2.4. 应当为被替代的员工制订再培训计划,并在重大就业变动中为员工提供适当支持
3.3. 知识产权
- 3.3.1. 人工智能生成内容的知识产权归属也是一个热点问题,不同国家的判决结果各异
3.4. 黑箱问题
- 3.4.1. 大语言模型的一个特点是其“黑箱”特性—要对其如何生成特定输出给出详细的、基于数据的逐步解释极其困难,有时甚至不可能
3.5. 公平获取
-
3.5.1. 不应只有高薪的数据科学家才有机会接受人工智能模型使用方面的技能培训
-
3.5.2. 如果人工智能能帮助一线员工,就应确保他们能公平获取这一工具
-
3.5.3. 既能减少人工智能的使用障碍,也能帮他们掌握面向未来的新技能
4. 可持续性
4.1. 能源消耗
-
4.1.1. 人工智能模型是能源密集型技术
-
4.1.2. 训练一个人工智能模型的碳排放可能超过280吨二氧化碳当量
-
4.1.2.1. 比一辆汽车的终身排放量还要多五倍
-
4.1.3. 即便是一次简单的ChatGPT查询,消耗的能源也足以烧开一壶水,是普通互联网搜索能耗的五倍
-
4.1.4. 要充分理解人工智能的能源需求并将其纳入整体能源规划,仍有大量工作要做
-
4.1.5. 核能正被提议作为数据中心可持续能源的潜在解决方案
4.2. 电子废弃物
-
4.2.1. 图形处理器、芯片及专用人工智能硬件,都属于潜在的敏感性危险废弃物
-
4.2.2. 若处置不当,它们可能成为有害污染物
-
4.2.3. 在签订任何供应链合同前,务必将合规且环保的电子废弃物处置计划纳入其中,确保组织采用负责任的废弃物处理方式
4.3. 自然资源
-
4.3.1. 人工智能硬件(尤其是芯片)的生产依赖多种稀有金属,而这些材料的开采与提炼过程往往能耗高、污染重
-
4.3.2. 对这类硬件的需求激增,不仅会加剧自然资源的消耗,而且会对行业本身的可持续发展构成切实威胁
