分类:默认分类

中国科学院院士何积丰:应对大模型的安全问题 需设好“紧箍咒”

2023-09-07 17:07

    本报记者 李冰

    模型的通用能力让其能够应用到人类生产生活的各个场景中,可谓“无孔不入”。AI的发展因此带来了新的安全隐私问题,如何解决这一隐患,9月7日开幕的2023 INCLUSION·外滩大会上,中国科学院院士何积丰开出了他的“药方”:利用对齐技术为大模型戴上“紧箍儿”。

    何积丰院士认为,大模型的安全问题主要是在未经同意的情况下,收集、使用和泄露个人信息。隐私问题既可能发生在训练过程,也可能发生在使用过程中,而大模型的生成能力则让“隐私泄露”的方式变得多样化,造成隐私保护更加困难。

    “为了应对这些问题,我们需要大模型对齐技术。”何积丰说,“对齐(alignment)”是指系统的目标和人类价值观一致,使其符合设计者的利益和预期,不会产生意外的有害后果。“如果把人工智能看作西游记里的孙悟空,‘对齐’就是唐僧的紧箍咒。有了紧箍咒,就可以保证技术不会任意使用能力胡作非为。”

    不过,对齐技术同样面临挑战。首先,对齐的基础,人类的价值观是多元且动态变化的,需要保证大模型为人服务、与人为善;其次,大模型的有用性与无害性之间目标也不完全一致。如何对错误进行有效纠正,设好大模型的“紧箍咒”也是挑战。

    何积丰介绍,反馈强化学习是实现对齐的技术途径,目前有两种方式,一种方式是通过人工反馈给模型不同的奖励信号,引导模型的高质量输出;另一种方式,事先给大模型提供明确的原则,系统自动训练模型对所有生成的输出结果提供初始排序。“这意味着,不仅智能系统需要向人类价值观对齐,人类的训练方法也要向价值观对齐。”何积丰说。

(编辑 李波)

上一篇:探营2023外滩大会!这些黑科技不仅很“酷”还有“温度”!

下一篇:中国电信、蚂蚁、华为、百度、字节跳动等30余机构共同发起AI安全工作组

转载 阅读(0) | 评论(0) 关键字:

免责声明:证券日报网博客互动平台所有信息(包括但不限于文字、视频、音频、图片、数据及图表)均为网友自发上传,如发生图片等侵权行为与证券日报网无关。若发现疑似图片侵权行为可发送举报邮件至3164116989@qq.com。博主所发内容仅代表博主个人观点,不构成买卖股票依据,股市有风险,入市需谨慎。证券日报网提供博客互动平台不代表认可其观点。证券日报网博客互动平台所有博主不提供代客理财等非法业务。有私下进行收费咨询或推销其他产品服务,属于非法个人行为,与证券日报网无关,请各位网友不要上当受骗!

昵称:  登录 | 注册

减少编辑区域 增加编辑区域

验证码:  看不清,换一张  (2000字以内)