如何解决大模型的安全性和可解释性?

金融行业对风险管理和安全性有很高的要求,在应用人工智能技术时,大模型具有更复杂的结构和更多的参数,因此可解释性也比较差,如何解决大模型的安全性和可解释性,以防范模型和算法风险。...显示全部

金融行业对风险管理和安全性有很高的要求,在应用人工智能技术时,大模型具有更复杂的结构和更多的参数,因此可解释性也比较差,如何解决大模型的安全性和可解释性,以防范模型和算法风险。

收起
参与6

查看其它 1 个回答Eric雪飞的回答

Eric雪飞Eric雪飞存储专委 副主任上海市计算机学会

安全性可能还有点办法,可解释性个人认为是很困难的。

这一轮的AI技术发展都是基于神经网络架构,数学理论上算是统计学,在计算机行业的共识是没搞明白AI是如何得出结论的,从AlphaGo到LLM,人类不知道AI是怎么令人惊艳地完成各种任务,中间的细节不清楚,这也是AI威胁论的一个支撑。

大模型是大力出奇迹,相比AlphaGO时期,参数量扩展了好些个数量级,在参数量和复杂度相对低的AlphaGO时代,可解释性都没能攻克,到眼下的大模型时代,只会更难。

IT其它 · 2023-11-10
浏览453

回答者

Eric雪飞
存储专委 副主任上海市计算机学会
擅长领域: 存储灾备分布式架构

Eric雪飞 最近回答过的问题

回答状态

  • 发布时间:2023-11-10
  • 关注会员:3 人
  • 回答浏览:453
  • X社区推广