金融行业对风险管理和安全性有很高的要求,在应用人工智能技术时,大模型具有更复杂的结构和更多的参数,因此可解释性也比较差,如何解决大模型的安全性和可解释性,以防范模型和算法风险。
安全性可能还有点办法,可解释性个人认为是很困难的。
这一轮的AI技术发展都是基于神经网络架构,数学理论上算是统计学,在计算机行业的共识是没搞明白AI是如何得出结论的,从AlphaGo到LLM,人类不知道AI是怎么令人惊艳地完成各种任务,中间的细节不清楚,这也是AI威胁论的一个支撑。
大模型是大力出奇迹,相比AlphaGO时期,参数量扩展了好些个数量级,在参数量和复杂度相对低的AlphaGO时代,可解释性都没能攻克,到眼下的大模型时代,只会更难。
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30