从ChatGPT到Sora 大模型安全“路在何方”?

发布时间:2024-11-26 05:59:23 来源: sp20241126

   中新网 上海2月28日电 (记者 郑莹莹)从ChatGPT到Sora,新一代人工智能在收获大量关注的同时,也引发安全担忧。28日在沪举办的2024上海网络安全产业创新大会上,业界人士围绕大模型安全话题展开探讨。

2月28日,2024上海网络安全产业创新大会在沪举行。圆桌论坛上,业界人士围绕大模型安全话题展开探讨。 中新网 记者 郑莹莹 摄

  “大模型是一把‘双刃剑’,它既能帮助行业解决很多问题,又会引起很多问题。”中国信通院华东分院院长廖运发说。

  他表示,现在人工智能发展非常火爆,尤其是大模型,从ChatGPT到Sora都引起了大家的关注,该院一方面助力上海打造大模型产业生态,另一方面也关注人工智能引起的一些安全担忧,在基础设施、数据隐私、内容安全等方面与业界携手探索。

  上海交通大学网络空间安全学院副院长王士林认为,可以从两个角度看待人工智能与安全的关系。其一,可以用大模型技术来解决行业一些安全问题,包括内容安全等。随着大模型能力的提升,相关领域的AI赋能水平也会随之提升。其二,新的大模型本身会造成新的威胁,比如生成式AI生成人脸图像,可能造成社会问题。因此,相关部门需要研究如何进行相应的监管。

  商汤科技信息安全委员会负责人吴友胜从一名信息安全从业者的角度分享了他看到的行业变化。据他介绍,一方面,大模型的引入让业界可以更自动化地去处理一些流程化的工作,规避一些低级错误,减少相关领域的安全风险。行业出现了AI赋能安全方面的一些好产品,这些产品涉及威胁的预测、漏洞的管理等等。

  另一方面,他指出,在AI赋能安全这个方向上,路程还很遥远。这一领域既需要提升数据的规模与质量、提升算力水平,也需要既懂AI又懂安全的专业人才。吴友胜认为,在AI安全方面,风险与挑战并存,业界需要在重视利用技术的同时,从监管层面更好地确保“利剑”为行业赋能,而非给行业带来灾难。

  翼方健数技术总监孙维东说,企业在试图用大模型赋能自身发展的过程中,首先关注安全问题,因为很多商业机密和敏感数据是需要由大模型进行处理的;不同行业对安全的需求也存在比较大的差异。他表示,业界还在等待大模型生态稳定下来,等待更多安全技术涌现。(完)

【编辑:钱姣姣】