确保网络数据安全应对新一代人工智能治理挑战

ChatGPT 的爆火在全球社会引发了一场研发大规模语言模型的热潮。以生成式人工智能为代表的新一代人工智能不仅革命性地改变了人机交互的形式,提升了人机交互的体验效果,还对人工智能产业产生了深刻影响,加速了人工智能大模型技术的发展与进步,带来了全新的发展机遇。同时,该技术的快速发展也带来了一系列新问题与挑战,包括数据安全、内容安全、社会安全甚至国家安全。基于此,各国纷纷开始推进生成式人工智能的治理进程。鉴于数据是人工智能发展的关键基础,数据安全又是人工智能内生安全的重要组成部分,确保网络数据安全是应对新一代人工智能治理挑战的关键。第二十届中央国家安全委员会第一次会议也着重强调要提升网络数据人工智能安全治理水平,确保以新安全格局保障人工智能创新与应用带来的新发展格局。

创新互联是专业的仁寿网站建设公司,仁寿接单;提供成都做网站、网站建设,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行仁寿网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!

一、生成式人工智能安全问题亟待予以高度重视

随着大模型技术水平不断提高以及大模型用户数量日益增多,其安全性问题也变得越来越严重。尽管与所有人工智能模型一样,生成式人工智能模型也会犯错误,但是这些错误回答往往具有欺骗性的说服力,生动且真实,并且具有拟人化的特点。例如,当使用者要求其援引某篇名著中的内容时,ChatGPT 可能会给一个有理有据,但实际上并不属于该书内容的答案。因此,随着生成式人工智能技术的持续更新与完善,人类可能会越来越难以识别由大模型生成的具有误导性的文本、图像以及视频等虚假内容的传播。

由于大模型具备很强的数据记忆能力,即便用户没有直接输入关键信息,大模型仍然可以通过算法抽取出重要数据,从而造成个人隐私信息外泄、敏感数据外流等隐患。例如,当员工将公司信息以提问的方式输入 ChatGPT 后(如使用 ChatGPT 将会议录屏内容整理成为文字),可能会导致相关内容进入其学习数据库,从而造成数据泄露的风险。美国数据分析服务商 Cyberhaven 在其官网上披露了关于公司员工使用 ChatGPT 会给公司造成何种安全性风险的研究结果。该厂商分析自 ChatGPT 公开推出以来使用其产品的各行业公司共计 160 万名员工使用 ChatGPT 的情况并发现,截至 2023 年 6 月 1 日,10.8% 的员工在工作场所使用过 ChatGPT,8.6% 的员工自 ChatGPT 推出以来将公司数据粘贴到其中,至少有 4.7% 的员工将敏感数据粘贴到 ChatGPT 中。此外,分析结果还显示,员工输入 ChatGPT 内容的 11% 为敏感数据。

美国加州大学洛杉矶分校教授约翰·维拉塞纳(John Villasenor)于 2023 年 5 月 8 日在美国智库布鲁金斯学会(Brookings Institution)官网发布了对 ChatGPT 的政治态度进行分析的结果。该研究通过询问 ChatGPT 一系列关于政治和社会的问题,让 ChatGPT 仅使用“支持”或“不支持”进行回答。这一研究发现,ChatGPT 是存在政治偏见的,其回答通常具有明显的“左倾”特征。由此可见,ChatGPT 等大模型势必会受到其所处国家的文化背景、政治环境等价值观的影响,而这些伦理道德观念不仅呈现多元化的特点,其是否符合产品使用者所在地的基本价值观和原则也仍未可知。因此,大模型的输出内容所体现的意识形态和价值观可能会产生认知安全问题,甚至对下一代教育、社会公平与国家安全产生影响。

基于此,全球各国和地区普遍高度重视研究与规制生成式人工智能带来的安全性问题,并对生成式人工智能带来的风险与挑战进行系统分析。例如,新加坡信息通信媒体发展局于2023年6月发布的《生成式人工智能:对信任和治理的影响》,将生成式人工智能存在的安全问题主要概括为涵盖错误和幻象、隐私和机密性、虚假信息有害性和网络威胁、版权挑战、嵌入式偏见,以及价值观和结盟六大方面。

二、以网络数据安全为切入点推进人工智能治理进程

虽然发展与应用生成式人工智能带来的风险涉及伦理道德、安全合规等多个方面,但是由于数据是人工智能发展与进步的重要因素,因此,在应对这些问题与挑战时往往也都离不开数据这一关键要素。例如,为规避伦理道德风险,在利用数据对模型进行训练时,应确保其与普世价值观的一致性,而由于价值观会随着时代的变革而变化,因此,需要增强数据集的时效性。对此,可以采用检索增强的方式提高数据的实时性和真实性,从而确保生成式人工智能系统可以随之不断变化和改进。并且,由于大模型的发展与进步依赖海量数据,因此,数据集的规模、均衡程度以及标注的准确性都会影响其算法的执行效果。低质量的数据集可能会在算法执行任务指令时产生不安全的结果,例如生成涵盖错误信息、偏见观点以及具有诱导倾向的内容。

确保数据安全是全球社会推进生成式人工智能安全和可信发展的普遍切入点和重点关切。意大利个人数据保护局此前曾以侵犯数据隐私为由将 ChatGPT 封禁了近一个月,成为首个封禁 ChatGPT 的国家。该国当局还表示,只有在公开 ChatGPT 的数据处理逻辑且解决一系列数据安全担忧后才可以重新在该国上线。德国和爱尔兰等国也紧随其后表示,将会重点关注大模型应用带来的数据安全问题。此外,根据美国云计算服务软件提供商 Salesforce 在 2023年 3 月对 500 多名 IT 行业领导者进行的一项调查显示,安全性是受访者最关心的关于 ChatGPT 等大模型的问题,71% 的受访者认为生成式人工智能会给企业的数据安全带来新的风险。为了防止敏感数据外流,微软、亚马逊等科技公司已相继限制或禁止其员工使用生成式人工智能工具。

我国一直高度重视网络与数据领域的法治建设,近两年陆续出台了《中华人民共和国数据安全法》《网络数据安全管理条例(征求意见稿)》等一系列关于数据安全的法律法规、部门规章、团体标准和指引。为应对生成式人工智能给数据安全带来的新挑战,国家互联网信息办公室于 2023 年 4 月初起草并发布了《生成式人工智能服务管理办法(征求意见稿)》。该办法是全球范围针对生成式人工智能的首个管理规定。征求意见稿不仅指出了生成式人工智能的定义,强调在提供生成式人工智能产品或服务时应当遵守法律法规的要求、尊重社会公德、公序良俗且符合社会主义核心价值观,且需提前向国家网信部门进行安全评估申报。该办法还明确了生成式人工智能产品或服务的提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责;在设计算法和训练数据集时应采取措施防止歧视;对用户的输入信息和使用记录承担保护义务;以及应指导用户合乎法律法规与公序良俗地使用其产品。

三、在构建数据安全“监管护栏”的基础上推进全球共识

鉴于生成式人工智能发展速度和颠覆性潜力,以及其在伦理道德、安全等方面存在的广泛风险与挑战,除了我国率先发布了旨在专门规制生成式人工智能的管理办法外,相关国家和地区政府已将生成式人工智能的治理与规制问题列为优先事项。在数据保护方面,英国信息专员办公室已向科技公司发出警告,提醒他们在开发和部署生成式人工智能模型时要注重保护个人信息。日本个人信息保护委员会也于今年 6 月初发布公告,称 ChatGPT 在未事先取得使用者的同意前,不能获取使用者的个人敏感信息。

在立法规制方面,在欧洲议会于 6 月 14 日正式表决通过的《人工智能法案》授权草案中已涵盖专门针对 ChatGPT 等生成式人工智能工具的规制内容,增加了更多提升其安全性的措施,例如要求生成式人工智能的开发人员在其产品进行商业发布之前提交他们的系统以供审查。该法案还对生成式人工智能提出了新的透明度要求,包括披露内容是由人工智能生成的,帮助区分深度造假和真实图像;应确保设计模型时防止其生成非法内容;并且还须公开用于培训的受版权保护的详细数据摘要。此外,在该法案正式被批准前,根据《人工智能法案》草案对人工智能进行的风险等级分类(不可接受的风险、高风险、有限风险及最低风险),曾有欧盟议员提议,应考虑将任何未经过人类审核的、生成的内容可能对人类造成误导的生成式人工智能应用,以及任何非艺术作品且经深度合成的图片、声音和视频都应该被列入高风险类别,以便接受法律法规的监管与约束。正式通过的授权草案内容显示,对人们的健康、安全、基本权利或环境产生负面影响的人工智能系统,会被视为高风险。虽然影响选民与选举结果的人工智能系统和社交媒体平台的推荐系统已被纳入高风险范畴,也提及用于教育和职业培训的人工智能系统属于高风险类别,但是,该法案尚未明确将生成式人工智能纳入高风险列表之中。

今年 4 月,美国国家电信和信息管理局也就监管生成式人工智能发布了《人工智能问责政策征求意见》,旨在了解哪些政策可以支持人工智能审计、评估、认证和其他机制的发展,从而确保人工智能系统合乎道德和安全,并增加对人工智能系统的信任。尽管中美两国在贸易和技术问题上存在竞争与分歧,但是,毫无疑问的是,两国对生成式人工智能的滥用和误用等问题存在共同担忧,并已意识到亟需出台具体举措进行问责与规制。

事实上,生成式人工智能带来的安全性问题是全球共同面临的关键挑战,该领域势必成为人工智能治理与监管竞赛的新角斗场。尽管各国和地区已竞相监管人工智能,努力填补法律法规的真空,但是求同存异、同向发力才是确保人工智能负责任地开发与应用的主旋律。因此,国际社会还需加强治理框架之间的互操作性,深化共同合作,从而找到适合整个社会的人工智能治理机制。包括德拉格什·图多拉凯(Dragos Tudorache)等在内的多位欧洲议会议员在四月中旬发布的《欧盟议会就非常强大的人工智能发出的行动呼吁》(A call to action on very powerful AI from the EU Parliament)联名公开信已明确表示,欧盟希望与美国在人工智能治理方面展开密切合作,同时还呼吁召开全球峰会,共同寻找规制生成式人工智能的方法,从而达成治理共识。基于此,我国在继续完善、细化针对生成式人工智能产生的个人信息安全、数据出境安全等问题的监管条例,确保治理与规制举措不会滞后于生成式人工智能的高速发展与应用的同时,也应该积极发挥大国的带头作用,加强人工智能治理政策方面的国际合作和信息交流,推进全球社会就网络数据安全和人工智能治理达成相关共识。


当前标题:确保网络数据安全应对新一代人工智能治理挑战
标题链接:http://hbruida.cn/article/soggci.html