收藏中国人民公安大学出版社 社长致辞 | 出版社简介 | 帮助中心 
      高级搜索
访问群众出版社

人工智能犯罪的样态解构与治理应对——以欧洲警察署报告为中心展开 Projecting AI Crime: A Review of Future Threats and Solutions

中国人民公安大学出版社  2024/1/24 9:46:03
浏览次数:733  

  文/王彩玉 赵贺军

  当前,ChatGPT已成为人工智能无限潜力的象征——变革生产方式、优化生产决策、重新定义人机协作界限。这种影响作用于犯罪,催生了网络犯罪变异升级。与传统犯罪不同,网络犯罪具有高度可复制性。一旦开发,网络技术可共享、复制、出售甚至外包,实现犯罪技术市场化或提供“犯罪即服务”。从犯罪工具到犯罪目标等要素,类ChatGPT人工智能对网络犯罪的影响是全链条、全领域的,值得加强研究、积极应对。欧洲警察署创新实验室组织欧洲技术与安全专家开展研讨,发布《ChatGPT:大型语言模型对执法的影响》,初探网络犯罪者滥用ChatGPT的可能性,并为执法部门提出简要建议。本文以欧洲警察署报告为中心展开,结合犯罪经济学理论与人工智能犯罪及治理最新动态进行研讨。

  一、ChatGPT本质解析与安全保护

  作为基于GPT-3、GPT-3.5、GPT-4等大型语言模型的应用,ChatGPT本质上是一种自回归语言模型,借助深度学习和神经网络,理解输入与输出之间关联,生成符合上下文语义的合理响应。鉴于ChatGPT可访问海量信息、响应用户提示生成各种答案,开发者引入一系列安全功能,防止用户恶意利用。审查端点用于内容过滤、安全检查以及监控防范不当行为,可评估输入是否包含色情、仇恨、暴力等内容以及模型是否被用于实施欺诈、政治竞选或游说、具有高人身伤害风险的活动(如开发武器、运营管理关键基础设施、宣扬自残行为)、具有高经济损失风险的活动(如传销、赌博)等《使用政策》(Usage policies)中禁止的行为。然而,欧洲警察署指出,研究人员和犯罪者可通过要求ChatGPT以代码形式给出答案、替换提示词并更改背景、创建虚构案例等变通方案规避ChatGPT创建者设置的安全和审查功能。目前最为强大的变通方案是越狱指令集,可引导模型响应任何提示。

  二、ChatGPT犯罪样态

  人工智能时代的到来再次给网络犯罪提供代际跃升机会。“犯罪即服务”是一种网络犯罪模式,指在网络犯罪生态中技术人员利用互联网和数字技术,向其他网络犯罪分子提供犯罪工具、资源和服务的行为。英国计算机科学家考德威尔指出,“人工智能可被用作犯罪工具,利用其能力促进针对现实世界目标的行动,如预测个人或机构的行为、发现并利用漏洞;生成用于勒索或玷污声誉的虚假内容;执行人类犯罪者无法或不愿自己完成的活动等。人工智能系统也可成为犯罪活动目标,规避对犯罪构成障碍的保护系统;逃避对已犯罪行的侦查或起诉;使受信任系统或关键系统出现故障,制造破坏或损害公众信任。”

  (一)ChatGPT作为犯罪工具
  犯罪经济学家加里·贝克认为,犯罪行为是一种理性选择,犯罪者会衡量行为带来的成本与效益。生成式人工智能所具备的自适应性和学习能力,使攻击者能以更低成本实施更复杂的犯罪行为,智能化、自动化也放大了犯罪威胁与收益。
  欧洲警察署指出,ChatGPT擅长为用户提供随时可用的信息,以响应各种提示。若潜在犯罪者对特定犯罪领域一无所知,ChatGPT可通过提供关键信息,推动犯罪预备提速升级。换言之,ChatGPT可在潜在犯罪者先验知识匮乏的情况下协助了解恐怖主义、网络犯罪、儿童性虐待等诸多犯罪领域。诚然,相关信息可在网上查询获取,但潜在犯罪者借助ChatGPT可更容易地了解并实施特定犯罪活动。
  1.社会工程——网络诈骗、网络钓鱼的终点在何方?
  社会工程是一种利用心理学和人类行为特征,获取敏感信息、操纵目标心理的技术,攻击者通过多种方式引导受攻击者思维向攻击者期望的方向发展。社会工程利用的是人性弱点,而人性是永恒存在的,这使其成为长久有效的攻击方式。犯罪经济学强调犯罪活动与供求关系之间的联系,ChatGPT根据上下文响应信息并可选用特定写作风格的特点,可帮助犯罪者更巧妙地操纵受害者心理,提升网络诈骗、网络钓鱼等基于社会工程原理的犯罪活动的成功率、利润率。
  欧洲警察署指出,一直以来,犯罪者需自行创建诈骗方案,在批量生产情况下,目标受众通常能根据明显拼写错误、不准确内容识别骗局。然而,ChatGPT可根据用户提示起草高度真实文本,轻松调整钓鱼邮件的行文背景,涵盖投资诈骗、商务电邮诈骗、冒充老板诈骗等诸多形式。此外,犯罪者可利用ChatGPT营造虚假社交媒体参与情况,为各类网络骗局披上合理合法的外衣。
  荷兰格罗宁根大学研究者发现,使用人工智能技术开发社交机器人可帮助犯罪者欺骗、操纵受害者。社交机器人本质上是通过生成内容与互联网用户交互、模拟人类行为的算法,向受害者发送链接请求,为控制受害者计算机创造机会。
  2.虚假信息——大规模渗透与深度伪造的完美帮凶?
  欧洲警察署指出,ChatGPT具备高效、规模化生产看似真实可信文本的能力,这使其成为宣传渗透、虚假信息的理想选择——允许用户以较少努力生成传播反映特定叙事的消息。ChatGPT可用于代表特定参与者开展网络宣传,宣扬捍卫某些已被揭示为虚假信息的观点。此外,犯罪者可利用ChatGPT搜集更多可能促进恐怖活动的信息,例如恐怖主义融资或匿名文件共享。
  欧洲警察署强调,虽然ChatGPT拒绝为其认为明显具有恶意的提示提供答案,但犯罪者可采取相应措施规避限制。类ChatGPT应用不仅会促进虚假信息、仇恨言论、恐怖主义内容传播,还会导致公众产生错误信任度,机器生成内容相较于人类撰写的内容可能具有更高的客观性。
  ChatGPT可为虚假或误导性信息传播提供便利,即使没有“误用”,因为ChatGPT一个已知缺陷,即为编造虚假信息,包括可能对个人造成诽谤的信息。2023年4月,乔治华盛顿大学教授乔纳森发表《被ChatGPT诽谤:我自己对人工智能的奇异体验》,讲述被ChatGPT诬陷实施性骚扰的经历,“为何人工智能会编造虚假新闻并发布虚假声明?可能是人工智能及算法的偏见、缺陷不亚于对其进行编程的人类”。
  综上,类ChatGPT生成式人工智能生成的文本,结合用户画像、定向推送和定位,可将文本针对特定受众专门定制、满足其偏好,提高虚假信息的数量、质量和影响力,加剧“过滤气泡”和两极分化扩散。深度伪造作为虚假信息传播高级形式,借助人工智能创建的视频、图像、语音,模糊真实与虚假的界限,对社会信任带来极大挑战,同时也推动网络犯罪产业规模和复杂度进一步提升。
  2023年6月,詹妮弗在司法委员会作证讲述个人经历,她在外接到电话,听到女儿抽泣着说:“妈妈,这里有坏人,帮帮我!”一个男人接过电话说:“听着,你的女儿在我手里,你若报警,我就把她的胃装满毒品,把她送到墨西哥,你再也见不到她了!”背景音中女儿拼命恳求。绑架者勒索100万美元,詹妮弗心急如焚,最后在另一位母亲帮助下,给丈夫拨通电话,发现女儿安全躺在家里的床上。但詹妮弗遭到巨大心理创伤——“他们是如何得到她的声音的?他们是如何让她哭泣的?她的抽泣是她独有的!我们是否被网络跟踪?听到孩子带着恐惧和痛苦的恳求,知道他们受到伤害,而你无助绝望,这是每个父母最糟糕的噩梦……难道这就是我们正在创造的未来——滥用人工智能却没有后果或惩戒?”
  针对人工智能语音克隆犯罪激增现状,美国警方发布《人工智能语音克隆警报》,指出“人工智能语音克隆是一个在特定人录音的大型数据集上训练人工智能模型的过程。模型学习模仿声音、语气和语调,可生成听起来像该人的新语音”。2023年5月,迈克菲公司发布《全球人工智能网络安全报告》,指出:(1)在7000名受调查者中,十分之一表示曾收到人工智能语音克隆消息,其中77%表示因此遭受金钱损失;(2)克隆需要原件,犯罪者可轻松获取原始语音文件,53%成年人表示每周至少一次在网上或录音中分享语音数据,这些数据可能受到黑客攻击、盗窃;(3)测试发现只需三秒音频就足以生成与原始音频匹配度高达85%的克隆品,同时可轻松复制美国、英国、印度、澳大利亚等世界各地口音。
  塔伊斯·费尔南达等学者指出,要关注人工智能深度伪造“说谎者红利”,骗子利用深度伪造视频抹黑真实视频,称视频被操纵,引发公众对原视频真实性怀疑。公众越意识到可用人工智能修改视频的可能性,就越会怀疑原视频的真实性,“这种红利的流动与教育公众了解深度伪造危险性的成功程度成正比”。
  3.恶意代码——勒索软件量产,网络攻击平民化?
  犯罪经济学认为,犯罪是一种回应经济环境变化的现象,网络犯罪者也在适应不断升级的网络安全技术并寻求利用新漏洞、新弱点。ChatGPT可快速创建代码及迭代版本,规避传统安全监测,对网络安全威胁发挥“放大”作用。同时,人工智能带来的网络攻击“平民化”凸显,即使是没有技术背景的犯罪者也可通过人工智能学习攻击技巧、代码和战术,这在整体上推进犯罪资源共享、技术专长整合、攻击链条优化,带来更“高效”的网络犯罪产品和服务。
  欧洲警察署指出,在生成拟人化语言之外,ChatGPT还能产出多种不同编程语言代码。使用当前版本的ChatGPT已可为各种恶意活动创建基本工具。尽管这些工具只是基本工具,如网络钓鱼页面或恶意VBA脚本,但为网络犯罪提供开端。这种类型的自动代码生成对于那些对编码和开发知之甚少的犯罪者特别有用。至关重要的是,只有当模型意识到自身在做什么,防止ChatGPT提供潜在恶意代码的保护措施才会发挥效能;若将提示分解为单独步骤,则可轻松规避保护措施。
  欧洲警察署强调,虽然当前ChatGPT生成的网络犯罪工具仍非常简单,但鉴于技术进步,犯罪者对ChatGPT的积极利用将会带来相当严峻的犯罪形势。GPT-4模型更善于理解代码上下文背景、更正错误消息以及修复编程错误。对于技术基础匮乏的潜在犯罪者来说,GPT-4是一种宝贵的资源。同时,更高级的犯罪者可利用GPT-4的改进功能将复杂的网络犯罪手法迭代完善甚至是自动化。
  如今,利用ChatGPT生成恶意软件已不仅是理论上的可能性,绕过安全防护措施的恶意利用受到广泛关注,甚至在暗网论坛中成为热门话题。
  2023年1月,检查点研究团队(CHECK POINT RESEARCH)发布研究博客《OPWNAI:网络犯罪者开始使用CHATGPT》,分析了主要暗网黑客社区内容,列举2022年12月犯罪者使用ChatGPT创建信息窃取程序、加密工具、勒索软件、暗网市场脚本等恶意工具的真实示例,如一名黑客展示利用ChatGPT创建代码,实现通过第三方API获取门罗币、比特币等最新加密货币价格,可成为暗网市场支付系统的组成部分。
  4.开发者的阴暗面——秘密数据爬取与大规模隐私侵犯?
  欧洲警察署在报告中深刻发问:大型语言模型服务未来将如何处理用户数据是存在不确定性的,对话是否会被存储?是否会将敏感个人信息泄露给未经授权的第三方?如今,现实执法司法案例已给出初步回答。
  2023年6月,美国的ChatGPT集体诉讼从利益、风险等角度揭开OpenAI公司的阴暗面——诉讼书指出,OpenAI公司“将短期财务利益置于人类利益之上……在秘密的情况下对互联网进行大规模爬取,侵犯个人财产权和隐私权。这些爬取行为没有得到用户个人同意,也没有遵守网站使用条款以及加利福尼亚和其他州和联邦的法律。爬取的个人信息被用于构建人工智能产品,并通过商业模式出售访问权限,从中谋取经济利益”。理性选择理论(Rational Choice Theory)认为,犯罪行为是个体基于风险和收益的理性决策。将OpenAI公司定位为“微软的数据搜集公司,向微软提供数百万个人的ChatGPT用户和非用户数据……产品在利用被盗数据进行培训的基础上,才达到今天的复杂程度”,ChatGPT在一定意义上可能构成非法数据爬取与盗窃的犯罪工具。
  2023年6月,“OpenAI公司集体诉讼第一案”在美国加州北部地区巡回法院发起,指控OpenAI公司和微软公司“在开发、营销和运营人工智能产品时,非法收集、使用和分享数以亿计的互联网用户的个人信息,包括儿童信息,侵犯原告的财产权、隐私权和其他法律权利,并给社会带来潜在的灾难性风险”,违反《电子通信隐私法》《计算机欺诈和滥用法》《加利福尼亚侵犯隐私法》《加利福尼亚不正当竞争法》《伊利诺伊州生物识别信息隐私法》《伊利诺伊州消费者欺诈和欺骗性商业行为法》等法律法规。起诉书指出,被告在超出合理授权范围下从ChatGPT用户和集成ChatGPT插件的平台中非法收集并利用来自全球数百万消费者的个人数据,包括:(1)用户在产品中输入的所有内容;(2)用户注册时输入的账号信息;(3)名称;(4)联系方式;(5)登录凭证;(6)电子邮件;(7)付费用户的支付信息;(8)交易记录;(9)从用户设备和浏览器中提取的识别数据,如互联网协议地址和位置,包括用户的地理位置;(10)社交媒体信息;(11)聊天日志数据;(12)使用资料;(13)分析;(14)缓存数据;(15)点击数据;(16)输入搜索数据以及其他在线活动数据等,以继续开发训练大型语言模型和深度语言算法。起诉书强调,“作为对大规模隐私侵犯的加剧,OpenAI公司未提供有效程序供个人请求删除个人信息或训练数据。相反,OpenAI公司只提供一个电子邮箱地址,消费者可通过邮箱联系删除。但这个选项是虚假的——无论个人是否在技术上可以请求ChatGPT删除数据,彻底删除是不可能的。因为ChatGPT是基于个人输入数据、个人信息、其他用户数据和非用户数据进行训练的,这些数据无法彻底从人工智能系统中提取出来,正如一个人无法忘记在六年级学过的数学”。此外,以喜剧演员莎拉·西尔弗曼为代表的文艺创作者也发起诉讼,指控OpenAI公司和Meta公司使用非法的“影子图书馆”(Shadow Libraries)训练模型。
  在执法方面,自2023年3月意大利个人数据保护局以“非法收集用户个人数据,且没有设置年龄验证系统防止未成年人接触违法有害信息”为由率先对ChatGPT采取临时封锁以来,加拿大、法国、英国、西班牙数据保护监管机构陆续对ChatGPT发起调查。在美国,ChatGPT收到的第一份调查命令来自联邦贸易委员会。2023年7月,联邦贸易委员会对ChatGPT背后的OpenAI公司就是否使用了“不公平或欺骗性的隐私或数据安全措施”或“可能对消费者带来潜在伤害(包括声誉伤害)的不公平或欺骗性做法”签发民事调查令(Civil Injunction Demand,CID)。在这份长达20页的文件中,联邦贸易委员会向OpenAI公司提出49个详细问题,并要求提供17类文件以供调查,重点问题有:(1)描述模型开发和使用过程中的数据情况,包括数据获取方式、数据来源、训练数据中各种语言的占比等;(2)描述公司对数据泄露安全风险的考量,包括受攻击系统、受影响的用户数量、攻击检测、攻击来源等;(3)描述产品对不同类型个人信息的收集、使用及存储方式,包括数据来源、存储位置与默认存储时间、用户选择不留存数据后的存储时间、用户请求删除数据后的存储时间。

  (二)ChatGPT作为“犯罪目标”
  在犯罪经济学视角下,ChatGPT模型和数据由于自身吸引力和价值,可能成为潜在“犯罪目标”——遭受完整性攻击、成员推理攻击,抑或是账户信息泄露。这些风险使得保护ChatGPT模型和数据安全变得至关重要。
  1.数据中毒——误导模型结果的险恶手段?
  数据中毒作为对抗性攻击的一种策略,也属于完整性攻击的一部分,通过向训练数据中注入恶意信息损害人工智能模型的性能和可信度。
  2023年4月,美国桑斯(SANS)研究院发现,对抗性人工智能攻击是2023年最值得关注的新兴网络攻击技术之一。对抗性人工智能攻击本质是“欺骗机器学习模型的恶意输入”,导致系统审查的材料被错误分类。在特定情况下,攻击过于微妙,人类无法直接察觉,但其仍会导致人工智能系统犯错。对抗性人工智能攻击的一个典型例证即为“中毒攻击”,攻击者通过在训练过程中注入损坏节点影响系统训练数据的完整性,从而改变预测模型的结果。
  绿盟科技(NSFOCUS)指出,ChatGPT面临严峻的数据中毒风险:(1)在预训练阶段,ChatGPT训练数据包含网络公开数据源,若公共数据集被恶意投毒、加入噪声干扰,会导致模型生成文本错误、语义不连续等问题;(2)后门植入的投毒会导致一些字母符号触发模型作出特定行为;(3)在模型推理阶段,ChatGPT在答案生成过程中可能会使用额外数据库和数据源进行文本搜索,这也存在数据中毒的可能性;(4)若OpenAI公司未来以用户历史对话内容作为语料库更新ChatGPT,那也将成为训练数据投毒的攻击面。
  值得注意的是,在数据中毒之外,若ChatGPT依赖用户反馈进行优化,攻击者还可以利用这一点引导模型进行“负优化”。例如,在ChatGPT已经提供高质量答案情况下,攻击者还恶意作出负面评价和不当反馈,或通过对话不断批评和纠正ChatGPT答案。面对大量恶意反馈,若ChatGPT没有设置适当的安全策略,将会影响后续版本文本生成质量。
  2.成员推理攻击——身份暴露的威胁?
  在成员推理攻击中,黑客目的是发现并重建用于训练模型的样本。成员推理攻击背后的逻辑是,模型对训练数据(模型见过的)和其他数据(模型没见过的)的表现是不同的。这种性能差异可能体现在模型预测、损失值、梯度信息等方面。
  布拉格捷克理工大学研究员埃里克在《超越保障措施:探讨ChatGPT的安全风险》中指出,成员推理攻击可能导致私人和敏感数据泄露,黑客可提取ChatGPT训练数据。卡利尼等学者在2021年以“从大型语言模型中提取训练数据”为主题进行实验,成功演示对GPT-2训练数据的提取攻击,通过“询问”语言模型,恢复了包含姓名、电话号码和电子邮件地址等在内的个人身份信息训练样本,并得出“大型语言模型比小型语言模型更容易受到攻击”的结论。
  此外,有研究者发现随机面部生成器“此人不存在”(This Person Does Not Exist)算法生成的假面部与训练数据中的真实个人面部非常相似——通过成员推理攻击,可识别各不相同但具有相同身份的样本。这使得攻击者能够推断某些照片包含在训练数据集中的真实个人面部,从而造成隐私安全风险。例如,若对医疗数据模型发起成员推理攻击,攻击者可将某种疾病与现有人员联系起来。攻击对象不仅限于使用生物特征数据集(面部图像、录音、步态检测)的模型,还可能包括基于遗传数据等高度敏感信息的模型。
  3.信息窃取——ChatGPT账户凭据流入暗网,敏感信息或遭泄露?
  2023年以来,全球网络安全威胁情报平台Group-IB已识别13426台保存ChatGPT登录凭据的信息窃取感染设备。平台从过去一年在非法暗网市场交易的信息窃取恶意软件日志中发现了这些被盗的ChatGPT登录凭据。信息窃取恶意软件从安装在受感染计算机上的浏览器中收集保存在浏览器中的登录凭据、银行卡信息、加密钱包信息、缓存数据、浏览记录和其他数据,然后将其发送给恶意软件运营者。亚太地区是过去一年中被信息窃取恶意软件盗取的ChatGPT登录凭据数量最多的地区。2022年6月至2023年5月,全球保存ChatGPT登录凭据的信息窃取感染设备最集中的地区包括:(1)亚太地区40999个;(2)中东和非洲24925个;(3)欧洲16951个。ChatGPT登录凭据被盗数量最多的国家包括:(1)印度12632个;(2)巴基斯坦9217个;(3)巴西6531个。当前诸多企业正将ChatGPT集成到运营流程中,鉴于ChatGPT标准配置是保留所有对话,若犯罪者获得账户的登录凭据,可能在无意中获取大量敏感情报。

  三、ChatGPT发展趋势

  人工智能技术的发展源于工业社会、承传信息社会,正迈向智能社会。生成式人工智能,尤其是以ChatGPT为代表的大型语言模型,致力于深度优化语言和对话交互,实现更加自然流畅的人机交流;个性化智能服务成为发展重点,为用户提供定制化体验;跨领域融合创新不断加速,推动工业生产、医疗保健、智慧警务等落地。然而,惊喜与挑战并存——ChatGPT滥用可能形成庞大黑市和犯罪产业链,促进基于模型与数据的黑市交易、工具供应,智能犯罪服务专业化加剧,各类犯罪者之间的交流协作将愈发频繁,形成更大规模的犯罪网络。
  欧洲警察署指出,ChatGPT带来的最大影响之一是“探索性交流”,即通过简单提问,快速收集几乎无限主题的关键信息。无须在搜索引擎上手动搜索、梳理总结大量信息,就能迅速深入了解某一特定主题的能力,可显著加快学习过程,从而比以前更快地进入新领域。鉴于ChatGPT对犯罪的影响已然显现,必须要考虑技术发展的前景问题。在ChatGPT引发互联网轰动后不久,微软于2023年1月宣布向ChatGPT投资100亿美元。不久之后,微软首次尝试将ChatGPT集成到必应等应用中。与此同时,谷歌等竞争对手也纷纷发布各自实验性对话式人工智能服务。ChatGPT等大型语言模型是生成式人工智能的重要代表。这就产生一系列问题:在大型科技公司支持下,ChatGPT等大型语言模型将会变得多强大?私营领域如何解决大型语言模型的犯罪滥用问题?
  欧洲警察署预测,人工智能犯罪将趋向真实化、复杂化,且更难与人类作品区分。人工智能生成文本检测研究正在推进,将来可能在该领域发挥重要作用,但目前检测工具准确性较低。同时,大型语言模型的普遍开发利用会带来更多安全挑战,其他人工智能服务的融合发展会开辟全新的应用维度。多模式人工智能系统即为典型例证,这种系统可将会话聊天机器人与可生成合成媒体的系统相结合,进行令人信服的深度造假,也可将视觉和听觉等感官能力纳入系统之中。此外,托管在暗网上、无安全过滤措施的“黑暗大模型”(Dark LLMs)以及针对特定有害数据进行训练的大型语言模型都会出现。
  如今,欧洲警察署针对ChatGPT的犯罪预测不仅走向现实,更得到印证。生成式人工智能这一突破性技术的深远影响在于其不仅是对拟人化文本的简单分析与生成,还对社会动态和心理因素进行更为深入的挖掘与理解,形成犯罪、人性和技术的复杂融合。
  2023年7月,一种名为“蠕虫GPT”(WormGPT)的新型网络犯罪工具在暗网掀起热潮。蠕虫GPT基于开源GPT语言模型构建,与OpenAI公司的ChatGPT、谷歌公司的巴德(Bard)等相比,没有任何安全过滤措施、道德参数阻止模型响应具有恶意意图的请求,专为恶意网络活动设计。蠕虫GPT针对来自合法网站、暗网论坛、黑客手册、恶意软件样本、网络钓鱼模板等各种来源的数十亿个单词进行训练,可基于数据爬取、社会工程等技术为恶意网络活动生成具有连贯性、针对性的内容,使用蠕虫、特洛伊木马、勒索软件、间谍软件或键盘记录程序感染用户设备,入侵多个网站并注入恶意软件代码等。目前,蠕虫GPT只能通过暗网访问,使用比特币、以太币等加密货币进行支付订阅。

  四、ChatGPT治理路径

  ChatGPT安全治理的本质在于全面应对犯罪、伦理、社会和技术等方面挑战——在理解犯罪动机和机制基础之上,降低滥用或针对ChatGPT进行犯罪的机会成本,在模型开发、应用和运行“全生命周期”上加强前置化监管与预防性治理,同时关注经济后果、提高犯罪风险成本,促进类ChatGPT生成式人工智能安全、可信与负责任地发展。
  欧洲警察署针对ChatGPT安全治理提出以下建议:(1)鉴于恶意利用大型语言模型可能造成的潜在危害,要深化问题意识,尽快发现处理潜在安全漏洞;(2)大型语言模型具有可见的实际影响,执法机关要了解所有可能受影响的犯罪领域,更好地预测、防范、侦查不同类型的犯罪滥用;(3)鉴于技术行业在这一领域进行大量投资,执法机关应与利益相关者加强沟通,确保安全机制成为关键考量因素并不断改进优化。
  放眼全球,人工智能安全治理进程明显提速,国际组织、主要国家和地区都在追赶以ChatGPT为代表的生成式人工智能的演化速度。2023年6月,七国集团(G7)数据保护和隐私机构发布《生成式人工智能联合声明》,呼吁人工智能开发商和提供商采取安全保障措施防范成员推理攻击等网络威胁和攻击,厘清人工智能供应链各参与者之间责任边界,将个人数据收集限定在必要范围内。7月,联合国安理会召开首次人工智能专题会议,强调人工智能对全球和平与安全带来的潜在风险,提出建立多利益相关方人工智能高级别咨询委员会。11月,全球首份人工智能国际性声明《布莱切利宣言》在英国签署,强调人工智能应当以安全、以人为中心、值得信赖和负责任的方式设计、开发、部署和使用,将人工智能全生命周期安全纳入考量,前沿人工智能技术开发者对系统安全负有重大责任。
  值得关注的是,欧洲议会高票通过《关于制定〈人工智能法案〉和修订某些欧盟立法的提案的修正案》,新增针对基础模型提供者的合规义务要求,包括:(1)风险控制,通过适当的设计、测试和分析,在开发之前和整个开发过程中,以适当的方法,识别并减少对安全造成的合理可预见的风险;(2)数据治理,只处理和纳入经过适当数据治理措施的数据集,特别是审查数据来源的适当性;(3)安全评估,在开发和设计过程中通过适当方法进行评估,保障基础模型在整个生命周期内达到适当的可预测性、可解释性、可纠正性、安全性水平;(4)登记备案,在模型投放市场前,在欧盟数据库中进行登记备案;(5)透明度要求,基于此类模型的生成式人工智能系统必须披露哪些内容是人工智能生成的,以便帮助区分所谓的深度造假图像和真实图像,并确保防止生成非法内容。
  ChatGPT安全治理将是一个不断学习、完善的过程,随着技术进步和应用场景不断扩展,治理需要持续跟进并适应新挑战、新威胁。但前行万里,不忘初心、防范化解犯罪风险、保障数据与系统安全只是治理过程,其最终目的仍要回归人的层面,提升人的安全素养,引导技术向善,促进产业良性发展。■
  
  (基金支持:公安部第三研究所2023年度基本科研业务费专项青年基金项目C23252的阶段性研究成果)
  【作者简介】王彩玉,公安部第三研究所网络安全法律工程师,主要研究网络安全、网络犯罪防治立法;赵贺军,中国人民公安大学信息网络安全学院警务硕士、陕西省公安厅网络安全保卫总队民警,研究方向为网络安全等级保护、网络安全防范管理。
  (责任编辑:冯苗苗)
  
  

  
  





编辑:现代世界警察----石虹   

    站内搜索

关键字
方 式

Copyright 2007 © 中国人民公安大学出版社™ All Rights Reserved
地址:北京市西城区木樨地南里甲一号  邮编:100038    出版社位置地图
出版社电话:010-83905589  010-83903250(兼传真)  购书咨询:010-83901775  010-83903257
E-mail:zbs@cppsup.com   zbs@cppsu.edu.cn
互联网地址:www.cppsup.com.cn  www.phcppsu.com.cn