《电子技术应用》
您所在的位置:首页 > 通信与网络 > 业界动态 > 社交媒体暴恐内容的国际治理:现状及难点

社交媒体暴恐内容的国际治理:现状及难点

2021-08-06
来源: 中国信息安全

  近年来,恐怖组织和极端势力越来越多地将社交媒体作为工具,传播暴恐思想、进行招募培训、相互传递讯息、组织恐怖活动等。一些青少年因长期受网络暴恐内容毒害,导致思想极化,甚至沦为恐怖活动帮凶。各国和地区越来越认识到,社交媒体暴恐内容已经严重威胁国家安全,给国际反恐行动带来巨大挑战,必须加强治理、重拳打击。

  一、社交媒体暴恐内容国际治理的现状

  目前,国际社会在社交媒体暴恐内容治理方面没有统一和权威的国际法。欧洲委员会于 2005 年发布的《防止恐怖主义公约》(European Conventionon the Prevention of Terrorism)要求缔约国将“公开煽动恐怖主义行为”(public provocation to commita terrorist offence)定罪惩治。但是,联合国及其他多边框架下的 30 多个反恐公约,没有一项明确要求成员国打击网络暴恐内容。联合国、亚非法协等多边组织曾就网络有害内容的国际治理组织过一些讨论,但没有实质的国际立法动作。2019 年新西兰清真寺枪击案后,在新西兰总理阿德恩与法国总统马克龙共同推动下,英国、加拿大等 18 个国家的政要与脸书、微软等 8 家社交媒体平台及科技公司的代表共同签署《克赖斯特彻奇倡议》(ChristchurchCall),承诺加强协调合作,采取更有力措施及时删除社交媒体上的暴恐内容,遏制暴力极端主义的网上扩散。2021 年 5 月,阿德恩与马克龙共同主持召开《克赖斯特彻奇倡议》签署两周年峰会,特朗普时期一直拒绝加入的美国政府宣布加入倡议。至此,倡议签署国达到 60 个,企业达到 10 个,脸书、谷歌、推特、微软、亚马逊等均在其中。但总体看,参与倡议的国家和企业数量仍比较有限,倡议本身也不具法律约束力,极大制约了其在社交媒体暴恐内容治理方面的作用。

  对暴恐内容的治理现阶段仍主要依赖平台自律和各国法律的规制。美国的《通信规范法》(Communication Decency Act)第 230 节使社交媒体得以对用户发布的内容豁免民事责任,同时将网络内容的监管和处置权几乎完全交予社交媒体。社交媒体在新用户注册时,会要求用户接受统一适用的“社区守则”,绝大多数“社区守则”禁止用户在平台上散布恐怖主义或仇恨言论。平台通过网络内容审核机制,依据“社区守则”对暴恐内容采取屏蔽、删除等处理措施,甚至直接封禁发布此类内容的用户账号,以阻止其传播扩散。一些大的社交媒体也加强了在处置暴恐内容方面的合作。例如,脸书、推特、谷歌和微软于 2016 年共同发起成立“全球互联网反恐论坛”,建立了一个甄别暴恐内容的哈希共享数据库,并承诺与加入该论坛的各国企业分享该技术。加入论坛的任何一家企业如发现相关暴恐内容,首先自己会删除,然后还会将该内容的哈希值放入数据库,其他成员公司可以查看这个哈希值,从自己的平台查找和删除相同的内容,这有利于提升企业间的协作,在更广范围遏制暴恐内容的传播。

  随着社交媒体上暴恐内容的泛滥,各国也加强了打击力度。一些国家将在社交媒体传播暴恐内容的行为规定为网络犯罪。欧洲传统上将言论和表达自由作为基本人权,对网络内容的监管态度宽松,主要依靠社交媒体通过自律处理,政府很少介入。但近年来网络暴恐内容泛滥使政府的监管变得更加积极主动。例如,德国联邦议会于 2017 年 6 月通过了《改进社交网络中的法律执行的法案》(NetzDG Law),明确将建立恐怖组织、煽动族群仇恨的网络言论规定为“违法内容”,要求平台对其进行通报并及时删除,否则将追究法律责任。法国国民议会于 2020 年 5 月通过《打击网络仇恨言论法》(Online Hate SpeechLaw),将包含煽动恐怖主义行为、为恐怖主义罪辩护、鼓动仇恨的内容认定为非法,强制平台在 24 小时内删除,否则就承担法律责任。欧盟于 2021 年通过的《防止恐怖主义内容在线传播条例》(Terrorist ContentOnline:Council Agrees on Regulation)(将于 2022 年5 月生效)规定,欧盟任一成员国均有权向在欧盟境内运营的社交媒体发出指令,命令其在一小时内删除相关恐怖主义内容,或确保所有欧盟成员国无法访问该内容,否则将对其处以最高可达全年营业额 4%的罚款。英国 2019 年发布《在线危害白皮书》(OnlineHarms White Paper),提议立法强化社交媒体自我监管,以保护用户免受恐怖主义等有害内容影响。根据媒体报道,英国议会正拟定《在线危害法案》OnlineHarms Bill),预计于 2021 年内出台。

  欧洲之外的其他西方国家在这方面也有很多动作。澳大利亚政府于 2019 年通过刑法修正案,强化打击网络暴恐内容,对社交媒体克以严格的内容监管责任。新西兰、马来西亚、新加坡等国也都纷纷通过立法等手段,加强对社交媒体平台暴恐等有害内容的监管。加拿大政府正在推进打击恐怖主义等有害内容的立法。

  二、社交媒体暴恐内容国际治理的难点

  一是暴恐内容难界定。国际层面对暴力极端主义和恐怖主义的定义缺乏普遍共识。2001 年提交联大的《关于国际恐怖主义的全面公约》(ComprehensiveConvention on International Terrorism)草案对恐怖主义进行了定义,但也正因各国对该定义存在分歧,公约谈判进程陷入停滞。目前,对暴恐内容的界定很大程度上由各个成员国自主决定,其中难免隐含政治性成分,且受到各国不同文化、风俗、价值观深度影响。从社交媒体角度而言,一些暴恐内容处于“社区守则”的灰色地带,作出处理决定常常很困难。例如,社交媒体上不少支持恐怖主义的言论多含有政治宣示、自我表达等成分,在美国受到宪法第一修正案保护,社交媒体采取删除等措施十分谨慎。

  二是不同管网治网理念难协调。不同国家对网络内容的治理理念和模式存在差异。政府管理互联网上与暴恐相关内容的权力边界何在,一直都存在争议。中国和俄罗斯等国家强调依法管理互联网的主权权力,严格规管网络有害内容,希望营造安全有序的网络空间。而美国等西方国家则强调所谓“网络言论自由”,反对政府过度介入网络内容监管,主张“无为而治”,通过平台自律处理网络有害内容。在这一背景下,当一个国家要求删除它认为的暴恐内容,但这些内容托管在另一个管网治网理念完全不同的国家的服务器上时,这种冲突常会在个案中被摆上桌面。

  三是平衡内容审核与保障人权难。社交媒体删除或屏蔽网络内容主要与用户的言论和表达自由相关。根据《世界人权宣言》(Universal Declarationof Human Rights)和《公民和政治权利国际公约》(International Covenant on Civil and PoliticalRights),人人享有言论和表达自由,国家应当保护此项人权。《欧洲人权公约》(European Conventionon Human Rights)等其他区域人权条约也有类似条款。这些人权条约的缔约国承担保护言论与表达自由的国际法义务,具体到社交媒体内容治理,则是通过立法监督本国社交媒体在审核用户内容时不侵犯言论与表达自由。

  社交媒体平台也有“尊重人权”的责任。根据联合国人权理事会的《工商企业与人权:实施联合国“保护、尊重和补救”框架指导原则》(Guiding Principles on Business and Human Rights:Implementing the United Nations“Protect, Respect andRemedy”Framework),企业应切实尊重人权,将其内化为战略、愿景或文化,综合评估其活动对人权的潜在影响,在已造成负面影响后积极补救。行使言论和表达自由也要受到国际人权法的一些限制。例如,出于保障国家安全或公共秩序的需要,或在宣布了“紧急状态”情况下,国家可以对言论与表达自由进行合法限制。煽动民族、种族或宗教仇恨的言论也不受言论与表达自由的保护。在社交媒体煽动恐怖主义以号召更多人支持暴恐行动,是暴力极端势力和恐怖组织常用的战略。而禁止煽动恐怖主义是保护国家安全和公共秩序的应有之义,构成上述限制言论与表达自由的合法理由。

  更突出的挑战在于,很多网络内容游走在“煽动恐怖主义”的边缘,国家既要审慎处理这些言论,又要确保相关的措施是必要和相称的。联合国《互联网被用于恐怖主义》报告(The Use of the Internetfor Terrorist Purposes)也指出,在评估对网络内容的干预办法和水平时,政府需考虑有关言论自由权的宪法或其他保障等多种因素。此外,对暴恐内容的认定往往涉及法律、伦理、价值观等层面,一些社交媒体用来审核内容的网络过滤、内容 ID、算法等技术可能导致过度删除或算法歧视等问题,存在引发人权和伦理问题的风险。

  四是国际合作难。互联网的全球联通使社交媒体内容治理天然就是跨国问题,但完善的国际合作机制却尚未建立。实体上,各国认定网络暴恐内容的标准存在差异。经常出现的情况是,同一个涉嫌暴恐的内容在一国可能违法并会被平台移除,但在另一国可能不违法。为调查网络暴恐内容,一国经常需要向另一国提出司法协助请求,调取某些重要的数据,但如果相关内容在被请求国不构成暴恐内容,就会被拒绝。程序上,国家对网络暴恐内容的管辖权需要协调,根据属地管辖原则,一国只对本国境内的网络有害内容有管辖权,可以要求平台采取屏蔽、删除等活动。2019年,欧盟法院在皮斯泽克(Piesczek)诉脸书一案中开创性地提出了欧盟对网络内容的域外管辖权。根据这个判决,社交媒体的内容如果被欧盟或其任一成员国认定为非法,则社交媒体不仅应在欧盟境内删除非法内容,还应在全球范围内删除。欧盟法院的这一判决在国际上引起了很多非议,侧面反映了各国对“全球删帖”仍持消极态度。对域外的网络有害内容如何处理,仍将是各国长期头疼的难题。社交媒体之间的合作也有局限性,类似“全球互联网反恐论坛”的信息共享与合作机制只能对各家企业存在共识的有害内容发挥作用,但不同社交媒体认定有害内容的标准常常并不一致。

  三、社交媒体暴恐内容国际治理的前景展望

  虽然对社交媒体暴恐内容的国际治理面临各种挑战,但各国的合作共识正逐步凝聚。2017 年的 G7峰会呼吁社交媒体平台加大合作力度,共同治理网络暴恐内容,提升平台自动检测此类内容的能力。2019 年的 G20 峰会发布《关于防止利用互联网从事恐怖主义和暴力极端主义活动的声明》(G20 OsakaLeaders' Statement on Preventing Exploitation of theInternet for Terrorism and Violent Extremism Conduciveto Terrorism),强调各国政府有责任加强与网络平台的合作,防止恐怖主义势力利用网络进行恐怖活动。2005 年 7 月 伦敦恐袭后,联合国安理会通过第 1642号决议,呼吁各国预防和禁止“煽动恐怖主义”的行为。

  打击网络暴恐内容的国际法虽然发展缓慢,但也并非全无建树。欧盟正计划就打击仇恨言论立法,将有助于进一步明确仇恨言论和暴恐言论的关联与区别。《克赖斯特彻奇倡议》的签署国逐年增加,有成为某种程度的国际标准的潜力。正如外交部涉外安全事务专员程国平在《全球网络反恐格局中的中国力量》一文中所言,在应对网络恐怖主义问题上,没有哪个国家能够独善其身,也没有哪个政府或组织能够单独应对,需要在全球、区域和国家各层面采取协调一致的行动。由于各国逐渐认识到打击网络暴恐内容的紧迫性,在该问题上也有较高的政治共识,未来预计将在不同多边平台围绕暴恐内容的认定标准与国际合作等关键问题展开讨论,甚至不排除开启一个国际谈判进程。

  随着互联网领域多利益攸关方的治理模式获得更多认可,社交媒体暴恐内容的国际治理未来也将日益呈现国家、企业、技术社群等不同主体多方共治的特点。国家要承担主导角色,推进相关政策与立法的出台和完善,积极参与网络有害内容治理的国际讨论,推动形成打击网络有害内容的国际规则。平台企业要提升内容审核技术和能力,更迅速、精准地识别和处理暴恐内容,加强与其他平台的信息共享,针对打击暴恐内容的需要改进内容政策,主动参与行业标准和规则的制定。只有各方共同努力,才能在社交媒体上彻底清除暴恐内容,打赢网络反恐的一场硬仗。




电子技术图片.png

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。