在ChatGPT刚刚火爆的那段时间,全世界都在嚷嚷着要对AI实行监管,不能让AI随意发展,不然最后会毁灭人类!
(相关资料图)
这时候,欧盟认为需要对AI技术进行必要的监督,所以就开始着手制定相关的法案。
可万万没想到的是,就在草案通过没多久,多家欧洲企业就联合签署公开信(一言不合就签公开信),批评欧盟该草案遏制了技术的发展,反对该法案的实行。
一开始担心AI技术无限制发展,危害社会,现在又说法案遏制了技术的发展。如此左右横跳,前后矛盾的态度,一时间也让人们摸不着头脑。
AI监管草案反而限制了AI发展?
由于ChatGPT表现出来的智能水平实在惊人,对AI进行监管,一度成了整个社会的讨论话题。
更有看热闹不嫌事大的主,比如马斯克就联合众多业界大佬签署联名信,呼吁暂停AI发展六个月。
虽然事后马斯克说,没指望这个呼吁能被接受,也没想着真的让AI开发暂停六个月,只是说出来看看大家的反应。
不光是他,深度学习三巨头之一、AI教父杰弗里 辛顿(Geoffrey Hinton)从谷歌离职以后,也是到处宣扬AI技术的隐患和担忧,称自己“很后悔”。
就连ChatGPT之父、OpenAI的CEO山姆 奥特曼(Sam Altman)在美国国会上也呼吁,加强对AI的管理和监督。后来又联合了包括杰弗里 辛顿在内的众多大咖,一起呼吁落实AI的管控。
但现在,他们之中出现了一些“叛徒”。6月14日,欧洲议会通过了人工智能法案草案。然而,草案一出炉就遭到了多家欧洲企业的反对。按他们的意思来说,该草案限制了相关产业及技术的进步空间。
这些企业包括德国西门子、法国空中客车、法国育碧、德国银行等此类知名企业,他们通过签署公开信向欧盟表达了对人工智能法案草案的担忧。
这些企业认为,虽然人工智能有必要进行监管,但欧盟所提供的人工智能方案草案过于严苛,相关技术审核时间过长,至审核完毕商用落地可能已经过时,严重限制了产业发展。
公开信中声称,人工智能法案草案不仅会危及欧洲企业竞争力,实际上也无法有效解决欧洲所面临的种种技术挑战。
该法案草案严格监管了模型的训练数据来源、相应能力、输出结果,并要求任何模型在欧盟区域上市前,都需要向欧盟数据库进行验证,因此企业需要付出相当大的成本及责任风险来满足欧盟要求。
他们在公开信中建议,欧盟只需要提供一系列要求公司遵守的原则,并组建专门的监管机构,在相关模型技术发布后再进行调查,以灵活适应快速发展的技术市场。
这则法案真的像他们说的这样,过于严苛吗?
以“风险”为基准的监管法案
前段时间,欧洲议会全体会议以499票赞成、28票反对、93票弃权的压倒性优势表决通过了《人工智能法案》授权草案。德国《商报》称,《人工智能法案》预计将在今年年底获得最终批准,不过距离完全生效可能还需数年时间。
根据资料,该草案的核心点在“风险”。说人话就是基于风险来制定监管制度,这个AI模型的风险系数高,那对它的监管就会更严格,相反就会越宽松。
草案将人工智能风险分为不可接受的风险、高风险、有限的风险和极小的风险四级,其中高风险人工智能的使用必须受到严格监管,系统提供者和使用者都要遵守数据管理、记录保存、透明度、人为监管等规定,以确保系统稳定、准确和安全。
对于违反规定者,草案设定了最高3000万欧元(1欧元约合人民币7.895元)或全球年营业额6%的罚款。
而那些对人类安全造成不可接受风险的人工智能系统,草案一律禁止。这个的评判标准,草案中也有提到。包括了部署潜意识或有目的操纵技术、利用人们弱点或用于社会评分的系统。
同时,草案里还扩大了高风险的分类,将对人们健康、安全、基本权利或环境的危害考虑在内。
草案还要求人工智能公司对其算法保持人为控制,提供技术文件,并为“高风险”应用建立风险管理系统,还针对ChatGPT等生成式人工智能设立专门监管制度。
有一说一,该草案的监管力度确实比较大。任何企业看了,都觉得自己在负重前行。但是草案也并非全都在给企业施压,为了减轻草案在遏制AI技术发展的感觉,他们还引入了“监管沙盒”来管控风险和促进创新。
“监管沙盒”简单来说就是,在一定条件内,企业可以在真实环境里测试他们的AI模型。这种制度可以在人工智能系统入市或投入使用前,对人工智能系统进行开发、测试和验证降低风险。
对这一草案,业内人士也有不同的意见。有人表示支持,有人认为过度监管会给企业带来更高的成本和负担,这些不利于AI创新。
但是草案毕竟是草案,正式的法案还需要后续进一步完善才能正式施行。这一次的企业联合公开信,也在一定程度上推动了《人工智能法案》往更合理,更科学的方向发展。
企业觉得草案严苛也罢,或者是不想承担责任也好。AI监管的路,肯定是不会好走的,但不代表不值得走。
标签: