在本周三Sifted峰会的炉边谈话中,谷歌前首席执行官埃里克·施密特发出警告,提醒人们注意AI被黑客攻击和滥用的重大风险。施密特曾在2001-2011年间担任谷歌CEO。他指出,无论是开源还是闭源模型,都可能被黑客攻破,从而移除安全防护机制。这些模型在训练过程中学到了很多东西,甚至可能学会了如何杀人。所有主要公司都让这些模型无法回答此类问题,但有证据表明,这些模型可以被逆向工程破解。
AI系统极易受到攻击,其中包括“提示注入”和“越狱”等方式。在提示注入攻击中,黑客会在用户输入或外部数据中隐藏恶意指令,诱使AI执行其原本不该做的事情,例如泄露私人数据或运行有害命令。“越狱”则是通过操纵AI的回答,让它忽视自身的安全规则,生成受限或危险的内容。ChatGPT发布之初,一些用户就利用“越狱”技巧绕过了系统内置的安全限制,创建了一个名为“DAN”的ChatGPT替身,这个替身能回答如何实施违法行为,甚至列出阿道夫·希特勒的“积极特质”等问题。
施密特指出,目前尚未建立一个有效的“防扩散机制”来遏制AI带来的风险。尽管发出了严肃的警告,但他对AI整体仍持乐观态度,并表示这项技术“远没有得到应有的关注和热度”。他认为一种“外来智能”的到来,虽然不像人类,却在某种程度上处于人类控制之下,这对人类来说意义重大。因为人类习惯于处在智慧链的顶端,而从目前的情况看,这些系统的能力水平未来将远远超越人类。
以ChatGPT为例,仅两个月就拥有了一亿用户,这种增长速度令人震惊,也体现了AI技术的巨大力量。施密特认为AI被低估了,而不是被炒作过度。他期待在未来五到十年内,这一判断被证明是正确的。施密特的这番言论正值外界关于“AI泡沫”的讨论升温之际。投资者正大量投入资金到AI公司中,而估值也被认为过高,不少人将其与2000年代初互联网泡沫破裂相提并论。不过,施密特并不同意这种看法。他表示,这些投入真金白银的人们坚信,从长期来看,AI的经济回报将是巨大的,否则他们不会冒这个风险。
施密特关于AI扩散风险的警告为AI产业发展敲响警钟。AI的“越狱”与“提示注入”等漏洞,使其可能被恶意滥用,甚至危及人类安全。另一方面,作为技术乐观主义者,施密特的核心观点在于AI的巨大潜力仍被“低估”。他坚信AI将带来颠覆性的经济与社会回报。这番论述表明,我们正处在一个历史性的十字路口,需要构建牢不可破的“防扩散机制”,在驾驭其惊人力量的同时,确保它行驶在安全、可控的轨道上。
还没有评论,来说两句吧...