过去6个月,生成式AI呈爆发式增长,这不仅表现在网络上各种推广和介绍生成式AI的短视频泛滥,受众趋之若鹜,还表现为Google上搜寻生成式AI的次数成指数增长。这与生成式AI技术的大众化和可免费使用有关,也与其代表产品ChatGPT在算法加持下的高效人机互动引发广泛关注有关。
与之相伴的是,生成式AI的技术风险应运而生,比如虚假信息泛滥、相关犯罪活动急升等。早前,超过350名科技界人士和AI科学家签署联名信,表示降低AI可能构成的威胁应成为全球范围内的优先事项。
6月14日,欧洲议会通过《人工智能草案》,以生成式AI使用行为的风险高低来界定政府监管密度;美国国会正在拟定应对生成式AI技术监管的《安全创新框架》;中国的《人工智能法(草案)》也正在由国务院相关部门起草,立法程序已经启动。
制定规则以引导生成式AI向有利于社会和大众的方向发展是应有之义,但这些规则的制定应遵循以下常识:首先,一项新技术的应用,特别是广泛的、大众化的应用,肯定会衍生风险。有风险并不可怕,就如我们每天都要面对世界的不确定性一样。
但是,如果监管者只强调生成式AI可能带来的风险,而不考虑风险是新事物发展的必然产物,就可能过于强调新技术的负面影响,强调如何用相应的规则来限制,那么,技术创新与应用就可能受到影响。比如,欧洲议会对数字经济严格监管的法律思路有效规避了其可能产生的风险,但这同样是欧盟国家数字经济远落后于美国的根本原因所在。
其次,规范生成式AI技术的应用,最根本的是把握其本质特征。科学家关于生成式AI威胁的警告,主要是担心生成式AI拥有人类的智能甚至超过人类的智能,进而人类会失去对语言的垄断,知识精英也会失去对知识生成的垄断。所以,人们恐惧的不是技术本身,而是技术力量的无限延展对自身权益的侵蚀。
生成式AI看上去有拟人化的意识、思维、推理、逻辑、情感等,但这种智能只是机器智能或完全由机器生成的智能,其用以预训练的数据语库是来自互联网的海量大数据,然后通过转换器神经网络架构自动建立起语言意义和词句之间的关联,生成文本或知识。这种知识生成或设计生成是在语言大数据里发现统计学意义上的概率性规律或搭配模式,即建立起语言意义和语词之间的关联性,是机器思维而不是人类智能。也就是说,对于生成式AI的预训练只能“喂给”它人类知识的生成部分,而不可能“喂给”它人类的创造性思维。所以,生成式AI永远不可能成为超越设定算法的人类智能,人类也无需对生成式AI的快速发展产生恐慌。
生成式AI通过算法加持显示出惊人的效率和准确性,但与人类智能在本质上是完全不同的。我们不能以人类的智能与之类比,只能研究如何利用其有用功能增加人类福祉。这也意味着,对生成式AI的监管和治理,我们只能是在学习、参与、使用、创造、拥抱的过程中了解其利弊,找到与之和谐共处的方式,制定更有利于其创新和发展规则和法律。
所以,对于生成式AI及其衍生产品,我们不应该有恐惧之心,对其监管也要减少事前设限,以更宽容的态度鼓励创新。