与生物技术、核技术相比,目前对人工智能的监管近乎空白。如何未雨绸缪,保证人工智能良性有序发展并使人类社会尽快适应,已经被提上议事日程。
未来应该担心吗?
许多人在担心,人工智能充分发展后是否会对整个人类产生威胁?著名科学家霍金就曾指出,如果有朝一日人工智能掌握了各种重要基础设施和武器系统,稍有不慎就可能让人类面临风险。与霍金观点一致的还有特斯拉汽车公司首席执行官埃隆·马斯克、微软创始人比尔·盖茨等科技界名人。
如果说未来威胁是“远虑”,现实的“近忧”则是人工智能可能和人类“抢工作”引发失业潮。国外律师事务所雇佣人工智能系统支持的虚拟助理,能够同时查阅数万份历史判决,以前需要500名初级律师完成的劳动,现在数分钟就能解决。不少银行还在尝试用人工智能做交易员。瑞士联合银行集团位于美国的交易大厅原有1400个交易员,如今已人去楼空;最新的案例是北欧银行日前宣布将在未来4年内裁员6000人。
对“机器换人”的焦虑,美国得克萨斯大学计算机科学系副主任彼得·斯通教授说,纵观历史,技术进步始终影响着职场,但在可以预见的未来,多数工作不会被人工智能技术取代。比如,人工智能在医疗领域的进步并不会取代医生,但可能改变医生所需技能或者改变他们利用时间的方式。
人类主动“换岗”也许是个办法。微软亚洲研究院院长洪小文认为,现在白领做的工作,在未来职场可能很容易被人工智能所取代,而强调工匠精神的技校却会有更好的工作前景。
伦理法律怎么管?
随着对人工智能相关法律、伦理和社会问题的深入探讨,划出法律和伦理道德的边界迫在眉睫。让人工智能更好地服务人类社会,也是世界范围内的一项共识。今年7月,中国国务院发布《新一代人工智能发展规划》,提出“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。
科学家一直希望以最简单的办法,保证以机器人为代表的人工智能不给人类带来任何威胁。人们最熟悉的莫过于科幻作家阿西莫夫设计的“机器人三定律”。专门研究人工智能安全发展的美国机器智能研究院奠基人尤德科夫斯基也提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。
不少专家建议,除了设计和建造要遵循技术规范,还可由政府有关部门牵头,成立由人工智能技术专家、社会科学研究人员、政府管理人员为核心的人工智能管理委员会,对涉及人工智能的研究和开发项目进行审核评估。此外还应从多个方面加强对人工智能的研究,跟踪、了解人工智能的发展趋势和实践,开展以未来学为基本范式的研究。
中国科学技术大学机器人实验室主任陈小平认为,要规范人工智能发展,首先要把基础的技术先研究好,“未雨绸缪,需要我们走到前列,才能有发言权,有具体的思考和对这一领域的深刻知识,才能具备治理的能力,进而提出我们自己的意见和规则”。