2018年3月14日,人类历史上最伟大的科学家史蒂芬·霍金去世了,享年76岁。这位精彩的学者给人类的发展做出了巨大的贡献,《韶光简史》、《果壳中的宇宙》、《大设计》等作品,无一不是人类的宝贝。
这过去的这些年内,除了探索宇宙真理之外,霍金还在为人类命运发声。而在近几年内,他最关注的话题便是人类如何才能离开地球和告诫人类当心人工智能。
人工智能是21世纪以来,人类最伟大的发明之一。它带给了人类诸多便利,但是,霍金却十分担忧它的隐患。2017年3月,霍金在接管《泰晤士报》采访时就曾说,人类须要掌握人工智能,以防止它们在未来可能对人类生存带来毁灭性的威胁。
想想,霍金并非在骇人听闻,咱们的人工智能有些地方存在一定量的威胁,表现最为明显的便是人工智能武器,也便是致命自主武器系统。
人工智能武器,是继炸药和核武器之后在“战役领域”的第三次革命。如果任何军事力量推动人工智能武器的开拓,环球性的武备竞赛则将不可避免。由于人工智能武器,不像核能一样须要昂贵的本钱和难以获取的原材料。一旦开拓,人工智能武器就很随意马虎在各军事力量中遍及。
韩国自主研发的战斗机器人
2017年11月份的时候,在日内瓦举办的联合国特定常规武器公约会议上,有一段视频令人惶恐。视频里,机器杀人蜂,通过面部识别,瞬间杀去世了正在上课的学生和老师。
杀人蜂猎杀学生
试想人工智能武器,会带来什么影响?在军事方面,降落己方士兵的风险,降落人与人之间近间隔战役的代价。此外,自主武器系统也省去了军人的薪水、住房、养老、医疗等开销,又在速率、准确性上高于人类,而且不用安歇。有别于人类战斗员会在沙场上涌现生理和感情颠簸的特点,人工智能武器更稳定,并且能够抵达人类不可及之处,完成搜救和保护任务。
正在海上进行试验的美国Sea Hunter自主战舰
但是,如果人工智能武器被胆怯分子盗取了,则对付人类来说是重大的威胁。这样的威胁,可不是零零散散的军事上风可以填补的。
人工智能并不可怕,恐怖的是人工智能武器。时至今日,国际社会仍旧没有就致命性自主武器系统问题达成统一认识,乃至还没有统一的定义。