人工智能已经成为霍金AMA的主题。霍金在今年夏天会同乔姆斯基和伊隆·马斯克等人发布公开信,要求对人工智能发展实施更大的监督,其中主要针对目标是美军无人机。
今天,霍金扩大了这份公开信的范围,霍金开始展望更远的未来,霍金说,恶意的机器人和AI不会对人类造成威胁, 他担心聪明能干的AI会让人类灭亡。霍金表示,一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。
换句话说,如果AI确实消灭人类,它更可能是用间接伤害的方式,而不是一些科幻片当中的直接铲除人类的情节。这就是为什么霍金等人继续坚持人类对AI发展的监管和控制。