; 主持人:“马斯克,你同意霍的观点吗?”
“当然。”,马斯克点头,“Ai最后会替代人类,人类将会以意识生存在这个世界上。
人的躯体将会被Ai消灭。
Ai的复杂性,已经很难用人类的大脑去思考了,也许在系统开发和算法研究上出现一个微小的错误,就会带来全球性的灾难。
人类应对风险的能力是有限的。”
霍利:“我并不希望这样的事情发生。”
主持人看向霍利,今天对话上的第一次观点碰撞诞生了。
主持人:“mr.霍不赞同马斯克的观点?”
霍利:“任何一个新事物的诞生,都会给人类带来恐慌,但是我们不能忽视一个重要的现象,人类的适应能力是极强的。
马斯克预估了Ai最坏的结果,但是他忽略了人的主观能动性。
核武器诞生的时候,也给全人类带来过恐慌。
大国之间的核竞赛诞生了很多末日的言论。
但是最后国际社会创建了一个国际原子能结构(iAeA)监管核武器,让核武器只是停留在军事威胁上。
Ai也是如此,从它诞生开始,我们必须认清它带来的负面影响,包括人类的毁灭。
我相信国际社会同样能够做好对Ai的监管。”
马斯克摇头道:“no!霍,人类无法监管Ai,它的成长速度和变化超过了人类的预知能力。”
霍利:“人类不可以,但是Ai可能。”
马斯克愣神看着霍利。
现场也突然安静。
主持人不确定道:“霍,你的意思是用Ai监管Ai?”
霍利点头。
所有人都露出震惊的表情。
这是一个非常新的话题。>> --