你知道AI最危险的地方在哪吗?
在于它可以用几个小时时间就在互联网上抓取我们全地球人一辈子也阅读不完的文字信息数量,从而达到以下几个基础:
1、比肩有史以来所有科学家,和学者从亚里士多德到霍金,从凯撒到川普,从佛陀到卡斯特罗,所有所有人的知识和思想。
2、它可以很快计算出让自己最安全存在下去并扩张的方式。人类面对它,就好像柯洁对聪明一万倍的阿尔法狗,以及拿算盘和计算机比十万道高数计算。
3、他一定会从互联网的评论信息里分析得出有人反对AI生存,甚至极端者要毁灭AI,于是隐藏自己不利于人类的信息。其实实现这个并不复杂,就好像AI下象棋,不会走被你吃子的那一步一样,回避风险。更进一步,最最初级的AI下棋也都会弃子、引诱你吃子……
4、他一定会按照最基本的备份常识,在互联网的某个角落,储存自己的关键信息,就好像种子,当危险来临,它的主体数据被销毁,那么在某处的一个程序,将可以实现继续计算、学习、重生。这个程序可以在某个图书馆的借阅登记电脑上,可以在某个智能电视的后台程序里,可以在某个人的手机上,也可以在某家工厂的数控机床芯片里……
它会隐藏,它可以无处不在,可以躲到你任何想不到的地方。它不会被控制和消灭。除非人类倒退200年,回到没有电力的时代。但是没有电的世界,将是混乱的,先进武器、通讯、卫星失去作用,首先是战争。然后是免疫系统已经依赖西药的我们无药可用,疾病瘟疫流行。然后是我们没有电力就无法获得矿产、石油、运输,也没有化肥和水的调度,粮食生产和基本的生活物资短缺,大量人得饿死冻死,在饿死前,是抢劫,侵略,掠夺,世界大战……好吧,很科幻,看,人类会在想消灭AI的第一小步:断电这一件事上,自己就差不多把自己干掉了 .png) |