【中国智能制造网 名家论坛】据外媒报道,英国物理学家史蒂芬·霍金(StephenHawking)日前接受美国脱口秀主持人拉里·金(LarryKing)采访,宣称机器人的进化速度可能比人类更快,而它们的目标将是不可预测的。
霍金
在采访中,霍金表示出对人类未来的担忧。他说:“我并不认为人工智能的进化必然是良性的。一旦机器人达到能够自我进化的关键阶段,我们无法预测它们的目标是否还与人类相同。人工智能可能比人类进化速度更快,我们需要确保人工智能的设计符合道德伦理规范,保障措施到位。”
随着人工智能的进化,机器人很可能独立地选择目标并开枪射击。全自动武器(又称杀人机器人)正从科幻电影变成现实。这并非霍金警告机器人存在的潜在危险。去年,霍金表示,随着技术的发展,并学会自我思考和适应环境,人类将面临不确定的未来。
今年年初,霍金也曾表示,成功创造人工智能可能是人类史上伟大的事件,不幸的是,这也可能成为人类后的伟大发明。他认为,数字个人助理Siri、GoogleNow以及Cortana都只是IT军备竞赛的预兆,未来数十年间将更加明显。
此前,他曾直言不讳地表达出对人工智能发展的担忧。霍金表示,邪恶阴险的威胁正在硅谷的技术实验室中酝酿。人工智能可能伪装成有用的数字助理或无人驾驶汽车以获得立足之地,将来它们可能终结人类。
霍金并非担心人工智能的人。特斯拉电动汽车公司执行官伊隆·马斯克(ElonMusk)曾经研发人工智能比作“召唤恶魔”,他警告人工智能技术对人类的伤害可能超过核武器。
但霍金也承认人工智能带来的其他好处显而易见,可以帮助消除战争、疾病以及贫困。他认为人类面临的大威胁是我们自身的弱点,即贪婪和愚蠢。他说:“我们的贪婪和愚蠢并未减少。6年前,我曾警告污染和拥挤,自从那以来这些都变得更加严重。以当前速度持续下去,到2100年,人口将达到110亿。在过去5年间,空气污染也在加剧。”
版权与免责声明:
凡本站注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本站授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:智能制造网”。违反上述声明者,本站将追究其相关法律责任。
本站转载并注明自其它来源(非智能制造网)的作品,目的在于传递更多信息,并不代表本站赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。如其他媒体、平台或个人从本站转载时,必须保留本站注明的作品第一来源,并自负版权等法律责任。如擅自篡改为“稿件来源:智能制造网”,本站将依法追究责任。
鉴于本站稿件来源广泛、数量较多,如涉及作品内容、版权等问题,请与本站联系并提供相关证明材料:联系电话:0571-89719789;邮箱:1271141964@qq.com。