美国《华盛顿邮报》日前报道,如果你把手指头放到亚历山大·瑞斌的机器人前面,那么它就有可能会扎你一下!当然你不会因此而严重受伤,只是像验血一样会有点刺痛感觉。瑞斌设计这个机器人的目的便是造成最小的痛苦,但从技术上说,仍然会对人造成伤害。
小机器人扎过好几个人
没有人知道答案
你真的会流血——如果这小机器人选择扎你一下,你的手指上会有一小团血滴渗出。到目前为止,这个机器人已经扎了好几个人的手指头。但有时候,当你把手指头放在它面前,这台小机器人却毫无反应,不会扎你——究竟什么时候会扎人什么时候不会呢?
没有人知道答案,即便是设计者也不知道,因为这是随机的。瑞斌是一名机器人专家,同时也是一位艺术家,居住在美国加州伯克利附近。他对《华盛顿邮报》表示:“我将其视作一种有型的哲学。”瑞斌的作品常常将艺术与技术以一种有趣的方式相互混合,得到一种甚至接近诙谐的效果——比如,他曾经设计过一款太阳能的音乐播放器,然后用它播放着《你是我的阳光》。
然而这台最新的小机器人却不是为诙谐幽默而设计的。瑞斌在他的网站上表示,这是世界上第一台“自主并有意”违反所谓“机器人第一法则”。这是著名科幻作家阿西莫夫所提出的机器人三法则中的第一条。
当然这样的动作不会对人造成什么伤害,你只会感觉稍有刺痛,手指上被扎出一个非常小的孔。但这样的威胁性已经足够高,让很多人望而却步。
短篇科幻故事《环舞》
首次阐述机器人三法则
在1942年发表的短篇科幻故事《环舞》中,阿西莫夫首次明确阐述了他有关机器人三法则的思想,分别论述如下:
机器人第一法则:机器人不得伤害人类,或坐视人类受到伤害;
机器人第二法则:除非违背第一法则,机器人必须服从人类的命令;
机器人第三法则:在不违背第一及第二法则下,机器人必须保护自己;
瑞斌的这个小机器人的做法很显然是故意伤害人类的,很明显违反了机器人第一法则。但尽管对已经有74年历史的经典理论构成了挑战,但实际上这个小机器人的结构设计是非常简单的。瑞斌最初的设想是一台连着一个金属臂的“自动梳头机”,能让人感到舒服和享受,这是受到了伍迪·艾伦的电影《傻瓜大闹科学城》中那个抱在怀里就能让人产生愉悦感受的“快乐球”的启发。人们坐在椅子里,然后瑞斌的梳头小机器人就会给你做头皮按摩。瑞斌表示,这样的场景会创造一种人与机器人之间某种令人不安的亲密感。他说:“在这种情况下,机器会让人紧张地发抖,人们会感觉非常诡异。”
瑞斌随后将其改造,制作出一个能给人们带来小小伤害的机器人。整个改造过程花费了数天时间和数百美元。这是一个带有小小手臂的机器,其底座大小和一张打印纸相差无几。它安装了一台微型探测器,能够检测是否有人把手指放在了它的机械臂下方。此时,如果小机器人决定要扎他一下,那么它就会突然快速地扎下去。瑞斌指出:“你很难不感到紧张,浑身冒汗。”他说,但是这背后的原因或许更多的是惊奇,而不是疼痛。
与此前所有机器人不同
它做出了要伤害人类的决定
但其中最关键的一点还在于,正如瑞斌所指出的那样,这台小机器人做出了要伤害人类的决定,而这与此前所有的机器人都是不同的。他说:“我想到了军用机器人。但即便是军用机器人也并不会主动伤害人类。”就拿美军的“捕食者”无人攻击机来说,它当然可以发射导弹杀死人类,但做出这项决定的不是“捕食者”无人机本身,而是它背后操控的美军军方人员。再比如美国海军开发的,由雷达控制的自动岗哨炮,它会自动向出现的入侵者开火,但这同样不是它自己的决定,而是遵循了一系列内部编程所设定的激发阈值条件。在瑞斌看来,这样的系统并非选择攻击,正如并非地雷自己选择炸死踩上去的人员一样。
而瑞斌设计的这个旨在打破阿西莫夫机器人准则的机器人则完全不同,因为是否扎人的确是机器人自己的决定。放在它手臂下的人类手指会激发小机器人的一系列的软件程序,最后将输出扎人或者不扎人的决定。瑞斌表示:“其做出是否扎人的决定过程是我无法预测的。”这台小机器人的内置程序并未采用机器学习或者人工智能技术用于决策过程,但也并非完全属于50:50的对半开概率。当被询问这台小机器人扎人的几率时,瑞斌说:“我不知道它扎人的概率有多大。”
因此,第一台违反理论上原则的机器人已经实实在在地存在了。这是一台真正依赖自身决策的机器人,在跟它们相处的过程中,我们或许时不时地需要带上创可贴。
霍金:
机器人进化比人类快
警惕它们起来反抗
6月29日,据英国《每日邮报》报道,英国物理学家史蒂芬·霍金日前在接受美国王牌脱口秀主持人拉里·金的采访时称,披着数字助手和无人驾驶汽车外衣的人工智能(AI)已经开始站稳脚跟,终究会带来人类的末日。他还表示,机器人的进化速度可能比人类更快,且它们的终极目标将不可预测。
在采访中,霍金一如既往地表现出对人类未来的担忧。他说:“我不认为人工智能的进化必然是良性的。一旦机器人达到能够自我进化的关键阶段,我们无法预测它们的目标是否与人类相同。人工智能可能比人类进化速度更快,我们需要确保人工智能的设计符合道德伦理规范,保障措施到位。”
这不是霍金第一次警告机器人将会起来反抗。去年,霍金警告称,随着技术不断发展,并学会自我思考和适应环境,人类的生存前途未卜。
今年早些时候,霍金也曾表示,成功创造人工智能可能是人类史上最伟大的事件,不幸的是,也有可能是最后一个。
他认为,数字个人助理Siri、Google Now以及Cortana都只是IT军备竞赛的预兆,未来数十年竞赛将更加激烈。
霍金并非唯一担心人工智能的科技界名人。特斯拉和SpaceX创始人伊隆·马斯克曾经把开发人工智能比作“召唤魔鬼”,并警告称人工智能技术给人类带来的伤害可能超过核武器。
但霍金也承认人工智能带来的其他好处显而易见,可以帮助消除战争、疾病以及贫困。他认为人类面临的两大威胁是我们自身的贪婪和愚蠢。他说:“我们的贪婪和愚蠢并未减少。6年前,我曾警告污染和人口膨胀,自从那以来这些都变得更加严重。以当前速度持续下去,到2100年,全球人口将达到110亿。在过去5年间,空气污染也在加剧,二氧化碳排放量在不断增长。”
(据中新社)
霍金
新闻推荐
最近,一本名为《月童度河》的书很热,还没开卖,已经被各大图书网站放在头条位置。书的作者是庆山,有点陌生,但是如果你知道庆山是安妮宝贝新改不久的名字,就不会对这本书的未卖先热感到奇怪了。她在新浪...