我们经常可以在电影院里看到许多机器人相关的科幻大片,按多数影迷对机器人的映象无非是近乎完美的忠诚管理或是精神变态的杀手,就像《星球大战》里的C3PO、《机械姬》里的艾娃、《禁闭行星》里的罗比或《太空漫游》里的哈尔等等。在电影中不免让我们脑海中想象着这些机器人将在不远的未来开始进入我们的现实生活中。随着人工智能和机器学习的发展,机器人也在各个领域担任起越来越多的重要工作,最明显的则是制造业中的生产加工。近些年在医疗手术、汽车驾驶、战场做战等领域逐渐得到应用。
电影中经常出现机器人杀戮人类的情节,这些恐怖的场景也引起了人们广泛关注,包括斯蒂芬•霍金、比尔•盖茨、埃隆•马斯克等科技名人。任何事物都具有两面性,机器人就像一把双刃剑,它们也有可能会犯错,甚至伤害人类。但可以确定的一点是机器人将给人类带来前所未有的发展前景。
精准高效的外科手术机器人
就目前而言,许多外科医生已可以利用机器手臂来做复杂的手术。美国纽约大学机器人手术中心主管迈克尔•斯蒂夫曼已做过上千例机器人辅助手术。他在控制台操纵着机械臂,每个机械臂都通过一个约5毫米宽的微小切口伸入病人体内,只要旋转自己的手腕,捏紧手指,伸入病人体内的机械臂就会精准地执行同样动作。
他引导着两只手臂给一根线打结,操纵第三只手臂用针穿过病人肾脏,将切除肿瘤后留下的洞缝在一起,第四只手臂则拿着内窥镜将病人腹腔内的情况呈现在显示屏上。
斯蒂夫曼是位受过高等训练的专家,有高超的技能和判断,然而,他正在把宝贵的时间花在缝合上。这只是主手术的后续整理工作,如果机器人能接手这项单调机械的任务,外科医生就能腾出手来做更重要的事。
今天的手术机器人能力进一步增强,手术中不仅没有手颤,还能实施多种方案。但说到底,机器人只是由人类直接控制的高级工具。手术机器人公司泰坦医疗执行副总裁丹尼斯•福勒曾是一名从业32年的外科医生,他认为,如机器人能代替人类自动做一些决策,独立执行分配给它们的任务,医疗行业将能更好地为人类服务。“这种技术干预手段能增加可靠性,减少人为错误。”
给机器人“升职”并非遥不可及的事,所需的大部分技术很快会在研究和工业实验中开发出来,实验机器人用人体组织的橡胶模型练习缝合、清洗伤口、切除肿瘤等。在一些实验中,机器人能比得上人,有些甚至比人更加精确、高效。就在上个月,华盛顿一家医院展示了一个机器人系统缝合的猪小肠组织,让人执行同样手术进行比较发现,机器人缝得更均匀、更细密。
虽然这些系统还没准备好用于病人,但它们代表了未来手术的发展方向。同样的逻辑也适用于操作室和装配流水线,如果高自动化能提高工作效果,那就没什么能阻止它。
肥胖症治疗医生、伦敦帝国学院讲师休丹•阿什拉芬对机器人手术的结果进行了研究。他认为,在可预见的将来,手术机器人将会在医生指令下处理简单的任务。“我们的目标是提高术后效果。如果用机器人能挽救生命、降低风险,那用这种设备就是义不容辞的。”
展望未来,医学界最终会使用下一代机器人——有决策权的人工智能。这种机器人不仅能处理常规任务,还能接管整个手术。虽然现在看起来还不太可能,但技术创新会很自然地把人们引领到那里。阿什拉芬说:“这是一步步实现的,虽然每一步都不是特别大。正如50年前的医生想象不出现在手术室的样子,从现在起再过50年,估计又是另一番景象。”
其实手术机器人已经能自己做决定,独立性比人们所想的更强。比如,在视力矫正手术中,机器人系统切下病人一小片角膜,并通过一系列激光脉冲重塑其内层;膝关节置换手术中,用自主机器人切割骨骼比医生更精确;在头发移植手术中,智能机器人能识别并采集病人头部坚固的头发毛囊,然后在秃斑头皮部位打下精密小孔,帮医生省下许多单调、费时的重复劳动。
那些涉及到胸腔、腹腔和盆腔部位的手术要面对更复杂的挑战,因为每个病人的生理结构都有所不同,自主机器人必须能很好地识别各种又湿又软的内部器官和血管;而且在手术中,病人的各部分内脏都可能起变化,所以,机器人还要能不断地调整手术计划。
机器人还要有可靠地处理危机的能力。比如,在肿瘤切除手术中突遇大出血,它必须能及时、正确地处理。手术中会出现各种不可预期的复杂情况,机器人成像系统和计算机视觉首先要能识别,并通过喷出红色液体提示这种情况的严重性;下一步,其决策软件要能找出处理这种问题的最佳方案,然后指令系统迅速将这一方案付诸行动;最后由评估程序来评价结果,确定是否还需进一步行动。让手术机器人掌握感知、决策、行动和评价每一步骤,代表着对工程师的巨大挑战。
进入实用的“达•芬奇”系统
2013年,位于加利福尼亚州的“直觉手术”公司开始向世界各大学机器人研究人员捐赠“达•芬奇”手术机器人系统,每台造价高达250万美元,它也是美国监管机构批准的软组织手术系统。目前,全世界有超过3600家医院安装了“达•芬奇”系统。但它的商业之路并非一帆风顺,曾因轻微事故而面临诉讼。尽管充满了争议,很多医院和病人已经接受了这种技术。
“达•芬奇”处在人类医生的完全控制之下,除非医生在控制台上抓住操纵杆,否则其手臂只是毫无生气的塑料和金属片。该公司先进系统研发部经理西蒙•迪迈奥说,目前他们打算保持这种现状。但机器人专家正在面向未来努力,让医生在做手术时有越来越多的辅助工具或计算机引导。
迪迈奥指出,这一领域的研究就像早期的自动驾驶汽车,“第一步是识别道路标志、障碍物、汽车和行人,”下一步是让汽车来帮助司机。比如,智能汽车会感知周围车辆的位置,在司机错误变道时发出提醒。同样,手术机器人可在医生的手术器具偏离常规路径时发出警示。
加州大学伯克利分校自动化科学与工程实验室主管肯•戈德伯格也在训练他的“达•芬奇”独立执行手术任务。目前,它的缝合技术已相当灵巧,它能一只手臂拉线通过模型伤口两边,另一只手臂通过拉针把线绷紧,无需人类引导而开始缝下一针。它通过位置传感与摄像技术计算每次进出针的最佳位置,计划并跟踪行针轨迹。但任务还是很艰巨,据报告,它目前只能完成四针程序的50%,而且还不会给线打结。
戈德伯格说,现在他们使用机器学习算法采集视觉和运动学数据,把每一针分为定位、推针等多个步骤,让“达•芬奇”按顺序处理。通过这种方法,它有可能学会做任何手术。
理论上,同样的程序也能指导真正的手术。戈德伯格认为,在今后10年内就能实现简单的手术任务自动化。但即使机器人真的能在常规手术中表现更好,他仍希望机器人的行动是一种在人类医生“监督下的自主”。他说,让机器人做长时间精确且一致的工作,就像缝纫机对手工缝纫,只有机器与人合作才能成为超级医生。
被重新定义的军事机器人
捷克作家卡雷尔•恰佩克1920年发表了科幻剧作《罗素姆的万能机器人》,发明了“机器人”一词,其最初含义是合成人类,它们在工厂长时间辛苦地工作,生产低成本商品。然而,最终这些机器人杀死了人类。这也是科幻小说一直在描写的情节:机器人失去控制,变成不可阻挡的杀人机器。
现在,随着人工智能的发展和机器人技术的进步,加上伊拉克、阿富汗战争中无人机与地面机器人的广泛使用,人们在震惊之余开始担忧,科幻中的恐惧会变成现实。
世界最强大的军队目前正在开发更智能的武器,这些武器将拥有不同程度的自动化能力和杀伤力,绝大多数通过人类远程控制。但也有人认为,未来的人工智能武器最终会完全自动化地操作,由集成微芯片和软件来决定人类的生死,这将成为战争史上的一道分水岭。
于是,“机器人杀手”引发了激烈争论:一方认为,机器人可能开启一场世界大战摧毁人类文明;另一方则认为,这些武器是一种新型精确制导武器,只会减少而不是增加伤亡。人工智能领域的一些主要研究人员呼吁,禁止“自主进攻型武器超越人类控制”。
去年,三位学术界名人——美国加州大学伯克利分校的斯图尔特•罗塞尔、麻省理工学院的马科斯•泰格马克和澳大利亚新南威尔士大学的托比•沃什,在一次人工智能大会上组织发起了联名请愿。他们在公开信中指出,这些武器将导致“全球AI军备竞赛”,用于“暗杀、破坏国家稳定、镇压群众和选择性地消灭某个少数民族群体。”目前,这封信已有超过两万人签名,包括著名物理学家斯蒂芬•霍金、特斯拉CEO埃隆•马斯克等人。马斯克还捐了1000万美元给一家位于波士顿的研究所。该研究所的任务是“保卫生命”,抵抗可能出现的恶意人工智能。这一事件成为世界各大媒体的新闻,甚至在12月日内瓦联合国裁军谈判会议上,约有100多个国家参与讨论这一问题。
这场争论还扩展到网络上。人们对未来进行了各种预测和展望,有人认为,某种情况下还可能出现“出售杀伤性微型机器人的低成本大规模黑市,购买者可以给它设定某些标准,不加分辨地杀死成千上万符合标准的人”。
他们三人还指出:“自主性武器是一种潜在的大规模毁灭性武器。虽然一些国家或许不会选择将它们用于这种目的,但这对有些国家和恐怖主义分子却极有吸引力。”
造出在智能、自主和自动化方面不断升级的杀人机器,不管这种军备竞赛能否更好地服务于人类利益,也不管目前存在着多大争议,实际上新一轮的AI军备竞赛已经开始。
兼顾逻辑与道德的无人驾驶车
设想一下,将来的某个夜晚,一个醉醺醺的行人突然在一辆无人驾驶汽车前面摔倒,结果当场被撞死。如果车里有人,这会被认为是一次事故,因为行人显然有错,理性的司机也难以及时躲避。但到了本世纪20年代,随着无人驾驶汽车日益普及,车祸发生的概率会减少90%,对应司机过失的“理性人”的法律标准也会消失,对应的标准是给“理性机器人”。
死者家属会把汽车制造商告上法庭,指称汽车虽然来不及刹车,但它应该躲避周围行人,越过双黄线,撞上旁边车道上那辆空空的无人驾驶车。而根据该汽车的传感器数据分析,再现撞人场景也确实如此。原告律师会质问汽车头部软件设计师:“为什么汽车不会转弯?”
但法庭绝不会质问一个司机,为什么即将撞车前他不采取某个紧急措施,因为这是毫无意义的——司机惊慌失措无法思考,只能凭本能做事。但如果司机是个机器人,问“为什么”就变得合理了。
在人类的道德标准、有瑕疵的法典案例、各种各样工程师想不到的假设情况中,最重要的假设是:一个有着良好判断能力的人知道何时应不顾文字上的法律条规,真正维护法律精神的至高无上。现在工程师必须做的是,把一些基本的判断因素教给自动驾驶汽车和其他机器人。
目前,在英国部分地区、德国、日本、美国4个州和哥伦比亚特区,法律已明确允许对完全自动化车辆进行测试,但车里还要有一个测试司机。谷歌、日产、福特及其他公司也表示,他们预计在今后5到10年内实现真正的无人驾驶操作。
自动车辆获得环境信息是通过一系列传感器,如视频摄像机、超声波传感器、雷达和激光雷达。在加利福尼亚州,申请自动车测试牌照要向机动车管理局提供碰撞前30秒的所有传感器数据,工程师可以凭着这些数据精确重现碰撞事故场景。利用汽车的传感器记录,就能推知它决策背后的逻辑。发生车祸后,监管机构和律师能根据这些记录,坚称自动车辆有着超人的安全标准,通过了严格的审查。制造商和软件开发商也将以目前人类司机无法想象的方式,为无人驾驶车的行为辩护。
所有驾驶都会涉及到风险问题,但这些风险如何在司机、行人、骑自行车者之间分配,甚至风险的性质都有着道德的成分。无论对工程师还是对一般公众来说,最重要的是自动驾驶汽车的决策系统,它决定了汽车行为中所含的道德成分。
对于道德上模棱两可的情况,在遵循法律的同时尽量减少损失。这种策略很有吸引力,因为它允许开发人员为肇事车“不作为”的行为辩护,也向立法者传递了定义道德行为的责任。但不幸的是,这方面的法律尚未完善。
在大多数国家,法律依赖于人类的常识,对自动驾驶汽车编程也应遵守法律规定:不得越过双黄线,即使有撞上一个醉汉的风险,即使另一边车道上只有空的无人驾驶车——法律很难为紧急情况制定例外,汽车开发商无从确定何时越过双黄线是安全的。
在道路车辆自动化伦理学上,这并非不可解的难题。可以借鉴其他领域的大量案例,来安全合理地处理类似的风险和利益。比如,给病人捐献器官,依据它会带来更有质量的生命还是残疾的生命,还增加了一些对社会更有用的职业。自动驾驶车辆面临的更大挑战是,它们必须在信息不完全、程序员常常考虑不到的情况下,利用编码在软件中死板的道德条规,迅速做出决定。
幸运的是,公众并没有过分地期望超人智慧,考虑到伦理道德的复杂性,只要对自动车行为有个合理的判断就可以了。一种解决方案不一定要完美无瑕,但应该是多方考虑、合情合理的。
想要获取更多关于步进电机、步进电机驱动器等产品方面的专业知识内容,请随时关注我们电机官网了解。您也可扫描微信二维码关注我们感受不一样的掌上体验。