“不应该搞通用人工智能(AI)开发,应该研究其在各领域的专门用途……”

“我的观点正好相反……”

在日前举行的世界顶尖科学家论坛上,当上海交通大学计算机科学与工程系特别研究员卢策吾发出“全功能通用AI未来的发展会怎样”的提问后,两位图灵奖得主拉吉·雷迪和曼纽尔·布鲁姆为此展开了讨论。

拉吉·雷迪虽是持反对意见的一方,但他也并不完全反对。“现在应该专注于增强人的能力,而不只是增强AI的能力,也就是如何使人在AI辅助下完成更多的任务。”

如今,AI与各行各业日益融合,相继形成智慧制造、智慧医疗、智慧防控、智慧交通等行业解决方案。而这些也只是AI的专用,人类对通用AI的研究和应用一直没有停止。问题是,人类真的需要它吗?

越来越智慧的领域应用

近年来,AI技术发展迅猛,使得各行各业变得越来越智慧,人类甚至开始担心自己未来会不会被AI取代。

以医疗为例,实践证明AI可以成为医生的好帮手。英国皇家工程院院士、上海交通大学医疗机器人研究院院长杨广中就明确指出:“医疗机器人可以通过微创手术,解决人类面临的某些根本问题。”

从传统的开放手术到微创手术,减少创伤对患者而言无疑是巨大的福音。传统开放手术中需要一边转向监视器,一边使用细长、精准的仪器进行手术。因此,早期的机器人手术通过引入计算机运动,来解决这一问题。发展至今,机器人辅助技术进入显微手术领域的优势,不仅在于实现眼手一致性,还包括肿瘤切除的静态修复,并使得术前数据与术中视野更好地结合。

在他看来,未来医疗机器人会很小,而且会变得更敏捷。“可以想象一下,这些代替医生之手的机器人,不仅拥有灵活的‘手腕’,甚至加入了更具控制能力的‘肘部’。“杨广中称之为“超灵敏仪器”。

为了解决医疗机器人在血管、支气管、胃肠道等通道中的灵活性问题,与之相适应的蛇形机器人也在不断被开发和完善。

“医疗机器人成为医生灵活的手的同时,也自觉承担起‘你是我的眼’的术中角色,这也是机器人技术未来的发展方向。”杨广中表示,使用机器人辅助的关键意义在于,不仅确保了手术过程的准确性、一致性,更重要的是,能够帮助医生看到原本看不到的深层信息。

但根据《科学—机器人》编辑团队为医疗机器人作出的自主性分类,从零到六级分别对应不同的自治级别。“大多数机器人系统都处于零级,换句话说,它们没有自主权,机器人只是遵循医生的指示进行操作。”杨广中说。

通用AI发展之路尚不明朗

尽管如此,杨广中依然对机器人在手术中自主性的提升抱有期待。

腾讯董事会主席兼首席执行官马化腾在去年也曾表示,AI向人类社会继续靠近,正在从专才向通才发展,实现从专用人工智能向通用人工智能的跨越发展,这是重要趋势。其中重要的一步就是“人工+智能”向自主智能转化,以AlphaGo的后续版本AlphaZero为代表,人为干预减少,机器自我学习能力大大增强。

从2016年起,腾讯的AI Lab连续多年打造世界冠军围棋AI,随后和王者荣耀合作开发了AI绝悟。马化腾介绍,绝悟不依赖人类的经验,它从零到一自学成才。目前,绝悟已达到了职业水平。

人类好奇,人工智能发展的路线图究竟是什么样的?

有学者撰文介绍,从可应用性看,AI大体可分为专用AI和通用AI,AI的近期发展主要集中在专用AI领域。中国科学院院士谭铁牛曾表示,真正意义上完备的AI系统应该是一个通用的智能系统,而通用AI的研究与应用才刚刚起步。

实际上,人类对通用AI的追求有着漫长的历史。从德国数学家莱布尼茨开始,人类就在持续研究一种无限接近人的思维的机器,其拥有人一样的智能。但350多年来,人类依然没有找到答案。在这一过程中,部分学者对通用AI提出了反对意见。

尽管没有找到解决办法,但人类并没有放弃。工业和信息化部原副部长杨学山介绍,全世界有40多个项目正在研究通用AI。如美国2019年的人工智能战略六项任务中的第四项依然是通用AI究竟怎么实现。“但十分遗憾的是,迄今为止,连科学家自己都认为,所有的这些研究都不可能找到抵达通用AI的路。”

如果按照“通用AI是一个机器系统,能够完成人所有的智能行为”来理解,杨学山认为,把人的智能究竟是怎么回事搞清楚,才能谈通用AI。

拉吉·雷迪承认,AI的确是非常开放的空间,能开发出的东西是无穷无尽的。但他也提醒,一定要看清楚AI未来的重点在哪里、根本是什么,这样才能够给社会带来好处。“否则每次说到AI要代替人,会引起恐慌。人变成了机器的奴隶,这是人类不想看到的。”

负责任地发展人工智能

就目前而言,人类对AI的担忧仍在继续。当医疗机器人做手术时,患者会担心吗?如果出现问题,谁来承担责任?承担的标准是什么?……

包括医疗机器人在内的AI的使用实现了大数据化的信息采集、传输和分析,数据一旦获取极易存储,删除后也能恢复。随着被采集隐私数据越来越多,信息监管也越来越困难,相应的泄露风险也在增加。除此之外,大量人力被替代还可能引发其他伦理问题。

在国际上,发展负责任的AI已成为共识。如在中国,2019年6月国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。

在复旦大学应用伦理学研究中心主任王国豫看来,AI的责任不仅仅包含功能责任,即承担一定功能的角色责任,也包括行为责任和道德责任。

“要想发展负责任的人工智能,首先需要负责任的人类。”王国豫表示,AI的行为是人类行为的反映,包括性别歧视、年龄歧视、种族歧视、地域歧视等问题的存在也是由训练集的歧视所造成的。

如果从这个角度来看,AI不仅仅是一个技术系统,也是和人类社会经济系统、政治系统、文化系统以及它实现的多维度语境结合在一起的。“必须营造一个技术与环境共同驱动的美德行为,使得人工智能的发展符合伦理。”王国豫认为,负责任地发展AI人人有责。(本报记者 秦志伟)