您的位置:网站首页 > 市场分析 > 正文

新兴技术:人类福音还是潘多拉魔盒?

作者:admin来源:第一财经日报 日期:2016-1-7 10:20:10 人气: 标签:

  从网络化医疗设备到物联网,从抗旱作物到仿生假肢,新兴技术正在给诸多领域带来革命性的影响。

  毋庸置疑,新兴技术蕴含着前所未有的巨大机遇。一旦实验室研发出的技术在现实世界中显出它们的效用,投资就会蜂拥而至,社会发展也将明显提速。

  然而,新兴技术究竟会发展到哪一步却有着高度的不确定性。潜在的二阶或三阶效应无法被轻易预测,这使得人类很难采取针对性的措施。即便是在技术刚问世时就能预见它们的后果,也仍然需要在取舍之间权衡利弊。比如,即使事先知道大规模使用化石燃料可帮助很多人摆脱贫困但同时也会引起气候变化,人们仍然不会就此放弃燃料在工业中的使用。

  那么,新兴技术到底为人类带来了哪些影响?如何才能更好地发挥新兴技术的作用,又如何控制可能产生的风险?这些都需要人们持续不断地加强科学认知。

  什么是新兴技术?

  典型的新兴技术包括合成生物学、基因驱动技术和人工智能技术。

  其中,合成生物学可以创造出将生物质转化为柴油的细菌,基因驱动技术可以帮助消灭疟疾等虫媒疾病,而人工智能技术则是从无人驾驶汽车到个人护理机器人得以诞生的幕后功臣。

  总体而言,新兴技术可以分为三大类:首先是那些与信息、网络和数据传输有关的技术,包括人工智能、物联网和大数据;其次是生物学技术,比如抗旱作物和生物燃料的基因工程、人造肉、基于RNA1、基因组和微生物群的新治疗技术;第三是那些用于制造更坚韧材料(比如纳米碳纤维复合材料)和更优质电池(比如采用了锗纳米线的电池)、回收核废料以及从海水淡化副产品中提取金属的化学技术。

  变革力量和潜在风险

  新兴技术所带来的变革性力量正在一次次刷新人们的生活。与它所带来的效益和惊喜相对应的,是人们对于新兴技术可能产生的不良影响的担忧。

  这些风险有些可预见,有些则不可预见。

  可预见的风险包括:管控不力(就像有时候在转基因作物试验中发生的那样)或存储错误(就像2014年美国疾病控制实验室处理致命病毒时发生安全事故)所造成的危险物质泄漏;新兴技术的失窃或非法贩卖;电脑病毒、黑客对人体植入物的攻击,或者生化战争。

  像合成生物学和人工智能这些新技能的形成,尤其会伴随着风险,更糟糕的是后者还无法在实验室里得到充分评估。一旦新兴技术这个精灵跑出瓶子,就可能被用错地方,或导致发明初期无法预测的后果。犹如打开了潘多拉的魔盒,一发不可收拾。

  以合成生物学为例,它的问世让人类在基因改造上更进了一步。目前正在开发中的合成生物学应用有:从大肠杆菌生产生物燃料;人工设计生物体用于污染物或爆炸物的感测器;通过光遗传学技术使神经细胞对光敏感并用激光控制神经信号,这项技术有望对神经系统紊乱疾病的治疗产生革命性影响;3D打印抗癌病毒等。

  但与这些巨大潜在利益相伴的是一系列难以控制的风险。

  如今的酵母已经被用于制作吗啡。不难想象,合成生物学很可能会为非法药物的生产大开方便之门。用廉价的人工合成品替代像香根草这样的高价值出口农产品,则可能会夺走农民赖以为生的收入来源,动摇原本就很脆弱的经济根基。随着DNA读取技术越来越经济易得,有人可能会盗取一绺头发或其他遗传物质来收集医学敏感信息或做亲子鉴定,从而侵犯他人的隐私。

  不过,最令人担心的风险还是合成生物体本质上所具有的危害性,无论这种危害是源于失误还是恐怖目的。因为生物体的自我复制本质将会让它们变得既强健又具有攻击性。这种特性一旦被用于恐怖活动,后果不可想象。再加上合成生物学是“小技术”,不需要大型且昂贵的设施,所用的资源也不容易追踪。可以想见,有朝一日可能会有一个无赖发明出了某种大规模杀伤性武器,比如像埃博拉那样致命并且像流感一样易于传染的病毒。

  再比如基因驱动技术,该技术为人们祛除某些最严重的健康和环境风险提供了一个前所未有的机会。比如,它可以通过改编蚊子的基因组,根除整个地区的疟疾和其他虫媒疾病;还可用于对付除草剂和杀虫剂抗性,以及消灭威胁生态系统生物多样性的入侵物种。

  然而,基因驱动技术也可能会给野生生物、庄稼和家畜造成意想不到的损害并殃及其他相关的生态系统。

  就人工智能而言,如今已经得到了普遍的认识和应用。比如统计学方法显著改进了谷歌自动翻译服务器以及像苹果Siri这样的个人数字助理设备的性能,而谷歌自动驾驶汽车已经在公共道路上行驶了数十万英里。

  这样的技术转型如果操作妥当,无疑会极大地提高生产率和生活水平。但操作不当的后果却会是灾难性的。按照世界顶尖人工智能教科书的合著者之一、加州大学伯克利分校教授斯图尔特·拉塞尔(StuartRussell)的说法,核心问题在于人工智能的目标与人类目标之间的关系。也就是说,如果比人类聪明的人工智能产品制造出来后,其目标设定与其发明者的初衷稍有偏离,不知道能否阻止它们利用各种现有资源来实现这些目标。到时候恐怕只能像黑猩猩阻止人类为所欲为一样无助。

  人工智能所带来的近期挑战亦不容忽视。在未来数十年内,人工智能有可能会部分或全部替代众多行业中的人类劳动,那么是否能通过足够及时的再培训保住工人们的就业率?另外,以往的技术革命浪潮在砍掉旧岗位的同时也会创造出新的工作机会,但由人工智能技术所引发的结构性失业则可能会长期持续,这又该如何调整?还有,一些国家正在努力开发能够评估信息、选择目标并且不借助人力开火的致命性自武器系统,如果它们触犯了国际法,谁来负责?在武器系统使用之前或者使用期间,如果发生人为干预怎么办?人类势必会插手自动武器的编程,问题是在开始使用武器的一刻,人类是否会终止对武器的控制?这些都尚无答案。

  风险控制和挑战

  有什么办法能预防上述风险和后果的发生?

  简而言之,人类需要把眼光放远,做好面向未来的准备,以抵消“技术进步快于社会对技术控制的势头”。

  正如上述所说,从正式规定到行业内部行为准则,再到文化规范,有效的治理机制可以降低由滥用新兴技术引发的各种风险。然而,治理机制的缺位却对风险的管控提出了根本性的挑战。

  首先,目前的监管框架不够完善。法律法规在某些特定新兴技术领域较为完善,而在其他领域、哪怕是从概念上讲和前者相似的领域却十分薄弱,甚至是完全缺位。比如,商用飞机上自动驾驶系统的使用长期以来一直受到严格监管,但是对于无人机的使用,无论国家层面还是国际层面,迄今都还没有令人满意的监管政策。

  对于新兴技术的不良后果,各地的文化心态也存在差别。

  举例来说,对转基因产品的公众接受度在美国比在欧洲要高,所以欧盟把预防性原则变成了制度,而美国人则相信大多数挑战都可以靠“技术手段”来化解。

  因此,应当通过相应的保障、监管和治理措施整合、协调各国的行动,使之具备应对潜在全球性风险的能力以及适应不同文化偏好的灵活性。

  对于那些未来发展方向高度不确定、其后果要经过很长时间才会显现出来的技术,必须在今天就做出决策,并且不同的阶段应有不同的监管措施。与此同时,决策过程中只顾眼前利益的思维惯性必须得到克服。

  随着新发明涉及的学科和技术越来越多,监管的难度也越来越大。现在的问题是缺少相应的机制来决定哪个监管部门(如果存在的话)应该对新兴技术负起责任。

  总的来说,在预防和创新之间求得平衡很难。具有潜在效益的创新成果,不冒一定风险是无法得到检验的。另外,监管漏洞的存在会使权力出现真空,导致宗教运动组织乘虚而入,从而对社会施加更多影响并可能扼杀创新热情。

  这就需要那些政府监管力量薄弱或缺失的新兴技术行业通过行业自律来展现它们的负责任态度以弥补监管漏洞。比如“生物黑客”组织就在合成生物学研究领域做这方面的尝试。

  更为基本的问题还在于技术进步对社会、经济和道德的影响。新兴技术有望使全世界人民实现长期富足,但同时很多国家还不得不努力解决失业和不充分就业的问题。从道德角度来看,利用科学技术增强人类体力和智力的“超人主义”是基本人权还是少数有钱人的特权?会不会加剧社会不平等?

  另一方面,人类喜欢将机器原型人格化,从而减轻在安全、道德或法律方面的担忧。而致命性自动武器的研发则更容易遭到公众的一致反对。就这些而言,新兴技术所产生的社会影响本身就构成了重大风险,很难预料它们会对新兴技术的使用和未来发展产生怎样的影响。

读完这篇文章后,您心情如何?
0
0
0
0
0
0
0
0
本文网址: