2016克里斯汀·罗森:自动化给我们带来了什么?

   |    2015年12月22日  |   通宝888老虎机  |    0 条评论  |    686

ad

14周,年老的莫利一开始还能用辅助器具走路,后来只能坐在轮椅上,再后来抬不起手,无法自己吃饭,最后只能躺在床上,连翻身都做不到,只能动一动眼珠子。

当然,没有人会说电脑故意杀人;但是,这场事故却又的确是由电脑自动化所导致的悲剧,没人预料到它会发生。再来看我们的生活,电脑自动化已日益主宰我们生活的许多方面。

《玻璃笼子:自动化和我们》(The Glass Cage: Automation and Us)的作者尼古拉斯·卡尔(Nicholas Carr)之前出版过数本有关科技的著作,他在这本新作中探讨了人们对自动化越发依赖这一现象。“电脑正逐渐成为我们追踪、控制、理解世界——作为物理存在的以及作为社会存在的世界——的通用工具,”卡尔写道。不知不觉中,我们将生活中此前从未由软件或者硬件控制的方面也交给了电脑。在书中,卡尔有许多十分敏锐的观察,他让我们看到自己不假思索、十分迅速地将许多生活体验拱手让与机器以及算法。是时候停下来反思一下我们在对自己做什么了。

卡尔的这本书不涉及机械、自动化软件的技术细节,它也不对硅谷的创造力唱赞歌(市面上这样的书实在太多了)。他写的是人类与自己创造的自动化技术一同生活的经验(对于自动化技术卡尔的定义就是“让机器、软件为我们做事情”)。在当代社会,我们体验到的自动化很丰富且多元:从体检时医生问的问题到建筑物的设计再到自动化武器装备(它还有一个非常引人注目的名字,“机器人杀手”,“killer robots”)再到无人驾驶汽车。毋庸置疑,自动化在许多方面令我们的生活更安全,更便捷。

然而,我们从卡尔对自动化所做的广泛考察可以看到,接受电脑自动化会在认知、生理、政治、经济、道德上引发不可小觑的后果。在《玻璃笼子:自动化和我们》中,卡尔探讨了我们与科技走近背后令人意想不到的后果,这也是他的旧作《浅滩》(The Shallows)所探讨的主题。自动化有两面,一面是无缝对接、便利和高效,另一面则是无意的设计漏洞、错误假设,最坏的即是对人类的屠杀。

以飞机驾驶舱自动化为例。卡尔详细介绍了空客A320的设计,谈及它的电传操纵系统(fly-by-wire)及“玻璃座舱”(glass cockpit)所提供的显示器和旋钮让飞机进入了数字时代;许多之前需要机组人员操作的任务,如控制空速和俯仰,如今都可以被自动化、常规化操作。自动化大大提升了驾驶舱内的效率,机组人员数量从4人减少到2人。但是,如同卡尔所指出的,自动化“在人的指挥与机器的反应中间插进电脑”,“切断了飞行员与飞机的联结”。如今的飞行员多数时间只是在监测许多小机器而不在操作飞机这个大机器。卡尔认为,“商业飞行员已经变成了事实上的电脑操作员。”

然而,许多研究均表明,电脑会分散飞行员注意力,一旦发生紧急事件,飞行员将不太能够准确感知所处的情境;另外,研究还发现,自动化会导致心理运动技能(psychomotor skills,指从感知到动作反应的过程及其相互协调的活动——译者注)的退化,该技能是飞机继续正常飞行的保证。总之,自动化会令飞行员的认知、运动技能消退(“skill fade”,“技能消退”是一名专家使用的术语),一旦有突发状况,这些飞行员将不能很好地凭直觉予以应对。

随着飞机飞行技术的提高,空难发生的次数越来越少,对于这点卡尔乐于赞同。但是他发现,好消息并不是全部,也有坏消息:自动化也导致了新型事故。一架美国大陆联线(Continental Connection)的班机于2009年在靠近纽约州布法罗市的地点坠毁,美国国家运输安全委员会在对此事故的调查报告中指出,驾驶舱内的警报响起之后,机长“应当给出不假思索”的反应。然而,两位机师却茫然无措,他们因缺少情境感知能力,应对失措,最终导致飞机坠毁,机上人员无人生还。2009年夏,法航447在从里约热内卢飞往巴黎的途中坠海,机组成员及乘客全部遇难,在此次坠机事故中机组成员亦表现出类似的茫然无措。

再回到地面上来。研究人员发现“自动化偏见”会干扰医疗人员:对放射科医生的一项研究表明,当医生们依靠自动化软件分析病人的扫描结果时他们更可能忽视某几类癌症。与之相似,有些医生使用自动化的电子病历记录病人信息,最后,他们花费大量时间在电脑屏幕上,与病人互动的时间就这样被占用掉,如此一来,一些能够在与病人互动中发现的细微症状便被医生遗漏掉,于诊断病情不利。研究者在退伍军人事务部下属的一间诊所中做了一项调查,那里的病人表示,因为检查间电脑的存在,他们来到这里“感觉不到太多人味”。

不同领域的知识工作者都在使用自动化的“决策支持系统” ,数据处理在逐渐取代“老套”的人工判断,在更高效率的名义下,人类的自主性被剥离。我们让自动化技术来替我们完成愈来愈多的认知工作,针对这点卡尔引用了科技史学家乔治·戴森(George Dyson)极有挑衅意味的问题:“我们获得智能机器的代价难道就是培养愈发愚蠢的人类么?”

思考的过程离不开头脑,也离不开身体。当我们刚开始学习走路然后跑步,或者刚学习游泳、骑车,反复的努力以及失败带来的痛苦体验最终让我们学会做到头脑与身体的协调一致。在书的前面,卡尔描述了自己年轻时学习驾驶安装标准变速器汽车(standard transmission car)的经历:经过许多次抛锚,离合器打滑,齿轮摩擦,他的技能逐渐提高,最终学会了开车。我们在别人一步步教授下学习的知识叫做“显性知识”(explicit knowledge),卡尔所获得的那种知识叫“隐性知识”(tacit knowledge);“显性知识”的习得过程清晰明确,而“隐性知识”的习得过程则十分模糊,然而后者的重要性不亚于前者。正是因为“隐性知识”的存在,一个人哪怕20年没有碰过自行车,拿到车子照样会骑。

卡尔认为,自动化正在阻挠我们习得“隐性知识”。因为自动化的存在,许多事情做起来都变得很容易,我们因而失去了获取“隐性知识”的机会。这点即使在创意领域,如建筑行业,也十分明显。不久以前,手绘还是训练设计能力的核心;然而现在,没有哪家建筑公司会聘用一个不会熟练使用电脑辅助设计(CAD)软件的人,而这种软件几乎可以替代手绘。

CAD可以很好地辅助人们做出非凡的建筑设计,有些人会说它能够促使人们习得一种新的“隐性知识”,这种“隐性知识”可以让建筑师与软件“合作”,做出光靠手绘所无法完成的设计。卡尔在书中谈及两位著名建筑师伦佐·皮亚诺(Renzo Piano)和迈克尔·格雷夫斯(Michael Graves)对此发表的意见。这两位建筑师虽然都极有创意地在自己的设计中运用软件,但他们依然对手绘经验的缺失表示担忧;他们强调,实际的绘图工作能够确定建筑物最终的外形。“绘图不是最终的结果,它是我们做建筑设计中思维过程的一部分。” 迈克尔·格雷夫斯说。

CAD与其他形式的自动化相似,它因为强调效率,所以自然会鼓励操作者执行某些行动而不执行另外一些行动;另外它不鼓励开放式设计以及富有创意的探索。伦佐·皮亚诺曾将CAD比喻为“玩具钢琴,你按一个键,它就开始弹恰恰,过一会儿又弹伦巴。”CAD软件虽然不是有意搞破坏,但是其中内置了许多我们很少质疑的偏见,其他许多被自动化了的事物也是如此。卡尔如是警告道:“当自动化使我们远离我们的工作,当它夹在我们与世界之间,我们的生活将不再有技艺。”

现代的自动化还夺走了我们的工作。尽管从卢德分子(Luddites,指19世纪抗议并破坏替代劳动力的机械的英国纺织工匠——译者注)砸毁第一台机械化织布机开始,科技进步导致的失业一直令人们感到恐惧,但是卡尔令人信服地指出,当下的情况与此前都不相同:“机器取代工人的速度超过经济增长从而创造新的制造业岗位的速度。随着工业机器人变得愈加便宜,工作能力愈加娴熟,消失的就业机会与新增的就业机会数量之间的差距几乎肯定会扩大。”

从雇主的角度来看,这很合乎常理。机器是完美的员工,机器不会生病或抱怨或对同事进行性骚扰(至少目前还没有);偶尔的软件升级也比人类员工所要求的健康保险和养老金便宜不少。可是,尽管我们会因为经济学家的发言周期性地感到焦虑,我们总体还是对这样的趋势所可能产生的影响无动于衷;毋庸置疑,这是因为我们这个民族长久以来对科技抱有热情。卡尔引用认知科学家唐纳德·诺曼(Donald Norman)的论述:“以机器为中心的视角将人与机器进行对比,这种对比的结果就是,人有太多不足,人无法完成精确、重复、准确的活动。”

我们没有让机器变得更像人,却似乎执意要让人类的制度更接近机器。自由放任主义的道德观根植在硅谷的科技乐观主义世界观之中;它视目的高于手段,它认为政治过程是一个需要被克服的问题,而非达成民主的解决方案的途径。创立Uber和亚马逊这样“有求必应”类型企业的人对僵化的参议院小组委员会的听证会和具有党派色彩的政治谈判不会有耐心。有时候他们看起来对人类都没有耐心,如果一架无人飞机做的事和人一样好,那么为何不用无人飞机而用人?

这种文化上的不耐烦不仅限于硅谷,它蔓延的范围很广。曾任奥巴马政府官员的彼得·奥斯泽格(Peter Orszag)之前主张在决策上应当增强“自动化程度”,从而避免僵局。此其一例。卡尔认为,我们往往热衷接受那些可以替代我们完成某些活动的科技,对那些帮助我们更好完成这些活动的科技则不感兴趣;另外,解决人类问题的过程往往就是混乱的,可我们总是没有足够耐心坚持到最后。尽管卡尔并没有直截了当地说出来,可实际上他在试图回答这样一个关乎存在(existential)的问题:我们对自动化科技盲目的信念是否意味着我们对人类判断力不断加深的不信任?我们对机器,对算法的热情持续升温着,因为在这些据说无情而公正的机器的帮助下,我们内心的焦虑和责任感可以不再由我们自己承担。(我不给那个员工升职是因为我的决策支持软件预测他在这个岗位上干不好工作。)我们对机器寄予了太多虚妄的希望,同时又强烈地拒斥承担个人责任。

政治关乎信任,从根本上说,自动化也关乎信任:我们信任机器以及制造它们的技术人员,我们信任可以控制它们的政府系统,我们信任自己可以明智得使用它们。但是这些信任是建立在一个假设之上,即:这些科技在道德上是中立的。卡尔在书中提供了额外证据,这些证据表明,认为自动化在道德上具有中立性实在只是陈词滥调,应当被丢弃。自动化与许多其它科技一样,它既不是中立的也不一定是有益的。卡尔在书中提到所谓“替代神话”(substitution myth):“一个节省人工的策略并非仅仅只是对该工作的某个孤

ad

噢!评论已关闭。