【纯机翻】Lisanne Bainbridge《自动化的讽刺 Ironies of automation》,被引用次数:3480
【纯机翻】杰西卡 AF 汤普森《神经科学和人工智能的解释和理解形式》 | American Physiological Society,被引用次数:18
【纯机翻】《人工智能是一个矛盾修饰法:一个有机的身体在面对未知的情况时的重要性,因为他们在当下展开》 | Springer Nature,被引用次数:8
【纯机翻】泰德Zawidzki《没有元心理学的沟通》 | international cognition & culture institute
【纯机翻】复杂性革命&复杂性理论 | M/C Journal
【纯机翻】神经科学和心理学中的量子物理学:心脑相互作用的神经物理学模型 | NBCI,被引用次数:598
【纯机翻】什么是信息? 比特的流动和混沌的控制 | mit.edu,被引用次数:34
【节译】【纯机翻】元读者(meta-reader)与元阅读(meta-reading)相关一篇
【纯机翻】山田康贵,村井源《利用网络分析分析推理小说中的场景依赖关系》
【纯机翻】生态心理学与行动主义:本体论困境的规范出路 | Frontiers,被引用次数:22
【纯机翻】计算的局限性:对当代大数据研究的哲学批判 | Sage Journals,被引用次数:70
———————————————————————————
自动化,第19卷,第6期。第775 - 779页,1983 在英国印刷。1982年12月16日收到;1983年5月23日订正。这篇论文的原始版本是在1982年9月在德国巴登巴登举行的IFAC/IFIP/IFORS/IEA人机系统分析、设计和评估会议上提出的。本次IFAC会议的出版记录可从Pergamon Press Ltd, Headington Hill Hall, Oxford OX3 0BW, U.K.订购。本文由编辑A. Sage推荐以修订版出版。
英国伦敦大学学院心理学系
关键词:控制工程;计算机应用;人机系统;在线操作;过程控制;系统故障和恢复。
摘要:
本文讨论了工业过程自动化可能扩展而不是消除人类操作员问题的方式。本文将讨论在“经典”方法中减轻这些问题的方法,即让操作员对异常情况负责,以及在人机协作中继续使用人工操作员进行在线/线上【on-line】决策的可能性。
讽刺:各种情况的结合,其结果与预期完全相反。
悖论:看似荒谬,但可能确实有根据的说法。
自动化的经典目标是用自动装置和计算机取代人工控制、计划和解决问题。然而,正如Bibby及其同事(1975)指出的那样:“即使是高度自动化的系统,如电网,也需要人类进行监督、调整、维护、扩展和改进。”因此,人们可以得出一个矛盾的结论,即自动化系统仍然是人机系统,其中技术和人为因素都很重要。”本文认为,工程师对人为因素的兴趣日益增加,反映了一个具有讽刺意味的现象,即控制系统越先进,人类操作员的贡献可能就越重要。本文特别关注过程工业中的控制,尽管示例将从飞行甲板自动化中提取。在工艺装置中,不同的操作模式可以在不同程度上实现自动化,例如,正常操作和关闭可以是自动的,而启动和异常情况则是手动的。使用自动或手动控制的问题是过程行为的可预测性的功能,无论操作模式如何。本文的前两节讨论了在异常情况下由人工操作员接管的自动在线控制,最后一节介绍了在线控制中人机协作的一些方面。
1. 介绍
经典自动化方法的重要讽刺之处在于系统设计者的期望,以及留给人类操作员执行的任务的性质。设计者对人工操作人员的看法可能是,操作人员不可靠,效率低下,因此应该从系统中消除。这种态度有两个讽刺之处。其一是设计人员的错误可能是操作问题的主要来源。不幸的是,收集这方面数据的人不愿意公布这些数据,因为实际数据很难解释。(有些类型的错误可能比其他类型的更容易被报告,并且对它们的来源可能存在分歧。)第二个具有讽刺意味的是,试图消除操作员的设计师仍然让操作员去做那些设计师无法想到如何自动化的任务。正是这种方法导致了这里要讨论的问题,因为它意味着操作者可以处理任意的任务集合,并且可能很少考虑为它们提供支持。
1.1. 自动化后的任务。在自动化系统中,留给操作员的任务一般有两类。他可能被要求监视自动系统是否正常运行,如果不正常,他可能被要求叫一个更有经验的操作员或自己接管。我们将首先讨论手动接管的讽刺意味,因为所提出的观点也对监控有影响。接管和稳定流程需要手动控制技能,诊断故障作为关闭或恢复的基础需要认知技能。
1.1.1. 手动控制技能。几项研究(Edwards和Lees, 1974年)显示了没有经验和有经验的过程操作员进行步骤变更之间的差异。有经验的操作员进行最少数量的操作,过程输出平稳而快速地移动到新的水平,而没有经验的操作员则在目标值附近振荡。不幸的是,身体技能在不使用时就会退化,尤其是对增益和计时的改进。这意味着以前有经验的操作员一直在监控自动化过程,现在可能是一个没有经验的操作员。如果他接手,他可能会使整个过程陷入动荡。他可能不得不等待反馈,而不是通过开环控制【open-loop】,他很难解释反馈是否表明系统有问题,或者更简单地说,他对自己的控制行为判断错误。他将需要采取行动来抵消他的无效控制,这将增加他的工作量。当需要人工接管时,过程可能会出现问题,因此需要采取不寻常的行动来控制它,有人可能会说,操作员需要比平均水平更高而不是更低的技能,更少而不是更多的负荷。
1.1.2. 认知技能。
长期知识:一个操作员在没有受过明确培训的情况下,发现了如何自己控制工厂,他使用一组关于可能过程行为的命题,并从中产生尝试策略(例如Bainbridge, 1981)。同样,操作员只有在对流程有充分了解的情况下,才能为异常情况制定成功的新策略。对于“机器思维”操作员来说,这有两个问题。其一,从长期记忆中有效地提取知识取决于使用的频率(考虑任何你在学校通过考试后就再也没有想过的科目)。另一个是,这种类型的知识只有通过使用和对其有效性的反馈才能发展。人们在没有适当的实践练习的理论课堂教学中获得这些知识,可能不会理解其中的大部分,因为这些知识不会在一个使其有意义的框架内,他们也不会记住其中的大部分,因为这些知识不会与与任务其余部分相结合的检索策略相关联。有些人担心,目前这一代的自动化系统是由以前的人工操作员监控的,依靠的是他们的技能,而后代的操作员不可能拥有这些技能。
工作存储:在线决策中认知技能的另一个重要方面是,决策是在操作者对过程当前状态的知识背景下做出的。这是一种更复杂的运行内存形式,而不是用于电话号码等项目的有限容量短期存储的概念。操作者的头脑中(Bainbridge, 1975)不是关于过程状态的原始数据,而是对过程进行预测和决策的结果,这些结果将在未来的情况下有用,包括他未来的行动。这些信息需要时间来积累。手动操作员可能会在他们接管控制之前的一刻钟到半小时进入控制室,因此他们可以对过程正在做的事情有这种感觉。这对于人工接管自动控制工厂的含义是,必须快速做某事的操作员只能在最小信息的基础上这样做,他将无法根据对工厂状态的广泛了解做出决策,直到他有时间检查和思考它。
1.1.3 监控。看起来,操作员的任务相对简单,不会增加上述复杂性,而操作员只需要监视自动装置是否正常工作,如果不正常则呼叫主管。当然,它确实带来的一个复杂性是,如果主管没有复习相关知识,或者没有练习一项关键的手工技能,他也无法接管。另一个问题是,当有人问监控是否可以由不熟练的操作员来完成时。我们从许多“警惕性”研究(Mackworth, 1950)中知道,即使是一个高度上进心的人,也不可能对一个很少发生的信息源保持有效的视觉注意力超过半个小时。这意味着对不太可能发生的异常情况进行监测的基本功能是不可能由人来完成的,因此必须通过连接声音信号的自动报警系统来完成。(手动操作员会注意到变量的异常行为,他们将其视为控制任务的一部分,但可能同样不善于注意到其他变量的变化。)这就提出了一个问题:当报警系统不正常工作时,谁会注意到?同样,如果自动装置已经运行了很长一段时间,操作员将无法有效地监控它们。强制操作人员注意稳态系统的一个经典方法是要求他做一个日志。不幸的是,人们可能会写下数字而不注意它们是什么。
更严重的讽刺是,安装自动控制系统是因为它能比操作员做得更好,但操作员却被要求监督它是否有效地工作。这里有两类问题。在复杂的操作模式中,监视器需要知道过程的正确行为应该是什么,例如在批处理过程中,变量必须及时遵循特定的轨迹。这些知识要么需要特殊训练,要么需要特殊展示。第二个问题是,如果决策可以完全指定,那么计算机就可以比人类操作员更快地做出决策,考虑到更多的维度,并使用更准确的指定标准。因此,人类操作员无法实时检查计算机是否正确地遵循了它的规则。因此,我们只能期望操作员在某个元层面上监控计算机的决策,以决定计算机的决策是否“可接受”。如果计算机被用来做决策是因为人类的判断和直觉推理在这种情况下是不够的,那么哪些决策是可以接受的?人类监控器被赋予了一项不可能完成的任务。
1.2. 运营商的态度。我知道有一家自动化工厂,在夜班期间管理人员必须在场,否则操作员就会将流程改为“手动”。这就引出了关于技能对个人重要性的一般性问题。技能的一个结果是,操作员知道如果需要,他可以充分地接管。否则,这份工作就是最糟糕的一种,它很无聊,但责任重大,而且没有机会获得或保持承担责任所需的素质。工人所拥有的技能水平也是他在工作社区内外地位的一个主要方面。如果这项工作被“去技能化”,沦为监控,那么相关人员就很难接受。具有讽刺意味的是,这也导致了不协调的薪酬差异,当熟练工人坚持高工资水平作为地位的剩余象征时,工作内容不再证明这一点。Ekkers和同事(1979)发表了一项关于控制系统特征与操作员主观健康和成就感之间相关性的初步研究。大大简化:过程信息的高一致性,高过程复杂性和高过程可控性(无论是手动还是适当的自动化)都与低水平的压力和工作量以及良好的健康状况有关,反之亦然,而快速的过程动态和不能直接在界面上进行的高频率操作与高压力和工作量以及不良的健康状况有关。高的过程可控性、良好的人机界面和丰富的活动模式都与高的成就感有关。许多研究表明,高水平的压力会导致错误,健康状况不佳和工作满意度低会导致旷工的高间接成本,等等(例如Mobley和同事,1979)。
2. 解决方案的方法
有人可能会把这些问题说成是一个悖论,即通过自动化过程,人工操作员被赋予了一项只有在线控制人员才能完成的任务。本节将讨论一些可能的解决方案,以保持操作员的效率和技能,如果他被期望监督和接管控制权;下一节将介绍最近的建议,以保持人工操作员在线与计算机支持。解决这些问题涉及到非常多维度的决策,在此提出讨论建议。任何特定情况下的建议将取决于工艺规模和复杂程度、工艺变化速度、工艺或自动控制故障的速度和频率、产品和环境的可变性、关闭的简单性和成本以及操作人员的素质等因素。
2.1. 监控。在任何必须迅速注意到低概率事件的情况下,必须给予操作员人工协助,必要时甚至发出警报。在一个有大量回路的过程中,没有警报,人类操作员就无法快速到达工厂的正确部分,最好还有某种形式的警报分析。不幸的是,大量闪烁的红灯只会混淆而不是帮助。在为人类操作员设计大型报警系统时存在重大问题和讽刺(Rasmussen and Rouse, 1981)。显示器可以通过显示目标值来帮助操作员监控自动控制性能。这对于单个公差带来说很简单,但如果公差在整个批处理过程中发生变化,则会变得更加复杂。一种可能的解决方案是通过软件生成显示VDU上当前适当的公差。这实际上并没有解决问题,而只是以不同的形式提出了同样的问题。如果计算机控制失败的概率很低,操作员将不会观看VDU。如果计算机能够生成所需的值,那么它也应该能够进行监控和报警。操作人员如何监控计算机是否正常工作,或在明显不正常的情况下接管?如果在紧急情况下不再使用计算机生成的显示器,对于熟练使用这些显示器的操作员来说,可能会出现重大问题。一个具有讽刺意味但明智的建议是,直接有线显示应该用于主要过程信息,而软件显示用于定量细节(Jervis和Pope, 1977)。
“灾难性”崩溃相对容易识别。不幸的是,自动控制可以通过控制变量变化来“伪装”系统故障,因此趋势在超出控制范围之前不会变得明显。这意味着自动装置也应该监视不寻常的变量运动。“优雅的性能退化”被引用在“菲茨人机品质清单”中,作为人相对于机器的优势。这不是计算机中人类表现的一个方面,因为它可能会引发故障监控问题(例如Wiener和Curry, 1980);自动系统显然会失灵。如果人类操作员必须监视计算机决策的细节,那么,具有讽刺意味的是,计算机有必要使用操作员可以遵循的方法和标准以及速度做出这些决策,即使这在技术上可能不是最有效的方法。如果不这样做,那么当操作员不相信或不同意计算机的意见时,他将无法通过系统的决策序列追溯,看看他在多大程度上同意。
克服警觉性问题的一种方法是人为地提高信号率。然而,人为地增加计算机故障率将是一个错误,因为操作人员将不再信任系统。Ephrath(1980)报告了一项研究,其中系统性能在计算机辅助下更差,因为操作员无论如何都要做出决策,检查计算机增加了他的工作量。
2.2. 工作存储。如果操作员不参与在线控制,他就不会对系统的当前状态有详细的了解。人们可能会问,无论是为了稳定或关闭流程,还是为了进行故障诊断,这对有效的手动接管的可能性有什么限制。当停机简单且成本低时,直接的解决方案是自动停机。由于复杂性、成本或其他因素(例如,在空中飞行的飞机),必须稳定而不是关闭的过程会出现问题。这应该手动完成还是自动完成?如果过程动态可以保留几分钟,而操作员则可以确定发生了什么,则手动停机是可用的。对于非常快速的故障,在几秒钟内(例如压水核反应堆而不是飞机),当没有事先更改的警告时,在线工作存储也将无用,那么可靠的自动响应是必要的,无论需要多少投资,如果这是不可能的,那么如果失败的成本是不可接受的,则不应该建立该过程。
如果失败速度不那么快,就有可能通过过度学习的手动反应来“争取时间”。这需要经常在高保真度模拟器上进行练习,并对系统故障有充分的了解,以确保涵盖所有类型的故障。如果对故障的响应需要大量的单独行动,而不是在可用的时间内完成,那么一些必须自动完成,其余的则由经验丰富的操作员完成。
2.3. 长期的知识。前一节的要点清楚地表明,维护手工技能是很重要的。一种可能性是允许操作员在每个班次的短时间内使用手动控制。如果这个建议是可笑的,那么模拟器实践必须提供。足以教授过程基本行为的模拟器可能非常原始。准确的快速反应只能在高保真模拟器上学习,所以如果这样的反应是必要的,那么这是一个必要的成本。在调度和诊断的认知技能方面也可以提出类似的观点。简单的图像表示足以训练某些类型的故障检测(Duncan and Shepherd, 1975),但前提是可以从控制面板的稳态外观识别故障,并且等待稳态是可以接受的。如果故障检测涉及识别随时间的变化,则需要动态模拟器进行培训(Marshall和Shepherd, 1981)。简单的识别训练也不足以培养处理未知错误或选择纠正措施的技能(Duncan, 1981)。
使用任何模拟器进行极端情况下的训练都存在问题。未知的故障是无法模拟的,系统的行为可能不知道故障是可以预测的,但没有经历过。这意味着培训必须关注一般策略,而不是具体的反应,例如,模拟可以用来提供低概率事件的经验,这些事件可能为培训师所知,但不为受训者所知。没有人可以被教导关于系统的未知属性,但他们可以被教导在已知的信息中练习解决问题。指望操作员仅仅通过查阅操作规程就能对不熟悉的事件作出反应是不够的。这些不能涵盖所有的泄漏可能性,因此作业人员需要对其进行监测并填补空白。然而,训练操作员遵循指令,然后把他们放在系统中提供情报,这是具有讽刺意味的。当然,如果一整天都有频繁的报警,那么操作员将有大量的控制经验,并将其视为正常工作的一部分。也许最具讽刺意味的是,这是最成功的自动化系统,很少需要人工干预,而人工干预可能需要最大的人力操作员培训投资。
3. 人机协作
通过拿走他的任务中容易的部分,自动化可以使人类操作员的任务中困难的部分变得更加困难。几位作家(Wiener and Curry, 1980;Rouse(1981)指出,自动化的“Fitts列表”方法,即分配给人和机器他们最擅长的任务,已经不够了。它没有考虑人与计算机的整合,也没有考虑如何通过支持操作员的技能和动机来保持操作员的有效性。自动化系统总是需要大量的人员参与,因为涉及到效率以外的标准,例如,当某些操作模式的自动化成本与产品的价值不符时,或者因为公众不会接受没有人为成分的高风险系统。这表明人机协作的方法需要得到更充分的发展。Definer(1981)列出了在自动化决策过程中可能存在的人为干预水平。本文将讨论计算机干预人类决策的可能性。这些包括指导或建议操作员,减轻他的错误,提供复杂的显示,并在任务负荷高时协助他。Rouse(1981)称这些为“隐蔽的”人机交互。
3.1. 说明和建议。如果操作员只是充当换能器,使用计算机发出指令是不合适的,因为计算机同样可以很好地激活一个更可靠的换能器。Thompson(1981)列出了四种类型的建议,分别是:潜在原因、相对重要性、可用的替代行动以及如何实施行动。当遵循建议时,操作人员的反应将会变慢,而且比他自己产生活动序列时更不完整;而且他在“智能”方面没有得到任何实践练习。程序信息的有效显示也存在问题。
3.2. 减少人为错误。从简单的硬件联锁到复杂的在线计算,机器可以抵消人为错误。除非必须遵循特定的操作序列,否则对行动的效果进行这种“检查”是更合适的,因为这并没有假设用于达到这种效果的策略。在手动控制下,人类操作人员通常在几秒钟内获得关于他们行动结果的足够反馈,以纠正自己的错误(Ruffell-Smith, 1979),但Wiener和Curry(1980)给出了人类在设置和监控自动设备时,当他们没有得到足够反馈时,会犯相同类型的错误的例子。这也许应该设计在内。Kreifeldt和McCarthy(1981)给出了有关显示的建议,以帮助在中间序列中被中断的操作员。劳斯(1981)建议用计算机监测人眼运动,以检查仪器扫描是否合适,例如防止隧道视觉。
3.3. 软件生成的显示。vdu上越来越多的软显示为设计与任务中使用的特定知识和认知过程兼容的显示提供了令人着迷的可能性。这就产生了如此丰富的创造性推测的脉络,以致于指出在实践中存在困难似乎显得有些刻薄。一种可能性是只显示与特定操作模式相关的数据,例如启动、日常操作或维护。然而,需要注意的是,正常情况下理想的界面可能会掩盖异常情况的发展(Edwards, 1981)。
Goodstein(1981)使用Rasmussen(1979)提出的三个行为层次的分类,即基于技能的、基于规则的和基于知识的,讨论了与不同类型的操作员技能相兼容的过程显示。使用不同类型的技能在一定程度上取决于操作者的经验,尽管这些类型可能不是一个简单的连续体。Chafin(1981)讨论了界面设计建议如何取决于操作人员是否幼稚/新手/有能力/专家。不过,他关心的是,在没有时间压力的情况下,人类如何使用计算机数据库。时间压力下的人机交互产生了特殊的问题。基于知识的思维和“反射”反应之间的变化不仅仅是实践的作用,而且还取决于环境的不确定性,因此相同的任务要素可能在不同的时间使用不同类型的技能来完成。因此,它可能会混淆而不是帮助操作员给他一个显示,这仅仅是他的整体技能水平的功能。没有时间压力的操作员,如果他们发现他们有错误的显示类型,他们自己可能会要求不同级别的信息。这将会增加那些根据动态系统做出决策的人的工作量。因此,劳斯(1981)提出,计算机可能会识别操作员正在使用的技能类型,并改变显示(他没有说这可能是如何做到的)。我们不知道操作员对不在他们自己控制之下的显示变化会有多困惑。Ephraph和Young(1981)评论说,操作人员在活动模式之间转换需要时间,例如,从监视到控制,即使这些都在他的控制之下,而且人们认为改变显示模式也会出现同样的问题。当然,要确保不同的显示器是兼容的,还需要大量的注意。Rasmussen和Lind最近的论文(1981)是关于不同层次的抽象,操作员可能会考虑过程,这将定义要显示的知识库。同样,尽管操作员显然在不同的时间考虑不同层次的复杂性和抽象性,但不清楚他们是否能够在时间压力下使用或选择许多不同的显示。
3.4. 减轻人力负荷。如上所述,计算机可以通过简化操作员的决策或接管部分决策来减少人类的工作量。关于这方面所做的研究表明,这是一个复杂的问题。Ephrath和Young(1981)发现,人工控制单回路时,整体控制性能更好。但在驾驶舱模拟器的复杂环境中,使用自动驾驶仪也会更好。这表明辅助在高工作量下使用效果最好。然而,辅助类型的效果取决于工作量的类型。Johannsen和Rouse(1981)发现,在异常环境条件下,飞行员在自动驾驶仪下的计划深度较低,这可能是因为自动驾驶仪正在处理这些条件,但在紧急飞机条件下,飞行员的计划深度更多,他们认为自动驾驶仪将飞行员从在线控制中解放出来,这样他就可以考虑其他事情。Chu和Rouse(1979)研究了计算机辅助和自动驾驶两种情况。他们安排计算机在操作员有一个任务队列需要处理时接管决策,而他是手动控制的,或者在三个任务队列之后,如果是自动驾驶仪控制。Enstrom和Rouse(1977)的研究清楚地表明,为什么Rouse(1981)认为,只有在工作量计算能够实时完成的情况下,才有可能采用更复杂的在线方法,使计算机辅助适应人类的工作量。(如果说帮助人类有限能力的目标已经将计算推向了其能力的极限,这是一种讽刺,那就太草率了,因为技术总有办法跟上这种说法。)Enstrom和Rouse还提出了重要的一点,即人类必须知道计算机正在处理哪些任务以及如何处理,否则就会出现与人类团队一样的问题,因为没有明确的责任分配。Sinaiko(1972)的评论强调了人类操作员对计算机能力感知的重要性:“当负荷较轻时,人类似乎愿意让计算机承担大部分分配责任;当负载很重时,男性更经常介入(并)压倒电脑。”显然,除了技术方面的考虑外,计算机辅助的设计是一个多方面的问题。
4. 结论
在上一节中回顾的巧妙建议表明,没有时间压力的人可以成为令人印象深刻的问题解决者。困难在于,在时间紧迫的情况下,它们的效率会降低。我希望这篇文章既说明了自动化不一定能消除这些困难的讽刺意味,也说明了解决这些困难需要比传统自动化更大的技术创造力的可能性。
参考文献
班布里奇,L.(1975)。工作存储的表示及其在行为组织中的应用。在W. T.辛格尔顿和P.司布真(编),人力资源的测量。泰勒和弗朗西斯,伦敦,165页183。
班布里奇,L.(1981)。数学方程式还是处理程序?见J.拉斯穆森和W. B.劳斯编,同上,第259-286页。
毕比,k.s., F. Margulies, J. E. Rijnsdorp和R. M. J. Withers(1975)。人在控制系统中的作用。第六届国际会计师联合会大会,波士顿。
查芬,r.l.(1981)。一个控制模式人机界面模型。第17题。Conf Manual Control, UCLA。JPL出版81-95,pp. 669 682。
卢斯(1979)。多任务环境下人机决策责任的自适应分配。IEEE反式。系统。,《人类与赛博恩》。, smc - 9,769。
克雷克,F. M.(1979)。人类的记忆。安。启Psychol。, 30, 63。
Dellner, W. J.(1981)。用户在自动故障检测和系统恢复中的角色。见J.拉斯穆森和W. B.劳斯(编),同上,第487—499页。
邓肯,k.d.(1981)。工业过程装置故障诊断培训。见J.拉斯穆森和W. B.劳斯(编),同上,第553-573页。
邓肯,k.d.和A.谢泼德(1975)。用于从控制面板诊断设备故障的模拟器和培训技术。人体工程学,18,627。
爱德华兹,E.(1981)。目前的研究需要在手动控制。程序1欧洲安。《人类决策与人工控制》,代尔夫特大学,第228-232页。
爱德华,E.和F. P.李(编)(1974)。过程控制中的人工操作员。泰勒和弗朗西斯,伦敦。
艾克斯,C. L., C. K. Pasmooij, A. A. F. browwers和A. J. Janusch(1979)。人的控制任务:不同人机系统的比较研究。在j.e. Rijnsdorp(编),与工作人性化相关的自动化案例研究。佩加蒙出版社,牛津,第23-29页。
Enstrom, K. O.和W. B. Rouse(1977)。实时确定一个人如何在控制和监视任务之间分配他的注意力。IEEE反式。系统。,《人类与赛博恩》。, smc - 7,153。
Ephrath, A. R.(1980)。口头陈述。北约系统故障的人类检测和诊断研讨会,罗斯基勒,丹麦。
艾弗拉斯,A. R.和L. R.杨(1981)。飞机控制故障的监控与人在环检测。见J.拉斯穆森和W. B.劳斯(编),同前,第143-154页。
高德斯坦,l.p.(1981)。判别显示支持过程操作员。见J.拉斯穆森和W. B.劳斯(编),同上,第433-449页。
杰维斯,M. W.和R. H.波普(1977)。操作流程通信发展趋势。中央发电局,E/REP/054/77。
约翰森,G.和W. B.劳斯(1981)。飞行员在异常和紧急情况下解决问题的行为。程序1欧洲安。《人类决策与人工控制》,代尔夫特大学,第142-150页。
Kreifeldt, J. G.和M. E. McCarthy(1981)。中断作为用户-计算机界面的测试。第17题。加州大学洛杉矶分校的手动控制系统。JPL Publication 81-95, pp. 655-667。
麦克沃斯,n.h.(1950)。人类表现测量的研究。转载于h.w. Sinaiko(编),关于控制系统设计和使用中的人为因素的论文选集(1961)。多佛出版社,纽约,第174-331页。
马歇尔,e.c.和A.谢泼德(1981)。为连续装置操作员提供故障查找培训计划。见J.拉斯穆森和W. B.劳斯(编),同上,第575-588页。
莫布利,W. H., R. W.格里菲斯,H. H. Hand和B. M. Meglino(1979)。对员工离职过程的回顾和概念分析。Psychol。公牛。, 86, 493。
拉斯穆森,J.(1979)。论知识结构——人机系统环境下心智模型的形态。丹麦里索国家实验室,Riso - m -2192
拉斯穆森,J.和M.林德(1981)。应对复杂性。程序1欧洲安。《人类决策与人工控制》,代尔夫特大学,第70-91页。
拉斯穆森,J.和W. B.劳斯(编)(1981)。系统故障的人工检测和诊断。全会出版社,纽约。
劳斯,w.b.(1981)。动态系统控制中的人机交互。计算机调查,13,71。
Ruffell-Smith, P.(1979)。模拟器研究飞行员工作负荷与错误、警惕性和决策的相互作用,NASA TM-78482。
西奈子,h.w.(1972)。控制系统中的人为干预和全自动化。达成。人体工程学,3,3。
汤普森博士(1981)。商用机组系统故障检测:现状和未来趋势。在J. Rasmussen和W. B. Rouse(编),同城,第37-48页,
Wiener, E. L.和R. E. Curry(1980),飞行甲板自动化:承诺和问题。人体工程学,23,995。