■ TOP ■ 概要 ■ 研究体制 ■ 研究成果 ■ アウトリーチ ■ 解説講座 ■ リンク ■ お問合せ |
科学技術振興調整費 プロジェクト
「状況・意図理解によるリスクの発見と回避」
アウトリーチ 解説講座
リスク環境における人と機械との協調
1.はじめに
機械の高機能化・高知能化が進展している.たとえば航空の分野では,離陸時をのぞくほとんどすべてのフェーズで自動操縦が可能である.しかし,いかに機械 の能力が高くとも,事故を防いだり,被害を軽減するためには人間の存在が不可欠である.御巣鷹山事故のときと同様に操縦系統の油圧がゼロになりながらも, エンジンのパワー調整だけで空港に到達できた例[1]もある.
いざというときは人に頼らざるを得ないにもかかわらず,旧来の自 動化は,「自動化できる機能は自動化し,できないものを人に担当させる」といったように,技術主導で進められてきたことは否めない.機械の能力が高いだけ に,置かれている状況におけるリスクがどれほど高いものであるかが人に伝わらず,機械の能力を超えるまで放置され,結果として事故に至った例も少なくない (詳しくは[2]を参照).
技術主導の自動化の進展からの反省として生まれてきた重要な概念が,「人間中心の自動化」[3]である.この言葉には様々な解釈があるが,典型的なものは「人が決定権を持つべきである」との主張である.
人 間中心の自動化は,ややもすると「つねに人が決定権を持つべきである」と解釈される.たしかに,航空などいくつかの分野では,意思決定の権限をつねに人に 持たせることはそれほど不自然には映らないかもしれない.その一つの理由には,意思決定に係わる人が,高度に訓練され,高いレベルでスキルや能力がそろっ た職業人である点があげられる.もう一つ重要な理由に,航空機の離陸時などごく特殊な状況を除けば,意思決定にかけてよい時間は4,5秒程度はあるケース が多いことである.たとえば,航空機衝突防止装置TCAS(Traffic alert and Collision Avoidance System)が他機との衝突回避に必要な操作(上昇または降下)を回避アドバイザリとしてパイロットに提示するのは,脅威機への最接近予想時刻の 15〜35秒前であり,パイロットが回避アドバイザリ発出後5秒以内に操作を開始すれば,衝突は避けることができる[4].
今日,自動車の分野でも,機械の知能化が進み,人と機械との協調をいかに図るかが重要な課題になりつつある.しかし,自動車の場合,運転免許をとるために 一定の訓練を受けるとはいえ,ドライバのほとんどは一般人であり,操縦スキルや認知・判断の能力のばらつきが著しい.また,先行車の急な減速や,隣接レー ンからの割込みなどの危険事象に対して,状況を認知し,何をなすべきかを判断し,実行に移すまでに許される時間は1,2秒程度しかない場合も少なくない. したがって,自動車の運転支援システムのデザインにおいては,古典的な人間中心の自動化の考え方をそのまま適用すれば事足りるとは限らない.
本稿では,自動車の運転支援を例にとって,人が対応に失敗するリスクとともに,機械に権限を与えることのリスクを考え合わせて人間機械協調系をデザインすることの重要性を考察する.
2.自動車の運転支援
日本では,アダプティブクルーズコントロール(ACC),プリクラッシュセーフティ(PCS)などがすでに実用に供されている.ACCは,比較的平穏な交 通状況において,先行車がない場合には定速走行をし,先行車がある場合にはそれとの車間を一定に保つべくアクセルやブレーキの制御を行うものである [5].PCSは,前方車両との衝突がさけられないときに,衝突の被害を軽減するための減速制御などを行うシステムである[6].
ACCとPCSは,追突のリスクを低減させるという意味で相互に関連性があるが,現状ではそれぞれ個別のシステムとして開発されている.実際,A車種にACC,B車種にPCS,という形で搭載されているケースが多い.
ACC が動作する平穏な領域とPCSが動作する衝突直前の領域との間には,「事故の発生が迫っているものの,直ちに対処すれば防止しうる」領域があるが,PCS はこのような領域では十分な減速制御を行わない設計となっている.その一つの理由は,ASV(Advanced Safety Vehicle)推進計画における「運転支援の考え方」[7]に表れているように,「現在のシステムでは人間並みにあらゆる場面で的確な認知→判断→操作 を行うことができない以上,システムによって衝突の手前で車両停止するようにするとドライバーに『いつでも衝突する前に止まってくれる』との過信を与え制 動操作がおろそかになる,との可能性について配慮すべき」[8]と考えられていることよる.
たしかに,支援システムに対する過 信については,従来から自動化の進んできた航空分野などにおいて,事故の一因となりうることが指摘されてきた[9-11].過信や過度の依存を防ぐための 配慮は不可欠である.しかし,システムが安全制御に踏み込むことによって人間機械系全体としての安全性向上につながる可能性があるのなら,その技術をうま く生かすことを狙ってみるべきだとの考え方もありうる.
事故が起こるかどうかの瀬戸際において,機械は人をどのようにサポートすべきかであろうか.このことについて,安全確保の判断は誰がすべきかという視点から,次節で考えてみよう.
3.安全確保の主体
長時間にわたって平穏な運転が続く状況では,ドライバが周囲の状況に対して警戒心を強く保ち続けることが次第に難しくなることがある.警戒心の低下やシス テムへの過信は,ドライバの対応に遅れをもたらしうる.ここで先行車急減速などの危険事象が発生した場合,システムとしてはどのような対応をすべきであろ うか.
一つの考え方に,「運転の主体は人間である」ことを大前提とし,あくまでも事故回避の判断を人間に行わせようとするも のがある.これは,「人間が(つねに)決定権を持つべきである」とする古典的な「人間中心の自動化」に立脚するものといえる.この場合,システムの機能と しては,警報の提示によるドライバの状況認識や意思決定の支援が中心となる.
他方で,「場合によっては,システムが自律的に 判断して安全確保のための制御を行うことを許すべきだ」との考え方もありうる.すでに,プロセス制御や航空機の分野においてさえ,状況に応じて人間と機械 との役割分担を動的に変更するアダプティブ・オートメーション(AA)[12,13]が安全性の確保に有効であることが,数理解析や実験的検証で明らかに なっている[たとえば,14].とくに自動車では,時間的切迫度が高いケースが多いことなどから,AAによる安全確保への有効性が期待されている [15].
AAにおける人と機械の役割分担の変更には,いくつかの方式がありうる.その一つに,人間が対応するとすれば負担が 高すぎる,あるいは能力的に対応が難しい場面に直面したときに,システムが制御に介入するタイプがある.また,人が遂行しているタスクの実施状況が芳しく ないことを検知した場合や,ドライバの負担が高すぎたり低すぎたりする状態を検知したときに,役割分担を変更するタイプもある.
「運 転支援の考え方」が指摘しているように,単純に「先行車に急接近して緊急性の極めて高い事態になったときには,つねにシステムが介入して事故回避のために 減速制御を行う」などの方式は,少なくとも現時点では「事故回避はシステムに任せればよい」といったドライバの過度な依存を招く懸念はぬぐいきれない.む しろ,「危険事象が発生していて,かつドライバが適切に対処できる状態にないときに制御介入する」方式を検討する必要がある.
次節では,運転行動に対するドライバの注意が低下している状態においてAAが有効であることを,コンピュータシミュレーションによって示した例を紹介する.
4.人の状態に適合した機械の支援
ド ライバが,機械を過信していたり,周囲の状況が現在から将来にわたって平穏でありつづけるであろうと安心しきっている状態を考えよう.この状態で先行車が 急減速したら,どのように安全が阻害されるであろうか.この問に対する答えを得るにあたり,実車で実験を行うことは,事故発生の可能性が高いという点で許 容されうるものではない.ドライビングシミュレータを用いる手法にも困難が伴う.実験室内では被験者はどうしても緊張しやすくなり,「運転に対する注意が 低下した状態」を完全に再現するのが難しいからである.
そこで,離散事象シミュレーションの手法を用いた解析が有効である.ここでは,その一例[16]を紹介する.そこでは,人間工学における意識フェーズ[17]の概念に基づいて,ドライバの心的状態とその推移をモデル化している.
こ のモデルでは,先行車の減速に対してACCの車間維持のための制御をドライバが観測し,その結果により心的状態(state)のレベルが変化しうる.起こ りうる先行車の減速には2種類あり,1つはACCの通常の減速制御の範囲で十分に対応可能な場合,いま1つはACCの減速能力の限界付近までの制動を要す る場合である.前者を一定回数(T回)経験すると,警戒心が緩和されて心的状態が1レベル下がり,後者を1回経験すると,警戒心が高まることによりレベル が1つ上がることが仮定されている.
さて,ACCの減速能力では十分な車間を確保できないほどに先行車が急減速したときでも,ACCとは異なる機能を持ったシステムが引き続き対応することはできる.このシステムはどのようにドライバを支援すればよいだろうか.たとえばつぎの4つの方策が考えられる.
方策1:システムが先行車の急減速を検知したとき,衝突警報を発し,ドライバに追突回避のためのブレーキ操作を促す.
方策2:システムが先行車の急減速を検知したとき,衝突警報を発し,追突回避のためのブレーキ操作を促す.一定時間(たとえば,2秒)を経過してもドライバがブレーキ操作を行わないときは,システムが自動的に0.4m/s2程度の非常制動をかける.
方策3:システムが先行車の急減速を検知したとき,非常制動を行う旨をドライバに報知するとともに,システムが非常制動を行う.
方策4:システムが先行車の急減速を検知したら,直ちにシステムが非常制動を行い,その後に非常制動を行った旨をドライバに報知する.
な お,これらの方策は,一般には「自動化レベル」(Level Of Automation: LOA)[18, 19]で統一的に議論できる.たとえば,方策1はLOA4,方策2はLOA6,方策3はLOA6.5[19],方策4はLOA7に対応する.「つねに人間 が決定権を持つべきである」ことを要請する古典的な人間中心の自動化の立場から容認されるのは,LOA5までである.
1 回の走行では,ACCで追従中に100の先行車減速が起こるものとする.99番目まではACCが対応できる減速であるが,ときおりヒヤリとする事象,すな わちACCの減速能力の限界に近い減速が起こるものとする.100番目はACCの減速能力を超えた先行車の急減速である.警戒心の緩和されやすさ(T), ヒヤリとする事象のおきやすさ,ACCの先行車との設定車間それぞれについて典型的な条件をいくつか挙げ,その組合せごとに5000回の走行のモンテカル ロシミュレーションを行った(この実験では,システムが非常制動をかけた後の影響は考察の対象外であり,本実験の範囲内では緊急時の安全確保の能力は方策 3,4で同一であることから,ここでは方策3のみを考察している).
実験の結果から,様々なことがわかるが,たとえば,方策 1(LOA4)では警戒心が緩和されやすい(Tの値が小さい)ときには事故に至るケースが多いのに対し,方策3(LOA6.5)の場合,いずれの条件にお いても事故は発生していない.逆に,方策1(LOA4),2(LOA6)でも,警戒心が緩和されにくく(Tの値が大きく),ヒヤリとする経験が多い場合に は,事故はほとんど発生していない.
これらの結果は,つぎのように解釈できる.すなわち,ドライバの判断が遅れがちになる場 合,先行車急減速に対しては,ドライバの判断を待たずに制御介入する方式が安全確保に貢献する.一方,ドライバの警戒心が高く,警戒心を低下させないよう な交通環境の場合には,ドライバに判断をゆだねたり,判断を待つ方式でも高い安全性を確保できる.
したがって,平穏な状況が 続く中での突発的な事態にはドライバが十分に対応できない可能性があるという点で,ドライバにつねに判断を押し付けるのは必ずしも最適ではない.他方で, 危険な事態になったからといって,直ちに機械が安全制御を行わなければならないとも限らない.すなわち,状況とそこでのリスクに応じて,ドライバへの支援 を調節すべきといえよう.
5.機械による介入への受容と過信
「状況とそこでのリスクに応じて」とは,外的環境が同一でも,ドライバの心的状態(の推定)によって,機械の支援形態は異なりうるということである.この ような機械の振る舞いは,人にとってわかりやすいものであるだろうか.また,場合にとっては判断の権限を機械に奪われることを,ドライバは受け入れること ができるであろうか.
人と高度な知能をもった機械とが係わりあうときに,機械が何をしているか,どのような意図でそれをしよ うとしているかがわからなくなる現象が生じうることが知られている.「オートメーション・サプライズ」[9, 20]とよばれるこの現象は,システムへの不信感や不使用につながりうる.
オートメーション・サプライズの典型的な例は,機械 が人に黙ったまま制御を実行することによって発生する.実際,LOA7の緊急安全制御に対して驚き,信頼感の低下につながった実験例もある[21].そこ で,オートメーション・サプライズを防止し,信頼を確保するための一つの方法は,自動化のレベルに6.5[19]を採用すること,すなわち,制御を実行す る前にそのことを人に伝えることである(4節で方策3を挙げているのは,まさにこの理由による).実際,LOA6.5がオートメーション・サプライズの抑 制に有効であることを示す実験例もある([22]).
機械による介入には,安全の確保のためにドライバの意図する行為をやめさ せる(プロテクション)ことが含まれる.その一例としては,「ドライバが隣接レーンに注意を払わないまま車線変更したいと考えていると推測されるとき,車 線変更を行うと隣接レーンの他車と衝突する危険性があると判断されたなら,ステアリングホイールを重く動かしにくくする」といったものが挙げられる.これ は,ドライバの意図に反する介入になりうるため,オートメーション・サプライズの防止のみならず,部分的にでも決定権を奪われることに起因する不信を回避 することが重要である.すなわち,LOAを6.5にした上で,具体的にどのようにインタフェースをデザインするか注意深く検討する必要がある.
他方で,運転に対するドライバの注意が低下している状態でいざというときに安全確保に貢献するシステムであっても,それが運転に対するドライバの注意低下 を助長するものであってはならない.緊急時の安全制御を有効に機能させるためには,緊急でないときの人の注意のマネジメントが不可欠である.
6.おわりに
機 械による支援に対する過信状態の下での運転行動の解析や支援システムのデザインは,通常の認知心理学的実験のみでは困難である.本稿では,コンピュータシ ミュレーションによるアプローチを紹介したが,数理モデルなどを用いるアプローチも不可欠である.そこでは,心的状態変化と運転行動のモデルを精緻化し, システムデザインの検証を行えるように発展させていく必要がある.
人の状態によらず支援を提供する場合,不必要な支援を与え,わずらわしさをもたらす可能性もある.逆に,人の状態を加味すれば,リスクの低減に真に必要な支援を提供できる可能性があるが,それには,人の状態を正確に把握することが必要不可欠である.
参考文献
- 桑野,前田,塚原:『そのとき機長は生死の決断』,講談社,2002
- 稲垣:「ヒューマン・マシン・システム-高信頼性が損う安全性」,システム/情報/制御,Vol. 41, No. 10, pp. 403-409, 1997
- C. E. Billings, “Aviation Automation”, LEA, 1997.
- 稲垣,「絶対安全への挑戦:人を支援する知的技術」,人工知能学会誌, Vol. 17, No. 6, pp. 732-737, 2002.
- JIS D 0801(ISO/DIS 15622) 自動車-アダプティブ・クルーズコントロール・システム-性能要求事項及び試験手順,日本規格協会,2002
- 小高,ほか,「追突速度低減システムの開発」,HONDA R&D Technical Review, Vol. 13, No. l, 2001
- 国土交通省自動車局,運転支援の考え方,http://www.mlit.go.jp/kisha/kisha03/09/090623/02.pdf
- 国 土交通省自動車局,「『運転支援技術について安全上留意すべき事項の確認』の意見募集について」(平成15年6月23日)に寄せられた意見とそれに対する 国土交通省の考え方,http://www.mlit.go.jp/pubcom/03/kekka/pubcomk090623_.html
- 稲垣,「『人間中心の自動化』は何を目指す?」,計測と制御,Vol. 37, No. 8, pp. 572-577, 1998.
- 伊藤,「信頼されすぎない高信頼度なシステムへ」,日本信頼性学会誌,Vol. 25, No. 4, pp. 354-360, 2003.
- R. Parasuraman, and V. Riley, “Humans and Automation: Use, Misuse, Disuse, Abuse”, Human Factors, Vol. 39, pp. 230-252, 1997.
- T. Inagaki, “Adaptive Automation: Sharing and Trading of Control”, in E. Hollnagel (ed.), Handbook of Cognitive Task Design, pp. 147-169, LEA,2003.
- M. W. Scerbo, “Theoretical Perspective on Adaptive automation”, in R. Parasuraman and M. Mouloua (eds.), Automation and Human Performance, pp. 37-63, LEA, 1996.
- N. Moray, T. Inagaki, and M. Itoh, “Adaptive Automation, Trust, and Self-Confidence in Fault-Management of Time-Critical Tasks”, Journal of Experimental Psychology: Applied, Vol. 6, No. 1, pp. 44-58, 2000
- T. Inagaki, “Design of Human-Machine Interactions in Light of Domain-Dependence of Human-Centered Automation,” Cognition Technology & Work, 2006 (in press) (online version is available at: http://dx.doi.org/10.1007/s10111-006-0034-z).
- T. Inagaki and H. Furukawa, “Computer Simulation for the Design of Authority in the Adaptive Cruise Control Systems under Possibility of Driver’s Over-Trust in Automation”, Proc. IEEE SMC 2004Conference, The Hague, pp. 3932-3937, 2004.
- 橋本,『安全人間工学』,中央労働災害防止協会,1988.
- T. Sheridan, “Telerobotics, Automation, and Human Supervisory Control”, MIT Press, 1992
- T. Inagaki, N. Moray, and M. Itoh, Trust, Self-Confidence and Authority in Human-Machine Systems”, Proc. IFAC-MMS’98, pp. 491-496, 1998.
- N. B. Sarter, D. D. Woods, and C. E. Billings, “Automation Surprises”, in G. Salvendy (ed.), Handbook of Human Factors and Ergonomics, 2nd ed., Chapter 57, pp. 1926-1943,1997.
- 伊藤,稲垣,Moray,「システム安全制御の状況適応的自動化と人間の信頼」,計測自動制御学会論文集,Vol. 35, No. 7, pp. 943-950, 1999.
- 高江,稲垣,伊藤,Moray, 「航空機の離陸安全のための人間と自動化システムの協調」,ヒューマンインタフェース学会論文誌,Vol. 2, No. 3, pp. 217-222, 2000.
|
■ プロジェクト事務局
このページに関するお問い合わせは下記までお願いします。 |