今回は、Joel-Henry Grossard氏の重要なコメントを皆さんに紹介し、私の意見を述べようと思います。彼は次のように言っています:
「しかしながら、平均値と標準偏差が同じ分布が2つあって、数字をよく見ると大きく異なっていることがあり得る。時間の因子が欠けている。数字が時間的にどう分布しているか知るのは、意思決定に不可欠だ。それには統計的プロセス管理が役に立つ。」
ところで、普段見ている変数が、時間的にどう振る舞うか本当に分かっていますか?
データを多量に収集して時間分布を記録できる工場のプロセスを考えてみましょう。得られるのは、あるひとつの時系列の結果であって、可能な分布のひとつを表わすグラフに過ぎず、真の分布関数の複製ではありません。通常、我々には分布関数の完全な特性は本当は分かりません。たとえば、オペレータは1時間で疲れ、その疲労の影響が成果物の品質に現れるとすれば、我々はある一定の品質劣化に気づくに違いありません。しかし、それが原因になり得ると疑っていない限り、品質劣化の原因がそれと分かる可能性はそう大きくないでしょう。
プロセスを完全に掌握しているなら、そのプロセスの基本的なパラメータはそう大きく変化していないと言えるはずです。私の理解では、そういう都合の良い場合ですら、Deming教授も統計学の力に全面的に頼らず、ひたすら標準的な経験則に従って十分良い品質管理を実現しました。
ところが、私たちの完全な支配が及ぶ範囲の外に出てしまうと、取り巻く環境の不確実さについてもっと無知になります。記録した結果がすべて同じ分布関数から生じたのかさえ分かりません。
ハリー・ポッターの新作が突然出たとしましょう。シリーズ最後の本が出たのは2007年でした。最初の1週間で何冊売れるか予測可能な統計モデルはどんなものでしょう? 確かに過去の実績データがあって、ある程度は使えるでしょうが、前シリーズと突然の新作の間が長く空いたので、元々の分布関数は変化してしまっており、我々にはそれがどう変化したか正確には分かりません。前作に比べて需要が増えるか減るかさえ、私たちには分からないのです。
それって我々には何も分からないということでしょうか? どんな数字もあり得るってことでしょうか? 私たちは、次の本の需要に影響するパラメータのいくつかは知っています。オリジナルシリーズの評価は未だに高い。しかし、過去の読者の多くはもう歳をとっていて、彼らの関心がまだ高いかどうか明らかではありません。ですから、おおよそ妥当な最小の需要は、ある程度直感的に見積もることはできます。また、需要がどれくらい増えるかも、前作の需要を考慮に入れて、おおよその見積もりはできますが、前回の実績にいったいどんな意味があるのでしょう? ひとつ言えるのは、前作は単発の出来ごとではなく、シリーズ全体が大成功だったことです。しかし、結果の詳細や時間的な分布がどうだったかは、予測の質をそう大きく高めるものではありません。
ここで私は、「おおよそ妥当(合理的)」という言葉を特に強調しておきたい。第一、時には不合理なことが起きるのを私たちは知っています。とは言え、私たちには普段の気配りと長年の経験に基づく直感があることを考えると、ほとんどの場合、起きることは私たちには合理的に思えるものです。私たちの直感は、多くの小さな出来事と、それらを合理的と思うか不合理と思うかによって形成されるのです。
この直感は、いつでも起き得る日常的な不確実性が関わる意思決定の指針にする上で、価値が高いが、同時に部分的で不完全な情報源です。
とは言え、不完全でも部分的な情報は、私たちが普段から持っている役に立つ情報です。多少でも害を及ぼす意思決定をすべて防ぐには不十分でしょうが、全体として損害よりも利益の方がずっと大きくなるように私たちを導くには十分です。
しかし、この部分的な情報を故意に無視すれば、我々は確実に害を及ぼします。ところが、ほとんどの組織がそれをポリシーとして実際に行っており、一点見積もりを使って予測を立てさせ、その数字を売上目標として第一の評価尺度にするという具合に、不確実な状況で無理やり確かさを強要しているのです。
私は、不確実な環境で確かさ(あるいは精度)を求めるのは、後で不当な批判を受けるのが怖いからだと断言します。私は、実績評価に対する人の恐怖の因果関係をテーマにして、組織と人の関係の厄介な面を浮き彫りにしたいと思っています。できれば次の記事は、完全には消せない本質的な不確実性を話題にして書こうと思います。
著者: エリ・シュラーゲンハイム
飽くなき挑戦心こそが私の人生をより興味深いものにしてくれます。私は組織が不確実性を無視しているのを見ると心配でたまりませんし、またそのようなリーダーに盲目的に従っている人々を理解することができません。