ChatGPT(OpenAI)、Gemini/Bard(Google)、Copilot(Microsoft)など、新しい形の人工知能(AI)の民主化は、デジタル時代の社会革命と言っても過言ではない。
AIシステムの主流利用は、大学教育、法制度、そしてもちろん仕事の世界を含む多くの分野で破壊的な力を発揮している。
こうした変化は目まぐるしいスピードで起きており、研究は追いつくのに必死だ。例えば、ChatGPTプラットフォームは、わずか数ヶ月の間に、米国の統一司法試験で上位10パーセントにランクインするほどの能力を持つまでに改善された。このような結果は、米国の法律事務所の中には、裁判官の好みを検知して弁論をパーソナライズし自動化できるようにするため、一部のパラリーガルの仕事をAIソフトウェアで代替するところも出てきている。
しかし、技術の進歩には目を見張るものがあるが、AIの約束は、我々が40年以上にわたる組織心理学の研究で学んできたことと一致しない。戦略的マネジメントの専門家として長年働いてきた私は、組織の時にダークサイドとなる、非合理的な(あるいは愚かな)行動や手続きに、明確な(しかし補完的な)光を当て、AIがパッケージに加わった時にこれらがもたらす影響について考察する。
愚かな組織
仕事上で、自分のアイデアの方がより創造的で、かつ/またはより低コストであったにもかかわらず、「ルールはルールだ」という答えによって無効とされた経験はないだろうか?おめでとう!科学によれば、あなたは愚かな組織で働いていた(あるいは今も働いている)。
組織の愚かさは、程度の差こそあれ、すべての組織に内在している。それは、人間の相互作用は事実上非効率であり、仕事をコントロールするプロセス(例えば会社の方針)は、定期的に更新されない限り、組織そのものを愚かにしてしまう危険性があるという原則に基づいている。
自らをアップデートしようと努力する組織もあれば、多くの場合、時間がなかったり、日々の利便性を求めたりするために、組織が直面している現実にもはや適合しないプロセスを維持する組織もある。組織の愚かさには、機能的な愚かさと組織の無能という2つの要素がある。
機能的な愚かさ
組織における管理職の行動が、従業員、創造性、内省の関係を束縛するような規律を課すと、機能的愚劣性が生じる。このような組織では、管理職は合理的な推論や新しいアイデアを拒否し、変化に抵抗する。
その結果、従業員がチームとして働くことを避け、自分の専門的資源(知識や専門知識など)を組織のためではなく個人の利益のために捧げるという状況が生まれる。例えば、ある従業員が職場で機械の故障の警告サインに気づいても、「自分の仕事ではない」から何も言わないと決めたり、そもそも機械の故障を未然に防いだことよりも、機械を修理したことの方が上司に感謝されるからと決めたりする。
機能的な愚かさの中で、AIを職場に組み込むことは、この状況を悪化させるだけだろう。従業員は同僚との関係を制限され、できるだけ多くの専門的リソース(知識、専門知識など)を蓄積しようとするため、AIに情報を求める依頼を増やしがちになる。このような要求は、結果を文脈化することなく、あるいは分析に必要な専門知識なしになされることが多い。
例えば、機能的な愚かさに悩む組織で、従来は従業員を市場動向の分析に割り当て、その情報を別のチームに渡して広告キャンペーンを設定していたとしよう。AIを統合すると、組織の全員が(AIの反応を文脈化する専門知識を持っているかどうかにかかわらず)、上司の前での会議で最高のアイデアを出すために新しい市場動向を探すようになる危険性がある。
例えば、あるアメリカの法律事務所が裁判の中で、(ChatGPTの助けを借りて)全く存在しない6つの法律判例を引用した。最終的に、この行動は組織の効率を低下させたのだ。
無能な組織
組織の無能さは会社の構造にある。組織が環境、失敗や成功から学ぶことを妨げているのは、規則(しばしば不適切であったり、厳しすぎたりする)である。
仕事中にある仕事を与えられたとしよう。あなたは1時間で終わらせることができるが、締め切りはその日の終わりに設定されている。早く終わらせたほうが有利なこと、たとえば追加タスクがあるとか、早く終わらせたご褒美があるとか、そういうことがないので、あなたはタスクを終わらせるのに必要な時間を限界まで伸ばしたくなるかもしれない。その結果、あなたはパーキンソンの法則を実践することになる。
言い換えれば、あなたの仕事(とそれを実行するのに必要な認知的負荷)は、規定された期限全体に間に合うように調節される。パーキンソンの法則の傾向が強い組織において、AIの活用がどこまで作業効率を上げるかは難しい。
AIの職場への統合に関連する組織的無能の第二の要素は、「カキストクラシー」の原理、すなわち、管理職になる能力が最も低いと思われるにもかかわらず、そのような地位に就いてしまう個人のあり方である。
このような状況は、組織が、新しい役割の要件を満たす能力よりも、従業員の現在のパフォーマンスに基づいて昇進を優遇する場合に生じる。この方法では、従業員が現在担っている役割で能力を発揮できなくなった時点で昇進がストップしてしまう。組織内のすべての昇進がこの方法で行われると、結果的に無能な人間のヒエラルキーとなる。これはピーターの原理として知られている。
AIを統合した組織では、ピーターの原理はさらに悪影響を及ぼすだろう。例えば、仕事で時間のかかるいくつかの問題を解決するために、記録的な速さでプログラミング・コードを書くことで、同僚よりも早くAIをマスターできる社員は、同僚よりも優位に立つことになる。このスキルは、人事考課の際に有利に働き、昇進につながる可能性さえある。
無能と非効率
しかし、従業員がAIの専門知識を持っていても、新しい管理職がもたらす紛争解決やリーダーシップの課題に対応できるわけではない。新任マネジャーに必要な対人スキルがない場合(多くの場合そうである)、こうした新たな課題に直面したときに「インジェリタンス」(無能と嫉妬の組み合わせ)に悩まされる可能性が高い。
というのも、人間の能力(創造的思考、すべての人間関係の感情的側面)を前面に出さなければならず、AIの限界に達したとき、新しいマネジャーは無能になるからだ。無能だと感じたマネジャーは、決断を下すのに多くの時間を必要とし、自分の技術力を前面に出し、組織に自分の専門性を正当化するために、存在しない問題の解決策を見つける傾向がある。例えば、新任マネジャーは、チームの従業員が1分間に打つキーストローク数を(当然AIを使って)監視することが不可欠だと判断するかもしれない。もちろん、これは決して仕事の成果を示す指標ではない。
要するに、組織のような非合理的な環境において、AIのような合理的なツールが、マネジャーが期待するように自動的に効率を高めてくれると考えるのは間違いなのだ。なによりも、AIの導入を考える前に、マネジャーは自分たちの組織が(プロセスと行動の両面において)愚かでないことを確認する必要がある。
コメント