見出し画像

意思決定のアルゴリズム介入、組織研究、会議の科学

ピープル・アナリティクスの台頭と組織研究の未来

Jeffrey T. Polzer
Harvard Business School,

キーワード: ピープル・アナリティクス アルゴリズム 意思決定 ネットワーク チーム ミーティング 文化 モニタリング 計算社会科学 組織行動

要約

組織は新しいテクノロジーを採用し、新しいデータソースを利用することで変貌を遂げ、従業員の経験を変化させ、組織研究者に対応を迫っている。従業員が日々の活動を行う中で、膨大なデジタルデータが生成される。これらのデータを既存の手法や新たな分析手法と組み合わせることで、職場における人間の行動を研究するための前例のない機会が生まれ、新たな実践分野としてのピープル・アナリティクスの台頭に拍車がかかっている。

本章では、ピープル・アナリティクスという新たな分野と、データやアルゴリズムの使用に伴う新たな組織現象について説明する。これらの実践は、意思決定プロセスや仕事の進め方から、コミュニケーションやコラボレーション、従業員を監視・管理する試みまで、個人、グループ、組織がどのように機能するかに影響を及ぼしている。これらの各領域について、最近の研究を説明し、新たな研究の方向性を提案する。これらの領域の多くは、コンピューテーショナル・ソーシャル・サイエンス(計算社会科学)という新たな分野と交差しており、そこでは、学問分野の研究者たちが、拡大するデジタル化されたデータの数々に計算手法を適用し、組織の領域にまで広がる関心を追求している。

組織学者は、仕事の未来に関する研究の最前線に立ち続けるために、組織と学問の進歩の橋渡しをするのに適した立場にある。

多くの人々の働き方は、永久に破壊されてきた。進行中のデジタル変革や変化し続けるテクノロジーに加え、COVID-19の大流行は、人々がどこで仕事をするか、どのように協力するか、どの企業や仕事が生き残るかなど、雇用のあらゆる側面に疑問を投げかけた。
この不確実性の中で、2つのパターンが明らかになった。第一に、こうした力によって、仕事をする上でのテクノロジーへの依存が加速している(Leonardi & Neeley, 2022)。

第二に、組織のリーダーは、従業員の雇用、監視、報酬の与え方から日常業務の遂行方法に至るまで、従業員生活の様々な側面を定量化し、影響を与えるために、多くの場合、業務関連テクノロジーによって生成されるデータをますます利用するようになっている(Kellogg et al.、2020;Kresge、2020;Tambe et al.、2019)。

ピープル・アナリティクス・グループは、こうした活動の中心にいる(Ferrar & Green, 2021)。ピープルアナリティクスという用語は、従業員関連の意思決定や実務に取り組むためにデータ主導型のアプローチを用いることを広義に指す1。私は、ピープルアナリティクスを、データ収集、分析、翻訳を行う組織機能と、意思決定プロセスや組織全体の従業員活動に情報を提供し支援するために従業員データを活用する一連の実務の両方と定義する。

組織内でのこの機能の台頭は、消費者行動(Erevelles et al., 2016)、金融予測(Martin & Nagel, 2022)、ヘルスケア(Davenport & Kalakota, 2019)、社会科学(Lazer et al.) 他の分野のデータがブレークスルーをもたらすように、従業員データも経営上の差し迫った疑問に答えるのに役立つ

採用や昇進に最適な候補者は誰か?
従業員は幸福感を維持しているか?
従業員はリモートワークでも効果的に協力し、生産性を上げているか?
誰が退職しそうなのか?

ピープル・アナリティクス・チームは、これらの質問に答えるために行動調査のツールを使用し、テクノロジーを活用した調査や実験、関連する手法を拡大している(Salganik, 2019)。このような伝統的な手法で積極的に収集されるデータとともに、従業員は受動的にデジタル痕跡データ(製造現場、配送トラックの中、企業の会議室の周辺、在宅勤務中のノートパソコンなど、人々が電子機器やプラットフォームを使用する際に生成される行動の記録された痕跡)を生成している(Edelmann et al. データソースが拡大し、アルゴリズムが改良されるにつれ、個人や組織の機能に対する影響は甚大なものになる可能性がある。

幸いなことに、組織内で収集され使用されるデータは、組織研究に再利用することも可能であり、職場での行動を測定し人々を研究する新たな方法が開かれている(Salganik, 2019)。「ピープル・アナリティクス」は、タレント・アナリティクス、ワークフォース・アナリティクス、HRアナリティクスなどと同じ意味で使われている。

FerrarとGreenは、ピープルアナリティクスを「洞察力を明らかにし、ビジネス成果を改善するための提言を提供するための、従業員と労働力のデータ分析」と定義している(2021年、p.5)。ある領域では、研究者は新しいデータソースを使用して、既存の理論の新しいテストを考案している。

他の領域では、革新的な組織的実践を研究する学者たちによって、研究課題そのものが斬新なものとなっている。これらの領域にわたって、新たな研究を説明し、探求すべき新たな道を提案する。最初のセクションでは、従業員の様々な意思決定を導くアルゴリズムの利用が拡大していることを認識することから始める。

意思決定者がどのような場合にアルゴリズ ムの入力を意思決定に取り入れる可能性が高い か、また、そのような選択に関連するメカニズム を検証する研究について述べる(Mahmud et al.) この問題を理解し、対処しようとする研究(Ajunwa, 2021; Cowgill & Tucker, 2020など)とともに、アルゴリズムによるバイアスの原因を明らかにする。

次に、個別の意思決定にとどまらず、従業員の日常的な経験に浸透しているアルゴリズムを探求する研究について述べる。アルゴリズムに関するこのような研究のほとんどは、個人レベルの分析で考えられており、アルゴリズムの出力によって影響を受ける個々の意思決定者や個々の従業員が関与している。アルゴリズムと個人に焦点を当てることを超えて、私はコミュニケーションとコラボレーションを含む社会的活動を扱う。

革新的な方法でデジタルデータを組み合わせ、分析するネットワーク研究について述べる(例えば、Rajkumar et al.) 組織が社内でネットワーク手法を使って従業員の相互作用を分析する中で、これらの実践が従業員にどのような影響を与えるかを理解するための新たな研究の道を提案する。組織におけるコラボレーションがよりネットワーク化され、流動的になったとしても(Mortensen & Haas, 2018)、チームは引き続き研究の焦点である。

集団的知性を定量化し、向上させようとする動き(Gupta et al., 2019; Riedl et al., 2021)や、アルゴリズムを使って人とチームをマッチングさせようとする動き(Gómez-Zará et al.) 次に、チームプロセスを研究するのに最適な場である会議に関する研究を取り上げる。

会議が組織生活において重要であり、会議活動の広範なデジタル記録が現在利用可能であることから(例えば、DeFilippis et al. 会議は、1つのイベント内のミクロなオーディオやビデオインタラクションから、組織全体の会議のマクロなパターンまで、豊富なデータソースとなり、会議の科学と呼ばれる新たな研究領域に貢献する(Mroz et al., 2018; Rogelberg et al.) 会話分析に関する研究は、対人コミュニケーションの領域に新たな息吹を吹き込んでいる。

社会的相互作用は常に組織機能の中心にある。しかし、構造化されていない会話データの大規模サンプルに高度なアナリティクスを適用することで、言葉の相互作用を研究し始めたのはごく最近のことである(Yeomans et al.) 二人組や小集団での会話から、より大きな集団でのコミュニケーションに移行し、文化研究者が規範や共有された行動パターンを運用化するために、どのように言語に目を向けてきたかを議論する。

例えば、新入社員間の社会化を測定するために、電子メールのテキストに自然言語処理を使用する(Srivastava et al.) これらの研究テーマをつなぐ共通の糸は、個人の行動、対人相互作用、組織機能の理解における最近の進歩の根底にあるデジタル痕跡データである。これらのデータは研究にとって多くの利点がある。これらのデータは通常、従業員が仕事を達成するために使用するシステムやプラットフォームによって自動的にレンダリングされ、保存されるため、従業員側の努力は必要ない。極めて大規模であっても、低い限界費用で継続的に収集することができ、組織の包括的なビューを提供することができる(Gal et al., 2017; Kresge, 2020)。

しかし、従業員データを収集・分析する組織にとっては、どうしても難問が生じる。特に、企業が従業員データに対して取っているアプローチの幅が広いことを考えると、データの粒度が高ければ高いほど、そのデータを生成した従業員のプライバシーを侵害する可能性が高くなる。特にリモートで働く従業員のデジタル活動を追跡することで、従業員の行動や生産性を監視する企業が増えている(Davis, 2022)。

デジタル監視システムを導入している企業もある(Zuboff, 2019)。プライバシー、従業員モニタリング、透明性についての理解を深めることを目的とした最近の研究について述べる(Patil & Bernstein, 2022)。従業員データの機密性と認知された有用性の間の緊張を考えると、従業員モニタリングに関連するあらゆる結果に関するより多くの研究が必要である。

ここで取り上げるトピックは、網羅的なものではなく、組織で広く行われているピープルアナリティクスの実践に関連する研究分野を示すものである。研究者は新しいデータソースを用いて既存の理論を検証しているが、最大のチャンスは、組織が内部データやアルゴリズムを組織生活の隅々にまで組み込んでいる斬新な方法から生じる新たな研究課題を研究することかもしれない。

このような新しい現象は、経験的な進歩だけでなく、理論的にも刺激を与えることができる。組織の現象を研究するためにデジタルデータを分析する研究者と、組織内部の目的のために関連する分析を行う組織との間の相互作用は、組織研究をますます特徴づけるようになるだろう。

私は、この展開を、組織研究を実施するための新たな機会と課題をもたらす、研究エコシステムのより大きな変化の一部として捉えている。最後に、これらの傾向を、Lazerら(2020年、1060頁)が「複雑で、典型的には大規模で、人間の(時にはシミュレートされた)行動データに対する計算手法の開発と応用」と定義した計算社会科学の分野と結びつける。

ピープルアナリティクスのプロジェクトが多様なスキルを持つチームメンバーによって実施されることが多いように、計算社会科学の仕事は一般的に学際的である。どちらの場合も、コンピュータやデータサイエンティストは、実質的な学問分野やビジネスの専門家と協力するのが一般的である。

量、速度、多様性(Kresge, 2020)がますます増大するデジタルデータの新たな情報源は、いわゆるビッグデータの特徴であり、このようなコラボレーションを推進する補完性を生み出す。計算社会科学における新たな研究の中には、研究課題の本質や、手法や分析の適用可能性において、組織現象に直接関連するものもある。

2つの例として、計算言語学による自然言語処理技術の組織ユースケースへの応用(Chatman & Choi, 2022)と、組織ネットワークに適応可能な物理学におけるネットワーク手法の進歩(Song et al.) 組織研究者は、データや分析スキルを文脈的な知識や理論と統合する方法で、学問的研究と組織的問題の橋渡しをする強い立場にある。

様々な分野や企業における人工知能の応用の拡大は、そのような仲介の機会を増やすかもしれない(Tambe et al.) また、ピープル・アナリティクス・グループが採用する様々な手法は、意思決定プロセス、バイアス、コミュニケーション、文化、従業員の自律性と経営管理との間の基本的なトレードオフなど、中核的な学問領域のメカニズムや境界条件を研究するための実験台にもなり得る。

このような新たな可能性を踏まえ、私の目的は、データが組織を変化させ続け、私たちが組織を研究する方法も変化させ続ける中で、学者たちが探求すべきロードマップを描くことである。このような地形をマッピングすることで、本章は、研究者が自らの研究を位置づけ、自らの研究課題に対する新たな道筋やつながりを見出す助けとなるだろう(Chatman & Flynn, 2005; Polzer et al.)

組織研究者にとってのチャンス 組織では、従業員データの的を絞った分析によって、幅広い問題を知ることができる。ピープルアナリティクスチームの一般的な出発点は、雇用と離職のデータを分析することであり、その後、昇進、報酬、従業員のライフサイクルの他の要素に拡大する(Tambe et al.) これらのプロセスの中核には意思決定の要素があり(誰を面接、雇用、昇進させるかなど)、一般的に予測モデル、つまりアルゴリズムの利用に傾倒している(Agrawal et al., 2018, 2022; Kahneman et al., 2021)。

企業が意思決定手順にアルゴリズムを追加するにつれて多くの研究課題が生じ、このトピックに関する最近の研究が急増している。データ駆動型の意思決定プロセス アルゴリズムの目的の1つは、特に大規模な組織において、意思決定プロセスの効率を高めることである。

組織がアルゴリズムを使用することで、より公正で、より一貫性があり、より質の高い意思決定を行おうとするためである(Kahneman et al.、2021)。しかし、偏りのないアルゴリズムを実際に効果的に導入するという課題を考えると、こうした目標を達成することは難しい。従業員関連の意思決定にアルゴリズムを取り入れるこの現象は、組織内の認知的、動機づけ的、社会的プロセスに関わる新たな研究課題のまさに金鉱である。

意思決定におけるアルゴリズムの採用

アルゴリズミックな嫌悪から評価へ

意思決定プロセスに関わる日常的な従業員は、どのようにしてアルゴリズム入力やデータを意思決定に取り入れているのだろうか?従業員に関連する意思決定を完全に自動化しようとする組織はほとんどなく、人間の意思決定者が意思決定を行い、承認し続けることになる。

しかし、人が意思決定を体系的に改善するためにアルゴリズ ムの入力を取り入れることに長けているということは、まだ確立されていない(Kahneman et al.) 意思決定者がアルゴリズムをどのように利用する かという長年の問題(Dawes, 1979; Little, 1970)については、 人々がどのようなときにアルゴリズムの入力を受け入れ るのか、あるいは求めるのか、どのようなときにアルゴリズムの入力を修正 したり破棄したりするのか、どのようなメカニズムや調整因子が どのような条件下でどのように起こるのかを説明するのかなど、 新たな研究群が存在する。

アルゴリズム嫌悪に関する研究は、人々はアルゴリズムによる予測よりも人間による予測を好む傾向があるという仮説を支持している。

その理由の1つは、人々は予測ミスを目撃した後、アルゴリズムに対する信頼をより早く失うからである(Dietvorst et al.) 。教育現場での研究は、経験豊富な教師も初心者の教師も含め、教師のアルゴリズム嫌悪のさらなる証拠を提供している(Kaufmann, 2021)。

このような嫌悪感は、人々がアルゴリズムによる予測を修正する裁量を持つことで、部分的に改善される(Dietvorst et al.) また、自分自身とアルゴリズムによる予測の両方についてフィードバックを受けながら経験を積むにつれて、人々が意思決定においてアルゴリズムによる予測を使用することへの嫌悪感が薄れるという証拠もある(Filiz et al.)。

さらに、Berger et al. (2021)は、アルゴリズムが過去の過ちから学習する能力を示すことで、嫌悪感が相殺されることを発見した。しかし、このようなアルゴリズム嫌悪の知見は、一般人対領域専門家のアルゴリズム評価に関する最近の研究によって打ち消され、一般人は、様々な推定や予測を行う際に、他の人の推奨よりもアルゴリズムのアドバイスに頼ることを好むことが示された(Logg et al.)。 このパターンは、それほど強くはないが、人々が自分自身の見積もりとアルゴリズムによるものとのどちらかを選択しなければならないときにも維持された。

意思決定領域の専門家はアルゴリズムに対する評価を示さなかったが、これは特にアルゴリズムによるアドバイスというよりも、あらゆるタイプのアドバイスに対する嫌悪感を反映しているようであった。注目すべきは、専門家がアルゴリズムの入力を使うのをためらった結果、意思決定の精度が低下したことである。

しかし、アルゴリズムによる助言を利用した専門家でさえも、受けた助言の質に対して判断を少し調整したに過ぎなかった。別の角度から見ると、マーケティング分野の研究では、推奨システムが劣悪で、消費者の幸福に害を及ぼす可能性がある場合でも、推奨システムに依存する消費者がアルゴリズムに過度に依存している証拠が示されている(Banker & Khetani, 2019)。

これらの研究を総合すると、意思決定者がアルゴリズムの入力を自分の判断に取り入れるよう求められたときに、どのような反応を示すかがよくわかる。挑発的な疑問の1つは、人間が伝統的に問題のタスクや意思決定を行ってきたコンテクストにおいて、知覚、つまり、特に道徳的または価値的な次元で、技術的エージェントの信頼性を人々がどのように判断するかが、アルゴリズムの使用に対する人々の受容性にどのような役割を果たすかということである(Jago, 2019)。

より一般的には、既存の研究は、アルゴリズム自体の特徴、個々の意思決定者、目の前のタスク、そして文脈のすべてが、アルゴリズムに対する嫌悪感や評価に寄与する可能性があることを示唆している(Mahmud et al.)。

アルゴリズムによる補完から代替へ

アルゴリズムを嫌う傾向や評価する傾向は、アルゴリズムが伝統的に人間中心の意思決定プロセスを補完するものなのか、それとも代替するものなのかという、より大きな問 題の一部として概念化することができる。このことは、日常的な実践においても、意思決定コンテキストの関係者がアルゴリズム入力をどのように枠にはめるかという点においても関連する(Agrawal et al.) 。

意思決定者は多くの場合、意思決定の主導権を保持したいという動機を持っており、アルゴリズム(およびアルゴリズムを担当する人々)が自分の判断や意思決定スキルの潜在的な代用品であると認識した場合、脅威を感じる可能性がある(Kwan, 2017; Staw et al.)。

AllenとChoudhury (2022)は、アルゴリズムによる推奨を利用するのに十分な能力を持ち、アルゴリズム嫌悪の影響を受けにくい人々にとって、アルゴリズムが人間のパフォーマンスを補強する可能性が最も高いという仮説を立て、このパズルの解決策の1つを研究した。

つまり、専門知識が低い人はアルゴリズムを自分のパフォーマンスに組み込む能力がなく、専門知識が高い人は自分の知識よりもアルゴリズムを優先することを嫌うのである。中程度の専門知識を持つ人は、アルゴリズムの推奨を利用する能力と開放性の両方を持っていると予想される。

この仮説を現場で検証するために、彼らは、過去のチケットに基づいて解決策を提案するように訓練されたアルゴリズムの助けを借りてヘルプチケットを解決しているIT作業員を調査した。

仮説通り、アルゴリズムによる提案が提供された場合、経験年数とチケット解決の成功との間に逆U字型の関係が見いだされ、このパターンは作業員が手作業で行った場合には発生しなかった(Allen & Choudhury, 2022; Choudhury et al.)。

アルゴリズミックインプットを、人間の判断を補完するもの (または、サポート、補足、補強)と位置づけた方が、代用品や自動化 された判断と位置づけた場合よりも、意思決定者に受け入れ られやすいという研究結果がある(Grønsund & Aanestad, 2020; Leyer & Schneider, 2021; Raisch & Krakowski, 2021)。

アルゴリズムによる入力を使用するよう求められる人々が、アルゴリズムを作成する初期段階、あるいはそもそもアルゴリズムの使用を決定する初期段階にも関与している場合、その入力を受け入れて使用する可能性が高くなる可能性がある。

意思決定に影響を与えるあらゆる装置と同様に、アルゴリズムは組織プロセスの政治的・権力的力学の中に織り込まれ ており、擁護派と懐疑派が意思決定の結果だけでなく、そ うした意思決定に至るまでのアルゴリズムの役割の統制をめぐって争っている(Kellogg et al.)。 Kelloggら(2020)は、職場におけるアルゴリズムは、組織階層内の全員を巻き込む「新たな制御の争いの場」であると表現している。組織全体の意思決定者が、自らのリスクで見過ごしたり上書きしたりする有効なアルゴリズムの入力に直面する機会が増えているからである。

意思決定者がアルゴリズムを使いこなし,経験を積んでいくにつれて,アルゴリズムの影響力は変化していく可能性がある(Filiz et al.)。 アルゴリズムが当初、人間の意思決定者を補完するものとして概念化された場合、どの時点で、効果的な意思決定プロセスに付随すべき情報処理や批判的思考の代用となり始めるのだろうか。

そのような微小置換が起こるとき、それが作用する認知的・動機的メカニズムとはどのようなもので、意思決定の結果にどのような影響を及ぼすのだろうか。場合によっては、意思決定者が嫌悪感を失い、アルゴリズムに過度に依存する可能性さえある。

この現象は、消費者の文脈では研究されているが、利害関係がより大きいと推定される従業員関連の文脈では研究されていない(Banker & Khetani, 2019)。意思決定者は、それまで使っていた情報源や手続きから、アルゴリズムによる推薦だけに頼るように突然切り替えることはまずない(Logg et al.)。

むしろ、アルゴリズミック・レコメンデーションと従来の基準や情報を組み合わせる可能性が高い。例えば、一般的な採用決定シナリオでは、採用チームは従来、GPAや職務経験年数などの基準を意思決定のインプットとして使用している。

そのプロセスにアルゴリズムによる推薦を追加し、その基礎となるアルゴリズムにGPAと職務経験年数の重み付けが含まれていた場合、意思決定者は、アルゴリズムによる推薦を使用する以外に、この2つの基準を考慮する必要はなくなるのだろうか?

ある考え方では、人間がアルゴリズムによる推薦を覆すべきなのは、新しい情報を得たとき、あるいはアルゴリズ ムによって取り込まれた情報とは異なる情報を得たときだ とされている(Kahneman et al.、2021)。アルゴリズムの一貫性のない使用や誤った使用は、いくつかの要素を犠牲にして「ダブルカウント」することになりかねない。

組織内の人々のデータ流暢さのレベルは様々であり、アルゴリズムモデルの解釈の仕方も様々であろう。意思決定者がアルゴリズムを、単に特定の結果に向かわせるのではなく、より深い分析を促すための促しとして使用すれば、意思決定の質が向上する可能性がある。

個人または集団が、アルゴリズム入力の助けや妨げを受けて、どのように複雑な意思決定を行うかについては、 まだわかっていないことが多い(Kahneman et al.)。

アルゴリズムのアンサンブル

単一で最良のアルゴリズムを見つける代わりに、複数のアルゴリズムからの入力を使用し、異なる仮定、さらには異なるデータに基づくモデルを探し出すという方法がある(Page, 2018)。

このアプローチでは、複数のアルゴリズムを互いに補完するものとして考えることができる。モデルのアンサンブルの長所は、問題解決のために多様なグループを活用する利点(Phillips, 2014)や、人間とアルゴリズムがそれぞれの長所を組み合わせるハイブリッドな意思決定(Hong et al.) このアプローチは、いくつかのフォローアップの研究課題を提起する。意思決定者は、2つ以上のアルゴリズムの結果を提示され、それらの間で判断を下す必要がある場合、アルゴリズムの入力をより受け入れるだろうか?

複数のアルゴリズムからのインプットは、より深い分析的思考とより良い意思決定を促進するのか、それとも意思決定者がすべてのアルゴリズムに疑念を抱き、代わりに直感に頼るようになるのか?意思決定者のデータ流暢性はどのような役割を果たすのだろうか?論理的で協調的な問題解決よりも、意欲的な位置づけに駆り立てられる人(De Dreu, 2007)は、自分の好ましい結果をサポートするアルゴリズムに注目するかもしれない。

アルゴリズムのアンサンブルからの入力がどのように使用されるかの認知的、動機づけ的メカニズムを研究することで、意思決定プロセスに対する新たな洞察と、それを改善するための新たな介入策が明らかになるかもしれない。

より大きな組織の意思決定プロセスにアルゴリズムを組み込む

アルゴリズムの枠組みや使用方法は、静的で一過性の現象ではない。組織の意思決定プロセスでアルゴリズムを使用することは、意思決定者が意思決定を行おうとするまさにその時に、定量的な推奨事項を提示するだけにとどまらない。

採用や昇進など、従業員に関連する意思決定の多くは、多段階かつ多面的な手順を経て行われ、ある段階では個人の判断が、他の段階では集団での熟慮が関与し、その過程でノイズや影響力、コミュニケーションが入り込む機会も多い(Bazerman & Moore, 2012; Sunstein & Hastie, 2015)。

意思決定プロセスのさまざまな段階でアルゴリズムによる入力を挿入することは、どのような結果をもたらすのだろうか?意思決定プロセスの早い段階でアルゴリズムによる推奨を挿入することは、その後の情報処理において意思決定者を固定化することを目的としているのだろうか?それとも、アルゴリズムが推奨するものを見る前に、人はまず関連する情報を共有し、処理し、独立した視点を持つべきなのだろうか?

いわゆる "human-inthe-loop "プロセスに関する研究では、人間の判断が意思決定プロセスに入るタイミングについて、様々な順序を検証することができる(De-Arteaga et al.) 意思決定においてアルゴリズムを使用するかどうか、具体的にどのように使用するか、そしてアルゴリズムが組織内の既存の広範な社会政治的闘争にどのようにマッピングされるか、あるいは新たな闘争を生み出すかについての我々の現在の理解は不足している。

例えば、アルゴリズムが意思決定者にとって潜在的な脅威となる場合、組織のメンバーがどのようにデータを使ってアルゴリズムを構築するのかについて、いくつかの研究上の疑問が生じる。誰がモデル生成プロセスに関与しているのか(例えば、データサイエンティストかビジネスマネージャーか)、そしてそのことがデータやモデルの選択にどのように影響しているのか。

異なるモデルが異なる目標を最適化する場合、これらのトレードオフについてどのように選択されるのか?ジャクソン(2022)は、20ヶ月に及ぶエスノグラフィーの中で、あるテクノロジー企業の意思決定者が、ベンダーが提供する複数の採用プラットフォームの中でどのように議論し、決定しているかを調査した。

このようなプラットフォーム・ダイナミクスを推進するアルゴリズムは、当事者間のパワー・ダイナミクスに影響を与え、取引をコントロールするための新たな機会と制約を生み出す(Cameron & Rahman, 2022; Maffie, 2022; Vallas & Schor, 2020)。アルゴリズムが仕事のプロセスに挿入されたように、ナッジもまた、従業員が行う選択のアーキテクチャに組み込まれるようになった(Beshears & Kosowsky, 2020)。

退職後の貯蓄に関する選択から、いつ運動する かに関する選択まで、人は意思決定環境の関数として行動を変 える(Beshears et al.)。 意思決定環境にアルゴリズ ムのインプットがますます組み込まれるようになっているため、研究者は、ナッジが意思決定者にアルゴリズ ムの推奨を適切に考慮させるかどうかを研究することができ る。

自動化された作業プロセス

ソーシャルロボットなど 従業員とコミュニケーションをとる新しいテクノロジーは、研究を通じてより明確に理解される必要のある職場の変化を促している。作業プロセスの自動化、ロボットの導入による作業タスクの実行、チャットボットによる情報提供や質問への回答などがその例だ。

一部の組織では、ロボットはすでに作業プロセスの一部となっている。例えばアマゾンは、配達ドライバーのパフォーマンスを評価し、評価フィードバックを与えるロボットを導入している(Soper, 2021; Tschang & Almirall, 2021)。Beane(2019)はエスノグラフィック研究を実施し、外科研修生がロボット手術を学ぶ際に、伝統的な慣習によってどのように制限されていたかを明らかにし、その代わりに、より隔離され、より専門的で、より監督されない方法で学ぶことで利益を得ていたことを明らかにした。

Yamら(2022)は、教育(Breazealら、2016;Breazealら、2016)や医療(Bigmanら、2021)を含む「自然で直感的な方法で様々な異なる応用領域にわたって自律的に人と相互作用するように設計された」(Vollmerら、2018、p.1)、いわゆる社会的ロボットを特徴とする2つの実験室実験を行った。これは、擬人化されたテクノロジーに対して人々がどのように反応するかを示す研究(Waytz et al.)である。彼らは、ロボット監督者に人間のような機能を追加することで、人々は彼らのフィードバックをより受け入れるようになるという仮説を検証した。

この仮説は支持されなかった。それどころか、擬人化されたロボットは、より機械的なロボットと比較して、フィードバック受信者がロボットをより主体的に扱うようになり、その結果、否定的なフィードバックを虐待と認識し、ロボットに報復するようになった(Yam et al.)。

コミュニケーション、コラボレーション、文化 おそらくデジタルデータの最大の可能性は、人々の間の相互作用やつながりを測定する能力にある。組織は、電子メール、チャット、会議、および関連するモードによる従業員間の相互作用のパターンを明らかにするために、コミュニケーションのメタデータを使用することが増えている(Cardon, Ma, & Fleischmann, 2021; Impink, Prat, & Sadun, 2021)。

これらのデータは通常、誰が誰とコミュニケーションしたか、関連するタイムスタンプやその他の関連パラメータで構成され、内容ではないがコミュニケーションパターンの構造を明らかにする。例えば、Mayo and Woolley (2021)は、銀行営業グループの従業員の電子メールのメタデータを使用して、協調的注意のレベルを測定した。彼らは、時間的にクラスター化された電子メールとして運用される「バースト的な」コミュニケーションが、リソースを効果的に利用するグループの能力と正の関連があることを発見した。デジタルメディアを介したコミュニケーションは、テキスト、オーディオ、ビデオストリームの形で非構造化データも生成する。

これらのデータには相互作用の内容が含まれており、メタデータのみと比較して、社会的関係についてより多くのことを推測することができる。研究者は自然言語処理(Kulkarni & Cauvery, 2021)やボーカルキュー分析(Pentland, 2008)などのテクニックを使って、電子メールや会議の記録を解析し、センチメントやその他の関係性の次元を分析することができる。

あらゆるタイプのコミュニケーション・データは、人事情報システム、調査回答、営業・業務データなどの補完的なデータ・ソースと結びついたときに最も有用となる。これらのデータを組み合わせることで、人と組織がどのように機能するかについての新たな洞察を引き出す可能性がある。これらのデータは、研究対象の現象や研究者の関心に応じて、複数の分析レベルで相互作用を研究するのに有用である。社会生活の基盤はダイアド関係(Blau, 1964)であり、デジタル接続が他の接続形態と一緒に重ねられると、さらに多次元的なものとなる。

ダイアド関係を特徴づけることができる同じ種類のデータは、グループにおける相互作用を測定するためにも使用することができる。チームは多くの組織で基礎となる作業単位であり、研究者はグループプロセスとコミュニケーションの研究に長年関心を持っている(Homans, 1950)。

グループ内の行動を捕捉し、コード化することは、実際のグループプロセスを理解する上で非常に貴重ではあるが、困難で時間がかかることで有名である(Weingart, 1997)。コンピュータを介したグループ討論、そして コンピュータを介したグループ討論や、Zoomボタンをクリックするだけで取得・保存できるデジタルデータは、大規模な研究であっても、データ収集段階をより効率的に行うことを可能にする。

ダイアディック機能は、チーム(Balkundi & Harrison, 2006; Shah et al., 2021)から部門(Kleinbaum et al., 2013)に至るまで、あらゆる規模の集団における個人間のネットワーク特性を構築するために使用することもできる。非常に大規模な組織のネットワークでさえも、企業全体で使用されているエンタープライズ・ツールのデジタル・トレースを使用してマッピングすることができる。

例えば、Jacobs and Watts (2021)は、上場企業65社の個人の匿名化された電子メールデータを使って、企業の内部ネットワーク特性を測定し、企業間の異質性が大きいこと、ネットワークの次元と組織規模の間に強い関連性があることを文書化した。組織内のデジタル・コミュニケーション・データは、幅広い研究課題に対応することができる。次に、これらのデータによってもたらされる可能性の例として、著名で新たな研究テーマをいくつか取り上げる。

彼らが使用した基準は、候補者の多くが白人であるプラットフォームと比較して、問題のプラットフォームが人種的マイノリティの候補者に焦点を当てているかどうかによって異なっていた。この研究は、従業員の意思決定におけるアルゴリズムの使用が、既存の組織構造、プロセス、バイアスといかに深く絡み合っているかを明らかにしている。

アルゴリズムのバイアス

意思決定のバイアスは、一般的であり、かつ結果的なものである。そのため、何十年もの間、研究の対象となってきた。

個人バイアス(Bazerman & Moore, 2012)も集団バイアス(Sunstein & Hastie, 2015)も数多く存在し、十分に文書化されている。アルゴリズム・バイアスは現在、この不名誉な分類法に加わっている(O'Neil, 2016)。支持者たちは、一貫性と公平性をもって意思決定基準を適用するためにモデルが使用されるのであれば、モデルは善のために使用することができると主張している(Kahneman et al.、2021)。残念ながら、バイアスのかかったアルゴリズムは、その規模、普及度、導入される裁量によっては、人間のバイアス以上のダメージを与える可能性を秘めている。

既存の問題を悪化させることなく、あるいは新たな問題を引き起こすことなく、アルゴリズムモデルを使用することの利点をどのように達成するかが最も重要である。アルゴリズムに偏りがある場合、その一貫性という美徳は重大な負債となる。

従業員データが関与する組織的な文脈では、アルゴリズムを人間の意思決定プロセスに組み込むことによって、どのようにバイアスが悪化したり、減少したり、変化したりするかを研究するとともに、アルゴリズムがどのように機能するかについての根本的な仮定を調査する必要がある。偏ったデータ 組織のアルゴリズムは、能動的・受動的に収集されたデータセットから生成される。

どちらのタイプのデータも、結果として得られるアルゴリズムに潜在的に重大な影響を与えるバイアスを含んでいる可能性がある。過去のデータをモデル化する場合、系統的な分析によってデータに偏りがあることがしばしば明らかになる。

いくつかの疑問が生じる:
これらのモデルは、過去の意思決定の質と公正さについて何を明らかにするのか?過去の意思決定が組織的に偏っていたという情報に直面したとき、組織のメンバーはどのように反応するのか?これらのモデルが過去の意思決定における偏りを明らかにした場合、将来の意思決定における偏りを回避するために、どのように適応させることができるのか?

heyは、人種的に偏った結果を生み出すアルゴリズムを監査し、この偏りを取り除くためにアルゴリズムを修正した。改善されたアルゴリズムを修正し使用することは、最初のアルゴリズムが明らかにした、そもそも偏った過去の決定を生み出した古い決定手順に戻すよりも、おそらく優れていた。ピープル・アナリティクス領域における同様の例は、アマゾンの偏った採用アルゴリズムである(Bergstrom & West, 2021)。

このトピックに関する研究を、医療、司法制度、その他の文脈から、従業員の福利厚生に影響する従業員関連のユースケースに拡大することが急務である。幸いなことに、行動科学者とデータ科学者は、アルゴリズムにバイアスがないか監査する方法と、バイアスが見つかった場合に、検出されたバイアスを修正する方法の学習において進歩を遂げている(Corbett-Davies & Goel, 2018; Du et al., 2021; Mehrabi et al.) 。これは現在進行中の研究の重要な領域である。

複合バイアス: 人間とアルゴリズムのインターフェースにおける懸念

人間中心の意思決定プロセスにアルゴリズムが挿入されるとき、あるいはアルゴリズム中心のプロセスに人間の判断が挿入されるとき、バイアスが生じる可能性があふれる。企業は、アルゴリズムによる予測と人間による判断を組み合わせることで、「両者の良いとこ取り」をしていると考えるかもしれない(Agrawal et al.、2022)。

しかし、個人、グループ、アルゴリズムが、それぞれ単独で、あるいは斬新な組み合わせで、偏った結果をもたらすような形で混合されている可能性も同様に高い。例えば、個人の意思決定者にアルゴリズムによる予測が提供され、ある場合にはその予測に従うが、他の場合には従わない場合、その選択を導く基準やルールは何なのだろうか。アルゴリズム自体にバイアスがかかっていないとしても、組織は、ユーザーレベルで発生するバイアスや矛盾をどのように説明し、測定するのだろうか?

これらの疑問が示唆するように、アルゴリズムの使用は、アルゴリズムの構築と推奨だけでなく、意思決定プロセスにおいてアルゴリズムの入力が人間の判断と組み合わされる方法についても精査されるべきである。人間とアルゴリズムのアンサンブルに関する研究は、有望な方向性を提示している(Choudhary et al., 2021; De-Arteaga et al., 2020; Hong et al.)

従業員が選択できるモデルが複数ある場合、これらの問題はさらに複雑になる。データサイエンティストが利用可能なモデリング技法が多数あることを考えると、モデラーが特定のモデルを選択するプロセスは、特定のタイプの技法の精度にとどまらない問題を提起する。例えば、様々なモデリング技法は、異なる仮定に基づいていたり、異なる方法でデータソースを組み込んでいたりする。

Page (2018)は、意思決定者間の議論を煽るために、モデラーがこの多様性を利用して複数のモデルを明示的に選択することを提案した。モデルを作成する人々は、どのように異なるモデリングアプローチを調和させるのだろうか。また、より多くの利害関係者が、どのモデルを使用するかについて発言権を持つようになると、どのように変化するのだろうか。

意思決定者が実際にモデルのアンサンブルをどのように利用しているかを研究することは、有益な道筋となるだろう。

アルゴリズムの透明性

バイアスのリスクを相殺するための潜在的な道筋の一つは、アルゴリズムの透明性を高めることである(Daneshjou et al., 2021; Kleinberg et al.)。 組織の領域では、ピープルアナリティクスチームは透明性をどのように運用し、どのように運用すべきなのだろうか?アルゴリズムがどのように機能するかを理解し、アルゴリズムを作成した人を信頼している意思決定者は、アルゴリズムによる推奨をより受け入れやすいかもしれない。

マネジャーにとって、例えば昇進できなかった理由を従業員に説明できるかどうかが、その従業員を引き留めるか失うかの分かれ目になることがある(Newman et al.)。

このような意思決定にアルゴリズムが組み込まれる場合、マネジャーが妥当な説明を行うためには、透明性と解釈可能性が極めて重要である。透明性とは、データやアルゴリズムの技術的な詳細だけでなく、アルゴリズムの意図された目的、なぜそのアルゴリズムが使用されるのかの根拠、現在および将来の使用を誰が管理するのか、そして関連する問題についての組織的な質問にも関係する(Jarrahi et al., 2021)。

しかし、透明性は複雑である。一つの懸念は、モデルの精度とモデルの解釈可能性のトレードオフである(Slack et al.) 。関連する懸念として、機械学習アルゴリズムの詳細な情報を共有することは、管理者を困惑させ、モデル構築者を制限する可能性がある。

データ主導の作業プロセス

職場におけるアルゴリズムの利用は、個別的でエピソード的な意思決定の文脈での利用をはるかに超えて広がっている。現在進行中のデジタル革命により、あらゆる行動やインタラクションがデータの痕跡に変換されるため、労働者はかつてないほど定量化されている。

これらのデータはアルゴリズムに供給され、予測、分類、行動を変えるための提案を生み出すことができる(Iansiti & Lakhani, 2020)。微妙な働きかけであれ、あからさまな指示であれ、完全な透明性を持って行われるのか、秘密と不透明性の覆いの中で行われるのか、また、これらの活動が主に労働者のためなのか、株主のためなのかに関わらず、ピープルアナリティクスの実践は、アルゴリズムを展開するための幅広い可能性をもたらし、同様に幅広い潜在的な結果をもたらす(Gal et al, 2020; Huselid, 2018; Wood, 2021)。

データとアルゴリズムが労働者とそれを管理する人々の日々の活動にどのような影響を与えているかを文書化し、概念化し、理解しようとする最近の研究が急増している。仕事の流れにアルゴリズムを組み込む この研究の多くは、いわゆるプラットフォーム・ワークを行うフリーランスのギグワーカーに焦点を当てている。例えば、Rahman(2021)は、透明性のない評価アルゴリズムにフリーランスの労働者がどのように反応したかを研究した。

フリーランスのプラットフォームがアルゴリズムを不透明にしている理由の1つは、ワーカーがアルゴリズムを利用したり、人為的にスコアをつり上げたりすることを制限するためである。しかし、この不透明さはまた、ワーカーが正当に評価を向上させることを難しくしている。このジレンマに対するワーカーの反応は、アルゴリズムの基準を明らかにしてパフォーマンスを向上させることを目的とした実験的な行動から、既存のスコアを維持するために活動を制限するアプローチまで様々であった。

ワーカーは、アルゴリズムによる評価システ ムをコントロールの一形態と認識していたが、不透明で 予測不可能であるため、改善しようとする努力を挫くも のであった(Rahman, 2021)。LixとValentine, 2020はアルゴリズミック・ランキング・システム を研究し、彼らの研究対象であるフリーランサーはアルゴリズ ムに強く関与し、信頼さえするようになることを発見した。特に、Rahman (2021)による記述と同様に、アルゴリズムが不透明で強制的であるという他の人の反応と並べると、いくつかのメカニズムがこのパターンを理解するのに役立った。

アルゴリズムによるランキングは、不確実性を減らし、一貫性と文書化によって手続き的公正の認識を高め、フリーランサーの間で共有された経験の感覚を生み出すと、より肯定的に受け入れられた(Lix & Valentine, 2020)。これらの帰納的に導き出されたメカニズムは、アルゴリズミックな評価が、その影響を受ける人々にとってよりポジティブな経験や成果を促進するように設計できる道筋を示唆している。Cameron(2022)は、ライドヘイリング業界で、アルゴリズ ムによって駆動され、上司や同僚の代わりとなるアプリケーションとのインタラクションによって仕事が導かれるワーカーを研究した。

このような労働者はアプリや仕事から急速に離れていくだろうと予測されるかもしれないが、多くの労働者はその代わりに、自分たちの仕事を自分たちがコントロール し、勝利することができるゲームとしてとらえ直すことによって反応した。キャメロン(2022)は、顧客から高評価を得ることを目標に、顧客を満足させることに集中することで、関係性のゲームに没頭するワーカーを観察した。また、単位時間あたりの稼ぎを最大化しようとする効率ゲームに参加する労働者もいた。

どちらのケースでも、ワーカーは仕事に意味を見出すことで、マネジャーとの交流がほとんどなくても、仕事に没頭し続けることができた(Cameron, 2022)。多くの文脈において、サービスワーカーと彼らがサービスを提供する顧客との相互作用は、彼らを紹介し、マッチングさせるプラットフォームによって組織化され、事実上、監督されている。

ネットワーク

ネットワーク研究者は、デジタルデータから新しい洞察を生み出すのに、特に適した立場にある。人々のペア間のつながりを示すあらゆるデジタル痕跡は、ネットワークグラフを構築するために使用することができる。ネットワークダイナミクスに関する長年の研究課題は、時間と空間を越えて人々が交流する機会がかつてないほど増えている世界において、新たな接続性の尺度が、従来の手法で発見されたようなパターンを明らかにするかどうかを検証するために、改めて注目されるべきである。

グラノヴェッター(1973年)の弱い紐帯の強み理論※の最近の検証で、ラジクマールら(2022年)は、5年間にわたる2,000万人以上のリンクトイン・データを使って、これらの考えを再現し、拡張することを目指した。この理論の中核となる考え方は、20億の新しい絆と60万の新しい仕事を含む実験に基づいて支持された。

※「弱い紐帯の強み」とは、米国の社会学者マーク・グラノヴェッターが発表した社会的ネットワークに関する仮説です。グラノヴェッターによれば、新規性の高い価値ある情報は、自分の家族や親友、職場の仲間といった社会的つながりが強い人々(強い紐帯)よりも、知り合いの知り合い、ちょっとした知り合いなど社会的つながりが弱い人々(弱い紐帯)からもたらされる可能性が高いといいます。これを「弱い紐帯の強み」の理論と呼びます。

さらに、その結果は、例えば業種によって、結びつきの種類によって効果が異なるなど、オリジナルのアイデアをより精緻にするようなニュアンスを持つものであった。

古典的な理論を検証するだけでなく、デジタルネットワークのデータは、例えばパンデミックに触発されたリモートワークの取り決めによってもたらされるような、新たな課題を理解するためにも有用である。

COVID-19が発生する前と後の1つの組織内におけるネッ トワークの結びつきに関する別の研究では、労働者のコラボレーションネットワークがよりサイロ化し、安定したものになり、異なるグルー プ間の結びつきが少なくなっていることがわかった(Yang et al.) 。

この研究では、6万1,000人以上の従業員から6ヶ月間にわたって収集された電子メール、会議、インスタントメッセージ、ビデオ通話、音声通話のデジタルメタデータを活用している。産業界と学術界の研究者が協力してネットワーク研究の最先端を押し進める一方で、企業は従業員にネットワークの概念を導入している。

組織ネットワーク分析は、組織図を超えて、どの従業員が協力関係にあり、どの従業員が孤立の危機に瀕しているのかを見通すために普及している(Novak et al., 2011)。従業員に、自分の組織ネットワークにおけるつながりや位置づけに関する情報を提供する企業が増えており、このような情報を提供することで、受け取る側の行動がどのように変化するのかについて、新たな研究課題が提起されている。

この実践を支援するために、企業は、より伝統的な調査方法とともに、受動的なデジタルデータの両方を使用して、社内で独自のネットワーク分析を実施している。

Microsoft Viva、Polinode、Cognitive Talent Solutionsなどのベンダーが、従業員のネットワークデータの収集と分析を支援するソフトウェアプラットフォームとサービスを提供し、この実践をさらに加速させている。研究者が生データを運用変数に変換する際に多くの判断を下すように、組織の分析チームも、目的に最適なネットワーク指標を作成するためにフィーチャーエンジニアリングに取り組んでいる。

このようなトレンドは、どのメトリクスがリーダーや従業員にとって有用なのか、これらのメトリクスを受信した受信者はどのように行動を変えるのか、または自分のデジタルデータがこのような目的で使用されていることを知るのか、など多くの研究課題をもたらす。

より一般的には、従業員にとって「良い」ネットワークポジションとは何だろうか?全員がより中心的な立場になろうとした場合、集団にとってリターンは減少するのだろうか?集団の成果を最適化する効率的な方法で、従業員が他者の専門知識、知識、利用可能性を活用できる最適なネットワーク構造とは何か?

チーム

歴史的に、ネットワークとチームに関する研究はほとんど重なるところがなかった。しかし、研究者がチームメンバーの内部ネットワークと、チームがより大きな組織ネットワークにどのように組み込まれるかという結果について洞察を深めるにつれて、この状況は変化してきた (Balkundi & Harrison, 2006; Reagans & McEvily, 2003; Wu et al., 2021)。

チームとネットワークの間のこのような相互作用は、現代の組織におけるコラボレーションがますます流動的かつ適応的になっているという組織の現実を反映している(Mortensen & Haas, 2018)。しかし、チームは依然として別個の現象である。

管理職は従業員を正式にチームに配属し、それに応じて仕事と報酬を組織する。多くの従業員は心理的にチームと同一化し、チームメンバーであることに意味と帰属意識を植え付ける(Marks et al.)。 チームに関するデジタルデータが豊富にある今、研究者は長年の疑問に新たな光を当てる機会を得ている。

チームの基本的重要性に関する研究の一例として、Wuchtyら(2007年)は、数百万件の論文と特許のデジタル化された記録を分析することによって、科学的知識の生産においてチームが個人を凌駕することを説得力を持って立証した。

Wuら(2019)はさらに多くのデータを収集し、大規模なチームと比較して小規模なチームがより破壊的な科学的アイデアを生み出すことを示した。

チーム研究のもう1つの最近の方向性は、集団的知性という新たな領域であり、様々なタスクにおいて、あるチームは他のチームよりも体系的に効果的であるという考え方である(Woolley et al.)。

単一タイプのタスクに焦点を当てがちな多くのチーム研究とは対照的に、集合的知性という概念は、変化するタスクにチームがどのようにプロセスを適応させるかを検討する必要性を浮き彫りにしている。何人かの研究者が、これらの疑問に関する仮説の検証や可能性の探求を始めている(Riedl et al.)。

Get et al., 2019は、集合的知性を測定し改善するために、協調的プロセスメトリクスをどのように使用できるかを探求し、これをリアルタイムで行う自動化されたメカニズムを使用する可能性を提起した。この研究は、集団的パフォーマンスを促進する因果メカニズムを明らかにし、テストし、実際のグループを支援し、テクノロジーと人工知能がチーム機能を改善する道筋を作る可能性を秘めている。

特に、パンデミックによって遠隔地勤務を余儀なくされたチームメンバーにとっては(Whillans et al.、2021年)、テクノロジーが可能にする介入が、チームの有効性と連動して、チームメンバーの心理状態にどのような影響を与えるかを理解することが重要になる(Marks et al.、2001年)。

組織は、仕事、プロジェクト、チームに人を割り当てるためにアルゴリズムを使用しており、チーム構成とチーム推薦システムに関する研究の新たな場を創出している(Gómez-Zará et al.) スキルは通常、マッチングの重要な基準となるため、関連するスキルの次元を特定し、その次元で従業員を評価するための有効な技術が必要となる(Kresge, 2020)。

UpworkやCatalantのようなプラットフォームは、映画、製品、楽曲、または他の人々(LinkedIn、Twitter、Facebookなど)の推薦アルゴリズムと共通点を持つマッチング技術を用いて、労働者と仕事プロジェクトをマッチングする。

研究者は、このようなアルゴリズムがどのように構築され、どの程度うまく機能するのか、また、アルゴリズムを通じてチームに割り当てられることに人々がどのように反応するのかを探るべきである(Gómez-Zará et al.)。

会議の科学

会議は、構造化された観察可能なコラボレーションの場を提供するため、チームの相互作用を研究するための豊富なデータ源となる。ミーティングは組織で広く使用されているにもかかわらず、研究者によって比較的控えめに研究されてきた。

近年、Zoomなどのオンラインミーティングプラットフォームの普及により、参加者の同意のもと、ミーティングの記録や分析が容易になった。研究者たちは、会議の目的、媒体、長さ、規模、会議中のコミュニケーションパターンや参加者の行動など、会議の効果に影響を与えうるさまざまなパラメーターを検証し始めている。

この研究は、会議の科学(Mroz et al.、2018;Rogelberg et al.、2010;Schwartzman、1986)という新たな領域を生み出し、これらのユビキタスな組織イベントの有効性を理解し、改善することを目的としている。

ミクロな研究者にとって、社内会議のダイナミクスは、会議中のグループの相互作用を構成する視覚的・音声的ストリーム、参加者の発言内容のトランスクリプト、会議に対する参加者の認識に関する調査の可能性など、多くの次元を測定するための粒度の細かいデータを豊富に提供する。

マクロの研究者にとっては、組織の会議をズームアウトして研究し、より大きな活動パターンを理解することもできる。出席者の人数、会議の長さ、開催時期、予定数、形式的な構成など、仕事を達成するために会議をどのように活用しているかは、部署によって異なる可能性がある。

会議への出席は、人々の結びつきを研究するためにも利用できる。特に小規模な会議への共同出席は、ある程度の有意義な相互作用を推測するために利用できる。このように、会議は組織ネットワークの理解を構築するために使うことができる。

個別の会議のダイナミクスにズームインするにせよ、会議活動の全体的なレベルを測定するためにズームアウトするにせよ、会議は、個人、グループ、および組織がどのように機能するかについての強力な情報源である。ほとんどの組織が会議のスケジューリングと組織化に使用しているカレンダープラットフォームを考えると、これらのパラメーターの多くを測定するために、豊富なメタデータが潜在的に利用可能である。

Polzer et al., 2022は、20万を超える組織から得た企業レベルのメタデータを用いて、会議や電子メールの量の増加が、企業収益に対するリターンの減少、さらにはマイナスと関連しているかどうかを検証した。

彼らは、会議と電子メールを別々に、あるいは組み合わせて、コラボレーションの過負荷がもたらす悪影響の証拠を発見した。DeFillipisら(2022)は、16の主要都市圏の300万人以 上の知識労働者のデジタルメタデータを用いて、COVID-19の 閉鎖がコラボレーションパターンに及ぼす影響を文書化した。ロックダウン後の期間、人々はより多くの、より大規模なミーティングに参加したが、ロックダウン前のミーティングよりも短かった。また、ロックダウン後の人々の労働日数も、ロックダウン前に比べて増加した。

また、毎日最初のメールやミーティングから最後のメールやミーティングまでの時間に基づいて、人々の労働時間も増加した。これらの研究は、デジタルワークの活動が企業や国を超えて調査できる規模であることを示している。

会話分析

チームや会議の研究を補完するものとして、会話分析という新たな領域がある。学者たちは長い間、あらゆる形態の会話やコミュニケーションを研究してきたが、自動会話能力の台頭とコミュニケーションデータの増加、そして会話を分析する新しいツールがこの分野を活性化させている。

大規模な言語モデル(LLM)の導入における最近の進歩は、組織における自動化されたコミュニケーションの使用に拍車をかけるとともに、その結果生じる会話のダイナミクスと結果を理解する緊急性を高めている。応用面では、販売と顧客サービス機能が、多くの組織にとって、コミュニケーションパターンと結果を測定し、改善するための重要な出発点となっている。

営業成果を改善するために設計されたテクノロジーは、このセグメントを正面から対象としている。その一例がGong社である。Gong社は、書面と口頭による営業上の会話をキャプチャして分析し、営業担当者に会話の指標と処方箋を提供することで、営業担当者の改善を支援することを目的としている(Brooks & Spelman, 2021)。

会話に関する研究も同様に、会話データを取得する新しい方法やそれを分析する新しい方法を活用している(Yeomans et al.) 例えば、Yeomansら(2020)は、会話の受容性を研究するための機械学習アルゴリズムを開発し、特に、参加者が受容的で反対意見にもオープンであるという会話中のシグナルを抽出した。

そのために、彼らは、自然言語から受容性のマーカーを識別するために事前に訓練された自然言語処理モデルを使用した。その結果、このアルゴリズムによって測定された受容性は、ラボやフィールドでの研究を通じて、会話のさまざまな肯定的な結果を予測することがわかった。

さらに、このアルゴリズムに基づき、参加者がより協力的で説得力があるとみなされるような介入を開発することができた(Yeomans et al.)。 この論文は、非常にきめ細かいコミュニケーションデータを利用して、人々の社会生活や仕事生活を研究・理解する方法に革命を起こす可能性を秘めた、急成長中の分野の一例を示している(Huang et al.)。

組織文化

研究者はまた、組織文化を知る窓として言語も利用している。例えば、Srivastavaら(2018年)は、1000万通を超えるメールの言語を分析し、新入社員の言語パターンが組織内の一般的な言語規範にどの程度適合しているかを測定した。彼らは、言語の一致として運用される文化的適合が、個人の達成度や離職率と関連していることを発見した(Bhattら、2022;Goldbergら、2016;OSも参照)。

Chatman and Choi, 2022は、文化を測定する方法としての計算言語学の台頭について述べている。これに関連して、Marchetti(2019)は、自然言語処理技術を用いてGlassdoor.comに投稿された従業員レビューを分析することで、企業買収者とその買収対象との間の文化的適合性を調査した。

彼女は、従業員レビューが提供する文化的シグナルを検証し、より高い互換性がより良い株式リターンと関連していることを発見した。より広く言えば、これらの研究は、組織において文化がどのように作用するかについての新たな洞察を明らかにするために、デジタルデータを利用することの価値を実証している。

モニタリング、プライバシー、透明性

仕事やマネジメントの多くの側面が、アルゴリズムやテクノロジーの影響を受けるようになっている。その結果として、デジタルワークは自動化された方法で監視され、評価されやすくなっている(Vallas & Schor, 2020)。アルゴリズ ムの影響は、目標設定、業績管理、学習と能力開発、報酬、その他従業員 の経験にも及ぶ(Parent-Rocheleau & Parker, 2021)。

アルゴリズムが業務プロセスに導入されると、必然的に、 意図した形でも意図しない形でも、業務設計が変化する(Valentine & Hinds, 2021)。アルゴリズムによる介入が成功するかどうかは、その技術的な質にもよるが、おそらくそれ以上に、影響を受けるエコシステムにいる人々が、アルゴリズムとそれを管理・監督する人々をどの程度理解し、信頼しているかにかかっている(Glikson & Woolley, 2020)。

このことは、モニタリング、透明性、プライバシー、公正さ、そして人々が自分の仕事活動のプロセスと結果に対して保持するコントロールに関する問題を提起する(Parent-Rocheleau & Parker, 2021)。アルゴリズムの使用は、管理者と労働者の間のパワー・ダイナミクスと関係に重大な影響を及ぼす(Kellogg et al.) 。

監督と管理は、常に組織構築の基礎となる原則である。COVID-19の大流行が始まり、従業員が在宅勤務を始めたときに、コンピュータの活動を監視するソフトウェアの売上が大幅に増加したことは、驚くべきことではないのかもしれない(Kantor et (Kantorら、2022;Davis、2022)。

監視ソフトウェアは、キーストロークからマウスクリック、視線からブラウザのアクティビティ、そしてコンピューターモニターに全く新しい意味を与えるスクリーンショットまで、あらゆるものを追跡することができる(Kantor et al.)。

PatilとBernstein (2022)は、法執行機関における監視技術の使用について研究し、監視されることに対する従業員の反応は、誰がデータにアクセスできるかによって異なることを発見した。従業員が自分自身のデータにアクセスできる場合、上司を含む他者に自分の見解を示すことができるという利点を経験した。

これにより、従業員と評価者との心理的距離が縮まり、モニタリング技術の使用に一般的に関連する自律性の低下による悪影響が軽減された(Patil & Bernstein, 2022)。

この研究は、新しい組織的慣行を検討することが、いかに斬新な経験的・理論的貢献につながるかを示す好例である。従業員のモニタリングのニュアンスと複雑さを考えると、生産性と従業員の福利厚生の最適化を追求する中で、個人情報の境界に関するこのような研究がもっと必要である(Cappelli et al.)。

COVID-19では、社会的距離を縮める必要性から、雇用主は従業員の移動を追跡するようになった。バッジスワイプ装置、固定カメラ、携帯電話のアプリによって、人々の物理的な位置と移動が追跡される。

しかし、多くの従業員は、従業員の安全や福利厚生、あるいはオフィス利用の最適化といった目的のためであっても、雇用主による物理的位置の追跡を望んでいない(Ajunwa et al.)。

このようなデータを収集する場合、個人を特定しないこと、データ集約、機密性、透明性、データセキュリティの問題は、組織にとって最重要課題である。研究者にとっては、企業がすでに従業員の位置情報を収集、保存、利用している限り、これらの慣行に対する従業員の反応を含め、これらのダイナミクスを責任を持って研究する機会がある。

個人計測のサブフィールド全体があり、一部の支持者は定量化された自己運動と呼んでいる。これらのツールは、執筆やコーディング中の集中力を向上させるソフトウェアから、ストレスの監視、睡眠の質の追跡、ワークアウト強度の測定のための生理学的指標を追跡するウェアラブルデバイスまで多岐にわたる。

これらのツールは、個人が自分自身のパフォーマンスを向上させることを意図しているが、この種の個人データの収集、分析、報告における組織の役割、データは誰のものか、データはどのように使用されるべきか、データは他のグループよりも一部のグループを優遇するように偏っていないか、といった研究上の疑問が提起されている(Ajunwa et al.)。

研究者はまた、個々の従業員や組織機能に関連する、組織外部の増え続けるデータを収集することもできる。主な例として、労働市場データがあり、特定の候補者、仕事、スキルに対する需給がよりきめ細かくなっている(Deming, 2017; Fuller et al. )。

例えば、従業員の様々なスキルに対する地域の需要に基づいて、従業員の離職率を予測するために、組織自体がそのようなデータを収集し、利用している。従業員自身は自分のスキルや経験をLinkedInのような公共プラットフォームやGlassdoorの企業レビューに投稿しており、これらのデータは一般に透明で、スクレイピングや分析が可能である。

従業員のソーシャルメディアへの投稿も潜在的なデータ源であり、通勤時間について感じたことから、同僚や自分自身についてのより個人的な見解まで、あらゆることに言及した投稿がある(Grijalva et al.) これらのデータが一般に公開されれば、企業で働く人々や外部の研究者が分析することができる。

学問分野への橋渡し

計算社会科学の台頭

組織行動学は、常に組織と学問分野、特に心理学や社会学との交差点に位置してきた。そして組織と同様に、学問分野もデジタルデータの爆発的な増加による変化を経験している。社会科学研究は、ここ10年で飛躍的な発展を遂げた新分野の出現を目の当たりにしている(Lazer et al., 2020)。

この分野の特徴は、典型的にはデジタルで大規模な、生活のあらゆる場面や次元から流れ込んでくる新しいデータソースを利用することである(Salganik, 2019)。

これらのデータは、人間の行動を研究するために、異なる学問分野の学者たちの共同作業によって生み出された新しい計算手法を生み出している。計算社会科学は、この領域を定義するために一般的に使用される包括的な用語である。この新しい分野は学際的であり、社会科学者、コンピュータ科学者、統計学者などが知的コミュニティを形成している(Lazer et al.)。

また、新しいデータソースには新しいデータソースには、新たにデジタル化された行政記録のような過去のアーカイブデータも含まれ、以前には実現不可能であった方法で、新しい分析技術を大規模に適用できるようになっている(Edelmann et al.) 。

従業員に関連するデータソースも、経済学、会計学、その他のビジネス分野の研究者によって分析されている。最近の例としては、離職率とその後の企業業績との関係に関する大規模サンプルの研究(Li et al.、2022)や、CEOと従業員の給与格差と企業業績との関係に関する研究(Rouen、2020)などがある。

職場にアルゴリズムを導入することの効果など、先に述べた研究テーマの多くは、組織行動学の主流になるはずである。このような研究は、従業員の行動、業績、幸福を理解するために不可欠であろう。実際、計算社会科学の分野横断的な理念と一致して、組織行動学以外の複数の分野の研究者が、コンピュータと人間の相互作用(Lee et al、 2015)、情報システム(Jussupow et al.、2020)、コンピュータ・データ科学(Rajkumar et al.、2022;Sühr et al.、2021)、複雑系(Page、2010)、社会学(Edelmann et al.、2020)、計算言語学(Bhatt et al.、2022;Pennebaker、2022)といった分野で、組織行動学以外の複数の分野の研究者がすでに同様のトピックを研究している。

例えば、医療、法律、銀行、教育、あるいは公共政策におけるアルゴリズムによる意思決定と偏りに関する研究は、雇用、昇進、および関連する従業員領域におけるアルゴリズムの使用に明確な示唆を与える(例えば、Kaufmann, 2021)。

これらの分野の問題は、内容や文脈は異なるが、問題構造、手法、研究アプローチにおいて類似している(Hofman et al.) 。これらの問題に対する計算論的アプローチは、一見異質な分野間の隣接性や重複性を高めている(Lazer et al.)。

組織の研究者は、多くの人が思っている以上に、コンピュータサイエンスのような様々な学問分野に接近しており、その結果、同様の計算論的アプローチを適用することによって、組織の実践の世界に近づいている。組織内におけるピープル・アナリティクスの台頭と、多くの学問分野内および分野横断的なコンピューテーショナル・ソーシャル・サイエンスの台頭との間には、顕著な類似点がある。

このことは、組織と学問分野の交差点に位置する組織学者にとって、この機会をより先見の明のあるものにしている。ビッグデータ革命とデータ主導のアプローチは、他の領域では何十年も前から広く使われてきたのに、なぜ最近になってピープル・アナリティクスが支持を集めるようになったのかという疑問が、この並行研究から浮かび上がってくる。

従業員データは、業務データ、顧客データ、その他の種類のデータよりも社内で機密性が高いと見なされることが多く、誰がどのように使用するかに警戒が必要だ。従業員データへの分析アプローチの適応が遅れているより根深い理由は、従業員関連の意思決定は無感情なアルゴリズムによって行われるべきではなく、従業員を数字に還元して客観化すべきではないという文化的な考え方である(Belmi & Schroeder, 2020; Pardo-Guerra, 2022; Cremer and Stollberger, 2022)。

つまり、現在の軌跡は、新たなデータソース、新たなテクノロジー、分析アプローチの新たな発見によるものであると同時に、従業員データにアナリティクスを適用することに対する文化的規範や認識される正当性の変化によるものであると考えられる。

良いニュースは、従業員データを責任を持って活用しようとする組織内の取り組みが、組織研究の自然な味方となり得る新しいピープルアナリティクスチームによって主導されるようになってきていることである。これらのチームは、次に述べる組織研究のエコシステムの変化の一部である。

変化する研究のエコシステム

研究と実践の間の長年のギャップは、何十年もの間、議論、批評、嘆きの対象であった(Lawler et al.) 。研究を実務家向けに翻訳した論文や書籍の需要は、家内工業的な活況を呈している(Pfeffer & Sutton, 2006)。しかし、より多くの組織が、十分な訓練を受けた研究者を雇用し、そのスキルを組織内部で活用するようになっているため、このギャップは縮小しつつあるのかもしれない。

コンピュータやデータサイエンティストを補完するために、社会科学博士を多数雇用しているテクノロジー企業を目の当たりにしてほしい(Bock, 2015)。研究を実施し、発表するために、社内に研究グループを設立した企業もある(Teevan et al.) 。

より広く言えば、新しく博士号を取得した者や経験豊富な同僚は、より一般化可能な科学的追求の代わりに、あるいはそれと並行して、組織内部の目的のために研究スキルを使用するために雇用されている。この傾向はまた、特定の組織の問題や意思決定に直接関連する応用研究を行う博士のための新しい産業キャリアの道を作り出している(Bock, 2015)。

より深いレベルでは、こうした新しいキャリアパスは、より深遠な変化の現れである。組織は、従業員の行動をよりよく、局所的に理解することで対処できる課題に直面している。組織、特に大規模な組織では、データは豊富にあり、さらに収集する機会も豊富にある(Hartmann & Henkel, 2020)。

組織が社会科学の研究者を採用する理由の1つは、彼らがピープルアナリティクス(内部データを用いて組織の問題解決に役立てること)の仕事に必要なスキルを持っているからである。このようなスキルには、心理学、社会学、行動経済学、組織行動学などの理論や文献といった実質的な学問分野の知識や、厳密な行動研究を実施するための方法論や分析の専門知識が含まれる。

研究と実践の間のギャップが変化しつつあるのは、高度なスキルを持つ研究者チームが独自のデータセットに高度な分析技法を適用することで、組織内部の研究が加速しているからでもある(Hartmann & Henkel, 2020)。機械学習や人工知能の活用など、この種の研究の最前線は、豊富なデータやデータサイエンティストと協働できる利点を享受している実務家によって実施されているケースもある。

格差が縮小している理由は他にもある。研究者として訓練を受けた実務家は、翻訳に頼ることなく、学術研究を直接評価し、利用することができる。さらに、学者と実務家の研究協力は、両者の価値観、訓練、言語、そして厳密性と妥当性を達成するための目標が類似していれば、より生産的なものになる可能性が高い(King & Persily, 2020; Shapiro et al.) 。

管理職や人事担当者が、社内調査から得られるメリットを実感し、従業員データを調査に利用することに慣れてくれば、学者とのより深い共同研究にも前向きになっていくかもしれない。また、科学的手法と本質的に類似したデザイン思考などのトレンドも、より良い共同研究への扉を開くかもしれない。

とはいえ、労働者がデジタルトレースデータを生成しているという事実は、機密性の高い従業員データをめぐるプライバシーや法的問題を考慮すると、研究のためにそれを入手するのが容易であることを意味するわけではない。しかし、プライバシーや法的な問題があるにせよ(King & Persily, 2020)、組織研究のエコシステムの変化は、理論的には、研究と実践の間のギャップを埋めるのに役立つはずである(Amabile et al., 2001)。

結論

組織を研究するにはエキサイティングな時代である。この時代の混乱と挑戦は、組織で働き、組織を率いる人々にとって困難なものであるが、明るい兆しもある。世界的な大流行により、多くの従業員が在宅勤務を余儀なくされたが、蓄積された調査から、多くの従業員が少なくとも時には在宅勤務を希望していることが確認されている。

これは、破壊的な変化がいかに予期せぬ結果を生み出しうるか、そしてデータがいかに企業が新しい現実に適応するのに役立つかを示している。学術研究者は、心理学的、社会学的、組織的現象に関する新たな洞察を得る上で、今後も重要な役割を果たすだろう。理想的には、これらの洞察が組織機能に情報を提供し、組織機能を改善することである。我々は、ピープル・アナリティクスと計算社会科学の台頭によってもたらされる新たな方向性を探求する一方で、組織生活の中心である人々を決して見失わないようにしなければならない。

Data Availability No data was used for the research described in the article. Declaration of Competing Interest The author declares that he has no known competing financial interests or personal relationships that could have appeared to influence the work reported in this paper. Acknowledgements I am grateful to Jenny Chatman and Kathleen McGinn for helpful comments on earlier drafts of this paper, Michelle Zhang for excellent editorial assistance, and Harvard Business School for financial support. References Agrawal, A., Gans, J. S., & Goldfarb, A. (2022). Prediction machines, insurance, and protection: An alternative perspective on AI’s role in production. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4138376 Ajunwa, I. (2021). An auditing imperative for automated hiring systems. Harvard Journal of Law and Technology, 34(2), 1–80. Agrawal, A., Gans, J., & Goldfarb, A. (2018). Prediction Machines: The Simple Economics of Artificial Intelligence. Boston, MA: Harvard Business Review Press. Agrawal, A., Gans, J., & Goldfarb, A. (2022). Power and Prediction: The Disruptive Economics of Artificial Intelligence. Boston, MA: Harvard Business Review Press. Ajunwa, I., Crawford, K., & Schultz, J. (2017). Limitless worker surveillance. California Law Review, 105(3), 735–776. https://doi.org/10.15779/Z38BR8MF94 Allen, R., & Choudhury, P. (Raj) (2022). Algorithm-augmented work and domain experience: The countervailing forces of ability and aversion. Organization Science, 33(1), 149–169. https://doi.org/10.1287/orsc.2021.1554 Amabile, T. M., Patterson, C., Mueller, J., Wojcik, T., Odomirok, P. W., Marsh, M., & Kramer, S. J. (2001). Academic-practitioner collaboration in management research: A case of cross-profession collaboration. Academy of Management Journal, 44(2), 418–431. Balkundi, P., & Harrison, D. A. (2006). Ties, leaders, and time in teams: Strong inference about network structure’s effects on team viability and performance. Academy of Management Journal, 49(1), 49–68. https://doi.org/10.5465/amj.2006. 20785500 Banker, S., & Khetani, S. (2019). Algorithm overdependence: How the use of algorithmic recommendation systems can increase risks to consumer well-being. Journal of Public Policy & Marketing, 38(4), 500–515. https://doi.org/10.1177/ 0743915619858057 Bazerman, M. H., & Moore, D. A. (2012). Judgment in Managerial Decision Making. Hoboken, NJ: John Wiley & Sons. Beane, M. (2019). Shadow learning: Building robotic surgical skill when approved means fail. Administrative Science Quarterly, 64(1), 87–123. https://doi.org/10. 1177/0001839217751692 Belmi, P., & Schroeder, J. (2020). Human “resources”? Objectification at work. Journal of Personality and Social Psychology, 120(2), https://doi.org/10.1037/pspi0000254 Berger, B., Adam, M., Rühr, A., & Benlian, A. (2021). Watch me improve—Algorithm aversion and demonstrating the ability to learn. Business & Information Systems Engineering, 63(1), 55–68. https://doi.org/10.1007/s12599-020-00678-5 Bergstrom, C. T., & West, J. D. (2021). Calling bullshit: The art of skepticism in a datadriven world. New York, NY: Random House Trade Paperbacks. Bernstein, E. S. (2017). Making transparency transparent: The evolution of observation in management theory. Academy of Management Annals, 11(1), 217–266. https:// doi.org/10.5465/annals.2014.0076 Beshears, J., Dai, H., Milkman, K. L., & Benartzi, S. (2021). Using fresh starts to nudge increased retirement savings. Organizational Behavior and Human Decision Processes, 167, 72–87. https://doi.org/10.1016/j.obhdp.2021.06.005 Beshears, J., & Kosowsky, H. (2020). Nudging: Progress to date and future directions. Organizational Behavior and Human Decision Processes, 161, 3–19. https://doi.org/ 10.1016/j.obhdp.2020.09.001 Bhatt, A. M., Goldberg, A., & Srivastava, S. B. (2022). A language-based method for assessing symbolic boundary maintenance between social groups. Sociological Methods & Research, 51(4), 1681–1720. https://doi.org/10.1177/00491241221099555 Bigman, Y. E., Yam, K. C., Marciano, D., Reynolds, S. J., & Gray, K. (2021). Threat of racial and economic inequality increases preference for algorithm decision-making. Computers in Human Behavior, 122. https://doi.org/10.1016/j.chb.2021.106859 Blau, P. M. (1964). Justice in social exchange. Sociological Inquiry, 34(2), 193–206. https://doi.org/10.1111/j.1475-682X.1964.tb00583.x Bock, L. (2015). Work Rules!: Insights From Inside Google That Will Transform How You Live and Lead. New York, NY: Twelve: Hachette Book Group. Breazeal, C., Dautenhahn, K., & Kanda, T. (2016). Social robotics. In B. Siciliano, & O. Khatib (Eds.). Springer Handbook of Robotics. New York, NY: Springer International Publishing. Breazeal, C., Harris, P. L., DeSteno, D., Kory Westlund, J. M., Dickens, L., & Jeong, S. (2016). Young children treat robots as informants. Topics in Cognitive Science, 8(2), 481–491. https://doi.org/10.1111/tops.12192 Brooks, A. W., & Spelman, T. (2021). Gong: Resonating Conversational Insights. Boston, MA: Harvard Business School Publishing. Cameron, L. D. (2022). “Making out” while driving: Relational and efficiency games in the gig economy. Organization Science, 33(1), 231–252. https://doi.org/10.1287/ orsc.2021.1547 Cameron, L. D., & Rahman, H. (2022). Expanding the locus of resistance: Understanding the co-constitution of control and resistance in the gig economy. Organization Science, 33(1), 38–58. https://doi.org/10.1287/orsc.2021.1557 Cappelli, P., Tambe, P., & Yakubovich, V. (2020). Can Data Science Change Human Resources? In J. Canals & F. Heucamp (Eds)., The future of management in an AI world. New York, NY: Springer. Cardon, P. W., Ma, H., & Fleischmann, C. (2021). Recorded business meetings and AI algorithmic tools: Negotiating privacy concerns, psychological safety, and control. International Journal of Business Communication. Chatman, J., & Choi, A. (2022). Measuring organizational culture: Converging on definitions and approaches to advance the paradigm. In C. Newton, & R. Knight (Eds.). Handbook of Research Methods for Organizational Culture. Edward Elgar Publishing. Chatman, J. A., & Flynn, F. J. (2005). Full-cycle micro-organizational behavior research. Organization Science, 16(4), 434–447. https://doi.org/10.1287/orsc.1050.0136 J.T. Polzer Research in Organizational Behavior 42 (2022) 100181 10 Choudhary, V., Marchetti, A., Shrestha, Y.R., & Puranam, P. (2021). Human-Algorithm Ensembles (SSRN Scholarly Paper No. 3902402). https://doi.org/10.2139/ssrn. 3902402. Choudhury, P., Starr, E., & Agarwal, R. (2020). Machine learning and human capital complementarities: Experimental evidence on bias mitigation. Strategic Management Journal, 41(8), 1381–1411. https://doi.org/10.1002/smj.3152 Corbett-Davies, S., & Goel, S. (2018). The Measure and Mismeasure of Fairness: A Critical Review of Fair Machine Learning. https://arxiv.org/abs/1808.00023. Cowgill, B., & Tucker, C.E. (2020). Algorithmic Fairness and Economics (SSRN Scholarly Paper No. 3361280). https://doi.org/10.2139/ssrn.3361280. Cremer, D.D., & Stollberger, J. (2022, June 7). Are People Analytics Dehumanizing Your Employees? Harvard Business Review. https://hbr.org/2022/06/are-people-analytics-dehumanizing-your-employees. Daneshjou, R., Smith, M. P., Sun, M. D., Rotemberg, V., & Zou, J. (2021). Lack of transparency and potential bias in artificial intelligence data sets and algorithms: A scoping review. Archives of Dermatology (1960), 157(11), 1362–1369. https://doi. org/10.1001/jamadermatol.2021.3129 Davenport, T., & Kalakota, R. (2019). The potential for artificial intelligence in healthcare. Future Healthcare Journal, 6(2), 94–98. https://doi.org/10.7861/ futurehosp.6-2-94 Davis, J. No hiding place: “Bossware” is spying on you in the home, office and car. IMD. https://www.imd.org/ibyimd/magazine/no-hiding-place-bossware-is-spying-onyou-in-the-home-office-and-car/. Dawes, R. M. (1979). The robust beauty of improper linear models in decision making. The American Psychologist, 34(7), 571–582. https://doi.org/10.1037/0003-066X.34. 7.571 De Dreu, C. K. W. (2007). Cooperative outcome interdependence, task reflexivity, and team effectiveness: A motivated information processing perspective. Journal of Applied Psychology, 92, 628–638. https://doi.org/10.1037/0021-9010.92.3.628 De-Arteaga, M., Fogliato, R., & Chouldechova, A. (2020). A case for humans-in-theloop: Decisions in the presence of erroneous algorithmic scores. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–12. https://doi.org/ 10.1145/3313831.3376638 DeFilippis, E., Impink, S. M., Singell, M., Polzer, J. T., & Sadun, R. (2022). The impact of COVID-19 on digital communication patterns. Humanities and Social Sciences Communications, 9(1), 180. https://doi.org/10.1057/s41599-022-01190-9 Deming, D. J. (2017). The growing importance of social skills in the labor market. The Quarterly Journal of Economics, 132(4), 1593–1640. https://doi.org/10.1093/qje/ qjx022 Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114–126. Dietvorst, B. J., Simmons, J. P., & Massey, C. (2018). Overcoming algorithm aversion: People will use imperfect algorithms if they can (even slightly) modify them. Management Science, 64(3), 1155–1170. Du, M., Yang, F., Zou, N., & Hu, X. (2021). Fairness in deep learning: A computational perspective. IEEE Intelligent Systems, 36(4), 25–34. https://doi.org/10.1109/MIS. 2020.3000681 Edelmann, A., Wolff, T., Montagne, D., & Bail, C. A. (2020). Computational social science and sociology. Annual Review of Sociology, 46(1), 61–81. https://doi.org/10. 1146/annurev-soc-121919-054621 Erevelles, S., Fukawa, N., & Swayne, L. (2016). Big data consumer analytics and the transformation of marketing. Journal of Business Research, 69(2), 897–904. https:// doi.org/10.1016/j.jbusres.2015.07.001 Ferrar, J., & Green, D. (2021). Excellence in People Analytics: How to Use Workforce Data to Create Business Value. Kogan Page Publishers. Filiz, I., Judek, J. R., Lorenz, M., & Spiwoks, M. (2021). Reducing algorithm aversion through experience. Journal of Behavioral and Experimental Finance, 31, Article 100524. Gal, U. Jensen, T.B. & Stein, M.-K. (2017). People analytics in the age of big data: An agenda for IS research. ICIS 2017: Transforming Society with Digital Innovation. Fuller, J ., Langer, C., Nitschke, J., O’Kane, L., Sigelman, M., & Bledi, T. (2022). The emerging degree reset: How the shift to skills-based hiring holds the keys to growing the U.S. workforce at a time of talent shortage. White Paper, Burning Glass Institute. Gal, U., Jensen, T. B., & Stein, M.-K. (2020). Breaking the vicious cycle of algorithmic management: A virtue ethics approach to people analytics. Information and Organization, 30(2), Article 100301. Glikson, E., & Woolley, A. W. (2020). Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2), 627–660. https://doi. org/10.5465/annals.2018.0057 Goldberg, A., Srivastava, S. B., Manian, V. G., Monroe, W., & Potts, C. (2016). Fitting in or standing out? The tradeoffs of structural and cultural embeddedness. American Sociological Review, 81(6), 1190–1222. Gómez-Zará, D., Das, A., Pawlow, B., & Contractor, N. (2022). In search of diverse and connected teams: A computational approach to assemble diverse teams based on members’ social networks. PLOS ONE, 17(11), Article e0276061. https://doi.org/10. 1371/journal.pone.0276061 Granovetter, M. S. (1973). The strength of weak ties. The American Journal of Sociology, 78(6), 1360–1380. https://doi.org/10.1086/225469 Grijalva, E., Maynes, T. D., Badura, K. L., & Whiting, S. W. (2020). Examining the “I” in team: A longitudinal investigation of the influence of team narcissism composition on team outcomes in the NBA. Academy of Management Journal, 63(1), 7–33. https://doi.org/10.5465/amj.2017.0218 Grønsund, T., & Aanestad, M. (2020). Augmenting the algorithm: Emerging human-inthe-loop work configurations. The Journal of Strategic Information Systems, 29(2), Article 101614. https://doi.org/10.1016/j.jsis.2020.101614 Gómez-Zará, D., DeChurch, L.A., & Contractor, N.S. (2020). A taxonomy of team-assembly systems: Understanding how people use technologies to form teams. Proceedings of the ACM on Human-Computer Interaction, 4(CSCW2), 181: 1–181:36. https://doi.org/10.1145/3415252. Gupta, P., Kim, Y. J., Glikson, E., & Woolley, A. W. (2019). Digitally nudging team processes to enhance collective intelligence. Collective Intelligence Conference. Hartmann, P., & Henkel, J. (2020). The rise of corporate science in AI: Data as a strategic resource. Academy of Management Discoveries, 6(3), 359–381. https://doi.org/ 10.5465/amd.2019.0043 Hassan, L., Dias, A., & Hamari, J. (2019). How motivational feedback increases user’s benefits and continued use: A study on gamification, quantified-self and social networking. International Journal of Information Management, 46, 151–162. https:// doi.org/10.1016/j.ijinfomgt.2018.12.004 Hofman, J. M., Watts, D. J., Athey, S., Garip, F., Griffiths, T. L., Kleinberg, J., Margetts, H., Mullainathan, S., Salganik, M. J., Vazire, S., Vespignani, A., & Yarkoni, T. (2021). Integrating explanation and prediction in computational social science. Nature, 595(7866), 181–188. https://doi.org/10.1038/s41586-021-03659-0 Homans, G. C. (1950). The Human Group. New Brunswick. NJ: Transaction Publishers. Hong, L., Lamberson, P., & Page, S. E. (2021). Hybrid predictive ensembles: Synergies between human and computational forecasts. Journal of Social Computing, 2(2), 89–102. https://doi.org/10.23919/JSC.2021.0009 Huang, K., Yeomans, M., Brooks, A. W., Minson, J., & Gino, F. (2017). It doesn’t hurt to ask: Question-asking increases liking. Journal of Personality and Social Psychology, 113(3), 430–452. https://doi.org/10.1037/pspi0000097 Huselid, M. A. (2018). The science and practice of workforce analytics: Introduction to the HRM special issue. Human Resource Management, 57(3), 679–684. https://doi. org/10.1002/hrm.21916 Iansiti, M., & Lakhani, K. (2020). Competing in the Age of AI: Strategy and Leadership When Algorithms and Networks Run the World. Boston, MA: Harvard Business Review Press. Jackson, S. (2022). (Not) Paying for Diversity: Repugnant Market Concerns Associated with Transactional Approaches to Diversity Recruitment. Boston: Working Paper, Harvard Business School, Harvard University. Impink, S.M., Prat, A., & Sadun, R. (2021). Communication within firms: Evidence from CEO turnovers. NBER Working Paper Series. https://doi.org/10.3386/w29042. Jacobs, A. Z., & Watts, D. J. (2021). A large-scale comparative study of informal social networks in firms. Management Science, 67(9), 5489–5509. https://doi.org/10. 1287/mnsc.2021.3997 Jago, A. S. (2019). Algorithms and authenticity. Academy of Management Discoveries, 5(1), 38–56. https://doi.org/10.5465/amd.2017.0002 Jarrahi, M. H., Newlands, G., Lee, M. K., Wolf, C. T., Kinder, E., & Sutherland, W. (2021). Algorithmic management in a work context. Big Data & Society, 8(2) 20539517211020332. Jussupow, E., Benbasat, I., & Heinzl, A. Why are we averse towards Algorithms? A comprehensive literature review on algorithm aversion.In. https://aisel.aisnet.org/ ecis2020_rp/168. Kahneman, D., Sibony, O., & Sunstein, C. R. (2021). Noise: A flaw in human judgment. Boston, MA: Little, Brown. Kantor, J., Sundaram, A., Aufrichtig, A., & Taylor, R. (2022). The Rise of the Worker Productivity Score. The New York Times. August 15. https://www.nytimes.com/ interactive/2022/08/14/business/worker-productivity-tracking.html.. Kaufmann, E. (2021). Algorithm appreciation or aversion? Comparing in-service and pre-service teachers’ acceptance of computerized expert models. Computers and Education: Artificial Intelligence, 2, Article 100028. https://doi.org/10.1016/j.caeai. 2021.100028 Kellogg, K. C., Valentine, M. A., & Christin, A. (2020). Algorithms at work: The new contested terrain of control. Academy of Management Annals, 14(1), 366–410. https://doi.org/10.5465/annals.2018.0174 King, G., & Persily, N. (2020). A new model for industry–academic partnerships. Political Science & Politics, 53(4), 703–709. https://doi.org/10.1017/ S1049096519001021 Kleinbaum, A. M., Stuart, T. E., & Tushman, M. L. (2013). Discretion within constraint: Homophily and structure in a formal organization. Organization Science, 24(5), 1316–1336. https://doi.org/10.1287/orsc.1120.0804 Kresge, L. (2020). Data and algorithms in the workplace: A primer on new technologies. Working Paper, UC Berkeley Labor. Center, University of California. https:// laborcenter.berkeley.edu/working-paper-data-and-algorithms-in-the-workplacea-primer-on-new-technologies/. Kleinberg, J., Ludwig, J., Mullainathan, S., & Sunstein, C. R. Discrimination in the age of algorithms.NBER Working Paper. https://www.nber.org/papers/w25548. Kulkarni, P., & Cauvery, N. K. (2021). Personally identifiable information (PII) detection in the unstructured large text corpus using natural language processing and unsupervised learning technique. International Journal of Advanced Computer Science & Applications, 12(9), 508–517. https://doi.org/10.14569/IJACSA.2021.0120957 Lix, K., & Valentine, M.A. (2020). When a bot scores your karma: Algorithmic ranking systems as uncertainty reducers in platform gig work. Working paper, Stanford University. Kwan, L. (2017). Cross-Group Flouting and Territory Management: Navigating CrossGroup Terrain in Organizations. Boston: Dissertation, Harvard University. http:// nrs.harvard.edu/urn-3:HUL.InstRepos:41140200. Lawler, E. E., Mohrman, A. M., Mohrman, S. A., Ledford, G., & Cummings, T. G. (1999). Doing research that is useful for theory and practice. Lanham, MD: Lexington Books. Lazer, D. M. J., Pentland, A., Watts, D. J., Aral, S., Athey, S., Contractor, N., Freelon, D., Gonzalez-Bailon, S., King, G., Margetts, H., Nelson, A., Salganik, M. J., Strohmaier, M., Vespignani, A., & Wagner, C. (2020). Computational social science: Obstacles J.T. Polzer Research in Organizational Behavior 42 (2022) 100181 11 and opportunities. Science, 369(6507), 1060–1062. https://doi.org/10.1126/science. aaz8170 Lee, M. K., Kusbit, D., Metsky, E., & Dabbish, L. (2015). Working with machines: The impact of algorithmic and data-driven management on human workers. Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, 1603–1612. Leonardi, P., & Neeley, T. (2022). The Digital Mindset: What it Really Takes to Thrive in the Age of Data, Algorithms, and AI. Boston, MA: Harvard Business Press. Leyer, M., & Schneider, S. (2021). Decision augmentation and automation with artificial intelligence: Threat or opportunity for managers? Business Horizons, 64(5), 711–724. Li, Q., Lourie, B., Nekrasov, A., & Shevlin, T. (2022). Employee turnover and firm performance: Large-sample archival evidence. Management Science, 68(8), 5667–5683. https://doi.org/10.1287/mnsc.2021.4199 Little, J. D. C. (1970). Models and managers: The concept of a decision calculus. Management Science, 16(8), 466–485. https://doi.org/10.1287/mnsc.1040.0267 Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103. https://doi.org/10.1016/j.obhdp.2018.12.005 Maffie, M. D. (2022). The perils of laundering control through customers: A study of control and resistance in the ride-hail industry. ILR Review, 75(2), 348–372. Mahmud, H., Islam, A. N., Ahmed, S. I., & Smolander, K. (2022). What influences algorithmic decision-making? A systematic literature review on algorithm aversion. Technological Forecasting & Social Change, 175, Article 121390. https://doi.org/10. 1016/j.techfore.2021.121390 March, J. G., & Simon, H. A. (Herbert A. (1958). Organizations. Hoboken, NJ: Wiley. Marchetti, A. Firms of a feather merge together: The coordination benefits of compatible cultures (SSRN Scholarly Paper No. 3712838). https://doi.org/10.2139/ssrn. 3712838. Marks, M. A., Mathieu, J. E., & Zaccaro, S. J. (2001). A temporally based framework and taxonomy of team processes. The Academy of Management Review, 26(3), 356–376. https://doi.org/10.5465/amr.2001.4845785 Martin, I. W. R., & Nagel, S. (2022). Market efficiency in the age of big data. Journal of Financial Economics, 145(1), 154–177. https://doi.org/10.1016/j.jfineco.2021.10.006 Mayo, A. T., & Woolley, A. W. (2021). Variance in group ability to transform resources into performance, and the role of coordinated attention. Academy of Management Discoveries, 7(2), 225–246. https://doi.org/10.5465/amd.2019.0231 Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), 1–35. https://doi.org/10.1145/3457607 Mortensen, M., & Haas, M. R. (2018). Perspective-rethinking teams: From bounded membership to dynamic participation. Organization Science, 29(2), 341–355. https://doi.org/10.1287/orsc.2017.1198 Mroz, J. E., Allen, J. A., Verhoeven, D. C., & Shuffler, M. L. (2018). Do we really need another meeting? The science of workplace meetings. Current Directions in Psychological Science, 27(6), 484–491. https://doi.org/10.1177/0963721418776307 Newman, D. T., Fast, N. J., & Harmon, D. J. (2020). When eliminating bias isn’t fair: Algorithmic reductionism and procedural justice in human resource decisions. Organizational Behavior and Human Decision Processes, 160, 149–167. https://doi. org/10.1016/j.obhdp.2020.03.008 Novak, D., Rennaker, M., & Turner, P. (2011). Using organizational network analysis to improve integration across organizational boundaries. People and Strategy, 34(4), 32. O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York, NY: Crown Publishers. Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342 Page, S. E. (2010). Diversity and complexity. Princeton, NJ: Princeton University Press. Page, S. E. (2018). The Model Thinker: What You Need to Know to Make Data Work For You. New York, NY: Basic Books. Pardo-Guerra, J. P. (2022). The Quantified Scholar: How Research Evaluations Transformed the British Social Sciences. New York, NY: Columbia University Press. Parent-Rocheleau, X., & Parker, S. K. (2021). Algorithms as work designers: How algorithmic management influences the design of jobs. Human Resource Management ReviewArticle 100838. https://doi.org/10.1016/j.hrmr.2021.100838 Patil, S. V., & Bernstein, E. S. (2022). Uncovering the mitigating psychological response to monitoring technologies: Police body cameras not only constrain but also depolarize. Organization Science, 33(2), 541–570. https://doi.org/10.1287/orsc.2021. 1452 Pearce, J. L., & Huang, L. (2012). The decreasing value of our research to management education. Academy of Management Learning & Education, 11(2), 247–262. Lu, R., Chatman, J.A., Goldberg, A., & Srivastava, S.B. (forthcoming). Two-sided cultural fit: The differing behavioral consequences of cultural congruence based on values versus perceptions. Organization Science. Pennebaker, J. W. (2022). Computer-based language analysis as a paradigm shift. In Dehghani, & Boyd (Eds.). Handbook of Language Analysis in Psychology. NY: Guilford Press. Pentland, A. (2008). Honest Signals: How They Shape Our World. Cambridge, MA: MIT Press. Pfeffer, J., & Sutton, R. I. (2006). Hard Facts, Dangerous Half-truths, and Total Nonsense: Profiting from Evidence-based Management. Boston, MA: Harvard Business Press. Phillips, K. W. (2014). How diversity makes us smarter. Scientific American, 311(4), 43–47. Polzer, J., DeFillipis, E., & Singell, M. (2022). When meetings multiply: The consequences of collaboration overload. Boston: Working Paper, Harvard Business School, Harvard University. Polzer, J., Gulati, R., Khurana, R., & Tushman, M. L. (2009). Crossing boundaries to increase relevance in organizational research. Journal of Management Inquiry, 18(4), 280–286. https://doi.org/10.1177/1056492609345429 Rahman, H. A. (2021). The invisible cage: Workers’ reactivity to opaque algorithmic evaluations. Administrative Science Quarterly, 66(4), 945–988. https://doi.org/10. 1177/00018392211010118 Raisch, S., & Krakowski, S. (2021). Artificial intelligence and management: The automation–augmentation paradox. Academy of Management Review, 46(1), 192–210. Rajkumar, K., Saint-Jacques, G., Bojinov, I., Brynjolfsson, E., & Aral, S. (2022). A causal test of the strength of weak ties. Science, 377(6612), 1304–1310. https://doi.org/10. 1126/science.abl4476 Reagans, R., & McEvily, B. (2003). Network structure and knowledge transfer: The effects of cohesion and range. Administrative Science Quarterly, 48(2), 240–267. https://doi.org/10.2307/3556658 Riedl, C., Kim, Y. J., Gupta, P., Malone, T. W., & Woolley, A. W. (2021). Quantifying collective intelligence in human groups. Proceedings of the National Academy of Sciences, 118(21), https://doi.org/10.1073/pnas.2005737118 Rogelberg, S. G., Allen, J. A., Shanock, L., Scott, C., & Shuffler, M. (2010). Employee satisfaction with meetings: A contemporary facet of job satisfaction. Human Resource Management, 49(2), 149–172. https://doi.org/10.1002/hrm.20339 Rouen, E. (2020). Rethinking measurement of pay disparity and its relation to firm performance. The Accounting Review, 95(1), 343–378. Rynes, S. L., Bartunek, J. M., & Daft, R. L. (2001). Across the great divide: Knowledge creation and transfer between practitioners and academics. Academy of Management Journal, 44(2), 340–355. Salganik, M. J. (2019). Bit by Bit: Social Research in the Digital Age. Princeton, NJ: Princeton University Press. Schwartzman, H. B. (1986). The meeting as a neglected social form in organizational studies. Research in Organizational Behavior, 8, 233–258. Shah, P. P., Peterson, R. S., Jones, S. L., & Ferguson, A. J. (2021). Things are not always what they seem: The origins and evolution of intragroup conflict. Administrative Science Quarterly, 66(2), 426–474. Shapiro, D. L., Kirkman, B. L., & Courtney, H. G. (2007). Perceived causes and solutions of the translation problem in management research. Academy of Management Journal, 50(2), 249–266. Slack, D., Hilgard, A., Lakkaraju, H., & Singh, S. (2021). Counterfactual explanations can be manipulated. Advances in Neural Information Processing Systems, 34, 62–75. https:// proceedings.neurips.cc/paper/2021/hash/009c434cab57de48a31f6b669e7ba266- Abstract.html. Song, C., Wang, D., & Barabasi, A.-L. (2012). Scaling theory of human dynamics and network science. APS March Meeting Abstracts, B54-010. Soper, S. (2021). Fired by Bot at Amazon: ‘It’s You Against the Machine.’ Bloomberg.Com. https://www.bloomberg.com/news/features/2021–06-28/fired-by-bot-amazonturns-to-machine-managers-and-workers-are-losing-out. Srivastava, S. B., Goldberg, A., Manian, V. G., & Potts, C. (2018). Enculturation trajectories: Language, cultural adaptation, and individual outcomes in organizations. Management Science, 64(3), 1348–1364. https://doi.org/10.1287/mnsc.2016.2671 Staw, B. M., Sandelands, L. E., & Dutton, J. E. (1981). Threat rigidity effects in organizational behavior: A multilevel analysis. Administrative Science Quarterly, 26(4), 501. https://doi.org/10.2307/2392337 Sühr, T., Hilgard, S., & Lakkaraju, H. (2021). Does fair ranking improve minority outcomes? Understanding the interplay of human and algorithmic biases in online hiring. ArXiv. http://arxiv.org/abs/2012.00423. Sunstein, C. R., & Hastie, R. (2015). Wiser: Getting beyond groupthink to make groups smarter. Boston, MA: Harvard Business Press. Tambe, P., Cappelli, P., & Yakubovich, V. (2019). Artificial intelligence in human resources management: Challenges and a path forward. California Management Review, 61(4), 15–42. Teevan, J., Baym, N., Butler, J. Hecht, B. & Jaffe, S. (2022). Microsoft New Future of Work Report 2022 (MSR-TR-2022–3; Microsoft Research Tech Report, p. 111). Microsoft. Tschang, F. T., & Almirall, E. (2021). Artificial intelligence as augmenting automation: Implications for employment. Academy of Management Perspectives, 35(4), 642–659. https://doi.org/10.5465/amp.2019.0062 Twyman, M., Newman, D. A., DeChurch, L., & Contractor, N. (2022). Teammate invitation networks: The roles of recommender systems and prior collaboration in team assembly. Social Networks, 68, 84–96. https://doi.org/10.1016/j.socnet.2021. 04.008 Valentine, M., & Hinds, R. (2021). “Rolling Up the Leaf Node” To New Levels of Analysis: How Algorithmic Decision-Making Changes Roles,. Hierarchies, and Org Charts. Stanford: Working Paper. Vallas, S., & Schor, J. B. (2020). What do platforms do? Understanding the gig economy. Annual Review of Sociology, 46(1), 273–294. https://doi.org/10.1146/ annurev-soc-121919-054857 Vaughan, D. (1997). The Challenger Launch Decision: Risky technology. Culture, and Deviance at NASA. Chicago, IL: University of Chicago Press. Vollmer, A.-L., Read, R., Trippas, D., & Belpaeme, T. (2018). Children conform, adults resist: A robot group induced peer pressure on normative social conformity. Science Robotics, 3(21), https://doi.org/10.1126/scirobotics.aat7111 Walmsley, J. (2021). Artificial intelligence and the value of transparency. AI & Society, 36(2), 585–595. https://doi.org/10.1007/s00146-020-01066-z Waytz, A., Heafner, J., & Epley, N. (2014). The mind in the machine: Anthropomorphism increases trust in an autonomous vehicle. Journal of J.T. Polzer Research in Organizational Behavior 42 (2022) 100181 12 Experimental Social Psychology, 52, 113–117. https://doi.org/10.1016/j.jesp.2014.01. 005 Weingart, L. R. (1997). How did they do that? The ways and means of studying group processes. Research in Organizational Behavior, 19, 189–240. Whillans, A., Perlow, L., & Turek, A. (2021). Experimenting during the shift to virtual team work: Learnings from how teams adapted their activities during the COVID19 pandemic. Information and Organization, 31(1), Article 100343. https://doi.org/ 10.1016/j.infoandorg.2021.100343 Wood, A.J. (2021). Algorithmic management consequences for work organisation and working conditions. JRC Working Papers Series on Labour, Education and Technology. Woolley, A. W., Chabris, C. F., Pentland, A., Hashmi, N., & Malone, T. W. (2010). Evidence for a collective intelligence factor in the performance of human groups. Science, 330(6004), 686–688. https://doi.org/10.1126/science.1193147 Wu, L., Wang, D., & Evans, J. A. (2019). Large teams develop and small teams disrupt science and technology. Nature, 566(7744), 7744. https://doi.org/10.1038/s41586- 019-0941-9 Wu, Y. J., Antone, B., Srinivas, A., DeChurch, L., & Contractor, N. (2021). Teamwork in the time of COVID-19: Creating, dissolving, and reactivating network ties in response to a crisis. Journal of Applied Psychology, 106(10), 1483–1492. https://doi. org/10.1037/apl0000969 Wuchty, S., Jones, B. F., & Uzzi, B. (2007). The increasing dominance of teams in production of knowledge. Science, 316(5827), 1036–1039. https://doi.org/10.1126/ science.1136099 Yam, K. C., Goh, E.-Y., Fehr, R., Lee, R., Soh, H., & Gray, K. (2022). When your boss is a robot: Workers are more spiteful to robot supervisors that seem more human. Journal of Experimental Social Psychology, 102, Article 104360. https://doi.org/10. 1016/j.jesp.2022.104360 Yang, A., Jieun, S., Kim, H. M., Zhou, A., Liu, W., Huang-Isherwood, K., ... Chuqin, D. (2022). Who says what in which networks: What influences social media users’ emotional reactions to the COVID-19 vaccine infodemic? Social Science Computer Review, https://doi.org/10.1177/08944393221128940 Yeomans, M., Boland, K., Collins, H., Abi-Esber, N., & Brooks, A.W. (forthcoming). A practical guide to conversation research: How to study what people say to each other. Advances in Methods and Practices in Psychological Science. Yeomans, M., Minson, J., Collins, H., Chen, F., & Gino, F. (2020). Conversational receptiveness: Improving engagement with opposing views. Organizational Behavior and Human Decision Processes, 160, 131–148. https://doi.org/10.1016/j.obhdp.2020. 03.011 Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York, NY: PublicAffairs




この記事が気に入ったらサポートをしてみませんか?