見出し画像

感情に介在するテクノロジー:身体と感情

筆者は、テクノロジーが人間の能力や可能性に与える影響への興味のもと、知覚や認知のメカニズムを援用したインタフェースやインタラクションを開発している研究者です。

研究の中で生まれる思考や試行の痕跡を、noteに残しています。

さて、前回の記事で一部紹介しましたが、筆者は感情に働きかけるインタフェースを提案してきました。こうしたインタフェースを設計する背景には、身体と感情との不可分な関係があります。

今回の記事では、身体を軸に感情に関する心理学研究を概観するとともに、そうした知見をもとにした研究や作品を紹介します。また、先に説明した鏡と眼鏡以外の筆者の研究についても話します。


感情とは?

そもそも「感情」とは何でしょうか。どういう役割を果たしているのでしょうか。

筆者がよく参考にしている有斐閣アルマ「感情心理学・入門」[1]を見ると、感情の定義として[2]で述べられている「人が心的過程で行うさまざまな情報処理のうちで、人・物・出来事・環境についての評価的な反応」を採用しています。

この「評価」というのはどういうことかというと、好き・嫌いとか、心地よい・居心地が悪いとかのある対象に対して無意識に抱く反応であったり、表情とか発汗などのよう身体反応、顕在的な行動の変化などのような、人間の心や体の多様な状態を含みます。

そして、感情は内的・外的な刺激に対して適切に対応できるように、現在の行動の優先付けや組織化を行う役割を持つと言われています[3]。また、Schawrzは感情は認知的な努力を必要とせずに判断を行うために必要な周辺環境の危険性を伝達するシグナルとして働き、ヒューリスティックな情報処理を促すとする「感情情報説」を唱えています[4]。

つまり、感情(= ある対象への評価的な反応)には行動や判断の指針となる役割があるということです。なんとなく物事を捉える「直感」は、まさに理性や理論に従わない感情的思考の顕われでしょう。

また、「情動」や「気分」といった言葉が、感情と類似した意味を持って用いられる場合があります。

「情動」は、身近な人の死によって悲しみを感じたり、長らく欲しかったものが手に入って喜びを感じたりというような、その生起の原因となった対象が明確である比較的強い心の動きのことを指します。

一方、「気分」は、機嫌が良い、なんとなくやる気が出ないといった、情動に比べて長く、持続的で、原因が明確に特定できないような弱い心の動きのことを示します。

一般的に、情動や気分で示される現象も総称して感情と呼ぶことが多く、本記事や筆者の研究でも人の心の動きに対する包括的な概念として感情という言葉を使っています。

「悲しいから泣く」のか「泣くから悲しい」のか

感情が生起するメカニズムについては古くから研究が続いており、その歴史を通して様々な理論が提唱・議論されてきました。近年では、脳科学・神経科学的アプローチからも研究が進められていますが、感情が生起する明確なメカニズムは未だ明らかにされていません。一方で、自身の身体に起きる変化を認識することが感情の生起につながるという点に関して、複数の理論が一致した見解を示しています。

その一つである末梢起源説[5]では、外部からの刺激を脳内で処理する過程で生じた、心臓の動悸や筋肉の動きの変化などの不随意的な身体の変化を知覚することが、感情の経験につながるとしています。つまり、「悲しいから泣く」のではなく「泣くから悲しい」ということです。

例をあげて説明すると、人気のない夜道を歩いている最中、偶然にもお化けと遭遇してしまったとします。お化けがいることに気づくことで、心拍数が上がる、表情がこわばる、体が震える、冷や汗をかくというような、不随意の反応が身体に生じます。そして、このような身体反応を知覚することで、初めてお化けに対する恐怖心を自覚するということです。いわば「怖いから震える」のではなく「震えるから怖い」ということです。

画像1

同様に、情動二要因理論[6]や、ソマティック・マーカー仮説[7]などの理論においても、身体反応が感情の経験に先立つというような感情と身体の逆説的な関係性や、身体反応の認識(より正確には、身体反応を生起させた原因を推測する過程も含めて)を通してそれに紐づく感情を自覚することが述べられています。

身体と感情の関係性を実験的に確かめた研究もあり、笑顔を作ることによって楽しさが増加するというように、表情筋の変化が感情に影響するとしています[8]。

一方で、実際の身体反応のみが感情の生起に影響するわけではなく、本人のものであると偽って提示された身体反応によっても感情や判断が変化することがわかっています。「偽の心音実験」[9]では、本人のものであると偽って聞かせられた擬似的な心音によって選好判断が変化することが実験を通して確かめられました。

感情を誘発するに際し、実際には本人の身体反応ではないものの、本人の身体反応であると感じさせる刺激を用いるという点は、感情へテクノロジーが介在する可能性を感じさせます。

自己知覚を利用した感情への介在

以上より、感情の生起には自己の身体に起きている現象を知覚することが関与している、ということがわかります。このように、身体反応に加えて、それ以外の感情を表す行動(感情表出)、自己の置かれた環境など、自己にまつわる情報の知覚が感情の生起に関わるとする理論を「自己知覚理論」と呼びます[10]。

実際に、自己知覚のメカニズムを援用して人と感情に介在し、任意の感情を誘発、増幅、緩和しようという取り組みがいくつかあります。

例えば、Tsujita et al.は笑わないと開かない冷蔵庫のように日常生活の中で笑顔になるタイミングを作ることで幸福感を高めるインタフェースを提案しています[11]。他にも、Fukushima et al. は静電気によって腕の毛を逆立たせることで驚きの感情を増幅するChilly Chair[12]を提案しています。

また、Valinsの心音実験と同様に、擬似的な身体反応を自己のものであると錯覚させた事例として、擬似的な心音を振動として胸部に提示した研究[13]や、リストバンドによる心拍を模した振動提示によって緊張感を緩和する研究[14]があります。声と感情の関係に注目して、自身の声の高さや震えを変調してフィードバックすることで感情を変化させる研究[15,16]も提案されています。

他にも、身体反応や感情表出を作り出すガジェットを身に纏い感情を表現するといった作品[17]もあります。

対して、先の記事でも紹介しましたが、筆者らは表情の変化を擬似的に作り出す装置「扇情的な鏡」や、擬似的に落涙を再現する装置「涙眼鏡」を制作しました。

そして、こうした成果を論文として公開するだけでなく、体験型の作品として展示する活動を行ってきました。

画像2

ある展示会でのことでした。体験者が涙眼鏡をかけて涙を流していたところ、別の来場者から「なぜあの人は泣いているのか?私も悲しくなってきた」的なことを言われました。泣いているように見えるだけのリアリティがある刺激を作れたことを嬉しく思うと同時に、「体験者の身体反応を見ていると、自分の気持ちも変わった気がする」という現象には覚えがありました。

他者の気持ちは自分の気持ち

人間は自分でも気づかないうちに、周囲にいる他者の感情の影響を受けています。

泣いている人物を見ていると悲しくなった、嬉々として語られる話を聞いていると楽しくなった、イライラしている人の横にいるとイライラしてきた、といった経験はないでしょうか。

これは、他者の身体反応や感情の表出を感じ取ることで、自身も同じ感情を抱いてしまう「情動伝染」と呼ばれる現象です。

情動伝染には、上で述べた自己知覚と同様のメカニズムが働いています。人間には、相手の表情や話し方、姿勢、動きなどの身体反応や感情表出を自動的に模倣・同調してしまう性質があります。この模倣・同調によって生じた身体反応が、感情の呼び水となるということです[18]。

つまり、他者と感情を同じくする情動伝染においても、感情を生起するメカニズムに身体反応が関与しているということです。展示で得られた感想は的を射ていたと言えます。

他にも、単純な模倣では説明できないような情動伝染の例が示されています。インターネットを介したテキストチャット[19,20]においてチャット相手と同種の感情を抱いたり、ソーシャルネットワークサービス[21,22,23]においても閲覧する他者の発言の感情の度合いに自身の発言が倣ってしまったりすることがわかっています。これらの研究は、情動伝染は感情と関連する身体反応を経由して発生するだけでなく、他者の感情の変化を類推する何らかのきっかけを介しても発生することを示しています。

情動伝染を利用した感情への介在

情動伝染を援用して、任意の感情を誘発、増幅、緩和しようという取り組みをいくつか紹介します。

例えば、自分が笑うのにあわせて録音された笑い声を再生することで笑いの継続時間を変化させる研究[24]や、カメラのシャッター音を笑い声に変えることで自然な笑顔を撮影できるようにする研究[25]などが提案されています。

一方で、筆者らは擬似的な笑顔を視覚的にフィードバックすることで、複数人の感情や感情に付随する認知を変化させることができるか調査しました。

まず、扇情的な鏡と同様の画像処理手法を応用して、対話相手の表情が常に笑顔や悲しい顔に加工されるビデオチャットシステムを作成しました[26]。

画像3

このビデオチャットを用いてブレインストーミングしてもらったところ、お互いの表情が常に笑顔に見えるように加工すると、表情を加工しない場合や、悲しい顔でブレインストーミングしたときよりも、会話中に出てくるアイディアの数が1.5倍ほど多くなることがわかりました。

一方で、会話の文脈によっては、対話相手が常に同じ表情をしていると「こいつ...真剣に話聞いていないんじゃないか…?」と勘違いされる恐れもあります。

そこで、自分の表情に同調するように対話相手の表情を変化させるビデオチャットシステムを作成しました[27]。片方の話者が笑顔になったことを検出すると、先と同様の画像処理によりもう片方の話者の表情を笑顔に加工します。表情の同調効果を擬似的に作り出すことによって、相手に抱く印象や、会話の流暢さが変化するということがわかりました。

昨今は社会情勢の観点から、仕事や生活の中にビデオチャットによるコミュニケーションが広く浸透しています。しかし、こうしたコミュニケーションの多くはリアルなコミュニケーションをそのままデジタルに置き換えただけです。今こそ、上記のような仕組みをビデオチャットに搭載することで、豊かで創造的なコミュニケーションを、リアルを超えて実現できる良い機会かもしれません。

おわりに

感情とはある対象への評価的な反応であり、そうした反応を含め自己の身体にまつわる知覚が感情の生起に影響します。また、他者の身体も知覚の対象であり、他者の身体の模倣や同調を通しても感情が生起します。

さらに、こうした身体と感情の不可分の関係性に着目し、目的とする判断や行動を誘発したり、体験を拡張したりようとする取り組みがいろいろと提案されています。

(この記事の内容は、2020年1月発行の日本心理学会 機関誌「心理学ワールド」第88号における筆者の記事「バーチャルリアリティと感情」に加筆修正を加えたものです。また、一部の文章は筆者の博士論文からの転載です。)

編集協力:yunoLv3

参照

[1] 大平英樹 [編]、感情心理学・入門、有斐閣アルマ

[2 ]Gerald L. Clore, Karen Gasper, and Erika Garvin. 2001. Affect as Information. Handbook of Affect and Social Cognition, 121-144.

[3] Keith Oatley and Jennifer M. Jenkins.1992. Human Emotions: Function and Disfunction. Annual Review of Psychology 43: 1, 55-85.

[4] Norbert Schwarz. 2011. Feelings-as-information theory. Handbook of theories of social psychology 1 (2011), 289–308.

[5] James, W. (1884) What is an Emotion?. Mind Vol.9 No.34, 188-205.

[6] Stanley Schachter and Jerome Singer. 1962. Cognitive, social, and physiological determinants of emotional state. Psychological review 69, 5 (1962), 379.

[7] Antonio R Damásio. 1994. Descartes’ error: emotion, reason, and the human brain. Quill, New York, NY, USA.

[8] Dimberg, U., and Söderkvist, S. (2011) The Voluntary Facial Action Technique: A Method to Test the Facial Feedback Hypothesis. Journal of Nonverval Vehavior 35: 1, 17-33.

[9] Stuart Valins. 1966. Cognitive efects of false heart-rate feedback. Journal of personality and social psychology 4, 4 (1966), 400.

[10] Daryl J Bem. 1972. Self-perception theory. Advances in experimental social psychology 6 (1972), 1–62.

[11] Hitomi Tsujita and Jun Rekimoto. 2011. Smiling Makes Us Happier: Enhancing Positive Mood and Communication with Smile-Encouraging Digital Appliances. In Proceedings of the 13th International Conference on Ubiquitous Computing (Beijing, China) (UbiComp ’11). Association for Computing Machinery, New York, NY, USA, 1–10. https://doi.org/10.1145/2030112.2030114

[12] Shogo Fukushima and Hiroyuki Kajimoto. 2012. Facilitating a Surprised Feeling by Artifcial Control of Piloerection on the Forearm. In Proceedings of the 3rd Augmented Human International Conference (Megève, France) (AH ’12). Association for Computing Machinery, New York, NY, USA, Article 8, 4 pages. https://doi.org/10.1145/2160125.2160133

[13] Narihiro Nishimura, Asuka Ishi, Michi Sato, Shogo Fukushima, and Hiroyuki Kajimoto. 2012. Facilitation of Afection by Tactile Feedback of False Heratbeat. In CHI ’12 Extended Abstracts on Human Factors in Computing Systems (Austin, Texas, USA) (CHI EA ’12). Association for Computing Machinery, New York, NY, USA, 2321–2326. https://doi.org/10.1145/2212776.2223796

[14] Jean Costa, Alexander T. Adams, Malte F. Jung, François Guimbretière, and Tanzeem Choudhury. 2016. EmotionCheck: Leveraging Bodily Signals and False Feedback to Regulate Our Emotions. In Proceedings of the 2016 ACM International Joint Conference on Pervasive and Ubiquitous Computing (Heidelberg, Germany) (UbiComp ’16). Association for Computing Machinery, New York, NY, USA, 758–769. https://doi.org/10.1145/2971648.2971752

[15] Jean-Julien Aucouturier, Petter Johansson, Lars Hall, Rodrigo Segnini, Lolita Mercadié, and Katsumi Watanabe. 2016. Covert digital manipulation of vocal emotion alter speakers’ emotional states in a congruent direction. Proceedings of the National Academy of Sciences 113, 4 (2016), 948–953. https://doi.org/10.1073/pnas.1506552113 

[16] Jean Costa, Malte F. Jung, Mary Czerwinski, François Guimbretière, Trinh Le, and Tanzeem Choudhury. 2018. Regulating Feelings During Interpersonal Conficts by Changing Voice Self-Perception. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (Montreal QC, Canada) (CHI ’18). Association for Computing Machinery, New York, NY, USA, 1–13. https://doi.org/10.1145/3173574.3174205

[17] 感情纏身装身具 http://hazukikatagai.com/kanjyoutensinsoushing.html

[18] Elaine Hatfeld, John T Cacioppo, and Richard L Rapson. 1993. Emotional contagion. Current directions in psychological science 2, 3 (1993), 96–100.

[19] Jamie Guillory, Jason Spiegel, Molly Drislane, Benjamin Weiss, Walter Donner, and Jefrey Hancock. 2011. Upset Now? Emotion Contagion in Distributed Groups. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (Vancouver, BC, Canada) (CHI ’11). Association for Computing Machinery, New York, NY, USA, 745–748. https://doi.org/10.1145/1978942.1979049

[20] Jefrey T. Hancock, Kailyn Gee, Kevin Ciaccio, and Jennifer Mae-Hwah Lin. 2008. I’m Sad You’re Sad: Emotional Contagion in CMC. In Proceedings of the 2008 ACM Conference on Computer Supported Cooperative Work (San Diego, CA, USA) (CSCW ’08). Association for Computing Machinery, New York, NY, USA, 295–298. https://doi.org/10.1145/1460563.1460611

[21] Emilio Ferrara and Zeyao Yang. 2015. Measuring emotional contagion in social media. PloS one 10, 11 (2015), e0142390.

[22] Adam D.I. Kramer. 2012. The Spread of Emotion via Facebook. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (Austin, Texas, USA) (CHI ’12). Association for Computing Machinery, New York, NY, USA, 767–770. https://doi.org/10.1145/2207676.2207787

[23] Adam DI Kramer, Jamie E Guillory, and Jefrey T Hancock. 2014. Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences 111, 24 (2014), 8788–8790.

[24] Shogo Fukushima, Yuki Hashimoto, Takashi Nozawa, and Hiroyuki Kajimoto. 2010. Laugh enhancer using laugh track synchronized with the user's laugh motion. In CHI '10 Extended Abstracts on Human Factors in Computing Systems (CHI EA '10). Association for Computing Machinery, New York, NY, USA, 3613–3618. DOI:https://doi.org/10.1145/1753846.1754027

[25] 伏見 遼平, 福嶋 政期, 苗村 健. 2016. 爆笑カメラ:笑い声により自然な笑顔を撮 影するカメラシステム, ヒューマンインタフェース学会論文誌 18: 3, 153-162.

[26] Naoto Nakazato, Shigeo Yoshida, Sho Sakurai, Takuji Narumi, Tomohiro Tanikawa, and Michitaka Hirose. 2014. Smart Face: Enhancing Creativity during Video Conferences Using Real-Time Facial Deformation. In Proceedings of the 17th ACM Conference on Computer Supported Cooperative Work & Social Computing (Baltimore, Maryland, USA) (CSCW ’14). Association for Computing Machinery, New York, NY, USA, 75–83. https://doi.org/10.1145/2531602.2531637

[27] Keita Suzuki, Masanori Yokoyama, Shigeo Yoshida, Takayoshi Mochizuki, Tomohiro Yamada, Takuji Narumi, Tomohiro Tanikawa, and Michitaka Hirose. 2017. FaceShare: Mirroring with Pseudo-Smile Enriches Video Chat Communications. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (Denver, Colorado, USA) (CHI ’17). Association for Computing Machinery, New York, NY, USA, 5313–5317. https://doi.org/10.1145/3025453.3025574

この記事が気に入ったらサポートをしてみませんか?