こうした、自身の状態を検知して、情報提示などの外からの刺激を与えるといった介入を行うことで、感情や行動を変える試みが広がっている。フェイスブックは利用者の了承なく投稿内容の表示を操作することで、利用者の感情操作をする実験を行っていたことが2014年に明らかになり、批判にさらされた。この実験では実際に表示の操作によって利用者の投稿をポジティブまたはネガティブに操作することができたという。

 理化学研究所BSI-オムロン連携センター長の深井朋樹さんは、「注意深く扱う必要はありますが、自身の意思でやっていることなら害は出にくいのではないでしょうか。ただし悪い感情を誘導する操作では、脳への悪影響の懸念があります」と話す。

●botがジレンマ解消

 数人で協調作業をするときには相手の感情に配慮して、結果的にうまくいかなくなることも少なくない。そんなジレンマを解決するのが、botだ。

 米エール大学博士課程の白土寛和さんは数人のチームで最適な色の組み合わせ作りを競うオンラインゲームで、時々ランダムな行動をするbotを含めることで、チームの成績がよくなることを明らかにした。

「全てのプレイヤーが一番正しいと思う色を選ぶと、チーム内で衝突が起こり、協調作業がうまくいきません。誰かが一時的に悪い手を選ぶことが必要なんです。一方、botがときどきランダムに色を選ぶと、同じチームの人は『なんでこいつはこんな選択をしたのか』といら立ちますが、最後の結果はうまくいく。botは人の感情を気にせずに振る舞うので、最終的にはチームの人も満足する結果を残せるのです」(白土さん)

 人の感情を必要以上に気にしてしまうのが人の性。そんな時に「空気を読まない」botが最終的には感情決壊を防いでくれるのかもしれない。(編集部・長倉克枝)

AERA 2017年9月11日号