急速に進化する科学技術は、私たちの生活や社会、ビジネスの在り方に大きな変化をもたらしている。その一方で、最先端技術に関する倫理的・法的・社会的な課題――「ELSI(エルシー)」が浮かび上がっている。技術が生み出す新たな可能性と向き合い、どのような未来を築いていくべきか。その答えを見つけるために、今こそ立ち止まり、考える必要がある。

本連載では、話題の新技術やビジネス動向を通じてELSIの考え方をひも解き、社会とビジネスにおける実践的な視点を提供する。初回となる今月は、注目を集めるAI技術のひとつ「感情認識技術」に焦点を当て、倫理学を専門とする長門裕介氏がその論点と課題を詳しく掘り下げる。(第3回/全3回)

 

 
長門裕介

大阪大学社会技術共創研究センター特任助教。専門は倫理学、特に幸福論や人生の意味、先端科学技術のELSI(Ethical, Legal and Social Issues 倫理的・法的・社会的課題)。最近の業績に”Addressing trade-offs in co-designing principles for ethical AI”, AI and Ethics, vol.4-2, (A. Katiraiとの共著、2024)、R.ハルワニ『愛・セックス・結婚の哲学』(共訳、名古屋大学出版会, 2024)など。 >>プロフィール詳細

 

【第1回から読む】AIが日々のストレスを記録!?「感情認識技術」のメリットと課題|感情認識技術のELSI (1)

感情を計測・分析するとはどのようなことか?

ここまでは感情を含む個人の情報を監視・管理することの一般的な懸念を指摘してきた。これとは別の、感情認識技術に特有の問題をいくつか指摘しておきたい。

「内心の自由」や「良心の自由」という言葉があり、日本国憲法では「思想及び良心の自由は、これを侵してはならない」と規定されている(19条)。ここでの「思想及び良心」の内容については論争があるが、政治的な主義主張がその代表だろう。私たちがどのような主義主張を抱き、どのようにそれを形成していくかは個人の自由な発展にとって重要であり、第三者がみだりに犯してよいものではない。

しかし、感情認識技術が対象としている「感情(emotion)」はそうした意味での「内心」とは異なるより基礎的な、喜怒哀楽に代表されるようなものである。こうしたものを計測・分析するとはそもそもどのようなことであり、どういう問題を引き起こすかが問題になる。

(写真:bmanzurova / iStock / Getty Images Plus)

ステレオタイプの強化につながるリスク

もっとも「感情認識」といっても、感情認識技術ではあくまでも表出された表情や計測可能な生理的なデータをもとに当人の抱く感情を類推しているにすぎない。

心理学者のポール・エクマンは『表情分析入門』(1987年、誠心書房)で、多くの人間集団に共通する顔の表情パターンとそれに結び付く特定の基本的感情(怒り・嫌悪・恐怖・喜び・悲しみ・驚き)があるとした。エクマンの理論はその後の実証研究で多くの修正を余儀なくされたが、いずれにせよ、ある種のパターン化が可能であるという前提が感情認識技術の根本にある。

近年の研究では、感情表出のやり方は文化によって多様であり、また文脈によってかなり複雑な表出の仕方を見せることから、AIに学習させる前段階でのラベル付けに多くのバイアスが入り込む可能性が指摘されている。

こうした状況を踏まえると、感情認識技術は発展途上であってその判断結果を鵜吞みにすることは人種や性別のステレオタイプの強化につながるなどのリスクもある註4)。

「測定執着」という問題

しかし、こうした技術的な困難以上に、「他人の感情を測定したい」というニーズそのものに社会的な課題が潜んでいるのではないだろうか。

思想史家のジェリー・ミュラーは『測りすぎ なぜパフォーマンス評価は失敗するのか?』(2019年、みすず書房)のなかで、パフォーマンス評価において測定できるものは何でも測定しようとする「測定執着(metrics fixation)」の問題を明るみに出している。

AさんとBさんの仕事におけるパフォーマンス比較をするとしよう。簡単な指標では両者に差はない。しかし、指標をより細かくしていけばどこかで差は出るかもしれない……そのような考えに基づいてどんどん指標を増やす(つまり多くのデータを取ろうとする)と、測定できるがさして重要なものでないものにまで価値を見出すようになっていく。

そこでは「重要なことすべてが測定できるわけではなく、測定できることすべてが重要なわけではない」という基本的な真理が忘れられて、測りやすい指標だけを伸ばすことにだけ関心が向くようになってしまう。それが測定執着だ。

「目は口ほどにものを言う」ということわざがある。私たちは経験的に、このことをよく知っている。納得や謝罪を意味するようなことを言っていても、目つきは反抗の気分を隠しきれていないことがある。あるいは、同情を寄せてくる人の口元に軽蔑や優越感を感じ取ることもある。

しかし、そうだからといって私たちは当人の目つきだけを見ていればいいということにはならないし、当人の自己申告が無意味なものになるわけでもない。

その感情測定・分析は本当に必要か?

感情認識技術を導入したいと考えている組織は、本当にそれが必要なのか、学級やチームの評価における測定執着に陥っていないかを改めて考えてみるべきだと私は思っている。

仮にメンバーの感情をかなりの精度で測定・分析できたとしても、それが重要な情報かどうか、あるいはその情報をもとにできることがあるかは場合によるだろう。ことによると、個別の面談機会を増やすといった「普通の」コミュニケーションの方が有用な情報をもたらしてくれるかもしれない。

近年、データの最小化(Data Minimization )という理念が注目されている。

これは、データを「とりあえず収集できそうなもの全部」という感覚で収集しない、データ収集を特定の目的を達成するために必要なもののみに制限する、必要なくなったら消去するという「期限」を設ける……といった原則によって収集するデータに制限を設けようとするものである。

この理念には「流出リスクを最小限に抑える」という意味もあるが、それだけではなく測定執着に対する戒めとして考えることも可能だ。

感情認識技術のELSI(倫理・法・社会的課題)

感情認識技術は、個人の健康改善などさまざまなメリットがある技術であり、幅広い応用可能性を持っていることは事実である。

しかし、それはまだ発展途上の技術であり、AIによるほかの判断と同様、多くのバイアスが入り込む危険性があるだけでなく、ステレオタイプの強化につながる危険性もある。

また、感情は私たちにとってそれなりにセンシティブなものであり、収集や分析にあたっては事前の十分な説明と同意が必要なものでもある。

そして、なによりも私たちが本当にそれを必要としているか、あるいは使いこなせるかを考えたうえで導入するべきだろう。

関連資料

大平英樹編(2010)『感情心理学・入門』 有斐閣アルマ
感情認識技術の背景にある「そもそも感情ってなに?」という問いにわかりやすく答えてくれる

映画『インサイド・ヘッド』(原題:Inside Out)2015・米
人間の内心というものがどれほど複雑でデリケートであり、単純な決めつけが危険なのかということを教えてくれる

(註4)感情認識技術一般の問題については、Crawford, K. (2021) “Time to regulate AI that interprets human emotions,” Nature 592, 167. https://doi.org/10.1038/d41586-021-00868-5 および 小泉雄介(2023)「感情認識の倫理的側面:データ化される個人の終着点」、『日本セキュリティ・マネジメント学会誌』 36 巻2 号、 5-18. が参考になる.

【第1回】AIが日々のストレスを記録!?「感情認識技術」のメリットと課題|感情認識技術のELSI (1)

【第2回】「人の感情を測るAI」で管理社会のディストピアになる? | 感情認識技術のELSI (2)

こちらの記事は以下の商品の中に含まれております。
ご購入いただくと過去記事含むすべてのコンテンツがご覧になれます。
ELSI最前線
月額:880円(税込)
商品の詳細をみる

過去のコンテンツも全て閲覧可能な月額サブスクリプションサービスです。
🔰シンクロナスの楽しみ方
 
最先端テクノロジーの社会実装における、倫理的・法的・社会的課題=ELSI(エルシー)の最新話題を各分野の専門家が解説。

無料の記事を読む
AIが日々のストレスを記録!?「感情認識技術」のメリットと課題
ログインしてコンテンツをお楽しみください
会員登録済みの方は商品を購入してお楽しみください。
会員登録がまだの方は会員登録後に商品をご購入ください。