人間とAIの協働のための機械学習
馬場雪乃
(東京大学大学院総合文化研究科)
受賞タイトル
Outstanding Research on Machine Leaning for Human-AI Collaboration
このたびは栄誉ある賞をいただき,大変嬉しく存じます.推薦・選考に携わった皆様,ご指導いただいた先生方,共同研究者の皆様,日頃の研究活動を支えてくださっている皆様に,深く感謝申し上げます.
私は,人間の中から信頼できる情報源を見つけ,その判断や知見を人工知能に取り入れる技術の研究を進めてきました.複数の情報源の中から信頼できる回答を見つけ出す技術は「真実発見」として知られています.たとえば,多肢選択法のテストにおいて,受験生の回答だけから正解を予測する問題は,真実発見の一例です.
簡単には多数決を用いますが,各自の回答だけからそれぞれの信頼性を統計的に推定した上で,回答の信頼性を推定する手法が研究されています.特に我々は,文章などの非定型の回答を対象にした真実発見技術を開発しました.この技術では,回答に対する評点を他の人間から獲得します.この評点を利用して回答の信頼性を推定しますが,評価者全員が信頼できるとは限りません.そこで,評価者のバイアスや信頼性をパラメータとして取り入れた数理モデルにより,回答の信頼性を推定する技術を開発しました.
加えて,信頼性が高い情報源(「専門家」)が少数派となってしまい,多数決で負けてしまうという問題に対処するための,新しい多数決の方法も開発しました.この手法は,専門家でないと答えられないような難しい問題では,答えを知る専門家同士の回答は一致しやすいが,答えを知らない非専門家同士はでたらめに答えるため回答が一致しづらいことを利用しています.複数の問題に対する各自の回答を1つにまとめて,その上で多数決を取ることで,専門家が多数派となるように工夫をしています.
真実が1つであるような状況に限らず,近年は,異なる価値観の人々の意見をまとめる技術の研究も進めています.たとえば,多数決では,多数派の意見が採用されて少数派の意見が無視されてしまいます.これに対処するため,人間の投票行動を,その背後にある各自の潜在的な価値観に基づいてモデル化することで,多様な観点で良い意見を発見するという技術を開発しました.実際にこの技術を,話し合いの場で活用する研究も進めています.
また,人間が常に良い判断をするとは限らず,人工知能の方が良い判断をすることもあります.たとえば,人間が他者を評価する際に,相手の人種や性別に応じて,時に不公平な評価をしてしまうという問題があります.そこで,公平性配慮型機械学習を活用して,「その人の判断が公平になった場合」の機械学習モデルを構築し,それを教師として用いることで人間に公平な判断の仕方を教える技術を開発しました.
今回の賞を励みに,今後も,多様な人々をエンパワーメントできるような人工知能とインタラクション技術の研究に励むとともに,研究成果の社会実装にも注力していきたいと考えています.意見をAIで整理することで「みんなが納得する話し合い」を支援するツール Illumidea(https://illumidea.ai)の公開も進めておりますので,ぜひご覧ください.
(2024年7月22日)
(2024年9月17日note公開)