見出し画像

2つの人工知能が互いに会話しタスクを習得!人間のコミュニケーション能力に迫る ジュネーブ大学

ジュネーブ大学の研究チームは、言語による指示だけでタスクを学習できる人工知能 (AI) を開発しました。さらに、そのAIは「仲間」のAIに同じタスクを言語で説明することもできるのです。

これまで、音声やテキストによる指示だけで新しいタスクをこなすことは、人工知能の大きな課題でした。今回、ジュネーブ大学 (UNIGE) のチームは、このような認知能力を持つ人工ニューラルネットワークの構築に成功しました。このAIは一連の基本タスクを学習・実行した後、言語を使って「仲間」のAIに説明することができ、仲間のAIは説明されたタスクを実際に実行することができました。この研究成果は、特にロボット工学分野において大きな可能性を秘めており、学術誌「Nature Neuroscience」に掲載されました。

人間は、一度も経験したことのないタスクでも、説明を聞くだけで習得することができ、さらにそのタスクを他人に説明して再現させることもできます。この能力は、他の多くの動物とは大きく異なり、人間ならではのコミュニケーション能力の根幹をなしています。

人工知能分野の一分野である自然言語処理は、音声やテキストデータを理解し、それに応答する機械を目指しています。この技術は、人間の脳神経細胞を模した人工ニューラルネットワークを利用しており、ニューロン同士が電気信号を伝達し合う仕組みを再現しようとしています。しかし、今回のような高度な認知能力を実現するためのニューラル計算はまだ十分に解明されていません。

「現在のAI搭載の対話エージェントは、言語情報を組み合わせて文章や画像を生成することはできますが、音声やテキストの指示をセンサーや運動機能に翻訳したり、ましてや別のAIに説明して再現させることはできません」と、ジュネーブ大学医学部基礎神経科学部門のアレクサンドル・プジェ教授は説明します。

研究チームは、言語を理解するようにあらかじめ学習させた3億個のニューロンを持つ既存の人工ニューロンモデル「S-Bert」に、数千個のニューロンからなる別のシンプルなネットワークを接続することに成功しました。
UNIGE医学部基礎神経科学部門の博士課程学生で、論文の筆頭著者でもあるレイダー・リベランド氏は次のように説明しました。

実験はまず、言語の理解や解釈を司るウェルニッケ野の働きをシミュレートするようネットワークを訓練しました。次に、ウェルニッケ野の働きを受けて言葉の生成や発話を行うブローカ野の働きを再現するように訓練を行いました。このプロセスは全て一般的なラップトップコンピュータで行われました。

その後、AIには英語による指示文が与えられました。例えば、刺激が提示された位置 (左または右) を指し示す、刺激とは反対の方向へ反応する、コントラストがわずかに異なる2つの視覚刺激のうち、より明るい方を示すといった、より複雑な指示もありました。

科学者たちは、モデルがシミュレートした運動の意図、つまり今回の場合は「指し示す」という動作の結果を評価しました。「これらのタスクを学習した後、ネットワークは別のネットワーク (最初のネットワークのコピー) にタスクを説明することができ、2番目のネットワークは説明されたタスクを再現することができました。我々の知る限り、2つのAIが純粋に言語だけで会話に成功したのはこれが初めてです」と研究を主導したプジェ教授は述べています。

今回の研究は、言語と行動の相互作用を理解するための新たな扉を開きます。特に、ロボット同士が会話を通じて連携する技術開発が重要となっているロボット工学分野にとって非常に示唆的です。「我々が開発したネットワークはまだ非常に小さく、これを基盤として、人間を理解するだけでなく、互いに理解し合うことができるヒューマノイドロボットに組み込まれるような、はるかに複雑なネットワークを開発する道が開かれています」と、両氏は研究の将来性について語っています。

詳細内容は、ジュネーブ大学が提供する元記事を参照してください。

【引用元】

【読み上げ】
VOICEVOX 四国めたん/No.7

この記事が気に入ったらサポートをしてみませんか?