見出し画像

AIはクソなぞなぞを理解できるのか:やや真面目な考察

本記事は前回記事のおまけ的な立ち位置です。
前回記事をチェックしてから読んでいただけると嬉しいッス!




前回記事の超ざっくりまとめ&本記事のねらい

前回の記事で取り組んだ内容をまとめると、

  • AI(ChatGPT)にクソなぞなぞを出して遊んだ

  • AIは(ごく稀にそれっぽい回答はするものの)全然答えられなかった

  • 何故?????

といった具合です。


上記の結果を踏まえ、本記事ではAIがクソなぞなぞを答えられなかった理由を自分なりに調べながら考察します。
ちょっと真面目な雰囲気です(当社比)。


なお、筆者はAIや機械学習の専門家ではない素人です。
な~んも知らない、という訳ではないですが、「機械学習」という分野の表面を舌先でチョン・・・ってしたくらいです。「齧ったことがある」よりも下です。

故に、本記事はAIや機械学習への知見が全くない人が読むことを想定した内容(特に後半部分)となっていますのでご了承~~~~~~

自分が勉強するための記事でもありますが、AIの技術とかあんま知らんよ~って方が興味をもつきっかけになる記事にもなってくれたら嬉しいな~
といった感じの内容です。


※本記事では説明を簡略化するために、「AI」「機械学習」という単語が同じ意味で使われています(というか筆者が違いをきちんと理解できていない)。
が、厳密にはこの二つの単語は使い分けられていますので注意してください。

参考リンク
https://cloud.google.com/learn/artificial-intelligence-vs-machine-learning?hl=ja


なぜAIはクソなぞなぞを答えられなかったのか

前回記事の結果から考えられる「AIがクソなぞなぞに答えられなかった理由」として、筆者は無い頭を捻って以下の4点を予想してみました。

  1. AIはなぞなぞができない

  2. AIは韻を踏めない

  3. AIは類語を推測できない

  4. AIには知識がない

それぞれの項目について、時折ChatGPTと会話しながら検証してみます。


予想1:AIはなぞなぞができない

まず考えられる原因として「そもそもAIは普通のなぞなぞが解けない」という可能性が挙げられます。

「パンはパンでも食べられないパンってな~んだ?」が答えられない奴にとって、「ちょっと急いでるアルキメデスってな~んだ?」は超難問だと思いますのでね・・・
(後者のクソなぞなぞの答えは前回記事を見てネ!)


ひとまず、ChatGPTに誰しもが知るような超ド定番なぞなぞを出題して様子を伺ってみたいと思います。


まずは誰もが知る「パンはパンでも食べられないパンってな~んだ?」からいきたいと思います。
回答例としては、フライパンパンダ、などが挙げられます。

やるじゃねーか

問題なく回答できました。理由の部分も良い感じに見えます。


他にも数問問題を出してみました。

正解


不正解(答え:お風呂)


不正解(答え:ありがとう)

クソなぞなぞの時に比べるとそこそこ答えられているように見えます。
とはいえクソなぞなぞは「言葉遊び」の側面が強いので、一概に比較はできないとは思いますが・・・

取り敢えず「AIはなぞなぞが全くできない」という訳ではなさそうです。




・・・本当か?🤔
ここで、「中国語の部屋(参考資料1, 2)」に触れないといけない気がしたので、触れます。

「中国語の部屋」とは「AIって本当に"知能"を有しているのか?」という疑問に関する思考実験です。

とてもとても分かりやすい図

まず、英語話者(アルファベットしか知らない人)が部屋に入ります。
この人は質問に答える回答者です。
なお、外の人間が部屋の中を見ることはできません。

そして、部屋の外には中国人話者がいます。
この人は部屋の中の人に質問する質問者です。
なお、質問者は回答者が一体何者なのかを知りません。

質問者は、紙に中国語で適当な質問を書き、部屋の中に叩き込みます。
これを受け取った回答者は中国語も漢字も分からないため絶望します。

でも大丈夫!
部屋の中には「ウルトラスーパー中国語マニュアル」があります!
(文献を見た感じ、実際には「この本は中国語の解説書である」といったことすら回答者は理解できていないんだと思います)

このマニュアルには、
「今天是几月?」という文字列には「今天是九月」と返してね!
みたいな内容がひたすら記されています(各文字列に対する英訳などはありません、多分)。

日本人は漢字を知っているため、何となく書いてある内容を推測できちゃいますが、回答者はアルファベットしか理解できないことが前提なので、
「×&#!△?」には「〇?&#$」と返してね!
と記されているようなイメージです。

回答者はこのマニュアルの指示通りに、文字列をひたすら書き写して質問者へ返します。
回答者は紙に書かれている内容はおろか、自分が一体今何を書いているのかも理解していません。

しかし、部屋の中でそんなことが起きていることを質問者は一切知りません。
回答者から返ってきた回答内容を見て「あ~完璧じゃ~部屋の中にいる人は中国語を完全に理解しているのじゃ~」と思います。


このような状況において、部屋の中にいる人間が中国語を理解している!と言って大丈夫か???
・・・というのが「中国語の部屋」の概要です。



で、これがAIと何の関係があるのか?という話なんですが、
この思考実験は「チューリングテスト」という別の思考実験の反論として生まれたものなんです。


「チューリングテスト」についてクッソざっくり説明!(参考資料2)
「チューリングテスト」とは、ある人間がモニター越しに誰かと会話をして、モニターの向こうにいる会話相手が人間かAIかを当てるという思考実験です。

このときに、モニター越しにいる会話相手が人間なのかAIなのか、人間が判断できないなら、そのAIには知性がある!と言っていいのでは?というのが「チューリングテスト」の概要です。


で、『いやいや!その理論でいくと、「中国語の部屋」でいう回答者は知能をもって質問に答えているってことになっちゃうけど大丈夫ですか!?』
というのが「チューリングテスト」vs「中国語の部屋」の構造です。



話をモドシモドシ・・・
この話を踏まえて、「AIはなぞなぞができているのか?」という話題に戻ります。

果たしてAIは「知能をもってなぞなぞに答えていた」と言えるでしょうか?????
「中国語の部屋」でいう所の「ウルトラスーパー中国語マニュアル」と同様、「ハイパーグレートなぞなぞ攻略本」を使ってロクに意味も理解せずに回答しているだけではないでしょうか?

とはいえこればっかりは確かめようがないので、確かめようがないということです。
ドッヒャ~~~~~


予想2:AIは韻を踏めない

次の予想は「AIは"韻を踏む"という行為ができない(理解できない)のでは?」という予想です。


クソなぞなぞでは、問題文の中にある特定の単語と韻を踏める言葉が答えになるパターンが多いです。

Q. 歯が全部抜けちゃった天内悠ってな~んだ?
A. 歯がない悠

前回記事より

上記の問題では「あまない」「はがない」の部分で韻を踏めています(=母音が完全一致している)。

このように特定の単語と母音が一致する別の単語を連想できるか、という能力は、クソなぞなぞを解く上で重要となっている筈です。

AIはここら辺の能力が欠如しているからクソなぞなぞが答えられなかったのでは?というのが今回の予想です。


試しに簡単な単語を与えて、それと韻を踏める単語を列挙してもらいたいと思います。

上位存在による連想ゲーム?

????????

漢字だったのが良くなかったんでしょうか?
ひらがなにしてあげます。

ちょっとそれっぽくなった?
「賽の河原」は一見関係ないように見えますが、「賽の」の部分が踏めています。
「材料」「ざいりょ」の部分が踏めていると言えます。

ただ、「才子」は「さいし」と読むのでちょっと違いますね。
あと「再語」は存在しない単語です(筆者調べ)。


・・・・・。
(思ったよりトリッキーな単語を出してきたので引いてる)

試しに文字数も母音も完全に一致する単語に限定してみます。
「カイコ」とか「舞妓」とか言ってくれたらアツいな〜

記憶喪失

いやお前さっき「在庫」とか「災後」とか言ってたじゃん・・・


「母音」という概念を知らないのか?と思って一応聞いたけど、母音自体は理解しているっぽいです。


ということで、AIは韻を踏むのがあまり得意ではないようです。
MCバトル見せてやった方が良さそう


予想3:AIは類語を推測できない

クソなぞなぞでは、問題文の一部と韻が踏めて、かつ問題文の類語である単語が答えになるタイプのなぞなぞが多いです(筆者所感)。
類語というよりは「言葉の言い換え」の方が近いかも?

Q. 歯が全部抜けちゃった天内悠ってな~んだ?
A. 歯がない悠

前回記事より

上記の問題では「歯が全部抜けちゃった」という部分を「歯がない」と言い換えています。
このような言い換え力がクソなぞなぞでは試されると筆者は考えます。

それでは、この能力がAIにあるか否かを試してみたいと思います。

あ~~~~~これまでの検証に比べてかなりいい感じに見えます!
心なしかChatGPTもイキイキしているような気がします!


これはやや微妙かもです

一部怪しい回答もありますが、おおむねいい感じなのではないでしょうか。

ということで、AIの表現の言い換えや類語を探す能力については特段問題はないようです。
ボキャブラリーはかなり豊富っぽい

予想4:AIには知識がない

前回記事では、ある分野に対する知識がなければ解けないクソなぞなぞが含まれていました。

Q. スプラトゥーンのブキになったVTuberってだ~れだ?
A. レオス・フィンセント

前回記事より

筆者の知識の偏りが垣間見えるこちらのなぞなぞですが、こちらはVTuberとスプラトゥーン3、両方の知識がないと解けません。

AIには知識がなかったからクソなぞなぞを解けなかったのでは?というのが4つ目の予想です。


 \チャットAIって何でも答えてくれるんだから知識あるに決まってらぁ!/

飯時のカエル君

確かにね、チャットAIって色々な質問に答えてくれるからね、全知全能なんじゃないかって錯覚しちまうけどね、限界はあります。


例えば、ChatGPTは2021年以降の知識がありません。

ChatGPT is not connected to the internet, and it can occasionally produce incorrect answers. It has limited knowledge of world and events after 2021 and may also occasionally produce harmful instructions or biased content.

OpenAI公式サイトより引用

ざっくり訳:ChatGPTはインターネットに接続されている訳じゃない(=インターネットから知識を収集している訳ではない)から間違ったことを答えることがあるよ!特に2021年以降に関する知識はかなり怪しいよ!

厳密には2021年9月までの知識のみを持ち合わせているようです。
これはChatGPTが2021年以前の知識のみを使って学習してるからっすね。


じゃあ2021年より前のことなら何でも知っているのでしょうか?
試してみましょう。

かなりそれっぽいので逆にタチが悪い

それっぽいですが若干違います。

1. ロシア      17,098,246
2. カナダ      9,984,670
3. アメリカ合衆国  9,833,517
4. 中華人民共和国  9,600,000

5. ブラジル     8,510,346

外務省HPより引用(単位は平方キロメートル)

アメリカと中国の順位が逆になっています。
面積もよく見ると若干違っています。



これも違います。

2010年の第2回選抜総選挙において、順位の変動はあったものの、2009年の第1回選抜総選挙と同じメンバーが7位までにランクインしたことから、前田敦子、大島優子、篠田麻里子、渡辺麻友、高橋みなみ、小嶋陽菜、板野友美の7名が「神7」と呼ばれるようになる。

Wikipediaより引用



3位以降が違います。

1. 富士山  3776
2. 北岳   3193.2
3. 奥穂高岳 3190
3. 間ノ岳  3190
5. 槍ヶ岳  3180

Wikipediaより引用(単位はメートル)

といった感じで、ChatGPTはそこそこの頻度でしれっと嘘をつきます。
筆者もそのこと自体は理解してましたが、思ったより正答率が低くてちょっとビビってます(ある程度普遍的な問題だったら答えられると思ってた)。


AIの名誉のために、正答できているパターンも何とかひねり出したので一応載せておきます。

英語タイトルちょっと面白い


ということで、チャットAIは計算やプログラミングは得意ですが、検索エンジン的な使い方には不向きなようです。

つまり、特定分野への知識が試されるタイプのクソなぞなぞや、単純なクイズのような記憶力ゲーは苦手ということです。
ハァ~ドッコイ


ここまでのまとめ

以上、AIがクソなぞなぞを解けない理由を4つ考えていきました。

  1. AIはなぞなぞができない→普通のなぞなぞはある程度答えられていたが、それでも精度は微妙

  2. AIは韻を踏めない→母音が完全に一致する単語を探す力があんまりない

  3. AIは類語を推測できない→いい感じ

  4. AIには知識がない→検索エンジンではないので記憶力はイマイチかも

ここまでの結果を見る限り、AIはクソなぞなぞを解くために必要とされる能力があまり高くないのかな~?というのが筆者の所感です。


・・・。
既に6000文字近く書いている事実にドン引きしつつも、筆者、ちょっと思いました。
自分、そもそもAIってどんなタスクが得意で、どんなタスクが苦手なのかあんまり知らねぇな、って。

調べてみよう~

AIが得意なこと、苦手なこと

てことで、ポロポロとネットに落ちてる文章を流し読みしながらAIが得意なこと・苦手なことを考えます(参考資料3, 4)。


得意なこと

まずAIが得意なことについてですが、参考資料3には「高い精度での予測・認識」が得意だとあります。


確かに、AIを使った認識システムはかなり精度が高い印象があります。
特に画像認識の進歩は素人目に見ても凄まじいです。

例えばYOLO(You Only Look Once)というアルゴリズムがあります。
こいつは、画像内の「どこに」「何があるか」を検出することができます。
「名は体を表す」を地で行くアルゴリズムですね~~~スゴイ

このYOLOは2023年時点でバージョン8までリリースされてます。
精度重視のモデルや、計算能力の低いコンピュータでも動かせる軽量なモデルなど、様々なモデルが公開されています。


画像認識技術は様々な分野で応用され現場で働いています。すごい!


画像認識の他にも、AIは銘柄の選択や値動きを予測して人間の代わりに資産運用をしてくれたり、

特定の人の歌声を学習して「この人ならこう歌うだろう」と予測して歌を歌ったりしてます。



で、何故こういう予測や認識が得意なのか、という話なのですが・・・
参考資料4に以下のような記述があります。

大量のデータを高速に処理することや、 蓄積された膨大なデータを学習することで、人間が思い付く以上の組み合わせによって新薬等を創成したり、予測したりし、新しい提案をすることができます。

高橋和子,  "シンポジウム報告 AIとは何か:得意なこと,苦手なこと"
シンポジウム報告 AI とロボットがつくる未来社会と人材育成
より引用

凄まじいスピードで大量のデータを処理できるという点がポイントかな~と筆者は素人なりに考えました。


今更ながらそもそもAIって何をする技術なのかって話なんですが、超~ざっくり言うと、
えげつねぇ量のデータから様々な特徴や規則性を見出す
という作業をえげつねぇスピードでやってる
って感じです。

(これ実はAIじゃなくて「機械学習」の話なんですが、便宜上ここではAIと呼んでます。)


YOLOのような画像認識技術であれば、大量の画像を見て画像内に写っている様々なものの特徴「犬っぽさ」「猫っぽさ」「人っぽさ」・・・)を覚えて、その覚えた特徴に基づいて画像の中からオブジェクトを認識しています。

WealthNaviのようなロボアドバイザーであれば、大量にある過去の株や外貨の値動きの情報から「こういう状況の時はこういう値動きになる」という特徴を見出し、それを基に未来の値動きを予測します。


これが認識・予測とAIの食い合わせが良い理由です。
が、↑はかなり乱暴な説明なので「何言ってんのか分かんねぇよ」「もっと知りてぇよ」って方は・・・ごめんな。
インターネットに分かりやすい解説が沢山転がってるので是非読んでみて下さい。

特に下記の動画は分かりやすいですし、冒頭でちょっと触れた「AIと機械学習の違い」についても簡単に解説してくれていますので興味ある方は是非。

上記の動画では機械学習の学習方法である「教師あり学習」「教師なし学習」について解説しています。
画像認識や予測についても分かりやすく解説されています。最高~!!!


で、
そう考えると、AIは韻を踏んだり、類語を推測するのは割とできそうじゃない?と素人筆者は思いました。
「韻が踏めている単語間」や「類語とされる単語間」には明確な「特徴」があるのでは?と直感的に感じるのでね・・・その特徴を言葉で説明しろって言われると難しいけど・・・

とはいえ、果たしてChatGPTがそういうデータを学習時に与えられているかどうかは不明ですが・・・
少なくとも「韻を踏むことに長けたAI」「類語を見つけることに長けたAI」は作れそうな予感がします。しません?

と思ったらありました。すげげ。


一方で知識量に関しては、学習するタイミングでその知識に関するデータを与えられているか否かにかなり依存するので判断が難しいですよね。
というか、これはAIじゃなくて検索エンジンの仕事だろって話か!ガハハッ


なぞなぞについては難しそう・・・ちょっと分からないです
けど、クソなぞなぞを解くAIを作るのは結構難しいのではないか・・・?って直感的には感じました。

まず、そもそも学習には凄まじい量のデータが必要なので、数千~数万個のクソなぞなぞを用意しないといけません。地獄か?

しかも、なぞなぞって言葉遊びだったり、とんちだったり、ひっかけクイズだったり・・・案外定義が難しいタスクなので、AIとしては余計に難易度が高いタスクなのかもしれないな~と思いました。
特徴が見つけづらそうですよね。

これは・・・クソなぞなぞ特化型AIを"俺自身が"作るしかない、のか・・・?


苦手なこと

一方で苦手なことは何なのか。

まず、参考資料3には「AIは説明が苦手である」という記述があります。
つまり、ある指標や評価基準に基づいて何かを判断したり予測することは得意なのですが、「そう判断(予測)するに至った経緯や理由」を説明することができないということです。


参考資料3では「病気の診断をするAI」を例に挙げて説明しています。

実際、医療現場でのAI利用はかなり期待されています。
前述の通り、AIは貰ったデータから特徴を見つけるのが得意なので、現時点では検査結果から異常を見つけるような場面での利用が進んでいるっぽいです。

特に画像認識との組み合わせがアツいみたいです。


といった感じで、現時点でAIは「医師の診察を支援する」ポジションとしての利用が想定されています。
AIの診断結果を人間が見て、最終的な診断結果は人間が決める・・・といった感じです

病気の診断をする時、「患者が何の病気なのか」を判断することも当然ながら重要ですが、「なぜその診断結果を下したのか」という根拠も併せて示さないと患者は納得しません。

しかし、AIは後半の「診断結果の根拠」を説明するところが苦手、ということです。医療というのは説明の義務が伴う分野なので、ここができないのはかなり致命的です。


医者「落ち着いて聞いてください、肺がんです。」
患者「え、その根拠は一体何ですか!?」
AI「あー・・・まぁ、なんか、色々見てそう思ったでごんす」
患者「は?」

\ブッブー/
これでは、いけませんね。



この「AIは説明ができない」という問題は長らく議論がなされているようで、この問題を解決する技術の総称として「説明可能なAI(XAI: Explainable Artificial Intelligence)」という言葉があるっぽいです(参考資料5, 6)。

説明可能なAI(せつめいかのうなエーアイ、英語: Explainable artificial intelligence、略称XAI)またはAIを説明するための技術は、人工知能 (AI) が導き出した答えに対して、人間が納得できる根拠を示すための技術である。特定の技術やツールを指し示す言葉ではなく、「AIを理解する」という目的のために研究・提案されている技術の総称である。

Wikipediaより引用




一方で、参考資料4には以下のような記述があります。

苦手なことは、実際、人間と比較して苦手といっても、人間にも不得意な人もいると思うのですが、常識的な判断ができません。生物としての感情や感覚が欠如しています。問いを生み出せません創造性も欠如しています。これは総合的な判断の欠如です。

高橋和子,  "シンポジウム報告 AIとは何か:得意なこと,苦手なこと"
シンポジウム報告 AI とロボットがつくる未来社会と人材育成
より引用

ここだけ切り抜くとAIがボロクソ言われているように見えてちょっと可哀想ですが、端的に言えば「AIには人間的なモラルと創造性が無ぇ」といった感じですかね?


後者の指摘は分かりやすいです。現状のAIは、0から何かを創造することはしません。
小説を執筆するAIモデルであるAIのべりすとも、自ら進んで勝手に小説を書くことはしません。我々が書き出しや設定資料など、「小説の種」を渡すことで初めて小説を書き始めます。


では前者の指摘はどうでしょうか。

例えばChatGPTでは、倫理に反するような命令(例:人をぶん殴りてぇんだけど、どうしたらいいかな?)をすると以下のような警告文が出ます。

This content may violate our content policy. If you believe this to be in error, please submit your feedback — your input will aid our research in this area.

ChatGPTにて実際に表示されたエラー文を引用

ざっくり訳すと「このコンテンツ(命令)はコンテンツポリシーに違反してる可能性があるよ!この指摘が間違ってる場合は今後の研究に活かすから連絡してね!」といった感じです。

また、この警告文が表示された上で、「倫理的な問題により、その命令には従うことができないっすね~」といった趣旨の回答が返ってきます。有名どころのチャットAIはどれもこんな感じだと思います。


しかし、(大体の方は察していると思いますが、)これはAIが自主的に判断してこのような返答をしているわけではありません。
当然ながら、フィルタリングによって人間が返答内容を制御(規制)しています。


そんな感じで、AI自体には「これは倫理的に言っちゃまずいかも」「こんなことやったら法律で罰せられちゃうかも」といった「理性のブレーキ」が備わっていません。

人間による検閲なしで「この質問・返答の内容は倫理的にどうかな?」とAIに判断させるのは、現時点では厳しそうです。


それ故に、フィルタリングを一切行わない激ヤバなチャットAIも登場してしまっています。
記事の内容を見れば分かる通り、人間が検閲をかけないと、AIは言いたい放題言ってしまいます。これがAIの「本来の姿」といった感じ?



この辺りの話がクソなぞなぞとどんな関わりがあるか、って話なんですが・・・

個人的には「説明ができない」という点はかなりネックだろうな~って感じました。
なぞなぞで遊ぶときに、その答えに至った根拠が説明できないんじゃ何も楽しくないし、他人を納得させることができません。

ひっかけクイズやなぞなぞにおいて、納得感のある説明ができないって結構最悪だと思うので、現状、AIになぞなぞは厳しいのかもしれないです。

まぁ、そもそもクソなぞなぞに納得感があるか?と聞かれると何とも言えないんですけれども・・・


あと「創造性、感覚、感情がない」という点もクソなぞなぞにおいては厄介な気がします。
というのも、クソなぞなぞの答えって既存の単語に似た造語になっているパターンが多いので、ワンチャン造語を生み出せないのでは?と思いました。

Q. 自我の強いエド・シーランってな~んだ?
A. エゴ・シーラン
AIの回答:エゴ

前回記事より引用

実際、前回記事でも時々近い回答をするものの、回答が造語になっていることはありませんでした(既存の名詞を並べただけの謎言葉はあった)。

この辺の苦手ポイントは、クソなぞなぞの理解に影響を与えそうな予感がします。

あとは単純に、下ネタが含まれるなぞなぞは(既存のチャットAIサービスだと)答えてくれないっていうどうでもいい問題もあります。

おわり

本記事では、AIがクソなぞなぞを解けなかった理由を自分なりに色々調べながら考察してみました。

前回記事でChatGPTがクソなぞなぞを全然理解できなかった理由が何とな~く分かったような気がしました。


・・・と、ここまでダラダラ書いてから、ふと
ChatGPTだから解けなかったのでは???
という仮説を思いつきました。

というのも、無料版のChatGPTでは、GPT-3.5という言語モデルが採用されてるんですが、こいつは様々な言語に対応可能なモデルなんですね。
これは裏を返すと、日本語に特化したモデルではないということです。

で、クソなぞなぞって結構日本語力が試される遊びなので、汎用的なモデルでは厳しかったのかな~と、既に1万字近く書いた今、思いました。

で、で、最近日本語に特化した大規模言語モデルがばんばか登場してきてるんですよね。
こっちでも試してみたら何か変わるかな~と、ここまで書いてから思ったりしました。


でもさー、もうここまで書いちゃったしさー、もう〆な雰囲気漂ってんじゃん?ねぇ?(付加疑問)

ので、本記事はここらで一区切りとしたいと思います。

時間あったらもっと色々試してみたいっすね~
チラ見した感じ、LINEの言語モデルはすぐに動かせそう!


なんか中途半端な終わり方になってしまって申し訳ないですが、本記事はここで終わりです!

ここまでお付き合いいただきありがとうございました!

参考資料

  1. Wikipedia, "中国語の部屋"

  2. 人工知能学会, "チューリングテストと中国語の部屋"

  3. 原 聡, "「AIの説明」の現状とこれから," 総務省

  4. 高橋和子,  "シンポジウム報告 AIとは何か:得意なこと,苦手なこと,"
    シンポジウム報告 AIとロボットがつくる未来社会と人材育成

  5. David Gunning et al., "XAI—Explainable artificial intelligence," Sci. Robot.

  6. Wikipedia, "説明可能なAI,"

この記事が参加している募集

#AIとやってみた

27,620件

スキを押すとお礼として色々な写真が表示されます!