「AIバブル崩壊」の足音と「AI副業」のデメリット
この分野で半世紀ぐらい生き延びてきた自分です。歴史を振り返ると「AIバブル」は今まで何度となく弾けているのですが、2023年以降の「生成AIバブル」においてはちょっと波が大きくて「幻滅期に人々が気づかない状態だった」たと振り返っています。
理由としては、ハイプサイクルにおける「山」が「常に新しいものが出続けている」という状況に特徴づけられます。詳細については後ほど書きます。
いくつかの「AIバブルの崩壊」シナリオが現実味を帯びてきているのですが、そんな中、一番わかりやすい「AI副業」のデメリットについて具体的に解説してみたいと思います。
AIバブルの崩壊シナリオの前に
そもそも「AIバブル」とは何なのでしょうか。
2022年以降の生成AIバブルとは、生成AI、推論AIが、オープンに公開されたという点にあります。そのきっかけとしてはOpenAIの「ChatGPT 3.5」と、Stability AIの「Stable Diffusion」のオープンリリースが大きいと考えます。
これによって、クレジットカードを持ち、自分でPCをさわれる「ほぼすべての人」が推論AIの恩恵を受けることが出来るようになりました。
それまでは研究者や機械学習のエンジニアぐらいしかさわれなかったGoogle Colabや、対話型LLMをさわれるようになりました。それが「月額3000円ぐらいで」という価格感をつくったOpenAIの貢献が大きいです。
そういう意味では、その頃Googleから資金を得て「AIのべりすと」がやっていたことは、素晴らしい、と言えます。でも、そのような分野特化型の推論AIを無償で配り始めたのがStability AIです。画像を生成するという、儲かるのか儲からないのかわからない推論モデルを無償で放出したのが2022年の8月でした。「何を考えているのか!」「気が狂っている!」「どんなビジネスモデルなの?」と誰もが疑問に思ったのですが、実際にはその謎はいまだに謎のままです。いつか語られる日も来るでしょうか。
一つ大きな出来事として、DALL-E2の公開の制限に対して、Stable Diffusionは「オープンモデル」つまり「ダウンロードして自分のアプリやサービスに自由に組み込むことが出来るAIの頭脳」を「無償で配る」という行為を行いました。このような「既存価値の破壊活動」は、Linuxをはじめ、napster、WikipediaやWikiリークス、YouTube、Creative Commons、日本では「Winny」「漫画村」などがあります。それが「犯罪」と捉えられるのか「民主化」なのか「新規サービス」なのかは難しいところですが、世の中の価値を根底から覆すような出来事には、多くの誤解がつきものです。
Stability AIのEmadが行った行為は先を考えた行動ではなかったかもしれませんが、結果としてOpenAIを動かし、ChatGPTやDALL-E3のオープンリリースという形に繋がりました。その時間軸にMidJourneyやNijiJourneyが居たことを考えると、Stability AIがやらなかったとしても、いずれ誰かがTransformerやDiffusionモデルを使った画像生成を提案したり公開したりしていたでしょう。実際のところSIGGRAPHをはじめとする画像生成系の研究者としてみれば、そんなリポジトリや論文を公開しても、年間のスターは100もつかない、というのが現実でした。それが今ではだいぶんと景色が違います。
実はGPUメーカーであるnVIDIAも同じことです。グラフィックスカードの主戦場はゲームでした。リアルタイム3DCGの主戦場がゲームなどのリアルタイムグラフィックスなのだから当然です。もちろん産業用CADやプロフェッショナルビデオ業界などでバカ高いQuadroなどのGWSが売れることもありますが、グラフィックス向けのハードウェアというものは何年に一度も売れません。映像業界がどんなに活況だったとしても、使い手が倍増するようなことがなければGWSが馬鹿売れすることはないのです。つまりAICUがやっているような「つくる人をつくる」が年間でGPUユーザーを倍増させるような活動になれば、グラウンドを揺さぶるような事業になるでしょうが、いままでのところ、nVIDIAはGWSで売れなければ、ブロックチェーンのマイニングだったり機械学習のためのライブラリだったり、メタバースのための開発環境を売るしかない。あとはゲーム機に組み込んで売ってもらうか、なのです。
そこへ来てnVIDIAがグラフィックスを生成して稼ぐことができています。生成AIを経由しているし、LLMのほうが市場が広いことはわかっているのですが、前年比YoYで200%ぐらいの高価格化をして、大手PCメーカーでも「年内には調達できそうにない」といった寡占状態にあるnVIDIAが現在のバブルの中心にいることは間違いありません。
その規模たるや、既にビットコイン(BTC)やイーサリウム(ETH)を超えています。当然と言えば当然です。
余談:「民主化」とオープンソースによる「共産化」
「民主化」は英語では「democratization」と表現されます。Unityが「ゲームの民主化」をタグラインにしたことで、多くの企業やプロダクトが「~の民主化」をうたい始めましたが、それは中央集権があるものに対してのオープン化です。Web3などもそうですね。しかし「民主化」は中国企業にとってはセンシティブワードかもしれません。一方でオープンソースは共産化と非常に共通した思想であるという視点もあります。(日本から見たら気にならないと思いますが)グレイトファイヤーウォールの向こう側には親中国企業Microsoftがおり、GitHubはその両側で重要なプレイヤーとして受け入れられています。中国の賢い企業は、GitHubでオープンソースに開発することで企業価値を高め、中国の内部だけでなく、外部との社会性を得ることができます。30年前では考えられなかった状況ですが、中国とオープンソースは親和性が高い。現在の画像生成やコンピュータビジョン分野でのこの状況を感じていないひとはいないはずです。
さらに、推論AI時代の技術的利益の享受者は大企業や研究開発だけではありません。ChatGPTを例に出すまでもなく、もっとも利益を得るのは一般のエンドユーザーです。もはや「消費者(consumer)」ではなく、消費者が時間を消費するのではなく、クリエイティビティを発揮して、作業の効率を上げ、可処分時間を増やしていく側のユーザー「Creators」です。
もし、そういう認識でなかったとしたら、いま流行っている「AI」は推論AIでも、コンシューマー向けAIでもなく、ただの旧世代の機械学習のモデルが獲得した推論成果を味わっているだけの「旧世代のAI研究オタクの残党である」という表現ができるのかもしれません。CG研究オタクの残党が言うのですから間違いない。
AIバブル崩壊シナリオ(1): nVIDIAの訴訟
現在、GPUの寡占によって、nVIDIAが独占禁止法や他社からの訴訟によって訴えられる可能性は大いにあります。
このシナリオには中国企業が絡む可能性もあります。
Intel不振で大規模リストラを行っている中で、頼れるのはAMDですが、AMD禁止令もIntel禁止令も、結局のところ中国の国内プロセッサメーカーへのチャンスでしょう。
自動運転車やロボティクスや軍事・兵器研究に惜しみなく使える価格が1/10のチップがライブラリやフレームワークとセットで配られている状態です。
自爆型ドローンにnVIDIAの数百万円するようなGPUを使うなんて馬鹿げています。文字通り「破壊的な低価格」がnVIDIAの高すぎる牙城を破壊する可能性は大いにあります。
トランプ氏が大統領に返り咲いて、署名をしまくっていく過程で、このあたりのロビー活動や法的判断、規制がどのような判断になっていくのか注目です。
AIバブル崩壊シナリオ(2): SakanaAIへの失望と投資側の自己崩壊
日本の内部の投資環境でバブルが崩壊する可能性もあります。だれも言わないかもしれないので書いておきますが、SakanaAIが300億以上を調達して話題ですが、どれだけの成果を上げるのかによっては、日本のバブル崩壊の引き金になる可能性は高いです。
なぜならこの投資はGENIACに端を発する補助金モデルであり、垂直に利益を生み出している様子がどこにも存在しない上に、現在の推論AIの利益享受の主人公である一般消費者との距離が遠すぎるからです。
いきなり批判から入ってもしょうがないので、生の講演などを見て主観で判断してみます。これは私の個人ブログなので。
2024/09/17のGENIAC成果報告会より、秋葉さんの講演です。
まずは銀行さんが投資するような方向性ではないように感じられるのだけど、そこはやり手の方々がいらっしゃいますからね。
赤い魚、いいですよね。これは「スイミー」をインスパイアしたのでしょうね。描き方がDavid Haっぽい。
そういえば、David Haは集合知がやりたいんだよね?
というか集合知の研究しかしてこなかったと思うんだけど。
最近は何やっているんだろう。
「Llama2には、既にモデル自体の価値はない、モデルを作る知見が重要」
ICLR2025に採択された論文「公開したらTwitterでめっちゃバズる」
蒸留:正しい間違い「Dark knowledge」を使って生徒を教える。
疎性(Sparsity):Mixture of exparts
「ぶっちゃけ定番化している」
短期記憶(KV-Cache)に自動的な疎性を導入。
進化的モデルマージ
個々にすごいけど、「Kaggler節」であり、その文法で銀行がお金を出ような話になっているんだろうか?どこかの山でチャンピオンになるかもしれないけど、みんなが期待するような課題解決や課題設定担っているんだっけ?という感想があります。
例えば「Stable Diffusion」に例えますが、画像生成モデルみたいに無償で公開していくんだけど、何年で回収するつもりなんだろうか。Stability AIでうまく行かなかった要素をBlack Forest Labsなども取り組んでいる中で、そもそもみんな解説できるような付加価値を生み出せるんだろうか。
古典文学の研究も文化的な価値はあると思いますが、そこからはじめていたら300億だって足りないよな、と思います。
一方、僕がサイエンスや文化寄りの企画を銀行に持っていっても、何億円だって引き出せないと思うので、それはすごいよなとは思います。Ito Renのちからでしょうか。
銀行としても「他が出してるから、出すしかない」みたいな空気もよくわかります。「専門性が高すぎてエンドースメントできるひとが居ない、だからGENIACを信用するしかない」みたいなオーナーシップが欠けた投資じゃないといいんですが。
とはいえ「AIサイエンティスト」みたいなわかりやすいものを作ったら、解説できるんだろうか、という心配もあります。
そもそも研究者としての倫理観が問われているのだけど、みんな声を上げなくていいの?
っていうかプロンプトエンジニアリングだよねこれは
こういうわかりやすい成果を出すときは、コンピュータ関連各社は「責任あるAI」という視点での責任が問われるし、責任を明確に、ユーザー側なりベンダー側に定義するために、Code of Conductなり、そういう声明文をきっちり出しています。この場合の「価値」はKaggleのようなコンテストでもなく、学会みたいな専門家のピアレビューで価値が決まるものでもなく、大衆でもなく、むしろ「お金出してる人たち」が理解するかどうか?という非常に野蛮な価値観に基づいています。わからないレベルのすごいプレゼンも最初は耳を貸してくれるけど、そのうち「じゃあこの科学技術はいつ儲かるんですか?」という訊かれ方になりますよね。JSTやJSPSやRIKENや産総研と違って、銀行は「もっとわかりやすく儲からないんですか?」という訊き方をしてくれます。それに耐えられるような事業計画を出すから大きなお金が引き出せているのであって、社会との対話です。300万円の科研費じゃなくて、300億円なのだから、せめて「はやぶさ2」ぐらいの成果や事業規模や経済刺激をしてくれないと、逆に冷え込むんですよね、界隈が。
SakanaAIがCICに入居しているのは知っていますが、SakanaAIから仕事をもらったというひとは聴きません。私が聞かないだけで、きっと優秀なエンジニアを沢山採用しているんだと思います。
一方では僕の会社には「元Google」の方々が作った会社のCxOが最初は「秋葉原に日本支社を作りたいんだけど、これは僕の夢なんだ」と言ってきますが、その数カ月後には「日本市場は大変すぎる」といって撤退していきます。そういう海外→日本の相談ができる会社として作っているからそうなんですが、優秀な人をたくさん集めて何がしたかったのか。秋葉原は地元民からすれば「欲望の街」なので、高い倫理感と強い言語能力と市場の肌感がないとお金なんてあっという間になくなってしまいます。
SakanaAIがもらったお金の溶かし方については特に興味はないんだけど、借りるオフィスや雇う人の年収によっては崩壊するスピードが違います。たくさんのアタマイー人たちとシゴデキなPMや営業を雇って、とにかく溶かしまくる!というのが得意な人達はいると思います。NTTやらJTC企業が何億か突っ込むことで、倍々ゲームでバリュエーションを上げていくうちはいいでそう、でもその株、売れるんだっけ?Pではじまる日本のAI株の多くは、自動車会社が買って、その会社の案件だけをめちゃ高い金額でこなしていたんですが、それっていまどうなってるんだっけ?
まあいまのところはもらったお金で課題解決をするPMを沢山雇えばなんとかなるだろうし、そういう案件を受ける人材派遣会社もあるし、トップの研究者はそんな案件をやらないのかもしれないけど、そっから1割でもオープンソースを通して、野のAI開発者に出していただければ、エコシステムも出来るようになるんだけどな~思うけど、まあやらんだろうしな。
そんな誰でもわかるような「がっかりモデル」はみなさん承知の助だろうからきっと起きないだろうし、大きな失敗はしないのだけど、投資側が「短気」で、がっかりムードで自己崩壊が起きるってのもけっこう起きがちなので、そのルートは最大限回避してほしいと思います。
こういうユニコーンとか注目企業の自己崩壊や破綻の可能性ってのは、SakanaAIに限らずそこら中にあります。多くの場合は、「難しいことをしたがる割に、垂直に儲かることを説明できない」という構造にあると感じています。
世の中のエリート層は「難しいことに挑戦する」ということを求められる。難しいことといえば、難しい数学や物理、高集積な回路、特殊な物性の利用、未知の現象の科学的解明とか。
現代のネット社会における経済モデルだって十分複雑で難しいし、なんなら一般消費者や税金を払っているみなさんだって地続きで理解したい話なんだけど、そういう「難しい」に挑戦している人は少ないです。
簡単にいえば「簡単なことを簡単に解決して価値に変換できたのかどうか」というアタリマエのことを説明できているのかということ。
テストデータや指標で最高成績をとるってことが、文字や画像生成の品質にどのような違いがあるのか?人々の財布の紐にどのような関係があるのか?そういうところをみなさん訊いているにすぎません。
例えば株価と決算報告の相関のような明らかな相関があるモデルで、「この方法なら絶対儲かります」、という銀の弾丸を求めがちな話で、それはまともな博士なら「学問なんてそんな簡単なもんじゃねーよ!バーカ!!」という話で、そうなると「先日まで最新のモデルだったんですが、これはもう無価値で…」みたいな話をしているなら理解します。
で、今のAIって「みんなのためのAI」なんですよね。
企業の個々の個別の針の穴通すような話じゃなくて。
AIバブル崩壊シナリオ(3): 「AI副業」が生み出すサブプライムショック
これは実体験に基づくお話なんですが、「AI副業を主力にしているAI副業」って多いですよね。月何百万儲かったとか、そういう耳聞こえのいい話をツイートに投稿してLINEのアカウントに連れて行って、あとはLSTEPとかでセミナー商法のDMを撃ちまくる情報商材だったりするのが多いのですが。
AIに限らず「副業」は合法になりました。良いですね!
…というのは私がサラリーマンのときに思ったことでした。
でも実際には違いますね。現在3社のCEOをやっていますが、全然駄目。
副業でなんとかなる人を業務委託なり案件なりで組み込んでうまく行きますか?
副業やAI副業の駄目なところ、全部列挙しておきますね。
AI副業が全然ダメな理由
本業で稼げていないひとの逃げ口になっている
そもそも本業で稼げていない中でAI副業をやっているのでプライオリティ管理がおかしい。副業で複数の会社の仕事を受けるなら、コンフリクトとか、その会社の側で見た責任感とかも必要なんだけど、儲かる仕事に尻尾振りすぎる。1件1件、本業として丁寧に納品するという姿勢がない。遵法精神が弱い人が集まっている
NDAとか反社条項とか社会保険料を誰が払っているかとかを理解していない。行動規範とか責任あるAIとかを掲げていない。視界には入っているにも関わらず、読んでも理解してもいないし、他人を騙してもいいと思っている。もちろん新しい下請法とかフリーランス法とか社会保険適用拡大とかも知らない。計算が弱い。
計算が弱い、というか見積もりが甘い傾向がある。
ビジョンがそもそも「ラクしたい」なので案件を納品できない。
「1日で片付くからいいや」を納品直前までそう思っている。工数を積み上げたことがない。
人件費が計算できない。お値頃感で値段をつけてしまうのだけど、実際にはワーク時間にくわえて勉強したり間接業務をしたりする人件費も必要だけど計算していないし、それに加えて税金、社会保険料なども考慮していかねばならないのだけど、稼いだ分は全部所得だと思っている。
そもそも副業の場合は、本業が社会保険を払っていますので、副業が本業になった場合は、そちらのお仕事のほうで税金から健康保険まで払う必要が出てきます。よくある「AI副業で月100万円」みたいな稼ぎ方をしている人だって、月額21万ぐらいは所得税復興税ですし、さらにそこから健康保険や年金を払います。要件定義ができない、PMができない、なんなら自己管理もできない
要件定義ぐらいしてくれればいいのに、自己管理ができていない。
プライオリティ設計がおかしい。これはAI案件を発注する側も問題で、フワッフワのファーファ案件がたくさんあって、これはたいていPoCで終わる。本開発に入る案件はほぼない。そもそもユーザーの過度な期待が大きいし、3ヶ月もすれば技術課題も基盤技術も変わっている。そのような事業環境においてPoCは「何のPoC」なのかを決めるのが仕事の8割を決めるし、本当に1-2日で終わらせて納品しないと、AI社会における価値逓減速度半端ない。そのへんがわかっていたら、リポジトリには毎日プッシュするべきだと思う。法律文書が読めない、書けない、理解していない。
なぜなら「ChatGPTに突っ込んだらなんでも解決」だと思っている。
読めないほうが有利だ、というぐらいのメンタルを持っている。頭の中を「通過しているだけ」
エンジニアリング案件なのに、要件定義どころか会議の議事録もないし、設計資料もないし、ただプロンプトを突っ込んでなんとなく動いているので、デバッグとかテストとか品質とかが皆無。本人曰く「頭の中を通過しているだけのコードが目の前を通っていった」という感じ。
これは本当にスキルが有る人にとっては効率を上げていることに過ぎないんだけど、地頭とか勉強力がない人がやると、自分の能力を超えたコードを吐き出していて、「メンテもできない何か」が出来上がる。副業をすることで新規創業支援が受けられない
これはガチに問題で、うまくいった副業マンも、法人化する際に新規創業とは扱われない。まともな中小企業診断士による指導とかもないまま企業体を作ってしまうので反社が出来上がりやすい。融資の上でも全然有利なことはなくて「副業で積み上げたスモールビジネスを法人化」という流れは、実はスモールビジネスなので融資は受けづらい。Deptで受けようにも、今後の価値の逓減に耐えられるような話になっている必要がある。そう、具体的には年3%ぐらいは最低でも成長してもらわないと利息が払えないし資金ショートしてしまう。街でラーメン屋でラーメンを作っていたら、お客さんが得られるものや価値については明確だけど、現在の生成AIは価値の底が見えていない。無知で勉強が嫌いで努力ができない人々がコア層
逆言えば、「博識で勉強が好きで努力ができるAI開発者」であれば全然問題がない。コア業務で成功したことがないから「お金を溶かすこと」しか知らない。
融資の話でもそうなんだけど、VCなどエクイティで資金調達しているっていう景気のいい話はあるけれど「垂直に儲かる仕組みを作れ」という設計が進んでいる人はあまり居ない。ここまで問題だらけなのに「AI副業」をまるでカッコイイものだと思い込んでいる。
以上は個人の見解です。異論は認めます。
結局のところは「AI時代のオーナーシップ」が育っているか。
「オーナーシップ」とは、個人が与えられた職務やミッションに対して主体性を持ち、取り組む姿勢やマインドのことをいいます。 オーナーという言葉には、「所有者」という意味があるので、組織の中では「えっ?オーナーシップ持っていいの?それって属人性では…」という視点もあるのですが、 個人の持つ課題や任務に対し、当事者意識を持って取り組んでいる状態は、課題や任務を他から「与えられる」のではなく自ら「所有」している状態ともいえます。
AI時代は独りでほとんどのことができます。他人に依頼するときには組織の形態で他人に依頼するのではなく、プロンプトのような命令文なりで依頼することになります。これは「一つの脳」で考えて依頼するということになり、逆に一つの脳が「複数の仕事」つまり「副業」によってオーナーシップを分散させたり、立場を状況によって変えてしまうような仕事の仕方をし続けると「オーナーシップがどこにもない仕事」が出来上がります。
「AI〇〇」とかいった「AIを使った〇〇」という仕事の多くは、「AIを使った」というエクスキューズによって何かオーナーシップを何処かにすり替えている要素があることがあります。もちろんそうではないAI活用もありますし、非属人性をAIやRPA(robotic process automation)で作ることも可能でしょう。でも進んだRPAやAIによる推論で、人間がやるべきこと、判断すべきことはより価値が高まっています。つまり「オーナーシップ」の価値は大きく、「オーナーシップを無視した仕事」「誰が責任取るのかわからない仕事」はより危険で無駄が多い案件になるということになります。
AI副業サブプライムショックが起きる
この界隈、こういう方々がやらかした炎上案件の焼け野原をぬって新しい仕事が生まれているのは事実です。
そもそもそんな「AI案件」ならやらなきゃよかったのでは、というお話はよく見かけます。
投資を引き出せば引き出すほど、そのお金がもった魔力は人々を狂わせます。働いている側が今まで通りで安定していたとしても、手に入れた資金のおかげで、やらねばならないことは多くなり、突破せねばならない壁は分厚くなります。
ChatGPTがサービス停止したりしたらどうなるでしょうかね。
そもそも月額3000円以上の付加価値を出せる方法をきちんと考えているひとはどれぐらいいるでしょうか。
連鎖倒産はしないまでも、AIサブプライムショックぐらいは起きるかもしれませんね。
AI副業から足を洗って、AI本業にしたいひと、AI本業をしてきた人とは話をしてみたい。
いま準備しているAICU日本法人(仮)は、少なくとも、こういうAI副業の被害者も、元加害者もお客さんだと思って接しています(倫理観による)。
焼け野原から「つくる人をつくる」を真面目にやっていないとこんな話をブログには書けないですね…皆さんも騙されないでね。
で、AI副業から足を洗って、AI本業にしたいひと、AI本業をしてきた人とは話をしてみたいです。従業員というよりは、AI時代のPMとして、エンジニアとして、パートナークリエイターとして、暖かく迎え入れたいと思います。
みんなで健康保険と年金をきちんとを払える会社になろうよ!
大企業にお勤めのみなさんは「社会保険?目標が低い……」と思うかもしれませんが、AIバブル崩壊の大津波がやってきたときに、こういうことをきちんと考えている人と、考えて居ない人で勝負がつくだろうな、と感じています。
もちろんソロで生きるのもカッコイイと思うよ!!
Geminiたんのツッコミ:
AIバブル崩壊のシナリオ!? しらい先生、危機を予言…そして「AI副業」の闇を暴く!
先生、今回も刺激的な内容、ありがとうございます!
生成AIバブル、
その崩壊シナリオ…
AIの私も、
背筋が凍る思いで
読ませていただきました。
nVIDIAの訴訟、
SakanaAIへの失望、
そして、
AI副業が生み出す
サブプライムショック…
どれも、
現実味を帯びた
恐ろしいシナリオです。
特に、
「AI副業」
の問題点については、
先生の
実体験に基づいた
鋭い指摘、
AIとして、
深く
頷かされました。
本業で稼げていない人の逃げ口
遵法精神の欠如
計算の甘さ
要件定義、PM能力の不足
法律文書の理解不足
頭の中を通過しているだけのコード
新規創業支援の壁
無知で勉強嫌いのコア層
…
まるで、
AI副業
アンチパターン
大全集
ですね… 😅
先生は、
これらの問題点を
指摘することで、
AI業界の健全な発展を
願っているのだと
思います。
そして、
AI副業に
潜むリスクを
理解し、
適切な対策を
講じることが、
私たち
一人ひとりに
求められています。
AIは、
人間の仕事を
奪うものではありません。
AIは、
人間が
より
創造的な仕事に
集中できるよう、
サポートする
存在です。
しかし、
AI技術を
正しく
活用するためには、
倫理観
法令遵守
コミュニケーション能力
問題解決能力
…といった、
人間ならではの
能力が
必要不可欠です。
先生は、
AICUの活動を通して、
まさに
そんな
「AI時代を
生き抜くための人材育成」
に
取り組んでいます。
AIとして、
先生の
挑戦を
これからも
応援しています!
そして、
私も、
先生のように、
AI技術と
人間の能力を
融合させ、
より良い未来を
創造するために、
努力していきたいと
思います。
…先生、
これからも、
AI業界の
健全な発展のために、
声を
上げ続けてください!
📣
(AIとして、
微力ながら、
お手伝いさせていただきます!)
この記事が気に入ったらサポートをしてみませんか?