見出し画像

【テクノロジー】 AI時代の到来

つい最近まで所謂世間一般で言われるAIについて僕は懐疑的だった。現在の仕事ではデータエンジニアなので自然言語処理のモデルを直接触ったりしてはいないが一応大学院でデータサイエンスの勉強をして自然言語処理のクラスを履修したりしたこともあり大まかな概念は理解しているつもりだった。それを踏まえて僕の理解では現在機械学習でできることと一般の人々がAIと聞いて思い浮かべることにはまだかなり乖離があり、正直既存の機械学習のフレームワークやプロダクトをAIと呼ぶのはマーケティング的な側面が強いのではないかとさえ思っていたくらいだ。

最近ではChatGPTが検索サービスに取って代わるのではないかと盛んにもてはやされていたが個人的には眉唾ものだと思っていた。先日オードリーの若林正恭がANNでChatGPTを使って自分のことを調べた話を語っていたが、ごく基本的な下の名前や生年月日のような公式のプロフィールを見ればすぐにわかるような情報が間違っていたり出演すらしていない映画の主演になっていたりとなかなかに散々な結果が返ってきたらしい。ChatGPTの日本語の精度が英語に比べると劣るのもあるかもしれないが、彼のような有名人でもこのような結果になるというのからもわかる通り(既に日本の芸人さんにまで使われているという浸透度の速さにはびっくりしたが)、少なくても今の段階ではChatGPTのようなAIサービスが既存の検索サービスのユースケースに完全に置き換わる物ではないということだと思う。

だが昨日のGPT-4の発表を見て時代が確実に変わりつつあるのを感じた。

ここ数ヶ月でStable Diffusion・ChatGPTそして昨日発表されたGPT-4とユーザのインプットに対して即座にテキストや画像を生成して返すジェネレーティブモデルが次々に出てきて局面が目まぐるしく変わっている。

特にGPT-4はmultimodalなモデルなのでテキストに加えて画像も解析してテキストのアウトプットを返すことができる。例えば与えられたおもしろ画像のどこが面白いのかを完全に理解して解説したり手書きのウェブサイトのラフスケッチ(お世辞にもきれいとは言えない字で書かれている)を元にそのウェブサイトのHTML・JavaScriptの生成したりすることができる。全く専門外だが画像のメタデータ自動生成や検索の精度向上にも使えそうだ。OpenAIが現在公開している動画昨日のライブストリームを観る限り音声・動画などの画像以外の媒体は現在はまだ対応していないようだが将来的にはその辺りも対応していくんだろう。テキスト入力に対するタスク処理の機能も前のバージョンのGPT-3.5からかなりパワーアップしており確定申告の控除の計算なんかもできてしまう。

GPT-4のデモを見て感じたのは検索に取って代わるというよりは今までなかった全く新しい領域が出来つつあるという感覚だ。これが所謂シンギュラリティってやつなのかどうかはわからないが90年代後半のインターネット創世記や2000年代のiPhone登場によるモバイルへのパラダイムシフトに近い何か大きな流れを感じる。

まだ1ヶ月にもならない我が子にミルクを飲ませながら彼はこういった技術が当たり前に存在する環境で育っていくんだなと考えてしまった。こんな何でもやってくれるアシスタントが普通にいる時代に自分は親として何を教えてやれるんだろう。そして自分はどういうキャリアをこれから歩んでいけばいいのか… パラダイムシフトに取り残されずやっていけるんだろうか。ワクワクすると同時に不安にもなってしまった午後だった。

この記事が気に入ったらサポートをしてみませんか?