見出し画像

Python環境構築とAIアシスタントの限界について思うこと

ChatGPT-4oやClaude 3.5 Sonnetなどの最新AIアシスタントでも、Python環境構築や依存関係の問題に関しては限界が顕著です。(2024年7月3日時点)

▼AIの強み
「Pythonで簡単なテトリスのコード教えて」等の漠然とした質問に回答可能・基本的なエラーの修正方法を提示

▼AIの弱点(環境構築・依存関係)
・リアルタイムの環境把握の欠如
┗AIは実際のシステム環境を直接観察できないため、個々の環境固有の問題を正確に診断することが困難です。

・複雑な依存関係の理解が困難
┗多層的な依存関係や環境固有の競合を完全に理解し解決することは、現在のAIモデルの能力を超えているのではないかと。

・実際の試行錯誤ができない
┗AIは実際にコードを実行して結果を確認することができないため、問題解決プロセスが限定的です。

・コンテキストの制限
┗長期的な問題の履歴や開発者の具体的な作業環境を完全に理解することが難しいです。

というのも、これは私の実体験に基づきます。

Python関連の環境構築や依存関係において、GPTと丸2日間も格闘しましたが、エラー沼から抜け出せず。「エラー内容はこれ、実行結果はこれ」と詳細に伝えても、AIの回答→実行→新たなエラーの無限ループ。結局、問題解決できないまま諦めました。

これらの限界により、Python関連の環境構築や依存関係の問題は、AIアシスタント単独では解決困難なケースが多いのが現状なのかと感じました。

補助的ツールとしての有用性は認めますが、全てに完璧な回答を期待するのは現時点では非現実的。使い方と目的を十分に考慮する必要があります。(補助的ツールとしては有用ですが、使い方と目的次第であり、全てに完璧な回答を求めるのは現時点では難しいのかなと)

「AIに仕事を取られる」という観点では、この環境構築や依存関係の問題解決能力が人間との決定的な差であり、AIには代替できない専門性の一つと言えるかもしれません。

AI情報発信者は、比較的そのAIサービス・ツールにおいて持ち上げるだけの傾向が見られます(やらしい話、握らされている等、様々な理由はあるのでしょう)が、気持ちの悪い持ち上げ方をしていてはユーザーを混乱させるだけのように思えます。

かねてより感じていたことですが、AI・生成AIサービス・ツールで完璧なもの、個人的には現状は無いのでは?と。

個人的には、良い面も悪い面もあるということを発信していければいいなと。

「AIに詳しいインフルエンサーが良いって言ってた、誰でも簡単に使えるって言ってた」

みたいな説明から、おかしなバイアスが掛かってしまうのは宜しくないですし、そういった現象は「インターネットで調べたら必ず答えがある」または「ネットで書かれていることが正解だ」という思い込みに似ています。

もちろん事実が真実語っているケースもありますが、全てではありません。
それぐらい発信者は増えたという事実もあります。

AI/生成AIサービス・ツールを利用の際、自身の目的は何か?またその目的に利用しようとしているAI/生成AIサービスは合っているのか?という点はとても大事だと思います。

目的にそぐわないから「このAI使えない」では、共倒れでしかありません。

また、目的にそぐわないにも関わらず掘り下げようとするのは時間経過や労力となってしまいます。(アプローチを変えて改善として向き合うのは別なのでこの辺もまた難しいところかなと)

少し話が逸れましたが、ChatGPTなどのAIアシスタント的なツールは、Python環境構築や依存関係の問題に関しては現状まだまだ知識のある人間には及ばないということ、それは心の何処かで少しホッとした思いもあります。

様々なAIサービス・ツールがある中で、「AIが人間の仕事を奪う」「AIが取って替わる」と危惧されていても、ことPython環境構築や依存関係の問題に関しては、今のところ限界はあるんだなと。

と、私の実体験から感じた事ですが、私自身も例えばChatGPTに期待を寄せ過ぎていたところもあるなと思います。

GPT-4oになって、より一層色んな面でパワーアップしたことで、「必ず解決できることでしょうに」と高をくくっていた節があるなと。

その点は反省です。


この記事が気に入ったらサポートをしてみませんか?