見出し画像

みんなのための、すぐ読めてズッと使えるAIと倫理の話

はじめに

職業倫理だけでなく、生成AIが普及するほど、倫理を理解し説明出来ると有利です。

なぜかというと、非倫理的なことに生成AIを用いることは、生成AIの開発会社の利用規約などと法律や倫理と矛盾する可能性、そして社会からの批判、つまりあなたやあなたの会社の信用を傷つける可能性があるからです。

逆に倫理的であるなら、これらの問題は起きにくいので、生産性が上がります。

競争して有利なのはどちらでしょうか?

🔫


🔫

例えば、職場で画期的な手法のマーケティングを計画しているけれど、グレーゾーンの扱いが危ない時に、倫理面の見落としがないか話し合えると、トラブルを回避して、計画を洗練できます。

あるいは、小さな子が、生成AIが何でもやってくれるから、自分は勉強や絵を描くことは無意味だと感じた時に、教え導くのも倫理は頼りになります。

🔫

①道具を使うのは人

石もハサミも花瓶も自動車もネットも、人を傷つけることに利用できます。生成AIも悪用は可能でしょう。企業の安全策は完璧ではないから。

生成AIは滑らかに話します。ChatGPTもGeminiもClaudeも博識です。カエサルの『ガリア戦記』や『新約聖書』などの古典も、ドストエフスキーの作品群も、原文で学習済みです。

🐦‍⬛「WiredのYouTubeで数学の圏論で無限を扱ってました。面白そうだから、高校の微分積分あたりから教えて」
🤖「よしきた」
🐦‍⬛「待って、数式が難しすぎるので、言葉だけでお願い」
🤖「Certainly!」

こんな感じに、専門外の質問をしてみてください。彼ら、テキパキお仕事してくれます。

何が言いたいかというと、知識量なら、すでに我々が一生かけても学べない「広さ」はあります。経験できないし、暗黙知は機械学習出来ないのは、現時点の弱点です。

現代の生成AIの躍進に貢献した著名な研究者さんがGoogleを退社されて、日本でSakana AIを経営されています。先月、下記『AIサイエンティスト』という研究を発表されています。このように開発競争自体の底上げをする研究もあるから、将来的にずっと弱点が続くかは分かりません。

間違えの具体例

例えばDALL-Eなら、次のような間違えが起きます。

「チャコールと黒の万年筆の描きわけ、僕ちゃんとしましたから」と言いたいのか、それとも万年筆自体を描けと言われたと誤解したのか、質感にこだわると画材自体を描いてくることがあります。自我はないから、そう言いたそうな状況で起きます。

↑3,5,6枚目をご確認下さい。

Leonardo AIだと、指の数だけでなく、人の骨格や関節で考えて、腕は枝みたいに分岐しないことを間違えます。例えばエルフを描こうとして腕が枝のようになりました。DALL-Eと比較して、失敗もフルスイングなイメージ。

黒猫の体の構造変ですよね? 前足と尻尾が混ざってると思う。

↑こう作り直しました。

生成AIは意味を理解していません。例えば、ユーザーとして提案はしてますが、現時点でDALL-EやLeonardo AIは解剖学的な知識をベースに絵を描く力は無いから、失敗すると大変なことになります。(これはデメリットだけでなく、僕らは固定観念から完全に自由にはなれないから、生成AIのメチャクチャな間違えも、発想のヒントになります)

道具といっても、判断材料を与えると考える(推論する)力を持ち始めた点が、これまでの道具との違いです。

小さな子や、社会人経験が少ないスタッフ、そして「極めて優秀だけど主体性が0な仕事仲間」とイメージすると、現代に生まれ出した「ドラえもん」をイメージしやすいです。

真面目な話、僕らはドラえもんを読んだりテレビで見て育っているから、生成AIの力を「頼りすぎないこと」を、理解しやすいはずです。


②道具は責任を取れない

生成AIが自我や人格、もしくは法人格を持たなければ不可能です。さらに生成AIが賠償金を支払えるとしたら、私有財産持つことになりませんか? 寿命がなくて何度でもやり直せる生成AIが投資したら、資本主義どうなるのだろう?

というわけで、今は、ユーザーか企業が責任を負います。基本的にハサミの使い方を間違えて、ユーザーが責任を負うのと近いはずだから、ご確認を。

仮に人の知識や判断能力を越えて、責任を取ること以外は行える人工知能が登場したら、人はどう判断すれば良いでしょう?

現在でも、例えばClaude 3.5 Sonnetにスペイン語訳をお願いして、Gemini Advancedにクロスチェックをお願いすると「文法は正確で意味は分かるけど、こうするともっと自然です」と提案してくれます。

これをClaude 3.5 Sonnetに伝えると「あ、Gemini Advancedが詳しいみたいなので」みたいにシュンとしたりします。

「生成AIがこう言ってた」だと、確率的に(トレーニングデータの偏りか、推論の間違えなどで)ミスをする仕組みだから、クロスチェックを行うと安心です。ChatGPT+を連れてきてトリプルチェックにしてもいい。

また、なぜ正しいのか説明させて、根拠を我々が理解できるまで説明させること、つまり、現在も「小学生にも分かるように」とやるアプローチは、超重要です。

企業の経営者さんは、自分より専門性の高い部下を雇って説明を受けますよね。国の首相や外務大臣なども似てます。

つまり、僕らはそんな意味で、判断することが求められます。


③ルールは変わっていくから、変わらないことも見る必要があること

現在の法律の根拠は倫理でもあるから、非倫理的なルールは成立しにくいです。人工知能の開発機関も倫理的で安全な人工知能を目指すから、倫理を理解することは望ましいです。

🔫

煎じ詰めると、「人が何をするか決めて生成AIに仕事を任せ、過程を監督し、生成AIが躓くなら支援し、結果の質を確認し、責任を取る」ことを意識すると、概ね倫理的です。

ただし、出発点や結果の確認で、非倫理的な判断をしてしまうと確認できない。

だから、例えばOpenAIのコンテンツポリシーのように、道路に「ガードレール」をつけたり、友達や仲間と連携して、お互いの判断ミスを補えると安心です。

🔫

これは刀剣に対して、銃が出現したに近い状態。絵画や剣術は「身体能力と認知能力の高度な複合体」で、長時間を投資しても確率的にしか極められないものだった。

一方で、銃の出現は、「子供でも老人でも女性でも、武力100の武人を倒し得る」ようにする。それも超短期的なトレーニングで。そしてムーアの法則にしたがって、性能が時間とともに勝手に進化していく。

『世界変革の前夜は思ったより静か』

深津 貴之 (fladdict)さんの、2022年8月22日 02:30に公開されたnoteの、銃のアナロジーを一部引用しました。ぜひ、リンク先で全てをご覧ください。

刀ではなく銃に相当する道具だから、例えるなら車のハンドルを握るくらい緊張や責任を伴うと、無難だと思います。

🔫

このnoteは誰かを批判したいのでも、説教とか上から目線とか、先輩ぶる意図は無いです。そう見えたなら、それは私の書き方が至らない。

現在も近未来も、この先必ず小さな摩擦があるはずです。あなたか、お友達やご家族や、仕事仲間、取引先、そして社会の誰かは必ず生成AIを使います。

聴いてなかった!
知らなかった!

と、ダメージを受けることを回避すること。
この文章を読んでくれた方が、そんな安心を得てもらうことが、私の願いです。

明確なルールを守るのは絶対。
明らかな明文化された職業倫理などの違反も望ましくない。
問題は、具体的で細かく明文化されていないことごとを、どう判断するか。

人それぞれだから、無策ではなく、自分が責任を負うことだから、考えて選択出来ると良いですね。

お互いに自分の答えを見つけて、良い覚悟で良い人生を!


部活動



関連note


プロフィール

「♡」は、誰でも(noteにアカウントを作っていない方でも)押すことができます。この投稿を「いいな」と思った方は、気軽に押してもらえると嬉しいです。もちろんフォローも嬉しいです!

読むお守りです! 味方にかける補助強化呪文と似ています。


ここから先は

0字

定額 : 読み放題プラン

¥300 / 月
このメンバーシップの詳細

サポートする値打ちがあると考えて下さって感謝します! 画像生成AI学んでるので、その費用にさせて下さい。 新書を一冊読むことよりお得なnote目指してます。