見出し画像

人工知能とアクセシビリティと。

先日こちらの記事を書きましたが、改めて似たような話をしてみようと思います。よかったら過去の記事も参考にされてください。また先日アップしたポッドキャストでも同じテーマで喋ってみています。リンクはページの後半にありますので、よかったらそちらも聞いてみてください。(ぜひ)


どうも稲本です。福岡でコミュニケーションや情報伝達に関わる仕事をしています。普段から毎日noteを更新したり、ポッドキャストを週一回リリースしたりと日々情報発信をしています。よかったらフォローやスキ、コメントいただけると嬉しいです。ツイッターのフォローもお願いします!

ChatGPTがバージョンアップして、画像も読むようになりました。
読み込めるじゃなくて「読む」です。

前の記事でも示したように画像の内容を理解してテキストにしてくれます。
依頼すればそれは、英語にもフランス語にもスペイン語にもアラビア語にもなります。alt属性をどうしたら?という時のアイデアとしてChatGPTが使えるようになる・・・みたいな世界が仕上がってしまいました。

「ん?まてよ。ということは、プログラム(人工知能)が画像を読んでくれるってことはalt属性書かなくてもよくなるんじゃね?画像に対するアクセシビリティってハードル下がるんじゃね?」

という声が聞こえてきそうです。私の内からも聞こえてきました。

結論から言うと「そんなに甘くねーよ」というのが現在の結論です。
理由は3つあります。
(この時点では3つかはわかっていませんが、「3つ」ってしてしまうことで考える思考法です笑)

1:ChatGPT(人工知能)が考える時間が数秒でもストレスになる
ユーザーは画像を知りたいのではなく、そのページの中の情報を知りたいわけで、その文脈において画像の中身を人工知能が考えてアウトプットするまでの時間はじゃまくさいはず

2:健常者であっても画像から得られる情報はさまざま
ChatGPTが判断する画像の内容の1つの解釈にすぎません。発信側が意図したメッセージまではChatGPT(人工知能)は理解しようがありません

3:ChatGPTのアウトプットが「正しい」とは限らない
2とリンクしますが、ChatGPT(人工知能)のアウトプットが正しいとは限らず、そのalt情報から「情報を得よう」とするハンディを持った方からすれば、リスクが高い

テクノロジーにアクセシビリティ対策を全任せするのは、
おそらく理念として間違ってると言うことでしょう。
テクノロジーはうまく使っていくべきなんだと思いますね。


==========
最後まで読んでくれてありがとうございます。
もしよかったらスキのアクションをもらえると励みになります。
またコメントもぜひお願いします。すごく喜びます。
重ねてご案内になりますが、
このnoteの他に週に一回水曜日の朝に
ポッドキャストを配信しています。こっちではSpotifyのリンクをご紹介しています。

興味があれば聞いてみてください。

もし気に入ってもらえたら嬉しいです。情報の発信とコミュニケーションについていろんなチャレンジをしていきます。どうぞよろしくお願いします!