見出し画像

今週の気になったAIニュースと話題(3/24−3/30)

2014年3月24日(日)〜3月30日(土)に気になったAIニュースと話題です。日々あふれるように出てくるニュースの中から、面白そうなものをピックアップして、コメントしています!
*14追記(4/8)


1)#春から何やりマス

これ、むっちゃ楽しいよ!

2)画像生成AIで同じキャラクターが簡単に作れるようになってきた(3月25日)

画像生成で作品を作ったり遊んだりしている人には朗報。 みんな待ち焦がれていたでしょう。僕もです。 とはいえ、あくまでMidjourneyの1機能なので、Stable Diffusion派だったり、SeaArt派だったりする人には届きません

Stable DiffusionだとLoRAを使えって話ですが、LoRAを作ること自体がめんどくさかったりします。。。 今回のCreative Reference機能は、フェイク対策がなされてるっぽいところもいいですね。 自分がそういうことをやるかやらないかじゃなくて、そもそもできないというのは大事なことです。 SeaArtだと著名人のモデルが普通にあって、正直そこは気持ちのいいもんではないから。

3)画像生成AIの権利管理の新たなスタンダードを目指す「Generight」リリース。生成AI技術の健全な発展の促進を目指す。(3月25日)

一言で言うと、安心して生成画像を活用できる市場を目指すと言うことですかね。 AIの学習って定義づけが難しいですよね。 「学ぶ」の語源は「まねる」とも言われるように、人が学ぶのは誰かの真似からで、AIにおいてもそれは同じ。数多あるネット上の情報を学習、つまり真似てるはず。 それ自体は悪いことではなくて、その対象の取捨選択ができてない。 で、取捨選択できないなら、学習素材を厳選しましょうということかな。 ビジネスで生成画像を利用したい時に、簡単だからといって自分で生成するのではなく、こう言うサービスを利用することで安心が得られるなら有効だと思う。

4)自分で撮影したグラビアを使い、Stable Diffusion用美女モデルを作成してみた(3月25日)

モデルやLoRAを作るのを全くと言っていいほど理解していないので、大変参考になりました!
モデルを作るのはあまり現実的ではないけど、トライのしがいはありそう🤣

読んでて興味深いのがここ
そして人物の場合、ほとんどが肌や顔を修正した画像となる。これで学習したものは、はたしてリアルな人肌? 人の顔? と言う疑問が前からあったのだ。これは思いますよね。あと体型も。脚長加工とか、痩身加工とかされてる画像ばかり学習してないか? と思うこともある。

これの答え合わせが最後にしてあるのだけど、どちらがいいかは好みの部分もあるとはいえ、確かにリアリティがあるのはMyCkptのほう。

逆に考えるとこういうリアリティの無さにAIらしさを感じて安心できる面はあると思うし、それを超えないほうがいいのでは? と思ったりもする。無理だけど。

プロアマ関係なく、ポートレート撮影をしている人はすぐに用意できる画像は何千もあると思うし、これでモデルをつくったら? と考える人は僕も含めていると思う。
そしてこの記事を読んで、素直に諦めましょう🤣

5)「犬」を「猫」と認識させる? 画像生成AIの“無断学習”を阻止するツールが登場(3月26日)

無断学習だったり不正学習を防ぐために、学習させないとか、騙すとか、意図することはわかるけど、なんかちょっと違う気もする。 記事の後半にある「鳥」を学習するときの「ラベル」は、人の学習では欠かせない。 それから成長の過程でたとえば「特定のだれか」を「可愛い人」というラベルで学ぶ。でもそのだれかには肖像権があり、その誰かの写真には著作権もあると学ぶ。 で、ダメなことを知る。 だからAIもダメななことはダメって学習すればいいと思うんだけど、そう言う方向性での進歩は難しいんだろうか?

ま、なんにせよ現段階で安心して利用できる手段がいろいろ増えてくるのはいいこと。

6)Z世代の36%が罪悪感、仕事でのChatGPTやAIの使用に(3月26日)

そもそもZ世代と言うのをよくわかってないのですが、どうやらアメリカでは日本よりちょっと年齢層が低い? と言う点を加味して読まないといけないけど、我々のようなおじさんたちが想像する以上に、危機感も持ってるらしいことが伺える。 いわゆるバブル世代なんだけど、いろんなものがデジタル化していくのをリアルタイムで体験して、PCが業務に組み込まれて、インターネットが普及して、これでなんでもできちゃうと思った。 しばらくして、そうでもないと気付かされて、使う人と使い方次第ということが明確になった。 たぶんそれと同じようなことを、アメリカのZ世代はもっと短いスパンで経験してるんじゃないかな? 日本のZ世代はどうなんだろう?

7)GPT-4 turboなど、10種類の生成AIを無料で使い放題!「リートン」が目指すところとは(3月26日)

韓国のサービスなんですね、存じ上げませんでした。 いろんな生成AIを無料で使えるのは、ありがたいですよね。 画像生成しかしたことないですが、なんか使い心地が微妙。 SDXLを本家で使ったことがないので、なんとも言えないけど、Japanese-SDXLでいい感じの結果が出せない。 自分の書くプロンプトの癖とか相性もあるのかな?

8)NTTの生成AI「tsuzumi」が商用化、日本語性能・低コストなど武器に浸透目指す(3月26日)

NTTというだけで、その響きには安心感はあるよね。
日本語に特化しているのは当然として、超軽量というのも魅力的。
500社以上も話があるなら、BtoBtoCもあるでしょうしエンドユーザにメリットをもたらしてくれるでしょう。

9)Macで始める画像生成AI 「Stable Diffusion」ComfyUIの使い方(3月27日)

僕もこの元の記事を読んで、Macではダメなのかと諦めた口。
そのあといろんな情報が出てきて、Appleシリコンならどうにかなるってことで、いま導入を迷ってる段階なんですけどね。
同様に迷ってる人には、参考になる情報かと思います。

生成される時間を考えると、どんな環境にするかは考慮しないといけないと思うけど、現実的な目もあるって感じですね。

記事によると利用されたマシンはM1 Mac mini、メモリは16GBになってて、スペックは8コア×8コア×16コア。
M3 MacBook Airだと、メモリ24GBのフルスペックにして、8コア×10コア×16コアでAI向けエンジンが乗ってると考えればだいぶ早くなるか?
だったらMBA買ってもいいぞ。
早くベンチマークでないかな?

10)『Adobe Firefly』に新機能「構成参照」が実装 狙った構図の画像をAI生成可能に(3月27日)

これいいんじゃない?
手書きからリアルタイムで画像生成するアプリもあるけど、この方がじっくり考えて取り組める気がする。

自分のプロンプトの問題でもあると思うけど、どうしてもできないイメージがあったのでチャレンジしたい。

あとはFireflyが出してくる絵が好みかどうかって問題はあるんですけど。。。

11)Copilot×Windowsで何ができる?AIでルーティン業務を時短する活用法3選(3月29日)

CopilotがWindowsに統合されていくことで、できるようになってきたことをわかりやすく紹介されてます。 Mac使いの自分にはちょっと縁遠いですが、スマホとタブレットでなんでもできるようになって、少々存在感が薄れた印象のWinが、PCの在り方を再定義するフェーズに入ってる。 ほんまアップルさんはなにしてるん?

12)いまさら聞けない、ちょっと便利なChatGPTの使い方10選(3月29日)

これ意外とシンプルで、でも思いつかなかったり。些細なことを聞くのに、聞き方がわからなかったりする。
人対人だと相手が無意識にこちらの言葉を汲み取ろうとしてくれるけど、生成AIにはそれがない。
だから日常会話的な質問が難しいような気がする。

おかげで自分の考えを言語化する能力が上がる可能性はあるし、思わぬ副産物かも。

一方で、最近はリアルな頭部のロボットが、相槌をうちながら応対してくれるなんてのもあるようだけど、そうじゃないと会話って難しいのかもしれない。
そういう意味では、ChatGPTを利用するロボホンは気になる存在。

13)OpenAI、人の声を再現する生成AI「Voice Engine」開発(3月30日)

必然だけど、だいぶ進んでるみたいですね。
15秒の音声から学習するだけで生成されるとか、手間的な意味で言えば画像生成よりずっと簡単。

現段階では生成画像や生成動画には特有の違和感があって、疑いの目をもって見ればわかるものも多いけど、音声はどうなんでしょう?

何年か前、電車内のアナウンスの合成音声のクオリティが飛躍的に上がった時、驚いた記憶があるけど、あの時は50音をただ発声するだけじゃなくて、前後の音との繋がりを考慮してそのパターンをいくつも準備したそうな。
それでも違和感はあって聞いたらわかるんだけど、これはすぐにわからないレベルに到達しそうですね。

テキストを用意すれば噛まずに読み上げてくれるのは、動画配信やらポッドキャストやら用途は色々。
YouTubeでは自分のアバターに喋らせるというトレンドは来るかも。

個人的には記事にある用途の「子どもへの本の読み聞かせ」はちょっと違うかなと思う。
上手には読んでくれるけど、そこに感情は乗らないから。
子どもの成長に深く関わる部分なのに、感情がないのは良くないと思うし、仮に親が「めんどくさい」と思いながらやってたとしても、それ自体人として気持ちが伝わることは大事。
おそらくAIが教えられたように感情を乗せることはできるようになると思うけど、AI自身が感情を持つことはできないはずだから。

14)プロンプトエンジニアリングとは?
16種類の手法を記述例とともに解説(3/28)

プロンプトエンジニアリングって、なんか言葉が仰々しいですよね。
それだけでちょっと抵抗が生まれちゃう感じ。
エンジニアっていうとめちゃくちゃ理系っぽいし、プログラム? みたいに思ったりもする。
でも実際には、文法というニュアンスに近い感じで、AIに指示、命令するためのお作法のように捉えるととっつきやすいか。

人と人の対話だと、前提条件とかお互いがある程度共通して持っている情報があって、そこから会話がスタートしたりするけど、AIの場合その前提条件を明確にしてあげた方が、より良い結果を出しやすいですよ。それがアンジニアリングですよ。
って感じで理解するとわかりやすいかもしれない。


この記事が気に入ったらサポートをしてみませんか?