以前から流行ってるAIお絵かきについて、自身はただ遊ぶためだけに使っていてそれで満足している。どんな仕組みで動いているのかはたぶん正確には理解できないだろう。ただAIお絵かきが作り出した画像が、自身や別のAIお絵かきの元データとして使われだしたらどうなるのか気にならんこともない。徐々にAIお絵かきの精度が下がるか、もしくはAIお絵かき自身の性能向上によりより精度の高い画像が吐き出されるのか。
いま一番新しい?精度が良い?とされるStable Diffusionを使ってみた。ロンバケ風のイラストを生成したく、Hiroshi Nagaiを入れていろいろ試してみた。あのテイストの画像ってなんだか楽しくないですか?
「convertible running on the road, sunset beach, hiroshi nagai」
「convertible car, sunset beach, hiroshi nagai, blue sky, white cloud, palm tree」
「Hiroshi Nagai, yellow convertible car next to the palm tree, seashore」
「Hiroshi Nagai, long vacation, convertible car on the road」
「convertible car on the road, seashore, hiroshi nagai long vacation」
「nagai hiroshi long vacation album, convertible car, southern countries」
想像していたものを画像として出力するためには解像度の高い言葉を適切な順序で入力することが大切なんだろう。結局一番イメージに近いのは最初の一枚だった。今後もコツを掴むべくいろいろ試してみたい。