Apple Intelligenceをフル活用しようと、iPhoneは13から16eへ機種変更し、iPad Air M3を購入しました。自宅のiMac(退院期間中しかさわれないけど)とMacbook AirもM1チップなので対応しており、一応全てのデバイスで活用する準備は整いました。
まあ、正直なところ、まだ「生活上必須なパートナー」にはならないと思っていますが、実際に活用していってみないと分からないこともたくさんありますから。
本来はきっと「無意識的に」自分自身の能力を拡張したりサポートしたりできるようになるのが理想なんだと思います。ダメ人間になっていくというよりも、もはやそういう生き物になっていくんじゃないかなあと、未来を描いています。
そういうところまで見据えていると、今Apple Intelligenceとかgeminiでできることなんて、まだまだへなちょこなんですよ。
生成AIは、自分の仕事の効率化をはかってくれましたし、Deep Researchまでいかなくとも、仕事のパートナーを得たような働きをしてくれます。最近はweb検索することがものすごく減りました。ほとんどChatGPTに聞いてやりとりしています。子どものときに、親にあれこれ聞いているのと同じような感覚ですかね。
Image Playgroundは、iPhoneでもMacでも使えます。ジェン文字は、なかなか面白いですが、なんというか外国アニメ感が強いなあっていうのと、人物入れると構図もへったくれもなくなってしまうのが現状です。
さて、iPadのメモアプリで、ラフスケッチしたものから画像生成できるという「画像マジックワンド」を試してみました。
やってみて分かりましたが、Image Playgroundとどう違うのかというと「構図」を効率よく伝えられるので、より自分がイメージしたものを生成できるということです。画像マジックワンドでラフスケッチをぐるりと囲ったら直ちにそれを解釈して画像を生成するわけではないんです。Image Playgroundと同様に結局何かしらの情報を伝えなくてはならないんです。したがって、猫のラフスケッチをして、画像マジックワンドで囲って「猫」と入力するような使い方では、Image Playgroundとの違いはあまり出ないといってよいでしょう。

アイキャッチ画像にある画像は、「木と家と雲」をすっごく雑に書いたものを画像マジックワンドで囲い、「大きな木」とだけ入力しました。家の形や雲などもしっかり読み取って生成してくれました。これはiPadのメモアプリの強みになりそう。これと同じイラストをImage Playgroundだけで生成させるには、「大きな木」「家」「雲」では無理でしょう。
「木造のシンプルな家」「家の庭に大きな木」「空には雲がたなびく」としてみて、こんな感じ。いろいろと工夫すればそれっぽくは生成できますが、やはり自分のイメージした構図で生成するのは難しいです。
まあ、ChatGPTの画像生成もすごいアップグレードを果たしてしまったので、これからもアイキャッチ画像はChatGPTに生成してもらうと思いますが、あくまでもメモをとっている中でふと思いついたイメージをラフスケッチして画像マジックワンドにかけるという使い方で恩恵があるんじゃないかな。
ちなみにちょっといただけなかったのは、画像マジックワンドで生成した画像を写真アプリなどに保存できなかったこと。表示している部分を写真として保存することはできるのですが、画像部分だけで保存できなかったし、写真アプリにドラッグ&ドロップもできませんでした。なんでだろう。
コメント