AppleGPTを開発中と噂されるアップルが、今度は画像編集AI「MGIE」を開発、早速デモを公開、Githubでも公開、更にarxivで論文まで公開しています。正式な呼び方はマルチモーダル大規模言語モデルによる指導命令型画像編集(Guiding Instruction-based Image Editing via Multimodal Large Language Models)です。
アップルとカリフォルニア大学サンタバーバラ校の研究者チームが共同で開発した「MGIE」は、自然言語の指示を用いて画像を編集するという、今まではやや珍しい機能を持っています。MGIEは、画像をゼロから生成するAIではなく、ユーザーが入力した画像に対して、ちょっとした……ではなく、かなり凄めの加工をしてくれるアプリです。
早速デモ……の前にアップルが公開しているデモっぽい映像を紹介しておきます。(公式のデモが混雑していて順番待ちが長いんですよ……)
アップルで画像と言えば、iPhoneのカメラ。動画イメージは見た目まんま、iPhone上で動作しています。
デモ使い方は、画像を読み込ませるかドロップ&ドロップで入力して、下のInstructionに編集指示を書くだけ。日本語OKです。
まず、試したのがこれ。
色が地味なので「カラーにして」と入力してみると全体的に彩色してくれました。
ちょっと分かりにくいかなと思ったので、今度はApple Vision Proの公式写真を使って、今度は「服を赤くして。髪を金髪にして」と無茶ぶり。結果がこちら。
はい、服も髪も真っ赤です。同時に2つ指示したのは正しく解釈できませんでしたが、服も髪も元の質感を残したまま赤くなっています。
それから、「背景を森の中にして」と指示もしてみました。
予想以上に自然です!! というのと服装も変わっていますよね。これは結構すごいというか実用的ですね。
この結果って、とても優秀ですよ。何故って、いきなり入力された画像に対して、言葉の意味も含めて加工できていますよ。今のところ順番待ちが長いので気軽には試せませんが(15分以上....)、もっと色々遊びたくなりました。
これが、iPhoneに搭載されるなら、結構楽しみですね。
監修者のコメント:体験した記事にしました。AIは使っていません。