最近,一個名為DragGAN的AI 圖片編輯工具爆火,它實現(xiàn)了點擊鼠標、拖動關(guān)鍵點就能達到Photoshop的效果。對比之下,使用Photoshop等工具時候,需要具備相對專業(yè)的技能才能靈活,精確地控制單個對象的位置,形狀,表達或排列。
簡單的說,DragGAN使用戶能夠在圖像上確定一個點,就能改變圖片結(jié)構(gòu)和整個像素。它與其他流行的生成AI圖像工具(如Dall-E和Midjourney)有很大的區(qū)別,后者雖然能夠通過文本提示生成特定的圖片,但無法精確輸出所需的姿勢或布局。
據(jù)了解,DragGAN新模型由MIT、谷歌、馬普所等機構(gòu)聯(lián)手打造,該項目相關(guān)論文已入選SIGGRAPH2023,研究人員展示了一種控制GAN進行圖像處理的新方法。
簡單拖拽就能實現(xiàn)圖片編輯
只要處理的圖片與GAN訓(xùn)練數(shù)據(jù)集的類別匹配,DragGAN就可以處理逼真的圖像。這些類別包括動物、汽車、人、細胞和景觀。
論文示例展示了在一個簡單的界面中,用戶可以將他們在圖像中定義的點拖動到所需的位置,就是實現(xiàn)圖片編輯。例如,讓貓咪閉上眼睛,讓獅子轉(zhuǎn)頭并張開它的嘴,或?qū)⑵囖D(zhuǎn)換為另一種模型。
DragGAN 還提供了遮罩功能,允許用戶突出顯示他們希望更改的圖像的特定部分,而其余部分保持不變。
該團隊表示:“通過DragGAN,任何人都可以通過精確控制像素的位置來變形圖像,從而操縱不同類別的姿勢、形狀、表情和布局?!?/p>
DragGAN 研究論文還強調(diào)了該工具的最大優(yōu)勢,界面的簡單性和直觀性。在幾秒鐘內(nèi),用戶可以掌握功能,而無需弄清楚底層技術(shù)。
未來,如果將DragGAN 與AI圖像生成工具搭配使用,用戶將能夠?qū)崿F(xiàn)更接近他們心目中的圖像的輸出。
原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/571780.html