站長(zhǎng)之家(ChinaZ.com) 12 月 7 日消息:在谷歌推出 Gemini 之后,Meta 也不甘示弱,在網(wǎng)絡(luò)上推出了基于其 Emu 圖像合成模型的免費(fèi)獨(dú)立 AI 圖像生成器網(wǎng)站——Imagine with Meta,允許用戶通過(guò)自然語(yǔ)言描述來(lái)生成圖像。
Imagine with Meta AI 網(wǎng)站截圖
Meta 使用了 11 億張 Facebook 和 Instagram 上公開可見的圖片來(lái)訓(xùn)練這個(gè) AI 模型,該模型可以根據(jù)文本提示渲染新圖像。此前,Meta 的這項(xiàng)技術(shù)——使用相同的數(shù)據(jù)——僅在諸如 Instagram 的消息傳遞和社交網(wǎng)絡(luò)應(yīng)用程序中可用。
如果你使用 Facebook 或 Instagram,很可能你的照片(或你拍攝的照片)幫助訓(xùn)練了 Emu。從某種意義上說(shuō),老話「如果你不付費(fèi),你就是產(chǎn)品」已經(jīng)有了全新的含義。雖然截至 2016 年,Instagram 用戶每天上傳超過(guò) 9500 萬(wàn)張照片,但 Meta 用來(lái)訓(xùn)練其 AI 模型的數(shù)據(jù)集只是其整體照片庫(kù)的一小部分。
Meta 表示,它只使用公開可用的照片進(jìn)行訓(xùn)練,因此將 Instagram 或 Facebook 上的照片設(shè)為私有應(yīng)該可以防止它們被公司未來(lái)的 AI 模型訓(xùn)練所包含(當(dāng)然,除非它改變這一政策)。
Imagine with Meta AI
「Imagine with Meta AI」類似于 Stable Diffusion、DALL-E 3 和 Midjourney,根據(jù) AI 模型從訓(xùn)練數(shù)據(jù)中學(xué)到的視覺(jué)概念生成新圖像。使用這個(gè)新網(wǎng)站創(chuàng)建圖像需要一個(gè) Meta 帳戶,可以從現(xiàn)有的 Facebook 或 Instagram 帳戶導(dǎo)入。每次生成會(huì)創(chuàng)建四張 1280×1280 像素的圖片,可以以 JPEG 格式保存。圖片在左下角包含一個(gè)小小的「Imagined with AI」水印標(biāo)志。
Meta 在其新聞稿中說(shuō):「我們很高興聽到人們分享他們是如何使用 imagine 來(lái)制作有趣和富有創(chuàng)意的內(nèi)容的,imagine 是 Meta AI 的文字轉(zhuǎn)圖片生成功能。今天,我們將 imagine 的訪問(wèn)權(quán)限擴(kuò)展到聊天之外,首先在美國(guó)推出 imagine.meta.com。這個(gè)獨(dú)立體驗(yàn)面向創(chuàng)意愛(ài)好者,讓你使用來(lái)自 Emu 的技術(shù)創(chuàng)造圖像。」
Meta 的模型通??梢院芎玫貏?chuàng)建逼真的圖像,但不如 Midjourney。它可以處理比 Stable Diffusion XL 更復(fù)雜的提示,但也許不如 DALL-E 3。它在文本渲染方面做得并不好,不同媒體輸出,如水彩、刺繡和鋼筆墨水的處理結(jié)果參差不齊。其人物圖像似乎包括了不同種族背景的多樣性。總的來(lái)說(shuō),就目前 AI 圖像合成而言,它似乎表現(xiàn)一般。
Facebook 和 Instagram 讓這一切成為可能
那么,我們對(duì) Emu——Meta 新 AI 圖像生成功能背后的 AI 模型——了解多少呢?根據(jù) Meta 在 9 月發(fā)布的一篇研究論文,Emu 通過(guò)一個(gè)稱為「質(zhì)量調(diào)整」的過(guò)程獲得了生成高質(zhì)量圖像的能力。與使用大量圖像文本對(duì)訓(xùn)練的傳統(tǒng)文本到圖像模型不同,Emu 在預(yù)訓(xùn)練后專注于「美學(xué)對(duì)齊」,使用一組相對(duì)較小但視覺(jué)上吸引人的圖像。
然而,Emu 的核心仍然是前面提到的從 Facebook 和 Instagram 抽取的 11 億個(gè)文本圖像對(duì)的龐大預(yù)訓(xùn)練數(shù)據(jù)集。在 Emu 的研究論文中,Meta 沒(méi)有具體說(shuō)明訓(xùn)練數(shù)據(jù)來(lái)自何處,但 Meta Connect 2023 會(huì)議的報(bào)道援引 Meta 全球事務(wù)總裁尼克·克萊格(Nick Clegg)的話說(shuō),他們正在使用社交媒體帖子作為 AI 模型的訓(xùn)練數(shù)據(jù),包括輸入 Emu 的圖像。
這是 Meta 與其他 AI 公司的方法不同的地方,因?yàn)?Meta 可以訪問(wèn)其服務(wù)中的大量圖像和標(biāo)題數(shù)據(jù)。其他圖像合成模型使用從互聯(lián)網(wǎng)非法抓取的圖像、從商業(yè)圖庫(kù)獲得的許可圖像,或兩者的組合。
有趣的是,Meta 關(guān)于 Emu 的研究論文是我們所見的第一篇關(guān)于主要圖像合成模型的論文,它沒(méi)有聲明該模型可能創(chuàng)造扭曲現(xiàn)實(shí)的虛假信息或潛在有害內(nèi)容的可能性。這反映了 AI 圖像合成模型的普遍接受(或放棄),這些模型現(xiàn)在變得更加普遍。這是否是一件好事是一個(gè)懸而未決的問(wèn)題。
盡管如此,Meta 似乎正在通過(guò)過(guò)濾器、尚未運(yùn)作的擬議水印系統(tǒng)(該公司表示:「在未來(lái)幾周內(nèi),我們將為 imagine with Meta AI 體驗(yàn)添加不可見的水印,以提高透明度和可追蹤性」)以及網(wǎng)站底部的小聲明來(lái)處理潛在有害輸出的問(wèn)題:「圖片可能是不準(zhǔn)確或不恰當(dāng)?shù)??!?/p>
這些圖像可能不準(zhǔn)確,甚至可能在未命名的 11 億張用于訓(xùn)練模型的圖像作者看來(lái)是不道德的。但我們敢說(shuō):生成這些圖像可能很有趣。當(dāng)然,根據(jù)你的態(tài)度以及你對(duì) AI 圖像合成速度的看法,這種樂(lè)趣可能會(huì)被同等程度的關(guān)注所抵消。
(舉報(bào))