號(hào)稱業(yè)界最高水平!Mate公布文生圖模型CM3Leon
快科技7月16日消息,近日,Meta宣布,將開(kāi)發(fā)一款名為CM3Leon的AI模型,該模型能夠根據(jù)文本內(nèi)容生成圖片,也可以為圖片生成文本描述。
Meta方面表示,CM3Leon在文生圖方面的表現(xiàn),達(dá)到了業(yè)界最高水平。
這意味著,該模型的表現(xiàn)將超越谷歌、微軟等廠商的一眾產(chǎn)品。
目前,Meta已經(jīng)演示了CM3Leon的表現(xiàn),展現(xiàn)了該模型在包括復(fù)雜的文本提示生成圖片、根據(jù)文本指令編輯圖像等方面的表現(xiàn)。
據(jù)悉,為了訓(xùn)練該模型,Meta使用了數(shù)百萬(wàn)張來(lái)自Shutterstock的授權(quán)圖片,有著高達(dá)70億個(gè)參數(shù),這是OpenAI的EALL-E2模型的兩倍以上。
不過(guò),Meta也承認(rèn),現(xiàn)階段的CM3Leon模型可能存在數(shù)據(jù)偏見(jiàn)的問(wèn)題,仍然需要行業(yè)監(jiān)管。
快科技延展閱讀:
CM3Leon是一款基于Transformer神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的模型,該神經(jīng)網(wǎng)絡(luò)的特性是利用注意力機(jī)制來(lái)處理輸入數(shù)據(jù)。
這一特點(diǎn)使得相較基于Transformer神經(jīng)網(wǎng)絡(luò)的模型,相較基于diffusion的模型具有更高的訓(xùn)練效率,且計(jì)算成本更低。
本站所有文章、數(shù)據(jù)、圖片均來(lái)自互聯(lián)網(wǎng),一切版權(quán)均歸源網(wǎng)站或源作者所有。
如果侵犯了你的權(quán)益請(qǐng)來(lái)信告知我們刪除。郵箱:business@qudong.com


