PANews 4月12日消息,在今日舉行的Web3香港嘉年華峰會上,阿里巴巴達摩院基礎視覺團隊總監趙德麗表示,我們的路線圖在Text-to-Image方面先後經歷過Foundation Models(Composer 1.0)、 Customized Generation與Controllable Generation(Composer 2.0) 三個階段,今年已發布ControlNet、Composer 2.0以及T2I-Adapter。我們的模型有兩個創新,分別為視覺數據的使用方式和算法架構的創新。 Composer 2.0的可控生成模型加入可控條件,通過對條件的控制達到圖像生成和編輯的結果,只要能想像到,都能生成為現實的模型,可以容易地生成與包括NFT在內的原始圖像整體語義相似但完全不一樣的圖像。基於阿里雲我們構建了一個“通義萬相”產品,將於月底開放給大家。
阿里巴巴將於月底逐步開放文字生成圖像產品“通義萬相”
評論
推薦閱讀
- 2025-05-10
一週精選丨新罕布夏州簽署全美首個州比特幣儲備法案;市場情緒回暖,BTC重回10萬美元,ETH大幅反彈
- 2025-05-09
淺析麥肯錫的Lilli:為企業AI市場提供了哪些發展點子?
- 2025-05-09
HashKey Exchange已通過SOC 1 Type 2與SOC 2 Type 2雙認證
- 2025-05-09
YZi Labs推出為期10週的線下全球孵化計畫EASY Residence,聚焦Web3、AI等領域
- 2025-05-09
Merlin Wizard v0.3 正式上線,整合鏈上兌換、質押、跨鏈三個AI 互動模組
- 2025-05-09
在Meme狂熱之後是一地雞毛還是破繭重生?
相關專題