①萬興科技發(fā)布了結合盤古多模態(tài)大模型能力打造的萬興天幕2.0,為“創(chuàng)意平權”而來; ②身處可能是最“卷”的AI行業(yè),吳太兵認為“這一波AI技術變革剛剛開始,講終局太早”; ③吳太兵強調了Agent對軟件生態(tài)重構的意義,稱將支持MCP給第三方提供服務,并將產品Agent化。
財聯(lián)社6月25日訊(記者 徐學成 付靜)日前,AIGC軟件A股上市公司萬興科技(300624.SZ)在華為開發(fā)者大會2025(HDC 2025)上,正式發(fā)布了結合盤古多模態(tài)大模型能力打造的萬興天幕音視頻多媒體大模型2.0,聚焦音視頻尤其是AIGC視頻創(chuàng)作領域。
在此之前,萬興科技創(chuàng)始人兼董事長吳太兵接受了財聯(lián)社記者的獨家專訪。萬興科技在深圳的辦公場所位于粵海街道的一個園區(qū),吳太兵特地選擇了一個相對靜謐的空間與記者展開交流,這使得整場采訪的氣氛與外面街道的炎熱和喧鬧形成了鮮明對比。
亦如這場采訪給記者最直觀的感受:身處可能是最“卷”的AI行業(yè),吳太兵的心態(tài)相對從容。他坦言天幕是為創(chuàng)意平權而來,追求的是“人人皆是創(chuàng)作者”;他同時對大模型當下的“卷”有著獨立的判斷,認為成本是必須考慮的因素;他不回避競爭,但也有著清醒的認識:“很多企業(yè)倒下并不是因為競爭,而是自身‘生病了’?!痹谒磥恚珹I的競爭遠沒有到終局,萬興科技應保持足夠的戰(zhàn)略定力,因為“未來一切皆有可能,我們還是要靠實力說話”。
(受訪者供圖)
為“創(chuàng)意平權”而來
在專訪中,吳太兵告訴財聯(lián)社記者,萬興天幕為創(chuàng)意平權而來。
去年初,萬興科技正式發(fā)布萬興天幕1.0,即國內首個音視頻多媒體大模型,其能力深度融入公司旗下產品,并在短劇、影視、電商、金融等行業(yè)率先開啟商用探索。
日前在華為開發(fā)者大會2025(HDC 2025)上,萬興科技正式發(fā)布了結合盤古多模態(tài)大模型能力打造的萬興天幕音視頻多媒體大模型2.0,聚焦音視頻尤其是AIGC視頻創(chuàng)作領域。
據(jù)稱,天幕2.0從數(shù)據(jù)處理到推理部署深度優(yōu)化,實現(xiàn)對多模態(tài)深度理解;支持推進/拉遠、右移/左移等數(shù)十種運鏡方式;基于十億級數(shù)據(jù)沉淀,首尾幀生視頻更真實可控。此次,萬興科技特別與華為云聯(lián)合攻關,突破運鏡控制、視頻質量、音頻混合等技術瓶頸,賦能創(chuàng)作者突破創(chuàng)作門檻。
吳太兵將此次升級的亮點歸納為AI視頻創(chuàng)作更真實、更可控、更快速、更具性價比。
(受訪者供圖)
在視頻生成效率方面,吳太兵稱天幕2.0的表現(xiàn)已達到了行業(yè)第一梯隊,但坦言“發(fā)展空間是巨大的”。
在其看來,視頻生成速度需考驗軟硬件的協(xié)同能力。“視頻大模型基本上都要做到萬卡集群,且要考慮網間通信能力、網絡管理、任務調度、如何快速響應等,最底層擁有更多可控的技術、能獲得更多的數(shù)據(jù)參數(shù),再進行集成,效率肯定是不一樣的。單純講視頻生成速度是沒意義的,速度背后是成本?!?/p>
談及模型成本,自然繞不開算力。吳太兵介紹,公司在國產算力高效適配方面取得突破,與華為云深度合作,算力供給、數(shù)據(jù)安全有充分保障,算力價格也具備優(yōu)勢。
“而且從去年的情況來講,我們適配的效率相較海外算力產品來說提升17%。也就是說,投入一塊錢產生的計算量,如果用海外產品的卡完成同樣任務,需要1.2元?!彼瑫r透露。
在國內首個行業(yè)垂類大模型與通用大模型深度合作的音視頻多媒體大模型背后,萬興科技已與華為云達成戰(zhàn)略合作。HDC 2025現(xiàn)場,萬興科技再與華為云舉行“AI視頻大模型實驗室”揭牌儀式,旨在整合技術、資源等共同探索大模型創(chuàng)新及AI在數(shù)字創(chuàng)意場景的深度應用。
當前萬興科技9成收入來自海外,不過公司方面將借助國產算力和操作系統(tǒng)的底層支撐,進一步適配國內市場需求,共同推動國內數(shù)字創(chuàng)意產業(yè)進程?!巴瑫r,我們也能明顯感受到這幾年國內軟件市場正版化、服務化意識不斷增強,用戶的付費意愿也越來越強。我們還是期待市場說話,看好國內業(yè)務的增長?!?/p>
Agent重構軟件生態(tài)
2025年被業(yè)內視作Agent元年,吳太兵在專訪中特別強調了Agent對軟件生態(tài)重構的意義。
他認為,第一代互聯(lián)網有搜索引擎,如今的Agent則是能力引擎?!拔覀冞^去擁有的是通過搜索引擎、APP找到更快的信息,現(xiàn)在Agent讓我們通過MCP找到更快的能力。我們跟互聯(lián)網的交互方式會發(fā)生很大的改變,將從過去的主動獲取信息變成主動操作互聯(lián)網,這實際上是產業(yè)發(fā)展到一定階段的必然結果?!?
吳太兵認為,以MCP、A2A類技術為基礎的AI Agent正在構建人機協(xié)同的新型生產關系,將重構創(chuàng)意軟件生態(tài)。MCP本質上是底層的技術協(xié)議,最后其使用的多與少在于產業(yè)生態(tài)的成熟度。而萬興科技要以相對開放的心態(tài)做兩件事:一是支持MCP給第三方提供服務,二是將產品Agent化。
財聯(lián)社記者獲悉,6月22日萬興科技不僅升級了天幕大模型,還推出兩大平臺:一是面向專業(yè)創(chuàng)作者的AIGC視頻創(chuàng)作平臺萬興天幕創(chuàng)作廣場(tomoviee.cn),二是面向開發(fā)者和企業(yè)用戶的萬興天幕創(chuàng)作引擎。
(受訪者供圖)
其中值得關注的是,萬興天幕創(chuàng)作引擎即基于MCP協(xié)議,實現(xiàn)智能標準化管理。開發(fā)者僅需一次對接,即可靈活調用圖生視頻等多種模型功能,減少重復開發(fā),提升集成效率,加速產品上線,在AI商業(yè)化探索方面按下加速鍵。
此外,公司將在傳統(tǒng)“應用工作流”中深度集成AI能力,多端聯(lián)動音視頻垂類創(chuàng)作場景,加速構建Agent創(chuàng)意應用工作流;挖掘原生AI應用細分場景業(yè)務機會,構建智能化AI創(chuàng)意工具,提升用戶對AI價值的感知。
當前,萬興科技正逐步構建起一套相對完備的音視頻多媒體大模型生態(tài)體系,實現(xiàn)從技術到應用、從C端個人創(chuàng)作者到B端企業(yè)用戶的全面覆蓋,為用戶提供全方位、一站式的音視頻多媒體創(chuàng)作解決方案。
據(jù)吳太兵的觀察,“目前大家的重心都在C端,行業(yè)內廠商C端收入應該占比過半,B端開拓相對而言沒有那么快?!?/p>
同時,從需求趨勢看,B端市場,企業(yè)急需數(shù)字化、智能化創(chuàng)意軟件提升效率和品牌形象,存在較大機會。C端數(shù)字創(chuàng)意需求旺盛,短視頻、自媒體行業(yè)發(fā)展帶動個人創(chuàng)作者對視頻編輯、繪圖工具的需求增長,較為強勁。疊加與華為在B端的合作,以及過去萬興科技數(shù)字創(chuàng)意軟件產品矩陣已積累了廣泛C端用戶,故此,吳太兵稱對AI內容創(chuàng)意市場具有信心。
AI時代,講終局太早
“音視頻大模型,其實是比文本大模型更耗錢,也更值得期待?!眳翘趯TL中這樣告訴財聯(lián)社記者。
目前,全球生成式AI市場進入快速增長期。Grand View Research數(shù)據(jù)顯示,預計到2030年,全球生成式AI市場將達到1093.7億美元規(guī)模,其在2025年至2030年的復合年增長率為37.6%,全球視頻生成市場將達422.9億美元規(guī)模,2024年至2030年復合年增長率為35.3% 。
吳太兵認為,從文字時代到數(shù)字時代再到AIGC時代,視頻內容迎來大爆發(fā),音視頻AIGC市場正在形成。同時,全球音視頻大模型行業(yè)競爭格局未定,行業(yè)頭部效應暫未顯現(xiàn),且當前視頻生成大模型遠未能完全滿足用戶需求,多元的AIGC解決方案是大勢所趨。
若將目光投向整個人工智能行業(yè)的發(fā)展,吳太兵談到,當前,AI大模型正處于性能提升與商業(yè)價值轉化的關鍵拐點。從硬件層的算力爭奪到軟件層的應用創(chuàng)新,再到配套服務的生態(tài)構建,各環(huán)節(jié)均展現(xiàn)出強勁的增長動能。“這一波AI技術變革剛剛開始,此時此刻誰能看到多遠的未來,誰就能有更大的發(fā)展,講終局太早?!?/p>
專訪中,財聯(lián)社記者問及萬興科技如何直面行業(yè)競爭、建立自己的護城河,吳太兵稱,“未來的時代是一個離農耕時代越來越遠,離游牧時代越來越近的時代,最有生命力的企業(yè)應該像游牧民族一樣快速適應變化,快速擁抱變化。如果說真要有護城河,最好就是沒有護城河?!?/p>
他認為,AI是熱鬧的行業(yè),這個行業(yè)所面臨的競爭是空前的,須保持敬畏心,保持空杯心理、創(chuàng)業(yè)心理、平和心理,“這種健康的心態(tài)如果能在一個組織里面進行很好的上下傳導,才是真正的核心?!?/p>
談及行業(yè)普遍面臨的商業(yè)閉環(huán)難題,吳太兵認為,當前AI商業(yè)化正經歷 “價值回歸”的轉折期,行業(yè)初期依賴資本輸血追逐參數(shù)競賽,但如今真正跑通的模式均有共同特質:深度綁定用戶剛需場景。也只有將大模型與具體的應用場景相結合,才能真正實現(xiàn)商業(yè)價值。
吳太兵同時告訴財聯(lián)社記者,今年公司會基于對專業(yè)音視頻內容創(chuàng)作用戶的需求洞察和對美感、藝術效果及用戶體驗的極致追求,打造更具行業(yè)影響力的垂類模型與產品,進一步放大產品的優(yōu)勢,展現(xiàn)AI+場景的商業(yè)化價值。