當(dāng)AI與社交相遇,會碰撞出怎樣的火花?Soul創(chuàng)始人憑借敏銳的市場洞察力,早早將AI技術(shù)引入社交領(lǐng)域,開啟了一場社交變革。如今,Soul App在AI賽道又傳來捷報,其實時人像視頻生成研究成果獲國際學(xué)術(shù)頂會CVPR2025錄用,再次彰顯了Soul在AI社交領(lǐng)域不斷完善的技術(shù)基建。
近期,CVPR 2025公布論文錄用結(jié)果,Soul App技術(shù)論文《Teller: Real-Time Streaming Audio-Driven Portrait Animation with Autoregressive Motion Generation》成功入選。CVPR作為人工智能領(lǐng)域的頂級盛會,競爭異常激烈。Soul能在眾多競爭者中脫穎而出,展現(xiàn)了其技術(shù)實力得到行業(yè)和學(xué)術(shù)界的高度認可。
Soul App團隊在論文中提出全新的自回歸框架,不僅解決了視頻畫面生成耗時長的難題,還實現(xiàn)了說話時頭部及人體各部位運動的自然逼真。這一成果,是Soul在多模態(tài)能力構(gòu)建,特別是視覺層面的重大突破。
事實上,Soul布局AI領(lǐng)域由來已久。2016年,Soul上線后迅速推出基于AI算法的靈犀引擎,重構(gòu)關(guān)系網(wǎng)絡(luò)發(fā)現(xiàn)模式。2020 年,Soul啟動AIGC技術(shù)研發(fā)工作,將重點聚焦于多模態(tài)方向。自2023年推出自研語言大模型Soul X后,陸續(xù)上線語音生成、語音通話、音樂生成等大模型。如今,Soul AI大模型已升級為多模態(tài)端到端大模型,支持文字對話、語音通話等特性,為用戶帶來更貼近生活的交互體驗。
Soul的自研大模型可以被稱為“原生情緒價值第一大模型”,與通用大模型不同,Soul基于海量垂類社交數(shù)據(jù)訓(xùn)練,精準把握平臺用戶需求,訓(xùn)練成更能精準為年輕人提供情緒價值的AI大模型。
此次論文提出的創(chuàng)新方法,將助力AI構(gòu)建實時生成的“數(shù)字世界”,以生動數(shù)字形象與用戶自然交互。此前,Soul上線的語音交互功能收獲了用戶的熱烈反饋。未來,Soul還將把最新AI能力落地到站內(nèi)多元場景,如實時視頻通話將融入“虛擬伴侶”“群聊派對”等功能,提升AI虛擬人的交互能力,增強人機交互的情感溫度。
Soul創(chuàng)始人的前瞻性布局,讓Soul在AI社交領(lǐng)域持續(xù)領(lǐng)航。未來,Soul將憑借“原生情緒價值第一大模型”,為用戶打造更有趣、溫暖的社交體驗,推動AI社交邁向新的高度。
本文地址:http://www.dayishuiji.com/new/53882.html - 轉(zhuǎn)載請保留原文鏈接。免責(zé)聲明:本文轉(zhuǎn)載上述內(nèi)容出于傳遞更多信息之目的,不代表本網(wǎng)的觀點和立場,故本網(wǎng)對其真實性不負責(zé),也不構(gòu)成任何其他建議;本網(wǎng)站圖片,文字之類版權(quán)申明,因為網(wǎng)站可以由注冊用戶自行上傳圖片或文字,本網(wǎng)站無法鑒別所上傳圖片或文字的知識版權(quán),如果侵犯,請及時通知我們,本網(wǎng)站將在第一時間及時刪除。 |