字節跳動豆包大模型團隊近日開源一項名為COMET的MoE架構優化技術,可將大模型訓練效率提升1.7倍。論文顯示,該技術已實際應用于字節的萬卡集群訓練,實現數百萬GPU小時訓練算力的節省。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.