在具體業務場景中應用大模型時,模型微調是關鍵步驟。然而,傳統微調方法面臨兩難:將數據上傳給模型方,可能會引發數據隱私和安全風險;而將完整模型交給數據方則可能會導致模型知識產權泄漏,并增加微調模型遭受攻擊的風險。
近日,在全球人工智能頂級學術會議AAAI 2025期間,由螞蟻數科、浙江大學、利物浦大學和華東師范大學聯合團隊提出了一種創新的跨域微調(offsite-tuning)框架——ScaleOT,該框架可實現在模型性能無損的前提下,將隱私保護效果提升50%。與知識蒸餾技術相比,Scale OT顯著降低了90%的算力消耗,為百億級參數模型的跨域微調提供了一種高效、輕量化的解決方案。這篇論文以其創新性入選了全球AI頂會AAAI的oral論文。據了解,本屆AAAI大會共收到近13000篇論文,被選中做口頭報告的論文比例僅4.6%。
為同時保護模型產權與數據隱私,目前業內采用的主流方案是"跨域微調"。跨域微調是一種大模型隱私保護訓練方法,它通過有損壓縮技術將大模型轉換為仿真器(Emulator),數據持有方基于仿真器訓練適配器(Adapter)并返回給大模型,從而完成調優。在此過程中,由于數據和模型均未出域,該方法同時保護了模型方與數據方的隱私。然而跨域微調往往需要犧牲模型的性能或者付出高昂算力成本。
當前主流的跨域微調方法存在顯著局限性:其一,其“均勻抽積木”式的處理方式容易造成模型關鍵層的缺失,從而導致模型性能顯著下降;其二,若采用蒸餾技術來彌補性能損失,計算成本幾乎與重新訓練一個中型模型相當。此外,現有方法在隱私保護方面缺乏靈活性,難以根據不同場景需求動態調整隱私保護強度。
據螞蟻數科技術團隊介紹,ScaleOT提出了三大創新思路,有效地實現了在模型性能與隱私安全之間的平衡。首先是對大模型智能層的重要性進行評估,用強化學習給大模型做掃描,自動識別哪些層對當前任務最關鍵,動態保留模型“核心層”,有效降低模型性能損耗。其次,對保留的模型原始層做“打碼”,讓攻擊者無法通過中間層復原原始模型,可以在性能幾乎無損的情況下,顯著提升隱私保護強度。最后,該框架還可以根據不同場景需求進行靈活組裝,實現隱私強度可調節。
解決數據和模型的隱私安全問題,是大模型在產業界尤其是金融行業落地的重要課題。螞蟻數科技術團隊這一創新的大模型隱私微調算法,為大模型隱私保護提供了新穎的思路與解決方案。目前,該算法已經融入螞蟻數科旗下的摩斯大模型隱私保護產品中,并已成為國內首批通過信通院大模型可信執行環境產品專項測試的產品之一。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.