█腦科學(xué)動(dòng)態(tài)
Nature:大腦中的“雷達(dá)”,網(wǎng)格細(xì)胞如何掃描周圍環(huán)境
繪制大腦發(fā)育的蛋白質(zhì)地圖
共情背后的神經(jīng)機(jī)制:700個(gè)神經(jīng)元的關(guān)鍵作用
神經(jīng)網(wǎng)絡(luò)模型揭示人類如何在復(fù)雜環(huán)境中集中注意力
新發(fā)現(xiàn)的大腦回路揭示了記憶與情緒如何影響感知
為何我們總是嘗試新方法?人類與狨猴共有的認(rèn)知策略
激光腦調(diào)控技術(shù)安全性獲全面驗(yàn)證
█AI行業(yè)動(dòng)態(tài)
盛大Tanka,具有AI長期記憶的團(tuán)隊(duì)“第二大腦”
28位華人學(xué)者斬獲“諾獎(jiǎng)風(fēng)向標(biāo)”斯隆研究獎(jiǎng)
DeepSeek V3/R1滿血版微調(diào)秘籍發(fā)布
OpenAI 前高管推出 Thinking Machines Lab
階躍星辰開源兩款多模態(tài)大模型
語言模型“幻覺”排行榜發(fā)布,誰是最可靠的AI?
Majorana 1 芯片為量子計(jì)算開辟了新道路
█AI研發(fā)動(dòng)態(tài)
機(jī)器學(xué)習(xí)揭示人類大腦如何感知情感
智能睡衣以98.6%準(zhǔn)確率監(jiān)測睡眠障礙
DeepSeek AI 推出 NSA,語言模型長上下文處理效率提升 9 倍
Cogito系統(tǒng):模仿人類學(xué)習(xí)的AI代碼生成工具
無法解決的視覺推理:ZeroBench對多模態(tài)模型的終極測試
HealthGPT:醫(yī)療視覺任務(wù)的統(tǒng)一解決方案
LangMem SDK:讓 AI 代理通過長期記憶變得更智能
跨參與者語義解碼:無需語言訓(xùn)練數(shù)據(jù)的語言解碼新方法
MM-RLHF推進(jìn)多模態(tài)大語言模型發(fā)展
腦科學(xué)動(dòng)態(tài)
Nature:大腦中的“雷達(dá)”,網(wǎng)格細(xì)胞如何掃描周圍環(huán)境
挪威科技大學(xué)Kavli研究所的研究團(tuán)隊(duì)發(fā)現(xiàn),網(wǎng)格細(xì)胞不僅負(fù)責(zé)定位,還會(huì)以每秒10次的頻率交替向右30度和向左30度掃描周圍環(huán)境。研究使用Neuropixels 2.0技術(shù)記錄了大鼠在清醒和睡眠狀態(tài)下的神經(jīng)活動(dòng),發(fā)現(xiàn)網(wǎng)格細(xì)胞在theta波周期內(nèi)進(jìn)行這種掃描。這種掃描機(jī)制可能是一種進(jìn)化出的高效導(dǎo)航策略,類似于蝙蝠的回聲定位。
?Gardner 和 Vollan 在實(shí)驗(yàn)中老鼠導(dǎo)航過的其中一個(gè)箱子前。Credit: Rita Elmkvist Nilsen / Kavli Institute.
研究使用Neuropixels 2.0技術(shù)記錄了大鼠在清醒和睡眠狀態(tài)下的神經(jīng)活動(dòng)。這種技術(shù)能夠以毫秒級精度記錄數(shù)千個(gè)神經(jīng)交互。研究人員發(fā)現(xiàn),網(wǎng)格細(xì)胞在theta波周期內(nèi)進(jìn)行掃描,每次掃描持續(xù)125毫秒。掃描從動(dòng)物當(dāng)前位置開始,向右或向左30度掃過,然后消失,再從當(dāng)前位置重新開始向另一邊掃過。這種掃描機(jī)制不僅幫助動(dòng)物實(shí)時(shí)更新內(nèi)部空間表征,還可能在REM睡眠期間幫助動(dòng)物“在夢中導(dǎo)航”。研究還發(fā)現(xiàn),這種掃描機(jī)制與蝙蝠的回聲定位有相似之處,可能是進(jìn)化出的一種高效導(dǎo)航策略。研究發(fā)表在 Nature 上。
#神經(jīng)科學(xué) #神經(jīng)機(jī)制與腦功能解析 #網(wǎng)格細(xì)胞 #Neuropixels 2.0 #導(dǎo)航策略
閱讀更多:
Vollan, Abraham Z., et al. “Left–Right-Alternating Theta Sweeps in Entorhinal–Hippocampal Maps of Space.” Nature, Feb. 2025, pp. 1–11. www.nature.com, https://doi.org/10.1038/s41586-024-08527-1
繪制大腦發(fā)育的蛋白質(zhì)地圖
弗吉尼亞大學(xué)的研究團(tuán)隊(duì)創(chuàng)建了首個(gè)全面的蛋白質(zhì)水平腦發(fā)育圖譜,提供了前所未有的關(guān)于大腦形成過程的見解。Christopher Deppmann和Eli Zunder領(lǐng)導(dǎo)的研究團(tuán)隊(duì)使用質(zhì)譜細(xì)胞學(xué)技術(shù),追蹤了大腦不同區(qū)域和發(fā)育階段的40種不同蛋白質(zhì),揭示了大腦發(fā)育的詳細(xì)分子途徑。
?Credit: University of Virginia College and Graduate School of Arts & Sciences
該研究使用質(zhì)譜流式細(xì)胞術(shù)(mass cytometry)對C57/BL6小鼠的整個(gè)大腦在胚胎日(E)11.5-E12.5以及端腦、間腦、中腦和后腦在E13.5-出生后日(P)4進(jìn)行了分析。使用40種抗體面板分析了24,290,787個(gè)細(xì)胞,識別出85個(gè)分子上不同的細(xì)胞簇。研究確認(rèn)了神經(jīng)發(fā)生和膠質(zhì)發(fā)生的經(jīng)典分子途徑,并預(yù)測了皮質(zhì)少突膠質(zhì)發(fā)生的兩種不同軌跡。通過免疫組織化學(xué)和RNAscope原位雜交驗(yàn)證,質(zhì)譜流式細(xì)胞術(shù)和單細(xì)胞RNA測序在蛋白質(zhì)與RNA表達(dá)上的差異,證明了蛋白質(zhì)水平測量在識別功能細(xì)胞狀態(tài)中的價(jià)值。研究發(fā)表在 Nature Neuroscience 上。
#神經(jīng)科學(xué) #跨學(xué)科整合 #大腦發(fā)育 #質(zhì)譜流式細(xì)胞術(shù)
閱讀更多:
Van Deusen, Amy L., et al. “A Single-Cell Mass Cytometry-Based Atlas of the Developing Mouse Brain.” Nature Neuroscience, vol. 28, no. 1, Jan. 2025, pp. 174–88. www.nature.com, https://doi.org/10.1038/s41593-024-01786-1
共情背后的神經(jīng)機(jī)制:700個(gè)神經(jīng)元的關(guān)鍵作用
理解他人的意圖和情感是社會(huì)認(rèn)知的核心,但其神經(jīng)機(jī)制尚不明確。圣路易斯華盛頓大學(xué)醫(yī)學(xué)院的 Runnan Cao、Shuo Wang 及其合作者 Ueli Rutishauser、Adam Mamelak 和 Ralph Adolphs 通過記錄腦部手術(shù)患者的大腦活動(dòng),揭示了內(nèi)側(cè)顳葉和內(nèi)側(cè)前額葉皮層在社會(huì)推理中的不同作用。
?任務(wù)、電極位置和行為。Credit: Science Advances (2024).
研究團(tuán)隊(duì)在患者進(jìn)行腦部手術(shù)時(shí),記錄其內(nèi)側(cè)顳葉(MTL, medial temporal lobe)和內(nèi)側(cè)前額葉皮層(MFC, medial frontal cortex)的神經(jīng)元活動(dòng),同時(shí)向他們展示面部表情、手勢和自然場景的圖片。結(jié)果顯示,MTL 和 MFC 中存在不同的神經(jīng)元群體,分別編碼社會(huì)性(面部和手勢)和非社會(huì)性(場景)刺激的推理類型。MTL 中的神經(jīng)元對面部和手勢有特異性反應(yīng),表明其對社會(huì)推理的領(lǐng)域特異性處理。而 MFC 則以通用方式處理不同刺激類別。此外,研究還發(fā)現(xiàn)超過 700 個(gè)神經(jīng)元參與社會(huì)推理,這些神經(jīng)元可能為孤獨(dú)癥、精神分裂癥和帕金森病的神經(jīng)機(jī)制提供新見解。研究發(fā)表在 Science Advances 上。
#神經(jīng)科學(xué) #神經(jīng)機(jī)制與腦功能解析 #社會(huì)推理 #內(nèi)側(cè)顳葉 #內(nèi)側(cè)前額葉皮層
閱讀更多:
Cao, Runnan, et al. “Domain-Specific Representation of Social Inference by Neurons in the Human Amygdala and Hippocampus.” Science Advances, vol. 10, no. 49, Dec. 2024, p. eado6166. science.org (Atypon), https://doi.org/10.1126/sciadv.ado6166
神經(jīng)網(wǎng)絡(luò)模型揭示人類如何在復(fù)雜環(huán)境中集中注意力
人類在復(fù)雜環(huán)境中如何集中注意力一直是一個(gè)挑戰(zhàn)。華盛頓大學(xué)圣路易斯分校的研究人員Wouter Kool和Davide Gheza開發(fā)了一種神經(jīng)網(wǎng)絡(luò)模型,通過模擬多維干擾任務(wù),揭示了人們?nèi)绾瓮ㄟ^忽略過去的干擾來調(diào)整注意力。
?參與者會(huì)面對三項(xiàng)來自主要任務(wù)的干擾,模擬了更自然的人類集中注意力的條件。與僅觀察簡單顏色單詞(Stroop 任務(wù))不同,參與者需要在具有不同形狀、顏色、邊界和運(yùn)動(dòng)方向的復(fù)雜刺激中找到目標(biāo)特征。當(dāng)目標(biāo)與許多干擾物混在一起時(shí),人們的反應(yīng)會(huì)變慢。Credit: Washington University in St. Louis / Control and Decision Making lab
研究人員設(shè)計(jì)了一個(gè)多維任務(wù)集干擾范式,要求參與者在具有不同形狀、顏色、邊框和運(yùn)動(dòng)方向的復(fù)雜刺激中找到目標(biāo)特征,同時(shí)面對三項(xiàng)干擾。通過三個(gè)實(shí)驗(yàn),研究提供了強(qiáng)有力的證據(jù)支持人們通過抑制任務(wù)無關(guān)信息來適應(yīng)先前的沖突。新的神經(jīng)網(wǎng)絡(luò)模型表明,只有在包含多個(gè)獨(dú)立沖突檢測單元時(shí)才能模擬這些結(jié)果。研究結(jié)果呼吁更新經(jīng)典的認(rèn)知控制模型及其神經(jīng)計(jì)算基礎(chǔ)。研究發(fā)表在 Nature Human Behaviour 上。
#認(rèn)知科學(xué) #神經(jīng)機(jī)制與腦功能解析 #神經(jīng)網(wǎng)絡(luò)模型 #注意力控制
閱讀更多:
Gheza, Davide, and Wouter Kool. “Distractor-Specific Control Adaptation in Multidimensional Environments.” Nature Human Behaviour, Jan. 2025, pp. 1–20. www.nature.com, https://doi.org/10.1038/s41562-024-02088-z
新發(fā)現(xiàn)的大腦回路揭示了記憶與情緒如何影響感知
海馬體是大腦中主要負(fù)責(zé)記憶形成的區(qū)域。紐約大學(xué)朗格健康醫(yī)學(xué)院的研究人員發(fā)現(xiàn)了一個(gè)新的大腦回路,該回路將感官信息、記憶和情緒混合起來,以判斷事物是否熟悉或新奇,是否重要或只是“背景噪音”。研究團(tuán)隊(duì)使用現(xiàn)代方法,發(fā)現(xiàn)了一個(gè)直接連接海馬體(HC)與內(nèi)側(cè)前額葉皮層(EC)的第 2 層和第 3 層的第二環(huán)路。
研究團(tuán)隊(duì)在小鼠中發(fā)現(xiàn)了兩條功能不同的平行海馬體到內(nèi)嗅皮層的反饋通路:一條是通過第 5 層的經(jīng)典雙突觸路徑,另一條是到第 2/3 層的新的單突觸輸入。研究發(fā)現(xiàn),海馬體輸入主要在第 5 層驅(qū)動(dòng)興奮,但在第 2/3 層則驅(qū)動(dòng)前饋抑制。當(dāng)與皮層第 1 層輸入重復(fù)配對時(shí),海馬體輸入在第 5 層經(jīng)歷同突觸增強(qiáng),但在第 2/3 層誘導(dǎo)異突觸可塑性和尖峰輸出。行為上,海馬體輸入到第 5 層和第 2/3 層分別支持物體記憶編碼和回憶。研究還提出了一個(gè)模型,海馬體反饋可以迭代地塑造正在進(jìn)行的皮層處理。研究結(jié)果發(fā)表在 Nature Neuroscience 上。
#神經(jīng)科學(xué) #記憶機(jī)制 #大腦信號解析 #神經(jīng)機(jī)制與腦功能解析
閱讀更多:
Butola, Tanvi, et al. “Hippocampus Shapes Entorhinal Cortical Output through a Direct Feedback Circuit.” Nature Neuroscience, Feb. 2025, pp. 1–12. www.nature.com, https://doi.org/10.1038/s41593-025-01883-9
為何我們總是嘗試新方法?人類與狨猴共有的認(rèn)知策略
麻省理工學(xué)院的研究團(tuán)隊(duì),包括Mriganka Sur和Tudor Dragoi,探索了人類和狨猴在已經(jīng)學(xué)會(huì)任務(wù)后仍然測試其他方法的行為。通過簡單的反應(yīng)時(shí)間任務(wù),他們發(fā)現(xiàn)即使受試者已經(jīng)掌握了任務(wù),他們?nèi)匀粫?huì)受到前一次試驗(yàn)結(jié)果的影響,調(diào)整反應(yīng)時(shí)間。這種行為可能與孤獨(dú)癥譜系障礙的預(yù)測能力差異有關(guān)。
研究團(tuán)隊(duì)設(shè)計(jì)了反應(yīng)時(shí)間任務(wù),要求三個(gè)人類和兩只狨猴對屏幕上圖像消失的時(shí)間做出反應(yīng)。通過數(shù)學(xué)建模,他們發(fā)現(xiàn)受試者的反應(yīng)時(shí)間遵循“危險(xiǎn)模型”(hazard model),即圖像在屏幕上停留的時(shí)間越長,反應(yīng)時(shí)間越快。然而,受試者還會(huì)根據(jù)前一次試驗(yàn)的結(jié)果調(diào)整反應(yīng)時(shí)間,即使這可能導(dǎo)致不必要的錯(cuò)誤。這種行為表明,即使在掌握了任務(wù)后,受試者仍會(huì)不斷更新其反應(yīng)策略,可能是為了尋找更優(yōu)的環(huán)境內(nèi)部模型。研究還發(fā)現(xiàn),狨猴可以模仿神經(jīng)典型的人類預(yù)測行為,為孤獨(dú)癥研究提供了信息模型。研究發(fā)表在 Current Biology 上。
#認(rèn)知科學(xué) #預(yù)測模型構(gòu)建 #孤獨(dú)癥 #危險(xiǎn)模型
閱讀更多:
Dragoi, Tudor, et al. “Global to Local Influences on Temporal Expectation in Marmosets and Humans.” Current Biology, vol. 0, no. 0, Feb. 2025. www.cell.com, https://doi.org/10.1016/j.cub.2025.01.052
激光腦調(diào)控技術(shù)安全性獲全面驗(yàn)證
經(jīng)顱光生物調(diào)節(jié)(tPBM)是一種新興的非侵入式腦調(diào)控技術(shù),但其安全性尚未得到全面評估。北京腦科學(xué)與類腦研究所的趙晨光、崔再續(xù)和山東齊魯醫(yī)院的曹愛華等合作團(tuán)隊(duì),通過多維度研究,首次量化驗(yàn)證了tPBM的安全性,為其臨床應(yīng)用提供了重要依據(jù)。
研究團(tuán)隊(duì)采用磁共振成像、腦電圖、生化分析和認(rèn)知測試等多種方法,評估了1064納米激光tPBM對腦結(jié)構(gòu)、腦功能、神經(jīng)損傷、認(rèn)知能力和耐受性的影響。結(jié)果顯示,tPBM未對腦結(jié)構(gòu)(灰質(zhì)、白質(zhì)和腦脊液)造成任何損傷。神經(jīng)元特異性烯醇化酶(NSE)和中樞神經(jīng)特異蛋白(S100β)水平未升高,表明無神經(jīng)元或膠質(zhì)細(xì)胞損傷,但NSE水平顯著下降,需進(jìn)一步研究其意義。EEG分析未發(fā)現(xiàn)疾病誘發(fā)風(fēng)險(xiǎn),認(rèn)知測試顯示執(zhí)行功能未受損。此外,受試者在疲勞、瘙癢、疼痛等主觀感受上評分極低,表明tPBM耐受性良好。研究發(fā)表在 Brain Stimulation 上。
#神經(jīng)技術(shù) #神經(jīng)調(diào)控 #認(rèn)知功能 #腦結(jié)構(gòu) #安全性評估
閱讀更多:
Li, Zhilin, et al. “Transcranial Low-Level Laser Stimulation in the near-Infrared-II Region (1064 Nm) for Brain Safety in Healthy Humans.” Brain Stimulation: Basic, Translational, and Clinical Research in Neuromodulation, vol. 17, no. 6, Nov. 2024, pp. 1307–16. www.brainstimjrnl.com, https://doi.org/10.1016/j.brs.2024.11.010
AI 行業(yè)動(dòng)態(tài)
盛大Tanka,具有AI長期記憶的團(tuán)隊(duì)“第二大腦”
盛大集團(tuán)旗下的Tanka AI團(tuán)隊(duì)近日推出了一款具備AI長期記憶技術(shù)的即時(shí)通訊(IM)產(chǎn)品,主要面向北美市場。Tanka是一款面向企業(yè)的產(chǎn)品,能夠與Slack、WhatsApp、Gmail等現(xiàn)有聊天和通信工具無縫集成。該產(chǎn)品的核心功能是記住團(tuán)隊(duì)成員的所有聊天歷史、業(yè)務(wù)背景和工作習(xí)慣,成為團(tuán)隊(duì)的“第二大腦”。通過集中所有溝通在一個(gè)平臺上,Tanka幫助用戶無縫切換,提高工作效率。
Tanka還提供基于團(tuán)隊(duì)合作的共享上下文,使得每個(gè)團(tuán)隊(duì)成員都可以利用AI助手提供的信息快速解決問題。基于長期記憶能力,Tanka通過聊天和郵件的上下文自動(dòng)生成智能回復(fù),使用戶能夠更快速地跨應(yīng)用回應(yīng)消息,節(jié)省大量時(shí)間和精力。此外,Tanka內(nèi)置翻譯功能,支持全球團(tuán)隊(duì)之間的無障礙溝通。
與其他國內(nèi)大廠的全套辦公軟件不同,Tanka的產(chǎn)品策略是開放集成,通過聚合跨平臺數(shù)據(jù)構(gòu)建共享記憶層。Tanka根據(jù)這些記憶,提供有上下文的AI智能回復(fù),適用于多種場景,如新員工快速培訓(xùn)、HR快速篩選簡歷以及員工缺席后快速恢復(fù)工作狀態(tài)。該產(chǎn)品基于盛大AI團(tuán)隊(duì)Omne多代理框架,用于構(gòu)建AI的長期記憶(LTM)。
#Tanka AI #即時(shí)通訊 #AI長期記憶 #團(tuán)隊(duì)協(xié)作 #盛大集團(tuán)
閱讀更多:
https://www.producthunt.com/p/tanka/tanka
28位華人學(xué)者斬獲“諾獎(jiǎng)風(fēng)向標(biāo)”斯隆研究獎(jiǎng)
2025年斯隆研究獎(jiǎng)(Sloan Research Fellowships)獲獎(jiǎng)名單近日公布,共有126位學(xué)者獲得這一被譽(yù)為“諾獎(jiǎng)風(fēng)向標(biāo)”的殊榮。斯隆研究獎(jiǎng)自1955年起每年頒發(fā)一次,旨在支持早期職業(yè)研究人員,已有58位得主后來獲得諾貝爾獎(jiǎng),17位獲得菲爾茲獎(jiǎng),72位獲得美國國家科學(xué)獎(jiǎng)?wù)隆=衲辏A人學(xué)者表現(xiàn)尤為亮眼,共有28人獲獎(jiǎng),占比約22.2%。其中,計(jì)算機(jī)科學(xué)領(lǐng)域的22位獲獎(jiǎng)?wù)咧校A人學(xué)者多達(dá)8位,占比36.4%。
獲獎(jiǎng)?wù)咧校A盛頓大學(xué)的Amy X. Zhang研究人機(jī)交互和社會(huì)計(jì)算,德克薩斯大學(xué)奧斯汀分校的David Wu專注于密碼學(xué)和計(jì)算機(jī)安全,加州大學(xué)圣地亞哥分校的Xiaolong Wang致力于計(jì)算機(jī)視覺和機(jī)器人學(xué),西北大學(xué)的Xiao Wang研究應(yīng)用密碼學(xué),康奈爾大學(xué)的Wen Sun專注于順序決策算法,俄亥俄州立大學(xué)的Yu Su(蘇煜)在自然語言處理領(lǐng)域表現(xiàn)突出,威斯康星大學(xué)麥迪遜分校的Sharon Yixuan Li研究機(jī)器學(xué)習(xí),卡內(nèi)基梅隆大學(xué)的Zhihao Jia(賈志豪)則專注于計(jì)算機(jī)系統(tǒng)和機(jī)器學(xué)習(xí)。
每位獲獎(jiǎng)?wù)邔@得75000美元獎(jiǎng)金,用于支持未來兩年的研究。斯隆研究獎(jiǎng)不僅是對這些研究人員早期成就的認(rèn)可,也為他們未來的科研之路提供了重要支持。
#斯隆研究獎(jiǎng) #華人學(xué)者 #計(jì)算機(jī)科學(xué) #諾獎(jiǎng)風(fēng)向標(biāo) #早期職業(yè)研究人員
閱讀更多:
https://sloan.org/fellowships/2025-fellows
DeepSeek V3/R1滿血版微調(diào)秘籍發(fā)布,低成本打造高性能AI模型
DeepSeek V3/R1滿血版,擁有高達(dá)6710億參數(shù)的AI模型,近日發(fā)布了低成本監(jiān)督微調(diào)的秘籍。Colossal-AI團(tuán)隊(duì)推出了開源大模型后訓(xùn)練工具箱,包含DeepSeek V3/R1滿血671B LoRA低成本SFT微調(diào)、完整的強(qiáng)化學(xué)習(xí)工具鏈PPO、GRPO、DPO、SimPO等,無縫適配DeepSeek系列蒸餾模型在內(nèi)的HuggingFace開源模型,兼容支持英偉達(dá)GPU、華為昇騰NPU等多種硬件。
該工具箱支持混合精度訓(xùn)練、gradient checkpoint等訓(xùn)練加速降低成本,提供靈活的并行策略配置接口,包括數(shù)據(jù)并行、模型并行、專家并行、ZeRO和Offload等,以適應(yīng)不同硬件規(guī)模。通過使用LoRA等優(yōu)化,示例命令已將SFT DeepSeek V3/R1 671B最低硬件要求降低近10倍,可使用32個(gè)Ascend 910B NPU 64GB或24個(gè)H100/H800 GPU。Colossal-AI團(tuán)隊(duì)還驗(yàn)證并實(shí)現(xiàn)了DeepSeek論文中的GRPO算法及verifiable reward,使用Qwen2.5-3B-Base模型進(jìn)行了實(shí)驗(yàn),提供了用于驗(yàn)證GRPO的對話模板及設(shè)定,用戶可根據(jù)自己的具體情況設(shè)計(jì)自己的獎(jiǎng)勵(lì)函數(shù)體系。
#DeepSeek #AI模型 #微調(diào) #開源工具 #低成本
閱讀更多:
https://github.com/hpcaitech/ColossalAI
OpenAI 前高管推出 Thinking Machines Lab
前 OpenAI 高管 Mira Murati 近日宣布成立新 AI 創(chuàng)業(yè)公司 Thinking Machines Lab,目標(biāo)是開發(fā)專注于人類與 AI 交互的多模態(tài)系統(tǒng)。與 Anthropic 和 Ilya Sutskever 的 Safe Superintelligence 等公司不同,Thinking Machines Lab 更注重 AI 與人類的協(xié)作,而非單純追求超越人類的能力。該公司計(jì)劃構(gòu)建能夠適應(yīng)人類廣泛專業(yè)領(lǐng)域并支持多樣化應(yīng)用的 AI 系統(tǒng)。
目前,Thinking Machines Lab 擁有約 30 名員工,其中包括多位 Murati 在 OpenAI 的前同事。Murati 擔(dān)任 CEO,Barret Zoph 為 CTO,John Schulman 為首席科學(xué)家。盡管公司未透露首款產(chǎn)品的具體時(shí)間表或融資細(xì)節(jié),但對自身能力充滿信心。
公司表示,盡管其工作方式將保持開放,但這并不意味著其模型會(huì)開源。Murati 特別關(guān)注 AI 系統(tǒng)能力與人類理解和使用能力之間的差距,認(rèn)為科學(xué)界對前沿 AI 的理解滯后于其發(fā)展速度。此外,交互層的挑戰(zhàn)也是關(guān)鍵問題之一,當(dāng)前的 AI 系統(tǒng)雖然擅長回答問題,但在根據(jù)用戶需求定制輸出方面仍有不足。
#AI #創(chuàng)業(yè)公司 #人機(jī)交互 #多模態(tài)系統(tǒng) #MiraMurati
閱讀更多:
https://thinkingmachines.ai/
階躍星辰開源兩款多模態(tài)大模型
近日,國內(nèi)AI創(chuàng)業(yè)公司階躍星辰與吉利汽車集團(tuán)聯(lián)合發(fā)布了兩款開源多模態(tài)大模型:Step-Video-T2V和Step-Audio。Step-Video-T2V是全球參數(shù)量最大、性能最優(yōu)的開源視頻生成模型,支持多種鏡頭運(yùn)動(dòng)和復(fù)雜場景生成,人物形象和表情也更加逼真。Step-Audio則是首款產(chǎn)品級開源語音交互模型,具備高情商對話、方言識別和角色扮演等功能,性能在多個(gè)公開測試集上位列第一。
階躍星辰的這兩款模型均采用MIT許可協(xié)議,支持免費(fèi)商用和衍生開發(fā),進(jìn)一步推動(dòng)了開源社區(qū)的技術(shù)創(chuàng)新。Step-Video-T2V的參數(shù)量達(dá)到300億,能夠生成204幀、540P分辨率的高質(zhì)量視頻,并通過深度壓縮變分自編碼器(Video-VAE)提升了生成效率。Step-Audio則通過多模態(tài)理解生成一體化、高效合成數(shù)據(jù)鏈路等技術(shù),實(shí)現(xiàn)了高質(zhì)量的語音生成和情感控制。
#階躍星辰 #多模態(tài)大模型 #開源 #視頻生成 #語音交互
閱讀更多:
https://github.com/stepfun-ai/Step-Video-T2V
語言模型“幻覺”排行榜發(fā)布,誰是最可靠的AI?
隨著自然語言處理技術(shù)的快速發(fā)展,預(yù)訓(xùn)練語言模型(如GPT、BERT等)在對話生成、文章撰寫、機(jī)器翻譯等任務(wù)中得到了廣泛應(yīng)用。然而,這些模型在生成內(nèi)容時(shí)并不總是準(zhǔn)確的,有時(shí)會(huì)生成與事實(shí)不符的信息,這種現(xiàn)象被稱為“幻覺”(Hallucination)。幻覺可能表現(xiàn)為錯(cuò)誤的事實(shí)(如日期、人物信息等)或與實(shí)際數(shù)據(jù)不符的內(nèi)容。為了減少幻覺,提升模型的可靠性,研究人員一直在尋找解決方案。
Vectara團(tuán)隊(duì)推出的Hallucination Leaderboard(幻覺排行榜)是一個(gè)專門跟蹤和評估語言模型生成幻覺頻率的平臺。該排行榜通過量化幻覺的頻率,幫助研究人員比較不同模型的表現(xiàn),并為改進(jìn)現(xiàn)有模型或開發(fā)更可靠的新模型提供參考。排行榜收集了包括OpenAI的GPT系列、Google的BERT等在內(nèi)的多種流行語言模型,并使用公開的標(biāo)準(zhǔn)數(shù)據(jù)集進(jìn)行測試。評估標(biāo)準(zhǔn)包括生成文本中的“事實(shí)性錯(cuò)誤”,如歷史日期、人物名稱或地理位置錯(cuò)誤等。
通過這一排行榜,研究人員可以清晰地了解哪些模型在減少幻覺方面表現(xiàn)優(yōu)異,哪些模型仍需改進(jìn)。最終目標(biāo)是推動(dòng)更可靠、更精確的語言模型研發(fā),減少幻覺,提升模型的實(shí)用性和可信度。
#語言模型 #幻覺排行榜 #GPT #BERT #自然語言處理
閱讀更多:
https://github.com/vectara/hallucination-leaderboard
Majorana 1 芯片為量子計(jì)算開辟了新道路
微軟發(fā)布了新型量子計(jì)算芯片“Majorana 1”,該芯片標(biāo)志著量子計(jì)算技術(shù)的新突破。微軟稱,Majorana 1芯片采用了全新的設(shè)計(jì)理念,為量子計(jì)算的發(fā)展開辟了新的道路。與傳統(tǒng)的量子比特(qubit)不同,Majorana 1芯片通過利用“馬約拉納費(fèi)米子”這一量子物理現(xiàn)象,顯著提高了量子計(jì)算的穩(wěn)定性和可擴(kuò)展性。這一創(chuàng)新技術(shù)為量子計(jì)算機(jī)的未來應(yīng)用鋪平了道路,尤其在處理復(fù)雜計(jì)算任務(wù)時(shí),預(yù)計(jì)將帶來前所未有的高效能。
微軟的工程師表示,Majorana 1芯片不僅突破了傳統(tǒng)量子比特的限制,還解決了量子計(jì)算面臨的“噪聲”問題。噪聲問題長期以來一直是量子計(jì)算發(fā)展的瓶頸之一,而通過馬約拉納費(fèi)米子技術(shù),芯片能夠在更復(fù)雜的計(jì)算環(huán)境下保持更高的穩(wěn)定性和準(zhǔn)確性,從而大大提升了量子計(jì)算的可行性和實(shí)際應(yīng)用潛力。
?Majorana 1芯片。圖源:John Brecher, Microsoft.
Majorana 1芯片采用了基于馬約拉納費(fèi)米子(Majorana Fermions)的新型量子比特設(shè)計(jì)。馬約拉納費(fèi)米子是一種粒子,其行為不同于傳統(tǒng)粒子,能夠幫助量子計(jì)算機(jī)在面對外部干擾時(shí)保持更高的穩(wěn)定性。微軟的量子計(jì)算團(tuán)隊(duì)通過開發(fā)這一技術(shù),成功地實(shí)現(xiàn)了更低的噪聲水平和更高的計(jì)算精度。
通過這一創(chuàng)新設(shè)計(jì),Majorana 1芯片能夠在量子計(jì)算中進(jìn)行更為復(fù)雜的任務(wù)計(jì)算,且對外界環(huán)境的敏感度大幅降低。這一突破性進(jìn)展使得量子計(jì)算更加接近實(shí)際應(yīng)用,尤其是在材料科學(xué)、藥物研發(fā)和復(fù)雜優(yōu)化問題等領(lǐng)域的應(yīng)用潛力巨大。
#神經(jīng)技術(shù) #量子計(jì)算 #馬約拉納費(fèi)米子 #量子比特 #人工智能
閱讀更多:
https://news.microsoft.com/source/features/ai/microsofts-majorana-1-chip-carves-new-path-for-quantum-computing/
AI 研發(fā)動(dòng)態(tài)
機(jī)器學(xué)習(xí)揭示人類大腦如何感知情感
人類視覺體驗(yàn)不僅由光線反射定義,還包括同時(shí)產(chǎn)生的情感反應(yīng)。紐約城市大學(xué)的研究團(tuán)隊(duì),包括Edward A. Vessel等人,利用機(jī)器學(xué)習(xí)模型,探索了感知過程與情感反應(yīng)之間的聯(lián)系。他們使用了180種先進(jìn)的深度神經(jīng)網(wǎng)絡(luò)模型,這些模型僅在標(biāo)準(zhǔn)計(jì)算機(jī)視覺任務(wù)上進(jìn)行訓(xùn)練,用于預(yù)測人類對圖像的情感反應(yīng)。
?方法概述。Credit: Proceedings of the National Academy of Sciences (2025).
研究團(tuán)隊(duì)使用了多種深度神經(jīng)網(wǎng)絡(luò)模型,這些模型在沒有生理狀態(tài)或意識思維的情況下學(xué)習(xí)感知世界。通過線性解碼(linear decoding)網(wǎng)絡(luò)活動(dòng)中的信息,研究人員能夠預(yù)測人類對圖像的情感反應(yīng),如興奮度、效價(jià)和美感。結(jié)果表明,僅基于感知過程的模型能夠解釋大部分可解釋的變異,揭示了感知過程在情感體驗(yàn)中的重要性。研究發(fā)表在 Proceedings of the National Academy of Sciences 上。
#認(rèn)知科學(xué) #預(yù)測模型構(gòu)建 #機(jī)器學(xué)習(xí) #情感反應(yīng) #深度神經(jīng)網(wǎng)絡(luò)
閱讀更多:
Conwell, Colin, et al. “The Perceptual Primacy of Feeling: Affectless Visual Machines Explain a Majority of Variance in Human Visually Evoked Affect.” Proceedings of the National Academy of Sciences, vol. 122, no. 4, Jan. 2025, p. e2306025121. pnas.org (Atypon), https://doi.org/10.1073/pnas.2306025121
智能睡衣以98.6%準(zhǔn)確率監(jiān)測睡眠障礙
睡眠障礙影響全球數(shù)百萬人的健康,傳統(tǒng)監(jiān)測方法復(fù)雜且不便。劍橋大學(xué)的研究團(tuán)隊(duì)開發(fā)了一種“智能睡衣”,通過基于石墨烯的傳感器和輕量級AI算法(SleepNet),實(shí)現(xiàn)了對睡眠狀態(tài)的精準(zhǔn)監(jiān)測。
?智能服裝系統(tǒng)概述,用于多樣的睡眠行為監(jiān)測。Credit: Proceedings of the National Academy of Sciences (2025).
研究團(tuán)隊(duì)開發(fā)了一種智能服裝系統(tǒng),采用應(yīng)變傳感器陣列(strain sensor array)捕捉局部皮膚應(yīng)變信號,無需精確定位或皮膚準(zhǔn)備。傳感器通過可逆淀粉處理,確保了批次間性能差異小于10%。結(jié)合深度學(xué)習(xí)、可解釋AI和遷移學(xué)習(xí),該系統(tǒng)能夠以98.6%的準(zhǔn)確率分類六種睡眠狀態(tài),包括鼻呼吸、口呼吸、打鼾、磨牙、中心性睡眠呼吸暫停(CSA)和阻塞性睡眠呼吸暫停(OSA)。在實(shí)際應(yīng)用中,系統(tǒng)對新用戶的準(zhǔn)確率達(dá)95%,表現(xiàn)出良好的泛化能力。智能睡衣經(jīng)過特殊處理,可耐受普通洗衣機(jī)清洗,并支持無線數(shù)據(jù)傳輸,為家庭睡眠監(jiān)測提供了便捷且可靠的解決方案。研究發(fā)表在 PNAS 上。
#神經(jīng)技術(shù) #個(gè)性化醫(yī)療 #睡眠監(jiān)測 #智能服裝 #深度學(xué)習(xí)
閱讀更多:
Tang, Chenyu, et al. “A Deep Learning–Enabled Smart Garment for Accurate and Versatile Monitoring of Sleep Conditions in Daily Life.” Proceedings of the National Academy of Sciences, vol. 122, no. 7, Feb. 2025, p. e2420498122. world, www.pnas.org, https://doi.org/10.1073/pnas.2420498122
DeepSeek AI 推出 NSA,語言模型長上下文處理效率提升 9 倍
隨著語言模型處理上下文的長度不斷增加,標(biāo)準(zhǔn)注意力機(jī)制的計(jì)算復(fù)雜度成為瓶頸。DeepSeek AI 的研究團(tuán)隊(duì)開發(fā)了 NSA(Natively Sparse Attention),一種硬件對齊且原生可訓(xùn)練的稀疏注意力機(jī)制,旨在解決長上下文訓(xùn)練和推理中的計(jì)算效率問題。通過結(jié)合算法創(chuàng)新和硬件優(yōu)化,NSA 顯著減少了計(jì)算開銷,同時(shí)保持了模型的性能。
NSA 采用動(dòng)態(tài)分層稀疏策略(Dynamic Hierarchical Sparse Strategy),結(jié)合粗粒度令牌壓縮(Coarse-grained Token Compression)和細(xì)粒度令牌選擇(Fine-grained Token Selection),以保持全局上下文意識和局部精確性。NSA 還通過實(shí)現(xiàn)針對現(xiàn)代 GPU 優(yōu)化的專業(yè)內(nèi)核,減少推理和訓(xùn)練中的延遲。實(shí)驗(yàn)結(jié)果表明,NSA 在 MMLU、GSM8K 和 DROP 等基準(zhǔn)測試中表現(xiàn)優(yōu)異,與傳統(tǒng)全注意模型相當(dāng)甚至更好。在長序列任務(wù)中,NSA 的解碼速度顯著提升,前向傳播速度提高了 9 倍,后向傳播速度提高了 6 倍。
#認(rèn)知科學(xué) #大模型技術(shù) #注意力機(jī)制 #硬件優(yōu)化 #長上下文建模
閱讀更多:
Yuan, Jingyang, et al. Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention. arXiv:2502.11089, arXiv, 16 Feb. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2502.11089
Cogito系統(tǒng):模仿人類學(xué)習(xí)的AI代碼生成工具
大型語言模型在代碼生成任務(wù)中表現(xiàn)有限,傳統(tǒng)方法遵循規(guī)劃、編碼、調(diào)試的順序,與人類學(xué)習(xí)過程不符。吉林大學(xué)和香港科技大學(xué)的研究團(tuán)隊(duì)開發(fā)了Cogito系統(tǒng),采用逆向?qū)W習(xí)順序和類似海馬體的記憶模塊,顯著提高了代碼生成的效率和準(zhǔn)確性。
Cogito系統(tǒng)采用逆向?qū)W習(xí)(reverse-order learning)順序,從調(diào)試(debugging)開始,隨后進(jìn)行編碼(coding)和規(guī)劃(planning),模擬人類學(xué)習(xí)和成長的過程。系統(tǒng)還配備了一個(gè)類似海馬體(hippocampus)的記憶模塊,能夠在類似任務(wù)中快速檢索信息。通過這種基于成長的學(xué)習(xí)模型,Cogito在每個(gè)階段積累知識和認(rèn)知技能,最終形成一個(gè)“超級角色”(Super-Role),能夠高效完成代碼生成任務(wù)。實(shí)驗(yàn)表明,Cogito在代碼生成任務(wù)中的性能和效率優(yōu)于現(xiàn)有LLM模型,錯(cuò)誤更少。
#認(rèn)知科學(xué) #自動(dòng)化科研 #逆向?qū)W習(xí) #多智能體系統(tǒng) #代碼生成
閱讀更多:
Li, Yanlong, et al. Cogito, Ergo Sum: A Neurobiologically-Inspired Cognition-Memory-Growth System for Code Generation. arXiv:2501.18653, arXiv, 30 Jan. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2501.18653
無法解決的視覺推理:ZeroBench對多模態(tài)模型的終極測試
大型多模態(tài)模型(LMMs)在處理圖像-文本多模態(tài)任務(wù)時(shí)存在視覺解釋和推理的缺陷。為了提供一個(gè)更具挑戰(zhàn)性的評估工具,Jonathan Roberts、Mohammad Reza Taesiri、Ansh Sharma等研究人員開發(fā)了ZeroBench,一個(gè)包含100個(gè)手工制作問題和334個(gè)子問題的視覺推理基準(zhǔn)。他們評估了20個(gè)前沿LMMs在ZeroBench上的表現(xiàn),發(fā)現(xiàn)所有模型在主要問題上的得分均為0.0%。
ZeroBench的設(shè)計(jì)目標(biāo)是創(chuàng)建一個(gè)輕量級但極具挑戰(zhàn)性的視覺推理基準(zhǔn),專門用于評估LMMs。研究團(tuán)隊(duì)通過手工制作100個(gè)問題和334個(gè)子問題,確保基準(zhǔn)的多樣性和高質(zhì)量。他們使用pass@1和pass@k評估方法對20個(gè)LMMs進(jìn)行了測試,結(jié)果顯示所有模型在主要問題上的得分均為0.0%。通過詳細(xì)的錯(cuò)誤分析,研究團(tuán)隊(duì)發(fā)現(xiàn)模型在視覺解釋和推理中的常見錯(cuò)誤模式,這些錯(cuò)誤阻礙了模型得出正確答案。
#認(rèn)知科學(xué) #大模型技術(shù) #視覺推理 #錯(cuò)誤分析
閱讀更多:
Roberts, Jonathan, et al. ZeroBench: An Impossible Visual Benchmark for Contemporary Large Multimodal Models. arXiv:2502.09696, arXiv, 13 Feb. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2502.09696
HealthGPT:醫(yī)療視覺任務(wù)的統(tǒng)一解決方案
在醫(yī)療領(lǐng)域,視覺理解和生成能力的整合是提升診斷和治療效率的關(guān)鍵。為了應(yīng)對這一挑戰(zhàn),研究人員提出了HealthGPT。他們通過異質(zhì)低秩適應(yīng)(H-LoRA)技術(shù),結(jié)合分層視覺感知(HVP)和三階段學(xué)習(xí)策略(TLS),成功構(gòu)建了一個(gè)統(tǒng)一的醫(yī)療大型視覺語言模型(Med-LVLM)。
研究團(tuán)隊(duì)首先開發(fā)了異質(zhì)低秩適應(yīng)(H-LoRA)技術(shù),將理解和生成任務(wù)的學(xué)習(xí)過程分離,避免了任務(wù)沖突。隨后,他們引入了分層視覺感知,將視覺細(xì)節(jié)學(xué)習(xí)從視覺變換器(ViT)中分離出來,以適應(yīng)理解和生成任務(wù)對視覺粒度的不同需求。最后,通過三階段學(xué)習(xí)策略(TLS),研究團(tuán)隊(duì)逐步訓(xùn)練H-LoRA插件,使HealthGPT能夠快速適應(yīng)各種下游醫(yī)療任務(wù)。為了支持這一研究,團(tuán)隊(duì)還構(gòu)建了一個(gè)名為VL-Health的數(shù)據(jù)集,包含七種理解任務(wù)和五種生成任務(wù)。實(shí)驗(yàn)結(jié)果表明,HealthGPT在數(shù)據(jù)受限的情況下能夠統(tǒng)一醫(yī)療多模態(tài)能力,在多個(gè)指標(biāo)上達(dá)到或超過了現(xiàn)有最先進(jìn)(SOTA)模型的性能。
#認(rèn)知科學(xué) #大模型技術(shù) #醫(yī)療視覺理解 #醫(yī)療視覺生成 #異質(zhì)低秩適應(yīng)
閱讀更多:
Lin, Tianwei, et al. HealthGPT: A Medical Large Vision-Language Model for Unifying Comprehension and Generation via Heterogeneous Knowledge Adaptation. arXiv:2502.09838, arXiv, 17 Feb. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2502.09838
LangMem SDK:讓 AI 代理通過長期記憶變得更智能
LangMem SDK 是一個(gè)幫助 AI 代理通過長期記憶學(xué)習(xí)和提高的庫,旨在讓 AI 體驗(yàn)隨著時(shí)間的推移變得越來越智能和個(gè)性化。該 SDK 由 LangChain 團(tuán)隊(duì)開發(fā),他們之前已經(jīng)推出了 LangMem alpha 服務(wù)和 LangGraph 的持久長期記憶層。通過核心 API 與任何存儲(chǔ)系統(tǒng)和 Agent 框架結(jié)合使用,并原生集成到 LangGraph 的長期記憶層中,LangMem SDK 提供了多種記憶類型和算法來優(yōu)化代理的行為。
LangMem SDK 通過核心 API 與任何存儲(chǔ)系統(tǒng)和 Agent 框架結(jié)合使用,并原生集成到 LangGraph 的長期記憶層中。它還提供了一項(xiàng)托管服務(wù),提供額外的長期記憶結(jié)果。該 SDK 支持多種記憶類型,包括語義記憶(Semantic Memory)、程序記憶(Procedural Memory)和事件記憶(Episodic Memory),幫助代理在不同情境下學(xué)習(xí)和適應(yīng)。它還提供了多種算法來生成提示更新建議,以優(yōu)化代理的行為。
#神經(jīng)技術(shù) #記憶機(jī)制 #大模型技術(shù) #個(gè)性化醫(yī)療
閱讀更多:
https://langchain-ai.github.io/langmem/
跨參與者語義解碼:無需語言訓(xùn)練數(shù)據(jù)的語言解碼新方法
語言產(chǎn)生受損的人,如失語癥患者,難以將語義表示映射到詞匯或運(yùn)動(dòng)表示,使得現(xiàn)有的語音解碼器不適用。Jerry Tang 和 Alexander G. Huth 等研究人員提出了一種新方法,使用來自不同參考參與者的數(shù)據(jù)訓(xùn)練解碼器,然后使用這些解碼器來解碼目標(biāo)參與者的響應(yīng)。研究團(tuán)隊(duì)使用功能性對齊方法,通過向目標(biāo)和參考參與者呈現(xiàn)一組共享刺激,然后建模記錄的大腦反應(yīng)之間的對應(yīng)關(guān)系來進(jìn)行。
研究團(tuán)隊(duì)訓(xùn)練了語義解碼器(semantic decoder),使用來自不同參考參與者的腦反應(yīng)數(shù)據(jù),然后使用功能性對齊(functional alignment)方法將這些解碼器轉(zhuǎn)移到目標(biāo)參與者。為了測試語義解碼器是否可以使用非語言刺激進(jìn)行轉(zhuǎn)移,研究團(tuán)隊(duì)使用無聲電影的反應(yīng)來訓(xùn)練轉(zhuǎn)換器。為了提供一個(gè)上限,研究團(tuán)隊(duì)還使用敘事故事的反應(yīng)來訓(xùn)練轉(zhuǎn)換器。研究團(tuán)隊(duì)發(fā)現(xiàn),跨參與者解碼器預(yù)測與刺激詞語義相關(guān),即使功能性對齊是使用沒有語言內(nèi)容的電影進(jìn)行的。研究團(tuán)隊(duì)還發(fā)現(xiàn),使用故事和電影刺激進(jìn)行功能性對齊的準(zhǔn)確性在大多數(shù)皮層區(qū)域是可比的。此外,研究團(tuán)隊(duì)發(fā)現(xiàn)跨參與者解碼器不依賴于任何單一腦區(qū)域的數(shù)據(jù),表明跨參與者解碼對模擬的腦損傷具有魯棒性。研究發(fā)表在 Current Biology 上。
#神經(jīng)技術(shù) #大腦信號解析 #語義解碼 #功能性對齊
閱讀更多:
“Semantic Language Decoding across Participants and Stimulus Modalities.” Current Biology, Feb. 2025. www.sciencedirect.com, https://doi.org/10.1016/j.cub.2025.01.024
MM-RLHF推進(jìn)多模態(tài)大語言模型發(fā)展
來自快手、中國科學(xué)院人工智能研究所、南京大學(xué)、中國科學(xué)技術(shù)大學(xué)、北京大學(xué)、阿里巴巴和 Meta AI 的研究人員近日發(fā)表了一項(xiàng)關(guān)于多模態(tài)大語言模型(MLLM)對齊的新研究,通過使用多模態(tài)強(qiáng)化學(xué)習(xí)和人類反饋(MM-RLHF)來提升模型的對齊效果。研究者們開發(fā)了一個(gè)大規(guī)模的、人類偏好數(shù)據(jù)集,用于多模態(tài)任務(wù)的訓(xùn)練。該數(shù)據(jù)集包含了廣泛的標(biāo)注數(shù)據(jù),旨在幫助多模態(tài)大語言模型在執(zhí)行任務(wù)時(shí),能夠更好地理解和處理人類的偏好,進(jìn)而改進(jìn)模型的表現(xiàn)。
?MM-RLHF construction pipeline. Cite: marktechpost
研究團(tuán)隊(duì)采用了強(qiáng)化學(xué)習(xí)的方法,其中人類反饋扮演了關(guān)鍵角色,通過不斷調(diào)整模型輸出,來確保其與人類的期望更加契合。這一過程中,團(tuán)隊(duì)利用大規(guī)模的標(biāo)注數(shù)據(jù)集,使得模型能夠?qū)W習(xí)到更準(zhǔn)確的決策規(guī)則和優(yōu)化策略。最終,這種方法不僅提升了模型在視覺、語言和其他多模態(tài)任務(wù)上的能力,還顯著改善了模型的多樣性和適應(yīng)性。
MM-RLHF的核心是通過反復(fù)訓(xùn)練,模型可以在處理不同類型的輸入時(shí),學(xué)習(xí)并優(yōu)化其決策過程,確保其輸出更符合人類的實(shí)際需求。研究結(jié)果表明,這種方法顯著提高了模型在各類任務(wù)上的表現(xiàn),包括視覺理解、跨模態(tài)搜索、以及其他多模態(tài)推理任務(wù)。研究發(fā)表在arxiv 上。
#神經(jīng)技術(shù) #多模態(tài)學(xué)習(xí) #強(qiáng)化學(xué)習(xí) #人工智能 #大語言模型
閱讀更多:
MM-RLHF: The Next Step Forward in Multimodal LLM Alignment
https://doi.org/10.48550/arXiv.2502.10391
整理|ChatGPT
編輯|丹雀、存源、雨飛
關(guān)于追問nextquestion
天橋腦科學(xué)研究院旗下科學(xué)媒體,旨在以科學(xué)追問為紐帶,深入探究人工智能與人類智能相互融合與促進(jìn),不斷探索科學(xué)的邊界。如果您有進(jìn)一步想要討論的內(nèi)容,歡迎評論區(qū)留言,或添加小助手微信questionlab,加入社群與我們互動(dòng)。
關(guān)于天橋腦科學(xué)研究院
天橋腦科學(xué)研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元?jiǎng)?chuàng)建的世界最大私人腦科學(xué)研究機(jī)構(gòu)之一,圍繞全球化、跨學(xué)科和青年科學(xué)家三大重點(diǎn),支持腦科學(xué)研究,造福人類。
Chen Institute與華山醫(yī)院、上海市精神衛(wèi)生中心設(shè)立了應(yīng)用神經(jīng)技術(shù)前沿實(shí)驗(yàn)室、人工智能與精神健康前沿實(shí)驗(yàn)室;與加州理工學(xué)院合作成立了加州理工天橋神經(jīng)科學(xué)研究院。
Chen Institute建成了支持腦科學(xué)和人工智能領(lǐng)域研究的生態(tài)系統(tǒng),項(xiàng)目遍布?xì)W美、亞洲和大洋洲,包括、、、科研型臨床醫(yī)生獎(jiǎng)勵(lì)計(jì)劃、、中文媒體追問等。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.