人工智能已經成為科學研究中的一大焦點議題,2024年諾貝爾物理學獎和化學獎的公布更是將關于人工智能的討論推向了高潮。如今,許多科學家紛紛稱贊人工智能成為改變科學的力量,有人提出,人工智能加速科研攻關的潛力使其成為“人類歷史上最具變革性的技術之一”。然而,這種變革對科學究竟意味著什么?盡管人工智能可幫助研究人員以更少的資金更快地完成更多工作,但它也引發了一系列新的擔憂。例如,若研究人員急于利用人工智能取得成果,則會讓科研成果較難獲取公眾的理解與信任。人工智能面臨安全性危機和代表性不足的問題,其是否能夠有效助力科學發展?未來,人工智能與科學研究之間的關系會呈現怎樣的發展軌跡?圍繞學術界和公眾關注的這些熱點話題,本報記者采訪了相關學者。
理性看待人工智能與科學研究的結合
人工智能在科學領域越來越具有吸引力的主要原因之一,是它能夠以更快的速度、更低的成本創造更多的產出。日本人工智能公司“Sakana AI”開發了一個名為“AI 科學家”的綜合系統,旨在獲得“完全由人工智能驅動的科學發現”,該系統只需耗費約15美元的成本便能生成一篇完整的研究論文。與此同時,人們不免產生疑問,我們真的能借助人工智能促進科學發展嗎?
盡管人工智能已經在多個研究領域被廣泛應用,但澳大利亞國立大學負責任創新實驗室高級講師伊赫?!ぜ{巴維(Ehsan Nabavi)認為,人工智能至少會在三個方面使研究人員產生錯誤認知。一是“解釋深度錯覺”。雖然人工智能模型擅長預測現象,但這并不意味著它能夠準確地解釋相應的現象。神經科學研究已經證實,為優化預測過程而設計的人工智能模型可能導致研究人員對潛在神經生物學機制產生誤導性結論。二是“探索廣度錯覺”。有些研究人員認為,自己設計的人工智能模型可以涵蓋所有假設性數據集,事實上卻只包含了可用于人工智能測試的數據集。三是“客觀性錯覺”。還有一些研究人員認為人工智能模型沒有偏見,但實際上,各種人工智能模型都不可避免地反映其訓練數據中存在的偏見以及開發人員的意圖。
納巴維對本報記者表示,如今,科學領域充斥著由人工智能生成的內容。人工智能在科學領域的興起正值公眾對科學和科學家仍有較高信任度之際,但我們不能將此視為理所當然,因為信任關系是復雜而脆弱的。世界仍然面臨許多挑戰,如氣候變化、生物多樣性減少和社會不公平等,應對這些挑戰需要公共政策制定者運用專家的判斷力。這種判斷力包括有意識地考慮具體情況,收集來自不同學科領域的意見和生活經驗素材,并從當地文化與價值觀的角度進行解讀。而人工智能模型目前還無法做到這一點。
國際科學理事會2024年發布的一份報告曾提到,研究人員只有認識到研究對象的細微差別和不同背景才能產出讓公眾信服的成果。如果讓人工智能主導科學發展的未來,可能會破壞這種信任關系。一旦研究人員允許人工智能在科學研究中占據主導地位,可能會帶來一種“知識單一”的文化,即優先考慮最適合人工智能介入的問題、方法和觀點等。這會使我們遠離科學研究的本質以及解決社會和環境問題時必需的細致入微的公共對話與推理。
建立人工智能使用規則
隨著21世紀的到來,一些人認為,科學家需要制定一份新的社會契約,即將他們的知識和才華應用于解決這個時代最緊迫的問題,從而推動社會走向一個更可持續的生物圈——生態健康、經濟可行、社會公正的生物圈。人工智能的興起不僅為科學家提供了履行這一職責的契機,也為他們的研究注入了更多的新活力。但重要的是,學術界首先需要明確一系列有關人工智能使用規則的事項。例如,在科學研究中使用人工智能是否屬于一種“外包”行為、這一行為是否損害公共資助的完整性,以及該如何處理這個問題,人工智能對環境有何影響,研究人員如何在將人工智能融入研究過程的同時,使其產出的成果與社會需求保持一致。
納巴維說,在沒有建立規則的前提下使用人工智能來改變科學研究,這種想法可能是本末倒置。讓人工智能決定研究的重點,忽視來自不同學科領域的聲音和意見,會導致研究結果與社會實際需求不匹配,造成資源分配不當甚至資源浪費??茖W研究應當造福于整個社會,研究人員需要在研究與實踐中就人工智能使用規則展開真正的對話?,F在是時候探討在科學研究中應用人工智能會帶來哪些問題,并建立必要的指導方針和評估標準,以負責任的態度激發人工智能潛力。
此外,人工智能安全問題也引發了人們的擔憂。人工智能安全的概念涉及研究、戰略、政策等多個方面,旨在確保這些系統可靠、符合人類價值觀且不會造成不必要的傷害。目前,學術界存在一種反思,即人工智能領域反映的大多是西方的認知框架,主要形成的是以西方為中心的研究范式,且主要服務于高收入國家的技術機構和利益相關者。這種系統性排斥不僅延續了現有的權力不對稱,還損害了真正有益的人工智能系統的發展。包括非洲、大洋洲、拉美和加勒比地區、中東、中亞、南亞、東南亞等地區在內,全球大部分地區在人工智能開發和人工智能系統中嵌入訓練數據等方面,都面臨著代表性不足等問題。在這種情況下,人工智能與科學研究的結合,必然會讓公眾質疑其研究結果是否偏離社會實際。
人機協作要求研究人員轉變角色
人工智能與科學研究的日益融合,加速了人機協作時代的到來,也推動研究人員的工作方式發生深刻變化。這種變化有助于提高學術生產力、擴大研究規模,也給科學研究范式帶來了新局面。過去,研究人員主要依賴于自身的知識和分析能力。隨著新技術的出現,研究過程中的學術分工正在被重新定義,促使人們對科學研究的性質、過程以及研究人員角色的演變進行批判性反思。
澳大利亞悉尼大學信息技術與組織教授凱·里默爾(Kai Riemer)對本報記者表示,這一轉變的核心包括人類要始終處于中心地位和承擔起全部責任等關鍵問題。由于人工智能可以產生新的假設和試驗策略,人類貢獻與機器貢獻之間的界限可能會變得模糊。鑒于人工智能的功能是輔助性的,還無法獨立提供能夠滿足學術界認定要求的科學研究方法,我們必須對“研究人員身份”這一概念進行重新界定。
里默爾提到,雖然人工智能具備強化數據分析和模型構建的能力,但研究人員必須保留自身的知識產權和對整個科學研究項目的管理權。盡管學術界有部分學者呼吁應充分挖掘人工智能作為協作工具的潛能,但人類必須肩負起維護科研誠信和學術嚴謹性并認真監督的責任。隨著身份的更新,研究人員也要持續提升自己對新技能的掌握水平,嘗試接受不同的觀點,這樣才能在人機協作時代表現出色,并不斷從人工智能中獲得有意義的見解。研究人員也需要始終對使用人工智能保持謹慎的態度。因為,盡管人工智能功能強大,但也可能存在缺陷導致偏見或不準確現象的出現,進而破壞研究的完整性。研究人員不能將人工智能視為一種便捷的“認知卸載”工具,而要時刻保持批判性思維,不斷通過交叉引用、進行額外試驗或尋求同行意見來檢驗人工智能生成的結果。
隨著人工智能對科學研究格局的影響,高等教育機構在促進這一轉變過程中具有獨特的優勢。人機協作的研究新范式要求高等教育機構采取積極、主動、全面的方法培養新一代研究人員。高等教育機構必須承擔使命,提高研究人員的認知水平,培養研究人員的創新思維,鼓勵研究人員在新時代學習新技能。具體措施包括幫助研究人員了解新的科學研究方法,引導他們將人工智能工具集成到研究工作流程中等。此外,研究人員還需要理解人工智能的巨大潛力,并掌握人工智能介入研究背后的倫理、法律、認知、社會、環境等方面的知識。高等教育機構可通過促進研究生態系統內研究人員和利益相關者之間的開放式對話來培養這種意識,持續討論人機協作帶來的機遇與挑戰等議題,從而進一步加深研究人員對人工智能格局發展的認識。與此同時,高等教育機構還需要鼓勵研究人員運用新的思維方式,不僅將人工智能視為一種工具,還要將之視為研究工作中的合作伙伴。更重要的是,要在此基礎上培養研究人員的批判性思維技能,并持續探索如何利用人工智能加快推進有利于公共利益的研究。
總之,當前研究人員正在經歷重要的技術變革,可能會面臨與身份、知識產權和倫理道德相關的挑戰。高等教育機構應當積極采取措施,匯集法律專家、倫理學家和行業合作伙伴等各個方面的力量,共同制定有效舉措,合理應對棘手難題。
來源:中國社會科學報
責任編輯:陳禹同
新媒體編輯:蘇威豪
如需交流可聯系我們
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.