99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

國際人工智能安全報告:先進(jìn)人工智能安全國際科學(xué)報告

0
分享至


2025年1月,英國商業(yè)貿(mào)易部網(wǎng)站發(fā)布由96位國際人工智能專家撰寫的《先進(jìn)人工智能安全國際科學(xué)報告》(International scientific report on the safety of advanced AI),報告旨在為應(yīng)對先進(jìn)人工智能風(fēng)險提供科學(xué)依據(jù),促進(jìn)國際社會對其的理解和管理。啟元洞見編譯報告主要內(nèi)容,旨在為讀者了解人工智能的安全發(fā)展提供參考。

摘要

本報告總結(jié)了通用人工智能安全性的科學(xué)證據(jù),旨在幫助建立國際社會對先進(jìn)人工智能風(fēng)險及其緩解方法的共同理解。為實(shí)現(xiàn)這一目標(biāo),本報告重點(diǎn)關(guān)注通用人工智能(即可以執(zhí)行各種任務(wù)的人工智能),因?yàn)榇祟惾斯ぶ悄芙陙戆l(fā)展尤為迅速,并已被科技公司廣泛應(yīng)用于各種消費(fèi)和商業(yè)用途。本報告匯總了科學(xué)界當(dāng)前對通用人工智能的理解,重點(diǎn)關(guān)注理解和風(fēng)險管控。

報告的三個主要部分總結(jié)了三個核心問題的科學(xué)證據(jù):通用人工智能能做什么?通用人工智能存在哪些風(fēng)險?以及針對這些風(fēng)險有哪些緩解技術(shù)?

一、通用人工智能的能力:通用人工智能現(xiàn)在和將來的用途?

人工智能用途是衡量其所帶來的諸多風(fēng)險的關(guān)鍵因素,并且根據(jù)許多指標(biāo)衡量來看,通用人工智能的能力一直在迅速提升。五年前,領(lǐng)先的通用人工智能語言模型幾乎無法生成連貫的文本段落。如今,一些通用人工智能模型可以就廣泛的話題進(jìn)行對話、編寫計算機(jī)程序或根據(jù)描述生成逼真的短視頻。然而,可靠地估計和描述通用人工智能的能力在技術(shù)上頗具挑戰(zhàn)性。

近年來,人工智能開發(fā)者通過“擴(kuò)展”(Scaling)迅速提升了通用人工智能的能力。他們不斷增加用于訓(xùn)練新模型的資源(此行為通常被稱為“擴(kuò)展”)并改進(jìn)現(xiàn)有方法以更有效地利用此類資源。例如,根據(jù)最近的估測,最先進(jìn)的人工智能模型用于訓(xùn)練的計算資源(“算力”)每年增加約4倍,訓(xùn)練數(shù)據(jù)集大小每年增加約2.5倍。

通用人工智能未來的發(fā)展速度對于管控新風(fēng)險具有重大影響,但專家們對未來數(shù)月乃至數(shù)年的預(yù)期仍存在分歧。專家們對通用人工智能能力的發(fā)展速度可能緩慢、迅速或極其迅速持有不同的意見。

專家們對于未來進(jìn)步的速度存在分歧,原因在于他們對于進(jìn)一步“擴(kuò)展”的前景看法不一。而各公司正在探索一種新的擴(kuò)展類型,這或許能進(jìn)一步提升能力。盡管擴(kuò)展通常可以克服以前系統(tǒng)的局限性,但專家們對于其解決當(dāng)今系統(tǒng)剩余局限性的潛力存在分歧,例如在物理世界中行動的不可靠性以及在計算機(jī)上執(zhí)行復(fù)雜任務(wù)的能力不足。近幾個月來,一種新型的擴(kuò)展類型展現(xiàn)出進(jìn)一步提升其能力的潛力:人工智能公司不再僅僅關(guān)注用于訓(xùn)練模型的資源擴(kuò)展,他們對還越來越對“推理擴(kuò)展”(inferencescaling)感興趣——即讓已經(jīng)訓(xùn)練過的模型使用更多的計算來解決給定的問題,例如改進(jìn)自身的解決方案,或者編寫所謂的“思維鏈”,將問題分解為更簡單的步驟。

有數(shù)家開發(fā)通用人工智能的領(lǐng)先公司正在押注于“擴(kuò)展”以持續(xù)推動性能提升。如果最近的趨勢繼續(xù)下去,到2026年底,部分通用人工智能模型將使用比2023年計算量最大的模型大約100倍的訓(xùn)練算力進(jìn)行訓(xùn)練,到2030年將增長到1萬倍,同時算法也將實(shí)現(xiàn)以更少的可用計算量獲得更強(qiáng)的能力。除了訓(xùn)練資源可能的這種規(guī)模增長外,諸如推理規(guī)模擴(kuò)大以及利用模型生成訓(xùn)練數(shù)據(jù)等近期趨勢,可能意味著總體上會使用更多的計算量。然而,進(jìn)一步快速增加數(shù)據(jù)和計算還存在一些潛在瓶頸,例如數(shù)據(jù)、人工智能芯片、資本和本地能源容量的可及性。開發(fā)通用人工智能的公司正在努力克服此類潛在的瓶頸。

二、風(fēng)險:通用人工智能有哪些風(fēng)險?

本報告將通用人工智能風(fēng)險分為三類:惡意使用風(fēng)險、故障風(fēng)險和系統(tǒng)風(fēng)險。每個類別都包含已經(jīng)出現(xiàn)的風(fēng)險以及未來數(shù)年可能出現(xiàn)的風(fēng)險。

(一)惡意使用的風(fēng)險

惡意行為者可以使用通用人工智能對個人、組織或社會造成傷害。每個類別都包含已經(jīng)出現(xiàn)的風(fēng)險以及未來幾年可能出現(xiàn)的風(fēng)險。惡意使用的形式包括:

1.通過發(fā)布虛假內(nèi)容對個人造成傷害

目前,惡意行為者能夠使用通用人工智能來生成有針對性地傷害個人的虛假內(nèi)容。這些惡意用途包括非經(jīng)同意的“深度偽造”的色情內(nèi)容和人工智能生成的兒童性虐待材料、通過聲音模仿進(jìn)行金融欺詐、敲詐勒索、破壞個人和職業(yè)聲譽(yù)以及心理虐待。然而,盡管有關(guān)人工智能生成的虛假內(nèi)容造成危害的事件報告屢見不鮮,但仍然缺乏有關(guān)此類事件發(fā)生頻率的可靠統(tǒng)計數(shù)據(jù)。

2.操縱公眾輿論

通用人工智能使得大規(guī)模生成具有說服力的內(nèi)容變得更加容易。那些試圖操縱公眾輿論的人,例如意圖左右政治結(jié)果的行為者,恰可以借助于此。然而,關(guān)于此類行為的普遍性和有效性的證據(jù)仍然有限。雖然諸如內(nèi)容水印之類的技術(shù)對策有用,但通常會被稍懂技術(shù)的惡意行為者規(guī)避。

3.網(wǎng)絡(luò)攻擊

借助通用人工智能,不同技能水平的惡意行為者可更輕松或更快地發(fā)動網(wǎng)絡(luò)攻擊。當(dāng)前的人工智能系統(tǒng)已經(jīng)展現(xiàn)出在低復(fù)雜度和中等復(fù)雜度網(wǎng)絡(luò)安全任務(wù)方面的能力,有國家支持的攻擊者正在積極利用人工智能來偵察目標(biāo)系統(tǒng)。新的研究證實(shí),通用人工智能在與網(wǎng)絡(luò)攻擊相關(guān)的方面的能力正在顯著提升,但目前尚不清楚這是否會影響攻擊者與防御者之間的平衡。

4.生物和化學(xué)攻擊

近期通用人工智能系統(tǒng)已展現(xiàn)出一定的能力,能夠?yàn)閺?fù)制已知生物和化學(xué)武器提供操作說明和故障排除指導(dǎo),并可用于設(shè)計新型有毒化合物。在測試生成生物武器生產(chǎn)計劃能力的新實(shí)驗(yàn)中,通用人工智能系統(tǒng)有時表現(xiàn)得比的人類專家還要出色。對此,一家人工智能公司將其最佳模型的生物風(fēng)險評估從“低”提升到了“中”。不過,要在現(xiàn)實(shí)世界中開發(fā)此類武器仍需大量額外資源和專業(yè)知識。由于許多相關(guān)研究屬于機(jī)密,對生物和化學(xué)風(fēng)險進(jìn)行全面評測估頗具難度。

(二)故障風(fēng)險

通用人工智能也可能造成意外危害。即使用戶無意造成傷害,通用人工智能的故障也可能會造成嚴(yán)重風(fēng)險。此類故障包括:

1. 可靠性問題

當(dāng)前的通用人工智能可能不可靠,從而可能造成危害。例如,如果用戶向通用人工智能系統(tǒng)咨詢醫(yī)療或法律建議,系統(tǒng)可能會生成包含錯誤信息的回答。用戶常常意識不到人工智能產(chǎn)品的局限性,例如由于有限的“人工智能素養(yǎng)”、廣告誤導(dǎo)或溝通不暢。已知有大量因可靠性問題而造成危害的案例,但關(guān)于此類問題在不同領(lǐng)域的普遍程度,目前仍缺乏確切的證據(jù)。

2. 偏見

通用人工智能系統(tǒng)或可放大社會和政治偏見,造成危害。它們常常在種族、性別、文化、年齡、殘障、政治觀點(diǎn)或人類身份的其他方面表現(xiàn)出偏見。這可能導(dǎo)致歧視性結(jié)果,資源分配不均、強(qiáng)化刻板印象以及對代表性不足的群體或觀點(diǎn)的系統(tǒng)性忽視。雖然在通用人工智能系統(tǒng)中減輕偏見和歧視的技術(shù)方法正在取得進(jìn)展,但這些方法在偏見緩解與準(zhǔn)確性、隱私等其他目標(biāo)之間存在權(quán)衡,同時還面臨其他挑戰(zhàn)。

3. 失控

所謂“失控”場景,指的是未來可能出現(xiàn)的一種假設(shè)性情況,即一個或多個通用人工智能系統(tǒng)開始脫離任何人的控制,且沒有明確的重新掌控途徑。目前普遍認(rèn)為,現(xiàn)有的通用人工智能尚不具備造成這種風(fēng)險的能力。然而,對于未來幾年內(nèi)出現(xiàn)失控的可能性,專家意見差異很大:一些專家認(rèn)為失控不太可能發(fā)生,另一些專家則認(rèn)為失控有可能發(fā)生,還有專家認(rèn)為這是一種可能性適中但潛在危害嚴(yán)重的風(fēng)險,因此值得予以關(guān)注。相關(guān)的實(shí)證研究和數(shù)學(xué)研究正在逐步推進(jìn)這些討論。

(三)系統(tǒng)性風(fēng)險

除了單個模型的能力直接帶來的風(fēng)險之外,通用人工智能的廣泛部署還會帶來一些更廣泛的系統(tǒng)性風(fēng)險。系統(tǒng)性風(fēng)險的示例包括潛在的勞動力市場影響、隱私風(fēng)險和環(huán)境影響。

1. 勞動力市場風(fēng)險

通用人工智能,特別是如果其繼續(xù)快速發(fā)展,有可能使非常廣泛的任務(wù)實(shí)現(xiàn)自動化,這可能會對勞動力市場產(chǎn)生重大影響。這意味著許多人可能會失去目前的工作。然而,許多經(jīng)濟(jì)學(xué)家預(yù)計,潛在的就業(yè)崗位流失可能會被部分抵消,甚至有可能完全抵消,因?yàn)樾碌墓ぷ鲘徫粫粩嘤楷F(xiàn),而且非自動化行業(yè)的需求也會增加。

2. 全球人工智能研發(fā)鴻溝

目前,通用人工智能的研發(fā)集中在少數(shù)西方國家和中國。這種“人工智能鴻溝”有可能使世界上許多國家對這一小部分國家產(chǎn)生更大的依賴。一些專家還預(yù)計人工智能鴻溝將加劇全球不平等。造成這種不均衡的原因有很多,其中一些并非人工智能所獨(dú)有。然而,很大程度上,這是由于獲取開發(fā)通用人工智能所需的極其昂貴的計算能力方面存在差異:大多數(shù)中低收入國家擁有的計算能力遠(yuǎn)遠(yuǎn)低于高收入國家。

3. 市場集中度和單點(diǎn)故障

目前,少數(shù)幾家公司主宰著通用人工智能市場。這種市場集中度可能使社會更容易受到多種系統(tǒng)性風(fēng)險的影響。例如,如果金融或醫(yī)療保健等關(guān)鍵領(lǐng)域的組織都依賴少數(shù)通用人工智能系統(tǒng),那么此類系統(tǒng)中的漏洞或缺陷可能會導(dǎo)致大規(guī)模的同步故障和中斷。

4. 環(huán)境風(fēng)險

通用人工智能開發(fā)和部署中計算的用量不斷增長,迅速提高了構(gòu)建和運(yùn)行所需計算基礎(chǔ)設(shè)施所消耗的能源、水和原材料的數(shù)量。盡管技術(shù)上的進(jìn)步使計算得到了更有效的利用,但增長趨勢并沒有明顯放緩的跡象。通用人工智能還有許多應(yīng)用,既可以促進(jìn)可持續(xù)發(fā)展,也可以損害可持續(xù)發(fā)展的成果。

5. 隱私風(fēng)險

通用人工智能可能導(dǎo)致或加劇侵犯用戶隱私的行為。例如,訓(xùn)練數(shù)據(jù)中的敏感信息可能在用戶與系統(tǒng)交互時無意中泄露。此外,當(dāng)用戶與系統(tǒng)共享敏感信息時,這些信息也可能會泄露。但通用人工智能也可能為故意侵犯隱私提供便利,例如,惡意行為者使用人工智能從大量數(shù)據(jù)中推斷出特定個人的敏感信息。然而,到目前為止,研究人員尚未發(fā)現(xiàn)與通用人工智能相關(guān)的大規(guī)模隱私侵犯的證據(jù)。

6. 版權(quán)侵權(quán)

通用人工智能既從創(chuàng)意表達(dá)作品中學(xué)習(xí),又生成此類作品,這給傳統(tǒng)的數(shù)據(jù)同意、補(bǔ)償和控制體系帶來了挑戰(zhàn)。數(shù)據(jù)收集和內(nèi)容生成可能涉及多種數(shù)據(jù)權(quán)利法,這些法律因司法管轄區(qū)而異。鑒于數(shù)據(jù)收集時間的法律不確定性,人工智能公司對其使用的數(shù)據(jù)披露的信息越來越少。這種不透明性使得第三方對人工智能安全性的研究更加困難。

三、風(fēng)險管理:有哪些技術(shù)可以管理通用人工智能帶來的風(fēng)險?

風(fēng)險管理——識別和評估風(fēng)險,然后減輕和監(jiān)控風(fēng)險——在通用人工智能的背景下頗具難度。盡管在許多其他領(lǐng)域,風(fēng)險管理也一直極具挑戰(zhàn)性,但通用人工智能的某些特性似乎帶來了獨(dú)特的難題。

通用人工智能的若干技術(shù)特性使得該領(lǐng)域的風(fēng)險管理尤為困難。其中包括但不限于:

通用人工智能系統(tǒng)的可能用途和使用環(huán)境范圍異常廣泛。例如,同一系統(tǒng)可用于提供醫(yī)療建議、分析計算機(jī)代碼中的漏洞以及生成照片。這增加了全面預(yù)測相關(guān)用例、識別風(fēng)險或測試系統(tǒng)在相關(guān)現(xiàn)實(shí)情況下的行為方式的難度。

開發(fā)人員對于其通用人工智能模型的運(yùn)作原理仍知之甚少。這種理解上的缺失使得預(yù)測行為問題以及在觀察到已知問題后對其進(jìn)行解釋和解決都變得更加困難。理解之所以難以實(shí)現(xiàn),主要是因?yàn)橥ㄓ萌斯ぶ悄苣P筒⒎且詡鹘y(tǒng)方式編程。這些模型是通過訓(xùn)練獲得的:人工智能開發(fā)人員設(shè)置一個包含大量數(shù)據(jù)的訓(xùn)練過程,而該訓(xùn)練過程的結(jié)果就是通用人工智能模型。此類模型的內(nèi)部運(yùn)作原理大多不為人知,包括對于模型開發(fā)者來說也是如此。模型解釋和“可解釋性”技術(shù)可以提高研究人員和開發(fā)者對通用人工智能模型運(yùn)行原理的理解,但是,盡管最近取得了進(jìn)展,但這項(xiàng)研究仍處于起步階段。

能力日益增強(qiáng)的自主智能體(能夠自主行動、規(guī)劃和授權(quán)以實(shí)現(xiàn)目標(biāo)的通用人工智能系統(tǒng))可能會給風(fēng)險管理帶來新的重大挑戰(zhàn)。一般情況下,自主智能體通常可使用通用軟件(例如網(wǎng)絡(luò)瀏覽器和編程工具)自主地實(shí)現(xiàn)目標(biāo)。目前,大多數(shù)自主智能體還不夠可靠,無法廣泛使用,但各家公司正在大力構(gòu)建功能更強(qiáng)大、更可靠的自主智能體,并在近來數(shù)月取得了進(jìn)展。自主智能體可能會變得越來越有用,但也可能加劇本報告中討論的許多風(fēng)險,并給風(fēng)險管理帶來新的難題。這些潛在的新挑戰(zhàn)的例子包括:用戶可能無法時刻掌握自己的自主智能體的動態(tài),自主智能體的運(yùn)行可能不受人控制,攻擊者可能“劫持”自主智能體,以及人工智能之間的交互可能產(chǎn)生復(fù)雜的新風(fēng)險。與自主智能體相關(guān)的風(fēng)險管理辦法才剛剛開始構(gòu)建。

除了技術(shù)因素外,一些經(jīng)濟(jì)、政治和其他社會因素也使得通用人工智能領(lǐng)域的風(fēng)險管理尤為困難。

通用人工智能的發(fā)展速度給決策者帶來了“證據(jù)困境”。能力的迅速提升使得某些風(fēng)險有可能在短時間內(nèi)突然出現(xiàn);例如,利用通用人工智能進(jìn)行學(xué)術(shù)作弊的風(fēng)險在一年內(nèi)就從微不足道變得十分普遍。風(fēng)險出現(xiàn)得越快,就越難以通過事后應(yīng)對來管理風(fēng)險,而提前準(zhǔn)備就顯得越有價值。然而,只要關(guān)于風(fēng)險的證據(jù)仍不完整,決策者就無法確定風(fēng)險是否會出現(xiàn),或者是否已經(jīng)出現(xiàn)。這就需要權(quán)衡:采取預(yù)防性或早期的緩解措施可能會被證明是不必要的,但等待確鑿證據(jù)可能會讓社會面臨迅速出現(xiàn)的風(fēng)險而毫無防備。

人工智能公司對其人工智能系統(tǒng)的了解,與政府和非行業(yè)研究人員對其人工智能系統(tǒng)的了解之間存在信息鴻溝。在通用人工智能系統(tǒng)廣泛發(fā)布之前,公司通常只分享有限的信息。公司以商業(yè)顧慮和安全顧慮為由限制信息共享。然而,這種信息鴻溝也使得其他參與者更難以有效地參與風(fēng)險管理,尤其是對于新興風(fēng)險而言。

無論是人工智能企業(yè)還是政府,往往都面臨著激烈的競爭壓力,這可能會導(dǎo)致它們降低對風(fēng)險管理的重視程度。在某些情況下,競爭壓力可能會促使企業(yè)投入在風(fēng)險管理上的時間或其他資源少于原本應(yīng)有的投入。同樣,當(dāng)政府認(rèn)為在國際競爭和風(fēng)險降低之間存在權(quán)衡時,它們可能會減少用于支持風(fēng)險管理的政策投入。

盡管如此,針對通用人工智能的風(fēng)險管理,存在多種可供公司采用、監(jiān)管機(jī)構(gòu)要求實(shí)施的技術(shù)和框架。這包括識別和評估風(fēng)險的方法,以及減輕和監(jiān)控風(fēng)險的方法。

對通用人工智能系統(tǒng)進(jìn)行的風(fēng)險評估是風(fēng)險管理的重要組成部分,但現(xiàn)有的風(fēng)險評估存在嚴(yán)重局限性。現(xiàn)有的通用人工智能風(fēng)險評估主要依賴于“抽查”,即在一系列特定情況下測試通用人工智能的行為。這有助于在部署模型之前發(fā)現(xiàn)潛在的危害。然而,由于測試條件與現(xiàn)實(shí)世界不同,現(xiàn)有測試往往會遺漏危險,并且高估或低估通用人工智能的能力和風(fēng)險。

為了進(jìn)行有效的風(fēng)險識別和評估,評估者需要具備豐富的專業(yè)知識、充足的資源以及對相關(guān)信息的獲取渠道。通用人工智能背景下進(jìn)行嚴(yán)格的風(fēng)險評估,需要將多種評測方法結(jié)合起來。這包括對模型和系統(tǒng)本身的技術(shù)分析,以及對某些使用模式可能帶來的風(fēng)險評估。評測方需要豐富的專業(yè)知識才能正確地進(jìn)行此類評測。為了進(jìn)行全面的風(fēng)險評估,他們通常還需要更多時間、對其模型與訓(xùn)練數(shù)據(jù)更直接的訪問權(quán)限,以及比開發(fā)通用人工智能的公司通常提供的更多有關(guān)所使用的技術(shù)方法的信息。

在訓(xùn)練通用人工智能模型以使其更安全地運(yùn)行方面,目前已取得了一些進(jìn)展,但目前尚無任何方法可以可靠地防止出現(xiàn)明顯不安全的輸出。例如,一種稱為“對抗訓(xùn)練”(adversarialtraining)的技術(shù)故意將人工智能模型暴露于旨在使其在訓(xùn)練期間失敗或行為不當(dāng)?shù)那榫爸校栽鰪?qiáng)其對這類情況的抵御能力。但是,對手仍然可以找到新的方法,以較低到中等的代價來規(guī)避此類防護(hù)措施。此外,最近的證據(jù)表明,當(dāng)前的訓(xùn)練方法嚴(yán)重依賴不完善的人類反饋,可能會無意中促使模型在難以回答的問題上隱藏錯誤、誤導(dǎo)人類,使錯誤更難被發(fā)現(xiàn)。提高這種反饋的數(shù)量和質(zhì)量是一條可行的改進(jìn)途徑,不過通過人工智能檢測誤導(dǎo)行為的新興訓(xùn)練技術(shù)也展現(xiàn)出了希望。

監(jiān)控——在模型投入使用后識別風(fēng)險和評估性能——以及各種預(yù)防有害行為的干預(yù)措施,能夠提高通用人工智能在部署給用戶后的安全性。當(dāng)前的工具能夠檢測人工智能生成的內(nèi)容、追蹤系統(tǒng)性能,并識別潛在有害的輸入/輸出,不過技術(shù)稍好的用戶往往能夠繞過這些防護(hù)措施。

在整個人工智能生命周期中,存在多種隱私保護(hù)的方法。此類方法包括從訓(xùn)練數(shù)據(jù)中刪除敏感信息、控制從數(shù)據(jù)中學(xué)習(xí)多少信息的模型訓(xùn)練方法(例如差分隱私(differentialprivacy)方法),以及將人工智能與敏感數(shù)據(jù)結(jié)合使用的技術(shù),使得數(shù)據(jù)難以恢復(fù)(例如“機(jī)密計算”(confidentialcomputing)和其他隱私增強(qiáng)技術(shù))。由于人工智能系統(tǒng)的計算需求,許多來自其他研究領(lǐng)域的隱私增強(qiáng)方法尚不適用于通用人工智能系統(tǒng)。近幾個月來,隱私保護(hù)方法已經(jīng)擴(kuò)展到解決人工智能在敏感領(lǐng)域日益廣泛的應(yīng)用,包括智能手機(jī)助手、自主智能體、始終在線的語音助手以及醫(yī)療保健或法律實(shí)踐中的應(yīng)用。

四、結(jié)論:通用人工智能的未來存在多種可能的發(fā)展軌跡,這在很大程度上取決于社會和政府如何行動

通用人工智能的未來充滿不確定性,即便在不久的將來,其發(fā)展軌跡也呈現(xiàn)出多種可能性,既有非常積極的結(jié)果,也有非常消極的后果。通用人工智能如何開發(fā)、由誰開發(fā),它被設(shè)計來解決哪些問題,社會能否充分挖掘其經(jīng)濟(jì)潛力,誰將從中受益,面臨何種風(fēng)險,以及需在研究上投入多少資金來管控風(fēng)險——這些問題以及許多其他問題,都取決于社會和政府當(dāng)下及未來為塑造通用人工智能的發(fā)展所做出的選擇

免責(zé)聲明:本文轉(zhuǎn)自啟元洞見。文章內(nèi)容系原作者個人觀點(diǎn),本公眾號編譯/轉(zhuǎn)載僅為分享、傳達(dá)不同觀點(diǎn),如有任何異議,歡迎聯(lián)系我們!

轉(zhuǎn)自丨啟元洞見

研究所簡介

國際技術(shù)經(jīng)濟(jì)研究所(IITE)成立于1985年11月,是隸屬于國務(wù)院發(fā)展研究中心的非營利性研究機(jī)構(gòu),主要職能是研究我國經(jīng)濟(jì)、科技社會發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問題,跟蹤和分析世界科技、經(jīng)濟(jì)發(fā)展態(tài)勢,為中央和有關(guān)部委提供決策咨詢服務(wù)。“全球技術(shù)地圖”為國際技術(shù)經(jīng)濟(jì)研究所官方微信賬號,致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見。

地址:北京市海淀區(qū)小南莊20號樓A座

電話:010-82635522

微信:iite_er

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

全球技術(shù)地圖 incentive-icons
全球技術(shù)地圖
洞見前沿,引領(lǐng)未來
3727文章數(shù) 13379關(guān)注度
往期回顧 全部

專題推薦

第十個全民國家安全教育日

無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 安国市| 宣化县| 扶沟县| 井陉县| 灵台县| 田林县| 马鞍山市| 太和县| 伊宁市| 利辛县| 和硕县| 武川县| 长兴县| 武陟县| 永靖县| 丰台区| 陈巴尔虎旗| 焉耆| 白城市| 德安县| 荆州市| 临湘市| 衡阳市| 邵阳县| 绥棱县| 白山市| 大城县| 疏勒县| 类乌齐县| 准格尔旗| 广宗县| 伊宁县| 余干县| 常州市| 时尚| 延津县| 高邑县| 新兴县| 浠水县| 龙门县| 淮阳县|