2024年7月8日,美國(guó)教育部教育技術(shù)辦公室發(fā)布《利用人工智能設(shè)計(jì)教育:開(kāi)發(fā)人員必備指南》(Designing for Education with Artificial Intelligence: An Essential Guide for Developers)。
該指南指出,現(xiàn)在和將來(lái),越來(lái)越多的AI模型和功能將被納入專(zhuān)門(mén)服務(wù)于教育環(huán)境的產(chǎn)品中。美國(guó)教育部致力于鼓勵(lì)教育技術(shù)的創(chuàng)新進(jìn)步,改善全國(guó)教育系統(tǒng)的教學(xué)和學(xué)習(xí),并支持開(kāi)發(fā)人員使用AI為教育市場(chǎng)創(chuàng)建產(chǎn)品和服務(wù)。
該指南以美國(guó)教育部之前的報(bào)告《》為基礎(chǔ),旨在為產(chǎn)品負(fù)責(zé)人及其創(chuàng)新團(tuán)隊(duì)、設(shè)計(jì)師、開(kāi)發(fā)人員、面向客戶的員工和法律團(tuán)隊(duì)提供信息,幫助他們?cè)趧?chuàng)建用于教育的AI產(chǎn)品和服務(wù)時(shí),努力實(shí)現(xiàn)安全性、可靠性和信任。這個(gè)領(lǐng)域比構(gòu)建大型語(yǔ)言模型或部署聊天機(jī)器人的范圍更廣泛,它包括現(xiàn)有和新興的AI功能,可以用來(lái)進(jìn)一步實(shí)現(xiàn)共同的教育目標(biāo)。
具體而言,該指南提出了5個(gè)建議:
建議一:為教學(xué)和學(xué)習(xí)而設(shè)計(jì)。
這一建議要求開(kāi)發(fā)人員應(yīng)該從理解特定于教育的價(jià)值開(kāi)始。在許多例子中,教育部看到教育工作者正在加緊闡明價(jià)值觀,例如以人為中心,并關(guān)注閱讀、科學(xué)、數(shù)學(xué)和計(jì)算機(jī)科學(xué)教育等優(yōu)先教育挑戰(zhàn)。此外,教育工作者和學(xué)生的反饋應(yīng)納入產(chǎn)品開(kāi)發(fā)、測(cè)試和改進(jìn)的各個(gè)方面,以確保學(xué)生的需求得到充分滿足。
為此,開(kāi)發(fā)人員應(yīng):
熟悉表達(dá)教育愿景和策略的相關(guān)資源,包括在國(guó)家、州、地方以及國(guó)際層面上可用的資源;;
加深對(duì)不同學(xué)生群體在學(xué)習(xí)機(jī)會(huì)和學(xué)習(xí)成果方面的歷史差異的理解,以及他們的產(chǎn)品如何為所有學(xué)生的公平做出貢獻(xiàn);
有意識(shí)地在整個(gè)產(chǎn)品生命周期中加強(qiáng)他們與教育用戶社區(qū)的反饋循環(huán),從定義產(chǎn)品的用途到改進(jìn)其操作方式;
聘請(qǐng)道德專(zhuān)家來(lái)指導(dǎo)他們的工作,并在開(kāi)發(fā)、部署和持續(xù)改進(jìn)產(chǎn)品的日常工作中,建立團(tuán)隊(duì)對(duì)道德問(wèn)題的理解;
讓教育工作者和年輕人參與整個(gè)產(chǎn)品開(kāi)發(fā)過(guò)程,不僅要包括那些有權(quán)勢(shì)的人,還要包括那些最受產(chǎn)品或服務(wù)設(shè)計(jì)選擇影響的人;
探索人類(lèi)判斷的障礙(例如,傾向于聽(tīng)從來(lái)自技術(shù)的建議),誤解基于人工智能推理的局限性,或者低估一旦人工智能部署在教育環(huán)境中可能出現(xiàn)的更多風(fēng)險(xiǎn),并擴(kuò)大他們對(duì)人為因素的理解,以涵蓋人工智能系統(tǒng)可能支持或阻礙健全的教學(xué)和教育決策的所有方式。
建議二:提供理由和影響的證據(jù)。
提供理由和影響的證據(jù)對(duì)于決定采用或購(gòu)買(mǎi)哪種教育科技產(chǎn)品非常重要,特別是當(dāng)產(chǎn)品的目標(biāo)是提高學(xué)生的成績(jī)時(shí)。《1965年中小學(xué)教育法》和教育決策者都呼吁開(kāi)發(fā)人員提供證據(jù),證明產(chǎn)品或服務(wù)能改善學(xué)生的學(xué)習(xí)成績(jī)。例如,在采購(gòu)方面,教育機(jī)構(gòu)明確要求提供所需的證據(jù)。
為此,開(kāi)發(fā)人員應(yīng):
詢問(wèn)潛在客戶他們?cè)跊Q策過(guò)程中如何使用特定類(lèi)型的證據(jù),以及“成功是什么樣子”,這將超越要求潛在客戶列出相關(guān)的地方、州或其他采購(gòu)需求;
在設(shè)計(jì)工作的早期就尋求與研究人員建立伙伴關(guān)系,以便最大限度地利用現(xiàn)代學(xué)習(xí)原則;
尋求與教育工作者和用戶建立伙伴關(guān)系,以便在其產(chǎn)品的整個(gè)生命周期中進(jìn)行現(xiàn)場(chǎng)測(cè)試;
讓那些受產(chǎn)品影響最大的人參與收集和解釋證據(jù);
不僅應(yīng)該收集有效性的證據(jù),還應(yīng)該收集與安全、保障、信任和其他問(wèn)題相關(guān)的證據(jù);
將上述工作流程整理成有說(shuō)服力的、生動(dòng)的文檔,并定期更新和公開(kāi)地放在網(wǎng)上,以提高透明度。
建議三:促進(jìn)公平和保護(hù)公民權(quán)利。
促進(jìn)公平和保護(hù)公民權(quán)利是教育部和行政部門(mén)的一項(xiàng)重要承諾,也是開(kāi)發(fā)人員和教育工作者在公眾聽(tīng)證會(huì)上關(guān)注的核心問(wèn)題。例如,開(kāi)發(fā)人員應(yīng)警惕數(shù)據(jù)集中的代表性和偏見(jiàn)問(wèn)題、系統(tǒng)中的算法歧視問(wèn)題以及確保殘疾人士的可訪問(wèn)性。
為此,開(kāi)發(fā)人員應(yīng):
從用于訓(xùn)練算法的底層數(shù)據(jù)集到UI/UX選擇將公平和民權(quán)優(yōu)先事項(xiàng)融入其組織文化中;
建立或改進(jìn)新平臺(tái)、增強(qiáng)和/或擴(kuò)展審查流程/清單,以確保解決方案具有廣泛的代表性;
與組織建立反饋循環(huán)機(jī)制,并與專(zhuān)家實(shí)踐者建立關(guān)系,以實(shí)現(xiàn)公平的學(xué)習(xí)體驗(yàn)設(shè)計(jì)。
努力與主流和教育技術(shù)標(biāo)準(zhǔn)機(jī)構(gòu)以及他們正在進(jìn)行的工作保持同步,以解決人工智能產(chǎn)品和服務(wù)中的種族主義和其他形式的算法歧視問(wèn)題;
參與定期的第三方審查過(guò)程,以消除來(lái)自底層數(shù)據(jù)庫(kù)、算法甚至UI/UX設(shè)計(jì)元素的偏見(jiàn),這些元素可能會(huì)導(dǎo)致某些群體無(wú)法獲得公平的使用體驗(yàn)。
建議四:確保安全。
確保安全在人工智能行政命令和相關(guān)的行政指導(dǎo)中得到了強(qiáng)調(diào)。在人工智能時(shí)代,教育決策者正在清晰地闡明他們的數(shù)據(jù)隱私和安全要求,并詳細(xì)闡述諸如公民自由之類(lèi)的額外要求。為了負(fù)責(zé)任地參與生態(tài)系統(tǒng),開(kāi)發(fā)人員需要詳細(xì)說(shuō)明他們將采取的行動(dòng),以確保人工智能用戶的安全。
為此,開(kāi)發(fā)人員應(yīng):
起草清晰易懂的語(yǔ)言,說(shuō)明組織如何保護(hù)學(xué)生數(shù)據(jù)安全和隱私;
通過(guò)審計(jì)或其他檢查和測(cè)試保護(hù)的程序來(lái)加強(qiáng)問(wèn)責(zé)工作,并從最終用戶那里獲得風(fēng)險(xiǎn)反饋,特別關(guān)注脆弱和服務(wù)不足的人群。
跨產(chǎn)品線或與其他公司合作,闡明共享的標(biāo)準(zhǔn)或方法,以解決包含人工智能的教育產(chǎn)品和服務(wù)中的風(fēng)險(xiǎn),創(chuàng)建不僅在組織內(nèi)而且在上游供應(yīng)商和下游消費(fèi)者中解決風(fēng)險(xiǎn)問(wèn)題的方法;
培養(yǎng)公眾、用戶和監(jiān)管機(jī)構(gòu)如何看待與人工智能教育產(chǎn)品和服務(wù)相關(guān)的風(fēng)險(xiǎn)水平的意識(shí),并在產(chǎn)品中出現(xiàn)值得注意的風(fēng)險(xiǎn)時(shí)做出反應(yīng);
優(yōu)先考慮在聯(lián)邦政府、州和地方政府中與AI相關(guān)的快速發(fā)展的立法和其他治理活動(dòng);
考慮解決州和聯(lián)邦政策之間的相互作用。
建議五:促進(jìn)透明度和贏得信任。
促進(jìn)透明度和贏得信任是一個(gè)重要的總體目標(biāo)。贏得信任需要關(guān)注上述所有價(jià)值觀,此外,它還具有超越產(chǎn)出的重要溝通維度。例如,信任需要透明度和其他公共承諾,以在技術(shù)供應(yīng)者和用戶之間建立相互信任。開(kāi)發(fā)人員、教育工作者和其他人員協(xié)作定義和行動(dòng)可以建立信任。
為此,開(kāi)發(fā)人員應(yīng):
努力提高透明度。可以通過(guò)強(qiáng)調(diào)責(zé)任和創(chuàng)新的雙重作用來(lái)證明其在營(yíng)銷(xiāo)中可以得到解決的承諾;
更公開(kāi)地分享書(shū)面承諾和披露,但也應(yīng)該強(qiáng)調(diào)在產(chǎn)品開(kāi)發(fā)和改進(jìn)過(guò)程中與教育工作者的雙向溝通和合作;
支持在生態(tài)系統(tǒng)中培養(yǎng)人工智能素養(yǎng)的努力;
考慮如何公開(kāi)描述在其產(chǎn)品和服務(wù)中實(shí)現(xiàn)的可信系統(tǒng)架構(gòu)的特征。一些特征,如可解釋性,可能很難在短期內(nèi)實(shí)現(xiàn),但相關(guān)的概念,如可解釋性,現(xiàn)在可能是可能的,而研究和開(kāi)發(fā)仍在繼續(xù)。
該指南還包括每一個(gè)建議需要思考的問(wèn)題和相應(yīng)的資源。最后并且指出,開(kāi)發(fā)人員應(yīng)該采取預(yù)防措施,設(shè)計(jì)基于人工智能的安全教育系統(tǒng),并贏得公眾的信任,就像騎手期望電動(dòng)自行車(chē)開(kāi)發(fā)人員確保他們的騎手的安全和保障,并贏得公眾的信任一樣。
資料來(lái)源:
U.S. Department of Education, Office of Educational Technology, Designing for Education with Artificial Intelligence: An Essential Guide for Developers, https://tech.ed.gov/files/2024/07/Designing-for-Education-with-Artificial-Intelligence-An-Essential-Guide-for-Developers.pdf
[本文為近期擬將推送的“教育國(guó)際前沿2024年第7期”之一內(nèi)容,由“教育國(guó)際前沿課題組”(IFRGE)成員整理,課題組負(fù)責(zé)人張永軍,編輯劉強(qiáng)。點(diǎn)擊左下角“閱讀原文”可從官網(wǎng)下載該報(bào)告]
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.