NIST:人工智能偏見遠(yuǎn)遠(yuǎn)超出數(shù)據(jù)本身

到目前為止,應(yīng)該沒有人會質(zhì)疑大多數(shù)人工智能都是建立在某種程度上有問題的偏見之上的,而且目前也在使用這種偏見。這是一個被觀察和證實了數(shù)百次的挑戰(zhàn)。組織機(jī)構(gòu)面臨的挑戰(zhàn)是根除人工智能偏見,而不是僅僅滿足于推動更好的、無偏見的數(shù)據(jù)。

在對其出版物《邁向人工智能中識別和管理偏見的標(biāo)準(zhǔn)》(NIST 1270特別出版物)的一次重大修訂中,在去年的公眾評論期之后,美國國家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)提出了一個強(qiáng)有力的論點(diǎn),即超越數(shù)據(jù)甚至ML過程來發(fā)現(xiàn)和摧毀AI偏見。作者們沒有指責(zé)收集不當(dāng)或標(biāo)記不當(dāng)?shù)臄?shù)據(jù),而是表示,人工智能偏見的下一個前沿是“人類和系統(tǒng)的制度和社會因素”,并推動從社會技術(shù)角度尋找更好的答案?!碍h(huán)境決定一切,”NIST人工智能偏見的首席研究員、該報告的作者之一瑞瓦·施瓦茨(Reva Schwartz)說?!叭斯ぶ悄芟到y(tǒng)不是孤立運(yùn)行的。他們幫助人們做出直接影響他人生活的決定。如果我們要開發(fā)值得信賴的人工智能系統(tǒng),我們需要考慮所有可能削弱公眾對人工智能的信任的因素。這些因素中有許多已經(jīng)超越了技術(shù)本身,還影響了技術(shù),我們從各種各樣的人和組織收到的評論都強(qiáng)調(diào)了這一點(diǎn)。”造成人工智能偏見的人為和系統(tǒng)偏見是什么?

根據(jù)NIST的報告,人類基礎(chǔ)分為兩大類:個體和群體,每個類別下都有許多特定的偏見。個體的人類偏見包括自動化自滿,即人們過度依賴自動化技能;內(nèi)隱偏見,一種影響某人做決定的無意識的信念、態(tài)度、聯(lián)想或刻板印象;還有確認(rèn)偏見,也就是人們更喜歡與他們現(xiàn)有信念一致或一致的信息。群體人類基礎(chǔ)包括群體思維(groupthink),即人們出于順應(yīng)群體或避免分歧的愿望而做出非最優(yōu)決策的現(xiàn)象;資金偏見,當(dāng)報告有偏見的結(jié)果以滿足一個資助機(jī)構(gòu)或財政支持者,這反過來可能會受到額外的個人/群體偏見的影響。對于系統(tǒng)性偏見,NIST報告將其定義為歷史的、社會的和制度的。從本質(zhì)上講,長期存在的偏見隨著時間的推移已經(jīng)被編入社會和機(jī)構(gòu),并在很大程度上被視為“事實”或“事情就是這樣的”。這些偏見之所以重要,是因為人工智能部署對當(dāng)今組織的工作方式有多么大的影響。由于種族偏見的數(shù)據(jù),人們被剝奪了抵押貸款,剝奪了他們首次擁有住房的機(jī)會。求職者被拒絕面試,因為人工智能被訓(xùn)練成歷史上的雇傭決定,這更傾向于男性而不是女性。有前途的年輕學(xué)生會因為他們的姓氏與過去成功人士的名字不匹配而被大學(xué)拒絕面試或錄取。換句話說:有偏見的人工智能創(chuàng)造了與效率開口一樣多的鎖門 。 如果組織不積極努力消除部署中的偏見,他們很快就會發(fā)現(xiàn)自己在思考和操作方面嚴(yán)重缺乏信任。

NIST 推薦的社會技術(shù)觀點(diǎn)是什么?

其核心是認(rèn)識到任何人工智能應(yīng)用的結(jié)果都不只是數(shù)學(xué)和計算輸入。它們是由開發(fā)人員或數(shù)據(jù)科學(xué)家制作的,他們的職位和機(jī)構(gòu)各不相同,他們都有一定程度的負(fù)擔(dān)。NIST的報告中寫道:“人工智能的社會技術(shù)方法考慮了從數(shù)據(jù)集建模的價值和行為,與它們交互的人類,以及復(fù)雜的組織因素,這些因素涉及到它們的委托、設(shè)計、開發(fā)和最終部署?!盢IST認(rèn)為,通過社會技術(shù)視角,組織可以通過“準(zhǔn)確性、可解釋性和可理解性、隱私性、可靠性、魯棒性、安全性和安全彈性”來培養(yǎng)信任。他們的建議之一是讓組織實施或改進(jìn)他們的測試、評估、確認(rèn)和驗證(TEVV)過程。在給定的數(shù)據(jù)集或訓(xùn)練過的模型中,應(yīng)該有方法從數(shù)學(xué)上驗證偏差。他們還建議在AI開發(fā)工作中創(chuàng)造更多來自不同領(lǐng)域和職位的參與,并擁有來自不同部門或組織外部的多個利益相關(guān)者?!癶uman-in-the-loop”模型中,個人或集體不斷糾正基本的 ML 輸出,也是消除偏見的有效工具。

除了這些和修訂后的報告之外,還有NIST的人工智能風(fēng)險管理框架(AI RMF),這是一套由共識驅(qū)動的建議集,用于管理AI系統(tǒng)涉及的風(fēng)險。一旦完成,它將涵蓋人工智能技術(shù)和產(chǎn)品的透明度、設(shè)計和開發(fā)、治理和測試。人工智能RMF的初始評論期已經(jīng)過去,但我們?nèi)匀挥泻芏鄼C(jī)會了解人工智能的風(fēng)險和緩解措施。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-06-16
NIST:人工智能偏見遠(yuǎn)遠(yuǎn)超出數(shù)據(jù)本身
NIST強(qiáng)烈主張要超越數(shù)據(jù)甚至ML過程來發(fā)現(xiàn)和解決AI偏見……

長按掃碼 閱讀全文