国产aV无码片毛片一级韩国,午夜草草视频在线播放,中国人妻少妇精品一区二区,在线视频播放一区二区三区,一区二区三区久久av,日韩人妻系列中文字幕,国产av综合av亚洲av,欧美多人啊啊啊啊污污视频,国产大鸡巴插女生b视频

教育裝備采購網(wǎng)
第八屆圖書館論壇 校體購2

讓人工智能系統(tǒng)更負(fù)責(zé)任的落地的10條建議

教育裝備采購網(wǎng) 2017-10-26 13:50 圍觀355次

  近日,美國研究組織AI Now發(fā)布第二份人工智能年度研究報(bào)告。這份報(bào)告是「AI Now」人工智能研討會的一部分,該研討會邀請了近百名相關(guān)領(lǐng)域內(nèi)的研究人員,討論人工智能對社會經(jīng)濟(jì)的影響。報(bào)告指出,人工智能技術(shù)正發(fā)展迅速,尚處于早期階段的人工智能技術(shù)正在從人臉掃描、人力推薦以及網(wǎng)絡(luò)借貸等常見的應(yīng)用場景中不斷滲透到我們的日常生活里。

  盡管人們對快速發(fā)展的人工智能抱有很大的預(yù)期,但是我們也看到了這一高風(fēng)險(xiǎn)的領(lǐng)域正面臨巨大的挑戰(zhàn)。例如在刑事司法中,非盈利媒體ProPublica的調(diào)查小組發(fā)現(xiàn),法庭和執(zhí)法部門用于預(yù)測刑事被告再犯的算法,可能對非裔美國人存在一定的偏見。這一現(xiàn)象隨后被許多學(xué)者證實(shí)。在醫(yī)療保健領(lǐng)域,匹茲堡大學(xué)醫(yī)學(xué)中心的研究發(fā)現(xiàn),一種用于治療肺炎患者的 AI 系統(tǒng),缺失了一項(xiàng)對嚴(yán)重并發(fā)癥的風(fēng)險(xiǎn)評估。在教育領(lǐng)域,德克薩斯州的評教算法被暴露出存在嚴(yán)重的缺陷,教師們也成功起訴了他們所在的學(xué)區(qū)。

  或許這些例子僅僅是一個(gè)開始,未來還會有更大的挑戰(zhàn)。其中一部分原因在于,目前的 AI 領(lǐng)域缺少標(biāo)準(zhǔn)化的測試模式和審核方法,無法完全避免算法偏差,保障絕對的安全。

  然而,這些早期的 AI 系統(tǒng)正被應(yīng)用到多個(gè)行業(yè),包括醫(yī)療、金融、法律、教育以及各種辦公場地。這些系統(tǒng)也已經(jīng)滲透到我們生活的方方面面,它們可以用于預(yù)測我們的音樂愛好、生病的概率、適合的工作以及借貸的數(shù)額等。

  這里的問題不是蓄意對人工智能的濫用。而是人們在使用 AI 技術(shù)的過程中,沒有用于確保公平公正的流程和標(biāo)準(zhǔn),更沒有思考它們所帶來的社會效應(yīng)。當(dāng)研發(fā)的藥品在推向市場之前,它必須要經(jīng)過嚴(yán)格的科學(xué)測試,并持續(xù)檢測其中長期的效果。其實(shí)高風(fēng)險(xiǎn) AI 的應(yīng)用也當(dāng)如此。謹(jǐn)慎是非常必要的,因?yàn)槿绻坏┏鲥e(cuò),許多人會受到嚴(yán)重的傷害。

  作為報(bào)告的一部分,AI Now 還為 AI 產(chǎn)業(yè)的研究人員和政策制定者提供了 10 條建議。這些建議并不是完整的解決方案,只是進(jìn)一步工作的起點(diǎn)。AI Now 稱:「盡管 AI 產(chǎn)品正在迅速發(fā)展,但對算法偏見和公正的研究仍處于起步階段,如果我們想要確保 AI 系統(tǒng)得以被負(fù)責(zé)任地部署與管理,需要做的事情還很多?!?/p>

  建議一:刑事司法、醫(yī)療、福利和教育等高風(fēng)險(xiǎn)領(lǐng)域內(nèi)的核心公共機(jī)構(gòu)不應(yīng)再使用具有「黑箱」特性的 AI 技術(shù)及算法系統(tǒng),包括未經(jīng)審核和驗(yàn)證的情況下使用預(yù)訓(xùn)練模型,采用由第三方供應(yīng)商授權(quán)的 AI 系統(tǒng)及內(nèi)部創(chuàng)建的算法。

  公共機(jī)構(gòu)使用這類系統(tǒng)會嚴(yán)重引起人們對這類法定訴訟程序的擔(dān)憂。這些系統(tǒng)至少要經(jīng)歷公共審計(jì)、測試及審查的過程,符合相應(yīng)的問責(zé)標(biāo)準(zhǔn)。

  這將帶來一個(gè)重大的轉(zhuǎn)變:提出的這項(xiàng)建議反映了 AI 及相關(guān)系統(tǒng)已經(jīng)對部分重大決策產(chǎn)生影響。過去的一年里,也有許多能夠作證這一點(diǎn)的研究報(bào)告。人們在朝著這個(gè)方向邁進(jìn),本月,紐約市議會就開展了一項(xiàng)關(guān)于保障算法決策系統(tǒng)的透明度和測試的相關(guān)法案。

  建議二:在發(fā)布 AI 系統(tǒng)之前,企業(yè)應(yīng)該進(jìn)行嚴(yán)格的預(yù)發(fā)布測試,以便確保系統(tǒng)不會因訓(xùn)練數(shù)據(jù)、算法或其他系統(tǒng)設(shè)計(jì)的原因?qū)е氯魏五e(cuò)誤及偏差的發(fā)生。

  AI 是一個(gè)發(fā)展迅猛的領(lǐng)域,開展測試的方法、假設(shè)以及測試結(jié)果,都應(yīng)該是公開透明、有明確版本的,這有助于應(yīng)對更新升級以及新的發(fā)現(xiàn)。

  那些開發(fā)系統(tǒng)并從中獲利的人應(yīng)該肩負(fù)起相應(yīng)的測試及保障環(huán)節(jié)的責(zé)任,包括預(yù)發(fā)布版本的測試。AI 領(lǐng)域距離標(biāo)準(zhǔn)化方法的實(shí)現(xiàn)還有很長的路要走,這也是建議這些方法和假設(shè)需要公開審核和討論的原因。如果隨著時(shí)間的推移,AI 領(lǐng)域能夠制定出具有魯棒性的測試準(zhǔn)則,那么這種開放性是至關(guān)重要的。另外,即便在標(biāo)準(zhǔn)化方法中,實(shí)驗(yàn)室測試也不能捕捉到所有的錯(cuò)誤和盲區(qū),這也是建議三出現(xiàn)的原因。

  建議三:在 AI 系統(tǒng)發(fā)布之后,企業(yè)需要繼續(xù)監(jiān)測其在不同環(huán)境和社區(qū)中的使用情況。

  監(jiān)測方法和結(jié)果的定義需要一個(gè)公開、嚴(yán)謹(jǐn)?shù)膶W(xué)術(shù)過程,要對公眾負(fù)責(zé)。特別是在高風(fēng)險(xiǎn)決策環(huán)境中,應(yīng)該優(yōu)先考慮傳統(tǒng)邊緣化社區(qū)的看法和經(jīng)驗(yàn)。

  確保 AI 算法系統(tǒng)的安全性問題是非常復(fù)雜的,是一個(gè)針對給定系統(tǒng)生命周期的持續(xù)過程,而不是一個(gè)完成后就可以遺忘的短期檢驗(yàn)。只有在動態(tài)的使用案例和環(huán)境中進(jìn)行監(jiān)測才能確保 AI 系統(tǒng)不會在假設(shè)和領(lǐng)域發(fā)生改變時(shí)引入錯(cuò)誤和偏差。同樣值得注意的是,許多 AI 模型和系統(tǒng)都有通用性,產(chǎn)品可能會采用一些即插即用的附加功能,如情感檢測或面部識別等。這意味著那些提供通用 AI 模型的企業(yè)也可以考慮選擇已經(jīng)批準(zhǔn)使用的功能,這些經(jīng)過許可的功能已經(jīng)把潛在的負(fù)面影響和風(fēng)險(xiǎn)等因素考慮在內(nèi)。

  建議四:需要進(jìn)行更多的研究并制定相應(yīng)的政策讓 AI 系統(tǒng)用于工作場所管理和監(jiān)測中,包括招聘和人力資源環(huán)節(jié)。

  這項(xiàng)研究將補(bǔ)充目前自動化取代工人的這一研究焦點(diǎn),應(yīng)該特別注意對勞工權(quán)利和行為的潛在影響,以及操縱行為的潛力以及在招聘和晉升過程中無意強(qiáng)化的偏見。

  圍繞 AI 和勞動力的爭論通常會集中在工人流離失所的問題上,這是一個(gè)非常嚴(yán)重的問題。然而,了解 AI 算法系統(tǒng)在整個(gè)工作場所中的使用情況也同樣重要,包括行為推動,到檢測環(huán)節(jié),再到績效評估過程。例如,一家名為 HireVue 的公司最近部署了一項(xiàng)基于 AI 的視頻面試服務(wù),可以分析求職者的講話、肢體語言、語調(diào),從而確定求職者是否符合一家給定公司的「優(yōu)秀」模型。鑒于這些系統(tǒng)存在降低多樣性并鞏固現(xiàn)有偏見的可能性,人們需要做更多的工作來充分理解 AI 是如何融入管理、招聘、調(diào)度以及日常工作場所中的實(shí)踐中的。

  建議五:制定標(biāo)準(zhǔn),跟蹤系統(tǒng)整個(gè)生命周期的啟動、開發(fā)過程和訓(xùn)練數(shù)據(jù)集的使用情況。

  這是為了更好地了解和監(jiān)控偏差及代表性曲解問題。除了更好地記錄訓(xùn)練數(shù)據(jù)集的創(chuàng)建和維護(hù)過程,AI 偏差領(lǐng)域的社會科學(xué)家和測量研究員應(yīng)該繼續(xù)檢驗(yàn)現(xiàn)有的訓(xùn)練數(shù)據(jù)集,并努力理解已經(jīng)存在在實(shí)際工作中的潛在盲區(qū)和偏差。

  依賴于大規(guī)模數(shù)據(jù),AI 才能發(fā)現(xiàn)模式并作出預(yù)測。這些數(shù)據(jù)反映人類歷史的同時(shí),也不可避免地反映了訓(xùn)練數(shù)據(jù)集的偏差和成見。機(jī)器學(xué)習(xí)技術(shù)山擅長提取統(tǒng)計(jì)模式,常常會在試圖概括常見案例的過程下省略不同的異常值,這也是不根據(jù)數(shù)據(jù)表面價(jià)值進(jìn)行偏差研究的重要原因。這樣的研究要從理解訓(xùn)練 AI 系統(tǒng)的數(shù)據(jù)來自哪里開始,追蹤這些數(shù)據(jù)是如何在系統(tǒng)中使用的,而且要隨著時(shí)間推移驗(yàn)證給定數(shù)據(jù)集的形態(tài)。在掌握這一點(diǎn)的基礎(chǔ)上,人們可以更好地理解數(shù)據(jù)中反映出的錯(cuò)誤和偏差,進(jìn)而研發(fā)出能夠在數(shù)據(jù)的開發(fā)和采集中識別這種情況并將其削弱的方法。

  建議六:以跨學(xué)科視角看待 AI 的偏差研究與緩解策略的研究。

  偏差問題長期以來一直存在,并且是一個(gè)結(jié)構(gòu)性問題,深度的跨學(xué)科研究是解決偏差問題的必要途徑之一。在技術(shù)層面,研究者們往往希望能一勞永逸地徹底解決問題,這嚴(yán)重低估了問題放在社會層面時(shí)的復(fù)雜性。在教育、醫(yī)療、刑事司法等領(lǐng)域,偏差問題的趨勢源于其自身的歷史進(jìn)程和過往實(shí)踐,如果不結(jié)合相應(yīng)的領(lǐng)域知識,偏差問題就不能被徹底解決。要解決偏差問題,一定需要跨學(xué)科的合作,并尊重不同學(xué)科的規(guī)則。

  最近,人工智能以及偏差算法領(lǐng)域有了一些喜人的進(jìn)展。但在這里,我們還是要提醒諸位不要閉門造車。否則,很有可能出現(xiàn)這樣的情況——系統(tǒng)雖然一直在優(yōu)化,但我們卻不知道怎樣用這個(gè)越來越優(yōu)化的系統(tǒng)解決問題。計(jì)算機(jī)科學(xué)家能夠通過與諸如法律、醫(yī)學(xué)、社會學(xué)、人類學(xué)和交流學(xué)等領(lǐng)域的專家合作,在 AI 數(shù)據(jù)形成以及上下文集成之前,更好地理解數(shù)據(jù)底層的結(jié)構(gòu)性不平等問題。

  建議七:亟需 AI 系統(tǒng)落地時(shí)的審查標(biāo)準(zhǔn)與規(guī)范。

  該標(biāo)準(zhǔn)的制定應(yīng)結(jié)合不同學(xué)科及聯(lián)盟的觀點(diǎn),以公開、嚴(yán)謹(jǐn)?shù)膶W(xué)術(shù)態(tài)度進(jìn)行,并須定期審查和修訂。目前,還沒有確定的能夠評估 AI 系統(tǒng)在其應(yīng)用的社會領(lǐng)域中所產(chǎn)生的影響的理論體系??紤]到目前尚處于早期的人工智能系統(tǒng)已經(jīng)給一些危險(xiǎn)程度較高的的社會領(lǐng)域造成了影響,這一問題必須被重視起來,甚至可以說是當(dāng)務(wù)之急。

  建議八:AI 領(lǐng)域的公司、大學(xué)、會議以及其他利益相關(guān)者應(yīng)該公布參與其工作的女性、少數(shù)族裔、以及其他邊緣群體的人數(shù)。

  現(xiàn)在有很多人已經(jīng)意識到,AI 領(lǐng)域研究人員缺乏多樣性這一問題,但還沒有細(xì)粒度數(shù)據(jù)論證該問題的嚴(yán)重性。為了建立真正的多元文化工作場所,我們需要對科技行業(yè)的工作文化進(jìn)行更深層次的評估。這需要數(shù)據(jù)的支撐,而不僅僅是多雇傭女性和少數(shù)族裔這樣簡單。

  創(chuàng)造 AI 系統(tǒng)的人本身持有的假設(shè)和觀點(diǎn)必會影響到 AI 系統(tǒng)的走向。目前,人工智能的開發(fā)者多為男性白人,他們有著相似的教育背景。目前已經(jīng)有足夠多的證據(jù)表明這會造成問題,比如語音助手對女性聲音的辨識度不如男性,又或是 AI 助手在為女性提供健康信息時(shí)所表現(xiàn)出的乏力。文化的多樣性研究在泛科技領(lǐng)域已經(jīng)有一定的進(jìn)展,但在 AI 領(lǐng)域,目前成果寥寥。如果 AI 希望朝著安全、公平、能夠被廣泛應(yīng)用的方向發(fā)展,我們的動作就不能僅停留在 AI 公司文化多樣性的調(diào)查中層面,更要深入改變、確保 AI 公司是歡迎女性、少數(shù)族裔、以及其他邊緣群體的。

  建議九:AI 行業(yè)應(yīng)該聘請來自計(jì)算機(jī)科學(xué)以外的學(xué)科的專家,并確保他們擁有決策權(quán)。

  隨著 AI 在不同社會和機(jī)構(gòu)領(lǐng)域的應(yīng)用日益增加,并能夠影響越來越多的高風(fēng)險(xiǎn)決策,我們必須努力將社會科學(xué)家、法律學(xué)者和其他具有領(lǐng)域?qū)iL的人結(jié)合起來,共同指導(dǎo)人工智能的創(chuàng)建和整合,以形成長期的實(shí)踐規(guī)范。

  舉個(gè)例子,我們不應(yīng)該期望 AI 研究者能夠成為刑事司法專家,就像我們不應(yīng)該讓律師為深度神經(jīng)網(wǎng)絡(luò)調(diào)參一樣。這一例子可以被擴(kuò)展到所有需要整合信息技術(shù)的行業(yè)。因此,在諸如法律、健康、教育等領(lǐng)域,我們需要領(lǐng)域?qū)<覅⑴c進(jìn)來,幫助領(lǐng)導(dǎo)決策,確保 AI 不會幼稚地低估該領(lǐng)域中復(fù)雜的流程、歷史、環(huán)境。

  建議十:AI 需要強(qiáng)力的道德監(jiān)管以及問責(zé)機(jī)制來確保其行駛在正確的道路上。

  對于如何將高水平的道德原則和指導(dǎo)方針與日常的開發(fā)過程、推廣和產(chǎn)品發(fā)布周期聯(lián)系起來,我們還有很多功課要做。

  為了確保 AI 的安全與平等,一些 AI 機(jī)構(gòu)在開發(fā)程序的過程中優(yōu)先考慮道德相關(guān)問題。然而,這樣的考慮往往出于團(tuán)隊(duì)的自愿,而且只有相對高端的組織才會將公眾利益放在較高的優(yōu)先級。而且,問題是,公眾利益將怎樣決定?將由誰決定?除了誰代表公眾利益這一問題,AI 代碼在道德方面還需要連接明確的問責(zé)制度,而且還須時(shí)刻意識到,AI 行業(yè)在激勵模式和權(quán)利分配方面存在不對稱的情況。

來源:機(jī)器之能 作者:項(xiàng)文虎、高靜宜、王藝 責(zé)任編輯:李瑤瑤 我要投稿
校體購終極頁

相關(guān)閱讀

版權(quán)與免責(zé)聲明:

① 凡本網(wǎng)注明"來源:教育裝備采購網(wǎng)"的所有作品,版權(quán)均屬于教育裝備采購網(wǎng),未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用。已獲本網(wǎng)授權(quán)的作品,應(yīng)在授權(quán)范圍內(nèi)使用,并注明"來源:教育裝備采購網(wǎng)"。違者本網(wǎng)將追究相關(guān)法律責(zé)任。

② 本網(wǎng)凡注明"來源:XXX(非本網(wǎng))"的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé),且不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如其他媒體、網(wǎng)站或個(gè)人從本網(wǎng)下載使用,必須保留本網(wǎng)注明的"稿件來源",并自負(fù)版權(quán)等法律責(zé)任。

③ 如涉及作品內(nèi)容、版權(quán)等問題,請?jiān)谧髌钒l(fā)表之日起兩周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

校體購產(chǎn)品