[No.L001]
據(jù)外媒報道,在世界經(jīng)濟論壇上,人工智能和機器學習主管凱-弗思-巴特菲爾德(Kay Firth-Butterfield)稱,人工智能存在偏見方面的問題,解決這個問題的辦法就是讓西方科技行業(yè)“變得更加多樣化”。
在中國天津舉行的世界經(jīng)濟論壇新領軍者年會上,巴特菲爾德稱,兩三年前,極少有人會提出使用人工智能的道德問題。
但是,她說,道德問題現(xiàn)在“開始變得突出”。“這一方面是因為我們在歐洲有一般數(shù)據(jù)保護法案在關注隱私問題,另一方面是因為一些人工智能算法存在明顯的問題。”
從理論上來說,機器人應該是沒有偏見的。但是,近些年,有很多事情表明算法開始變得有偏見。
幾年前,谷歌因其圖像識別算法把非裔美國人識別為“大猩猩”而遭到了猛烈批評。今年初,有報道稱,谷歌還沒有解決這個問題,只是簡單地阻止其圖像識別軟件來識別大猩猩。
“隨著我們看到越來越多類似的事情發(fā)生,圍繞人工智能的道德爭論就變得越來越激烈了。”巴特菲爾德說,“在世界經(jīng)濟論壇上,我們努力想做的一件事就是找出一個辦法,確保人工智能高速發(fā)展,為人類謀福利,同時解決人工智能在隱私、偏見、透明度和責任感等方面的道德問題。”
專家稱,人類的偏見有時會滲透到他們編寫的算法中去。巴特菲爾德對此表示同意。
編寫這些算法的科技行業(yè)的人員構(gòu)成也不完善。硅谷長期以來因為缺乏員工多樣性而飽受詬病。
去年,一份美國政府報道發(fā)現(xiàn),美國科技行業(yè)在員工多樣性方面落后于其他行業(yè)。該報告還表示,相對于普通崗位,在科技行業(yè)(與數(shù)學、計算機和工程有關的崗位)中女性、黑人和西班牙員工占有更少的比例。
“當我們談論偏見的時候,我們首先會擔心算法編寫者的問題。”巴特菲爾德說,“我們需要讓西方科技行業(yè)變得更加多元化。”
她說,現(xiàn)在的一個問題是,多年來,女性和其他非白人員工長期遠離科學行業(yè)。她還補充稱,現(xiàn)在沒有足夠的人工智能工程師來滿足行業(yè)內(nèi)的需求。中國在努力培訓更多的人工智能工程師和數(shù)據(jù)科學家,這可以在一定程度上填補科技行業(yè)的人才空白。
人工智能是快速發(fā)展的科技。據(jù)相關研究報告稱,到2021年,全世界在人工智能和認知系統(tǒng)方面的開支將會增長到大約522億美元。
周一,世界經(jīng)濟論壇預計,雖然到2025年機器人處理的任務量會超過人類,但是在未來五年內(nèi)仍然會有5800萬個凈新工作產(chǎn)生。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...