最新四色米奇影视777在线看_暴躁少女csgo视频一_中文字幕乱码中文乱码_有什么好看的小说推荐_亚洲一卡2卡三卡4卡高清_国产成人精品无码免费看_成人免费120分钟啪啪_两性午夜刺激爽爽视频_国产成人av在线免播放app

首頁 > 資訊 > 快訊

沒有人類監(jiān)督 AI能幫FB和YouTube應(yīng)對(duì)新冠病毒危機(jī)嗎?

2020/03/23 08:47      騰訊科技 [No.H100]


  3月21日消息,據(jù)外媒報(bào)道,當(dāng)?shù)貢r(shí)間3月17日晚,在全球最大上市咨詢公司埃森哲都柏林總部負(fù)責(zé)監(jiān)控YouTube內(nèi)容的審核團(tuán)隊(duì),通過群聊得知了他們的辦公室即將關(guān)閉的消息。新型冠狀病毒的傳播對(duì)他們來說太危險(xiǎn)了,他們不能繼續(xù)這樣在開放式辦公室近距離工作。

6.jpg

  為了確保安全,這些內(nèi)容審核人員被送回了家,盡管合同限制意味著他們不能繼續(xù)工作,過濾掉每分鐘遠(yuǎn)程上傳到平臺(tái)的500小時(shí)視頻。這些內(nèi)容審核人員都屬于承包商,當(dāng)時(shí)在場的一人解釋說,大多數(shù)人都贊成這樣的決定。而且他們還被告知,在辦事處關(guān)閉期間,將可以繼續(xù)獲得財(cái)政支持。

  承包商是保持社交網(wǎng)絡(luò)“干凈”的秘密工人大軍。這些人工資很低,但工作量相當(dāng)大,需要完成的目標(biāo)高得離譜。曾有通過埃森哲簽約的YouTube內(nèi)容審核人員稱,他們識(shí)別內(nèi)容的準(zhǔn)確率被要求保持在98%以上,每個(gè)月只允許犯幾個(gè)錯(cuò)誤。承包商們的工作是過濾有問題的內(nèi)容,并決定這些內(nèi)容在主導(dǎo)我們世界的網(wǎng)站規(guī)則下是否可以被接受。

  這些人中,有10000人幫助審核谷歌的服務(wù),超過30000人簽約幫助監(jiān)控Facebook。在過去的兩年里,隨著科技公司因流程中的問題而面臨的批評(píng)激增,幫助審核平臺(tái)內(nèi)容的承包商數(shù)量也急劇增加。這種細(xì)致的人類工作經(jīng)常被淡化,以便支持科技公司推廣他們的自動(dòng)監(jiān)控系統(tǒng),標(biāo)記和刪除不適當(dāng)?shù)膬?nèi)容。但我們都知道,人類審核依然至關(guān)重要。

  當(dāng)哈羅德·奧德菲爾德(Harold Oldfield)試圖在Facebook上發(fā)布幾個(gè)關(guān)于美國對(duì)新型冠狀病毒爆發(fā)的反應(yīng)帖子時(shí),他意識(shí)到有些不對(duì)勁。這些帖子都來自著名的新聞媒體,但卻立即被標(biāo)記為垃圾內(nèi)容。奧德菲爾德解釋說:“我覺得很好笑,因?yàn)槲艺娴膶懥艘槐娟P(guān)于監(jiān)管Facebook等平臺(tái)的書,并用了整整一章來闡述內(nèi)容審核中保持公平和透明的重要性。Facebook回應(yīng)說,上述錯(cuò)誤不符合其規(guī)則似乎有點(diǎn)兒言不由衷。”

  奧德菲爾德向Facebook提出了抗議,他的這些帖子很快被恢復(fù)。但他說:“對(duì)我來說,這是次要的,甚至是有趣的。但不利的一面是,它會(huì)讓時(shí)間敏感的演講中斷,這總是讓人擔(dān)心。每個(gè)人都指出,有不好的東西被漏掉了,所以他們以更為激進(jìn)的方式使過濾器,這反而導(dǎo)致那些對(duì)時(shí)間敏感的好東西很難被發(fā)現(xiàn)。”

  奧德菲爾德不是唯一遇到這個(gè)問題的人。那些始終試圖分享有關(guān)新型冠狀病毒的重要真實(shí)新聞故事和信息的人發(fā)現(xiàn),他們的帖子觸發(fā)了Facebook的反垃圾內(nèi)容過濾器,后者旨在維持社區(qū)標(biāo)準(zhǔn)。前Facebook高管亞歷克斯·斯塔莫斯(Alex Stamos)在推特上說,他認(rèn)為這是“反垃圾內(nèi)容規(guī)則發(fā)瘋的跡象,我們可能會(huì)看到機(jī)器學(xué)習(xí)在人類監(jiān)督減少的情況下開始瘋狂。”

  Facebook首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)在3月18日的一次電話會(huì)議中提到了這一點(diǎn):“即使在像美國這樣可以自由表達(dá)的國家,也有很長一段時(shí)間的先例,不允許人們?cè)趽頂D的房間里大喊大叫。我認(rèn)為,這類似于人們?cè)谶@樣的疫情爆發(fā)期間傳播危險(xiǎn)的錯(cuò)誤信息。”結(jié)論很簡單,最好的情況是無意中壓制了“好信息”的傳播,以確保“壞信息”絕對(duì)無立足之地。YouTube承認(rèn)“用戶和創(chuàng)作者可能會(huì)看到更多的視頻被刪除,包括某些可能沒有違反政策的視頻”。

  Mozilla的技術(shù)政策研究員弗雷德里克·卡修納(Frederke Kaltheuner)表示:“內(nèi)容監(jiān)管涉及做出極其微妙的決定,特別是當(dāng)你試圖刪除的東西沒有明確的定義時(shí)。自動(dòng)化系統(tǒng)不能做出這些細(xì)微差別的決定,而手動(dòng)標(biāo)記機(jī)制也經(jīng)常被那些對(duì)他們不喜歡的內(nèi)容或賬戶進(jìn)行協(xié)調(diào)標(biāo)記的人濫用。”

  然而,人們對(duì)此感到惱火。朱莉婭·里達(dá)(Julia Reda)表示:“長期以來,扎克伯格始終在向政策制定者推廣AI,將其作為解決每個(gè)問題的方案。從商業(yè)角度來看,這是有道理的,發(fā)展AI需要訪問海量數(shù)據(jù),這讓Facebook在競爭中占據(jù)優(yōu)勢。”里達(dá)曾是歐洲議會(huì)綠黨議員,長期以來一直主張對(duì)科技公司進(jìn)行更好的控制。

  但她認(rèn)為,科技公司在缺乏人類監(jiān)督的情況下似乎存在不足。里達(dá)說:“許多公告表明,平臺(tái)公司很清楚上傳過濾器無法區(qū)分合法和非法內(nèi)容。這些錯(cuò)誤會(huì)系統(tǒng)性地導(dǎo)致歧視出現(xiàn),例如阿拉伯語內(nèi)容被更多地標(biāo)記為恐怖分子宣傳。在像現(xiàn)在這樣的危機(jī)情況下,政府和公司建立了以前不可想象的規(guī)范。我們必須保持警惕,確保它們不會(huì)成為新常態(tài)。”

  Facebook負(fù)責(zé)誠信的副總裁蓋伊·羅森(Guy Rosen)很快表示,最初的問題已經(jīng)解決。3月18日,他在推特上寫道:“我們已經(jīng)恢復(fù)了所有被錯(cuò)誤刪除的帖子,其中包括所有主題的帖子,而不僅僅是那些與新型冠狀病毒相關(guān)的帖子。這是一個(gè)自動(dòng)系統(tǒng)引發(fā)的問題,該系統(tǒng)刪除了指向辱罵網(wǎng)站的鏈接,但也錯(cuò)誤地刪除了許多其他帖子。”問題在于,人們的帖子仍然被錯(cuò)誤地屏蔽。在羅森宣布問題解決了之后,人們回復(fù)他說,F(xiàn)acebook的算法觸發(fā)了違反該網(wǎng)站社區(qū)標(biāo)準(zhǔn)的行為。

  劍橋大學(xué)副研究員兼講師詹妮弗·科布(Jennifer Cobbe)專門監(jiān)控和研究內(nèi)容審核,她說:“這就像過去十年里關(guān)于Facebook的每篇報(bào)道一樣。他們說已經(jīng)解決了問題,但實(shí)際上并非如此。我認(rèn)為任何人都不應(yīng)該對(duì)Facebook處理這件事的能力抱有太大信心。”

  這個(gè)問題一直都存在。早在2019年6月,就曾有研究YouTube算法的谷歌軟件工程師表示,算法存在需要修復(fù)的問題,但他們熱衷于強(qiáng)調(diào),機(jī)器學(xué)習(xí)算法一直在以驚人的速度改進(jìn)。他們總結(jié)說,如果有足夠的訓(xùn)練數(shù)據(jù),幾乎所有的問題都可以通過算法解決。但這僅僅是科技烏托邦式的傲慢嗎?

  謝菲爾德大學(xué)研究社交媒體內(nèi)容審核的伊莎貝爾·杰拉德(Ysabel Gerard)表示:“AI現(xiàn)在不能(永遠(yuǎn)也不可能)完美地進(jìn)行內(nèi)容審核。你不可能將人類互動(dòng)這樣復(fù)雜的事情自動(dòng)化,我們已經(jīng)看到了無數(shù)基于AI審核錯(cuò)誤的例子,比如過去幾天有關(guān)新型冠狀病毒疫情的新聞和帖子被刪除。”

  最終,隨著新型冠狀病毒的傳播,保證幕后人員的安全是很重要的。全世界數(shù)以百萬計(jì)的人現(xiàn)在選擇在家工作?撇颊f:“這涉及到大量的人,可能所有人都坐在小房間里,近距離地審查內(nèi)容。”

  科布發(fā)現(xiàn)走向更自動(dòng)化的內(nèi)容審核“可能非常令人擔(dān)憂”。她擔(dān)心有兩個(gè)原因:首先,將權(quán)力從人類移交給技術(shù),讓社交媒體平臺(tái)有更多的權(quán)力來決定什么是合適的內(nèi)容,什么是不合適的內(nèi)容,而不是政府監(jiān)督。其次是更簡單化的技術(shù)問題。她說:“這些系統(tǒng)并不能真正勝任這項(xiàng)工作,目前也不能真正取代人類。”眾所周知,算法反映了它們創(chuàng)建者的偏見,而人類內(nèi)容審核人員目前在消除某些最嚴(yán)重的偏見方面發(fā)揮了重要作用。

  我們之所以能走到這一步,是因?yàn)榭萍夹袠I(yè)對(duì)利潤的執(zhí)著,科布指出。“科技公司最看重的一件事就是規(guī)模。他們?cè)噲D用盡可能多的內(nèi)容成長為盡可能大的規(guī)模,盡可能多地獲得手中的內(nèi)容。一旦你達(dá)到了一定的規(guī)模,就很難和人類一起做事情了,因?yàn)槟阈枰蛡蛱嗟娜耍灾劣谧鍪虑榈某杀咀兊昧钊送鴧s步。因此,他們求助于AI,試圖取代這些人類,這樣他們就可以按照自己想要的水平進(jìn)行擴(kuò)大規(guī)模。”

  然而,正如我們現(xiàn)在正在了解的那樣,AI還遠(yuǎn)遠(yuǎn)沒有準(zhǔn)備好擔(dān)當(dāng)重任。科布說:“科技行業(yè)對(duì)自己的系統(tǒng)太有信心了,作為一個(gè)社會(huì),我們對(duì)AI投入了太多。我們剛剛意識(shí)到,在最糟糕的時(shí)候,這個(gè)備受吹捧的AI解決方案背后的人類力量。我們很可能會(huì)看到AI內(nèi)容審核帶來的問題比我們目前看到的要大得多。我要說的是,我非?隙,即使是人類來審核內(nèi)容也同樣存在很多問題。” (騰訊科技審校/金鹿)

  榜單收錄、高管收錄、融資收錄、活動(dòng)收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。

海報(bào)生成中...

分享到微博

掃描二維碼分享到微信

分享到微信
一鍵復(fù)制
標(biāo)題鏈接已成功復(fù)制

最新新聞

熱門新聞