[No.L001]
12月13日消息,據(jù)外媒報道,作為全球領先人工智能(AI)公司的負責人,谷歌首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)本周在接受《華盛頓郵報》采訪時表示,對該技術有害應用的擔憂“非常合理”,但應信任科技行業(yè)能夠負責任地監(jiān)管其使用。
皮查伊于美國當?shù)貢r間周二下午接受《華盛頓郵報》采訪時表示,新的AI工具,比如無人駕駛汽車和疾病檢測算法等創(chuàng)新的支柱,都要求企業(yè)設置道德護欄,并考慮該技術如何會被濫用。對此,皮查伊說:“我認為,科技公司必須認識到,不能繼續(xù)采用技術開發(fā)然后修復這樣的傳統(tǒng)模式,我認為它已經(jīng)行不通。”
皮查伊說,科技巨頭們必須通過“自己的機構”確保AI不會傷害人類。他稱自己對這項技術的長期潛在好處非常樂觀,但他對AI潛在風險的擔憂與其他技術批評人士類似。他們都認為,這項技術可能被用于監(jiān)視、致命武器和錯誤信息傳播等。其他科技公司高管,如SpaceX和特斯拉(Tesla)創(chuàng)始人埃隆·馬斯克(Elon Musk),都提出了更可怕的預測,稱AI可能“比核武器危險得多”。
谷歌的AI技術是該公司所有業(yè)務的基礎,皮查伊誓言在未來一年解決其AI引發(fā)的問題。谷歌如何決定部署AI,也引發(fā)了最近的員工騷動。
皮查伊呼吁進行自我監(jiān)管之前,曾前往美國國會作證,議員們威脅要對技術的濫用施加限制,包括限制傳播錯誤信息和仇恨言論的渠道。皮查伊承認AI會構成潛在威脅十分罕見,因為這位出生于印度的工程師經(jīng)常吹捧自動化系統(tǒng)的影響,并相信這些系統(tǒng)可以在不受人類控制的情況下學習和做出決定。
皮查伊在接受采訪時說,世界各地的立法者仍在努力控制AI的影響,并希望對其進行政府監(jiān)管。他說:“有時我擔心人們低估了中長期變化的規(guī)模,我認為問題實際上相當復雜。”包括微軟在內的其他科技巨頭,最近也接受了AI應受到監(jiān)管的觀點,監(jiān)管者包括開發(fā)這項技術的公司和監(jiān)督該技術使用的政府。
但皮查伊解釋說,如果處理得當,AI可以帶來“巨大的好處”,包括幫助醫(yī)生通過對健康數(shù)據(jù)的自動掃描來檢測眼科疾病和其他疾病。他說:“早期對一項技術進行監(jiān)管是很困難的,但我確實認為公司應該進行自我監(jiān)管。這就是為什么我們始終在致力于制定AI原則的原因。我們也許沒有把每件事都做好,但我們認為,開始一場對話非常重要。”
皮查伊于2004年加入谷歌,11年后成為其首席執(zhí)行官。今年1月份,他將AI稱為“人類正在從事的最重要的事情之一”,并表示,對人類社會來說,AI可能比“電或火”更重要。但是,對能夠獨立運行的機器進行完美競賽重新喚起了人們的擔憂,即硅谷的企業(yè)精神,如Facebook曾經(jīng)所說的“快速行動,打破常規(guī)”,這可能促使強大而不完美的技術導致工作崗位流失,并傷害到人們。
在谷歌內部,其AI努力也引發(fā)了爭議:今年早些時候,該公司受到各方批評,因為它在國防部的一項合同中開展的工作涉及到AI技術,該合同可以自動標記汽車、建筑物和其他物體,供軍事無人機使用。許多員工為此憤而辭職,因為谷歌正從“戰(zhàn)爭業(yè)務”中獲利。
當被問及員工的反應時,皮查伊告訴《華盛頓郵報》,員工是“我們文化的重要組成部分”。他說:“他們肯定有意見,這是重要的信號,這也是我所珍惜的東西。”
今年6月份,在宣布谷歌明年不會續(xù)簽與國防部的合同后,皮查伊公布了一套AI倫理原則,其中包括全面禁止開發(fā)可能被用來造成損害、損害人權或“違反國際公認監(jiān)視準則”的AI系統(tǒng)。
谷歌還因發(fā)布可能被壞人濫用的AI工具而受到批評。谷歌在2015年發(fā)布了其內部機器學習軟件TensorFlow,幫助加速了AI的大規(guī)模開發(fā),但它也被用于自動制作逼真的假視頻,這些視頻被用于騷擾和傳播虛假信息。
谷歌和皮查伊為此進行了辯護,稱限制這項技術的使用可能會減少公眾的監(jiān)督,并阻止開發(fā)者和研究人員以有益的方式提高其能力。皮查伊在接受《華盛頓郵報》采訪時說:“隨著時間的推移,隨著技術的進步,我認為重要的是圍繞道德和偏見進行對話,并同時推動進步。”
他補充稱:“從某種意義上說,你確實想要建立倫理框架,讓非計算機科學家盡早參與這一領域的工作。你必須以更具代表性的方式讓人類參與進來,因為這項技術將影響人類。”
皮查伊將圍繞AI設置參數(shù)的早期工作比作學術界在遺傳學研究早期所做的努力。他說:“許多生物學家開始劃定這項技術的發(fā)展方向。學術界進行了大量的自我監(jiān)管,我認為這一點非常重要。”
這位谷歌高管表示,圍繞自主武器的開發(fā)將是最重要的,這一問題令科技高管和員工感到憤怒。今年7月,代表谷歌等公司的數(shù)千名科技工作者簽署了一項承諾,反對開發(fā)可編程、用于殺死人類的AI工具。
皮查伊還表示,他在《華盛頓郵報》的一篇報道中發(fā)現(xiàn)了一些令人憎惡、充滿陰謀論的YouTube視頻,并表示該公司將努力改進其檢測問題內容的系統(tǒng)。這些視頻自今年4月出現(xiàn)以來,在YouTube上已經(jīng)被觀看了數(shù)百萬次。里面討論了民主黨人希拉里·克林頓(Hillary Clinton)和她的長期助手胡瑪·阿貝丁(Huma Abedin)襲擊、殺害和喝下一名女孩血液的指控,盡管其毫無根據(jù)。
皮查伊說,他沒有看過這些視頻,他是在國會聽證會上被問及這些視頻的。他拒絕透露,YouTube在這一領域的缺陷是否由于檢測系統(tǒng)受限所致,還是由于評估特定視頻是否應該被刪除的政策所致。但他補充說:“你將看到我們在2019年繼續(xù)采取更多行動。”
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...