ChatGPT 自問世以來,一直在 AI 技術創(chuàng)新領域扮演著改變游戲規(guī)則的角色。美國是全球 ChatGPT 用戶中最多的國家,占總數(shù)的15%。ChatGPT 在美國的企業(yè)中的使用就像是一把魔杖,快速改變著各行各業(yè)。
目前,公司正在探索如何使用 AI,尤其是生成式 AI。許多企業(yè)對于像 ChatGPT 這樣的動態(tài)工具帶來的變革感到興奮。但是,除了興奮和激動之外,一些美國企業(yè)也在小聲擔憂與使用這項技術奇跡相關的風險。
本文揭示了美國在開發(fā)類似 ChatGPT 這樣的 AI 驅(qū)動聊天機器人方面的活力創(chuàng)新景象。所以,讓我們來看看即將到來的 ChatGPT 的未來中有什么驚喜,既令人興奮又帶著一絲謹慎和擔憂的味道。
最近 AIPRM 進行的一項調(diào)查探討了美國企業(yè)對使用 ChatGPT 的看法。上個月,AIPRM 聯(lián)系了3000家公司的專業(yè)人士,以了解 ChatGPT 在企業(yè)中的使用情況。
醫(yī)療保健公司對在業(yè)務中使用 ChatGPT 持保留態(tài)度。根據(jù) AIPRM 的報告,約有24% 的醫(yī)療保健公司對 ChatGPT 在數(shù)據(jù)安全方面表示不信任。
在企業(yè)界中,還有其他行業(yè)也對數(shù)據(jù)安全問題存在疑慮。約有14% 的與建筑行業(yè)有關的受訪者,其次是制造業(yè)、行政和支持服務、以及專業(yè)、科學和技術服務,比例各為8%。
但是,與之相反,涉及科學和技術服務的公司正在擁抱 ChatGPT 及其功能。約有33% 的科學和技術服務公司經(jīng)常使用 ChatGPT,其次是零售行業(yè)占30%,最后是住宿和餐飲服務行業(yè)占24%,為 ChatGPT 的粉絲俱樂部增添了人氣。這些理論上的差異使得在企業(yè)中使用 ChatGPT 成為一個充滿偏愛和不信任的過山車之旅。
根據(jù) AIPRM 的研究,多個企業(yè)提出了與在企業(yè)中使用 ChatGPT 相關的一系列問題。以下是報告中的內(nèi)容:
安全風險
在與在企業(yè)中使用 ChatGPT 相關的擔憂方面,受訪者對 ChatGPT 的使用和整合到業(yè)務中的多個方面表示擔憂。但最大的擔憂是潛在的安全風險。報告稱,約有22% 的參與者對與使用 AI 工具相關的安全方面表示不確定。
在 ChatGPT 的表演中,有多個行業(yè)作為觀眾瞪大眼睛期待著未來將展開的劇情和可能出現(xiàn)的情節(jié)轉(zhuǎn)折。AIPRM 首席執(zhí)行官 Christopher C Cemper 在一份新聞稿中表示,在企業(yè)中使用 ChatGPT 時,安全風險是首要關注的問題之一。Cemper 表示:“許多用戶可能最關注的首要問題是潛在的安全風險,雖然生成式 AI 可能會被惡意攻擊者濫用,他們希望獲取數(shù)據(jù)并造成破壞,但使用防病毒軟件和安全文件共享,工作場所的計算機系統(tǒng)將得到保護。”
此外,正確使用防病毒軟件和安全文件共享平臺可以幫助應對安全擔憂。行業(yè)和企業(yè)還應該檢查他們使用的 AI 工具是否合法,并且在之后不會引發(fā)法律問題。在某些情況下,生成式 AI 可以充當救世主,節(jié)省時間和金錢,并在防止錯誤信息方面提供保護。
談到 AI 的進展,Cemper 表示:“一個關鍵因素是確保您始終了解技術行業(yè)的最新進展。這將有助于提高對 AI 的能力、限制和風險的理解。”Cemper 打破了企業(yè)對 ChatGPT 使用的頂級擔憂,并分享了如何正確使用 AI 來提升績效的見解。他認為,某些行業(yè)可能會對在工作場所使用新技術時的不可預測結(jié)果感到恐懼,特別是對于網(wǎng)絡安全風險的擔憂。談到使用 ChatGPT 在企業(yè)中存在的不可預測的安全結(jié)果和風險,Cemper 表示:“AI 本身并不是風險,相反,只要對工具有良好的控制,它可以提高業(yè)務績效。”
法律和合規(guī)問題
在列舉擔憂時,AIPRM 表示,15% 的受訪者對 ChatGPT 在企業(yè)中的法律和合規(guī)問題存在疑慮。將 ChatGPT 用于業(yè)務操作被認為是一種數(shù)字繩索行走,稍有不慎就可能無意中產(chǎn)生侵犯版權的風險。
使用由 AI 生成的內(nèi)容可能會導致無意中違反知識產(chǎn)權法,從而導致版權或侵權訴訟。
此外,公司應該能夠確認訓練數(shù)據(jù)的來源,并確認他們的 AI 供應商是否有處理數(shù)據(jù)的合法權力,以避免任何法律問題或 GDPR 罰款。
在談到由 AI 生成的內(nèi)容時,Cemper 表示:“使用由 AI 生成的內(nèi)容可能會導致無意中侵犯現(xiàn)有的知識產(chǎn)權,從而可能導致版權或侵權訴訟。此外,為了避免任何此類索賠或 GDPR 罰款,企業(yè)應該能夠核實如何獲取訓練數(shù)據(jù),并驗證他們的 AI 供應商是否有合法的數(shù)據(jù)處理基礎。”
查詢誤解
此外,研究報告稱,約有21% 的受訪者擔心查詢和提示會被誤解。解決這個問題的簡單方法是更加明確地提供查詢,并避免模棱兩可,以防止誤解。復雜的查詢可以分解成較小的部分,以便聊天機器人能夠正確理解。
在發(fā)送查詢之前,檢查和編輯查詢也可以進一步提高在企業(yè)中使用 ChatGPT 的體驗,同時為不斷改進提供反饋。
虛假 / 誤導信息
最后,15% 的受訪者也擔心在企業(yè)中使用 ChatGPT 時產(chǎn)生虛假信息的風險。考慮到每天向 ChatGPT 提供的大量數(shù)據(jù),虛假信息傳播的可能性是用戶經(jīng)常面臨的最大擔憂。
生成式 AI 是一把雙刃劍,它確實有助于提高生產(chǎn)力和多任務處理能力,但它在提供正確信息方面也會失敗,有時會為用戶創(chuàng)建虛假信息。一個很好的例子是要求 ChatGPT 將研究報告鏈接到一個故事中,因為 ChatGPT 可以在未經(jīng)核實來源的情況下添加虛假報告。此外,ChatGPT 還可以幫助有意誤導他人的人提供虛假信息。
然而,通過與可靠來源交叉參考內(nèi)容,先進的 AI 技術也可以幫助識別虛假敘述和信息。AIPRM 的報告揭示了生成式 AI 的這種雙重性質(zhì)以及其在美國企業(yè)部門中的使用。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...