本文要點:
1.63% 的人擔心使用生成式人工智能時侵犯版權問題。
2.41% 的人擔心這些工具存在固有偏見。
3.83% 的人對需要跟上的工具數(shù)量感到不知所措,92% 的人不相信科技公司能夠進行自我監(jiān)管。
隨著越來越多的機構在工作中使用生成式人工智能,人們對這些工具的信任程度產生了擔憂。
Human Driven AI 是一項針對代理機構和營銷人員的人工智能輔導和培訓服務,本月對1,100名美國營銷人員(包括 內部和代理團隊)進行了調查,詢問他們最常用的人工智能工具、這些技術即將面臨的挑戰(zhàn)、監(jiān)管和當前培訓以及他們組織中的教育。公司規(guī)模各不相同:42% 的受訪者來自擁有101-2,000名員工的公司,30% 來自擁有2,000名以上員工的公司,28% 來自擁有21至100名員工的組織。
根據(jù)調查,63% 的人擔心使用生成式人工智能時侵犯版權問題,而41% 的人擔心這些工具存在固有偏見。另外,83% 的人對需要跟上的工具數(shù)量感到困惑,92% 的人不相信科技公司能夠進行自我監(jiān)管。
隨著人工智能工具的使用不斷增長,機構還面臨監(jiān)管和道德問題。一些公司在指導客戶了解人工智能的影響時采取謹慎的態(tài)度,他們相信人類在內容開發(fā)過程中仍然是至關重要的一部分。
另外,也有許多機構希望能夠獲得相關的專業(yè)發(fā)展,并希望他們的雇主提供人工智能教育。然而,目前仍然存在著使用人工智能不正確或不道德的風險,因此有必要制定行業(yè)指南來規(guī)范人工智能的使用。
可見,機構對于生成式人工智能的信任程度存在著一定的擔憂,需要在使用這些工具時謹慎對待,并加強相關的教育和培訓。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...