根据Riskonnect对300名专业人士的调查,约有大多数风险与合规专家认为员工使用生成性人工智能AI会增加商业风险,并且他们还指出,少于10的公司准备应对与这一新兴技术相关的内部威胁。
虽然AI并未在受访者列出的四大风险中名列前茅,这些风险包括人才短缺与裁员、经济衰退风险、勒索软件和安全漏洞以及国家赞助的网络攻击,然而,AI被广泛认为是解决员工短缺的一种良方。调查指出,生成性AI可以将员工60至70的工作时间自动化,从而提高工作效率。
根据93的受访者,像OpenAI的ChatGPT和Google Bard这样的生成性AI工具会带来内部风险,只有9的人表示他们准备好应对相关威胁。仅有17的受访者表示他们在正式培训或简报中告知组织有关这些风险及其缓解方式的信息。
Riskonnect的CEO Jim Wetekamp表示:“生成性AI正以闪电般的速度发展我们的研究显示,大多数公司反应迟缓,这在整个企业中造成了脆弱性。”
受访者对于生成性AI最担忧的问题包括数据隐私和网络安全65;基于不准确的信息所做出的决策60;员工误用及伦理风险55;以及版权和知识产权风险34。
网络安全公司ExtraHop于10月17日发布的一项关于生成性AI的独立调查也显示,受访者更担心获得不准确或无意义的回答40,而非有关安全的问题。
与Riskonnect的受访者类似,ExtraHop调查中1200名安全和IT领导者表示,他们担心员工和客户的个人身份信息36,其次是商业机密的泄露33和财务损失25。
两个调查在应对威胁的准备程度上似乎存在差异:ExtraHop调查中82的受访者表示他们对当前的安全体系能否抵御生成性AI威胁感到有些或非常自信。
不到一半的受访者46表示他们的安全政策明确说明了哪些公司数据是安全可以与AI工具共享的,而73的人表示员工偶尔或经常使用生成性AI。
海鸥加速器app