CalypsoAI最新的內部AI風險報告顯示,美國高達52%的員工即使公司政策禁止,依然願意利用AI來簡化自己的工作流程。這一調查的結果令人感到驚訝,也引發了關於AI在職場中合法性和道德性的討論。
AI的信任危機
該報告顯示,美國過半數的員工對AI的信任度高於對同事的信任,顯示出在數位時代,人們對技術工具的依賴正逐步增加。調查指出,45%的員工表示比起同事,他們更信賴AI,這一比例在高管階層中達到了50%。同時,38%的員工偏好由AI管理而非人類管理者。
據調查,不僅是一般員工使用AI,即便公司有相關政策禁止,許多安全專業人員和高層主管也承認違反政策。42%的安全專業人士坦承仍選擇使用AI,已顯示出企業內部在執行相關政策上的漏洞。
職場AI使用的行為風險
職場內部高層經理中,有半數表示願意讓AI進行管理,儘管他們中有34%無法區分AI和真人員工。這表明,AI技術在企業內部的應用已經超出單純的工具角色。更具挑戰性的是,約有38%的企業領導者對AI代理的了解並不充分。報告指出,有四分之一的員工使用AI時不會檢查合規問題,這可能導致企業機密數據的外洩。
對年輕員工來說,AI的應用划分也有相應的風險。調查顯示,37%的入門級別專業人士表示不會因為違規使用AI感到內疚。對很多年輕人來說,規範的曖昧讓他們更容易選擇最有效率的方法,而非合規的方法。
經歷行業特定的AI挑戰
金融行業中,60%的員工承認曾違規使用AI,而三分之一的人表示他們曾利用AI進入受限數據。此舉在高度合規的金融行業中帶來了巨大的安全風險。同樣在安全行業,42%的員工承認在違反政策的情況下使用AI,而58%表現出對AI的高度信任。
健康行業中的情況也不容樂觀。僅有55%的醫療專業人士遵循組織的AI政策,而有超過四分之一更覺得由AI指導的能力高於人類主管。
結論及行動建議
報告的數據發出警告,表明在追逐技術便利的過程中,企業內部出現了管理混亂的情況。CalypsoAI的CEO Donnchadh Casey 曲察地指出,這些趨勢要求企業重新審視AI的安全性問題,不應僅限於技術層面,還要涉及大眾行為和信任方面的安全。
這些數據清楚地表明,企業亟需擴大AI安全範疇,將涉及範圍擴展到人員行為和信任機制,以面對人工智能快速進步帶來的風險。如何妥善管理AI的應用,不僅是技術問題,更是內部管理和企業文化的變革挑戰。