Anand Oswal,派拓網(wǎng)絡(luò)高級副總裁兼網(wǎng)絡(luò)安全總經(jīng)理
如今,市場上有成千上萬種生成式人工智能(GenAI)工具,每月都有幾十種新的AI應(yīng)用推出。事實上,一半以上的員工很可能已經(jīng)在使用它們提高工作效率,而且隨著更多AI應(yīng)用和AI用例的出現(xiàn),AI應(yīng)用的采用率預(yù)計還會增加。
問題在于這些第三方生成式AI應(yīng)用大多未經(jīng)審查或批準(zhǔn)就被用于工作,這會給企業(yè)帶來嚴(yán)重的風(fēng)險。IT和信息安全團隊必須對企業(yè)技術(shù)生態(tài)中所使用的第三方應(yīng)用進行審查和批準(zhǔn),這是因為他們需要了解正在使用的應(yīng)用、這些應(yīng)用是否安全,以及有哪些敏感的公司數(shù)據(jù)(如果有的話)進入了這些應(yīng)用。他們還要考慮應(yīng)用開發(fā)商如何處理漏洞等問題,以及有哪些控制措施可以將訪問權(quán)限限制或控制在僅限員工開展工作所需的范圍內(nèi)等事項。
采用未經(jīng)許可的生成式AI應(yīng)用會導(dǎo)致數(shù)據(jù)泄露、惡意軟件等一系列網(wǎng)絡(luò)安全問題。這是因為企業(yè)不知道誰在使用什么應(yīng)用、哪些敏感信息會進入這些應(yīng)用,以及這些信息進入應(yīng)用后會發(fā)生什么。而且由于并非所有應(yīng)用都是按照合適的企業(yè)安全標(biāo)準(zhǔn)構(gòu)建的,因此它們也可能會提供惡意鏈接,并成為攻擊者進入企業(yè)網(wǎng)絡(luò)訪問系統(tǒng)和數(shù)據(jù)的入口。所有這些問題都可能導(dǎo)致違規(guī)、敏感數(shù)據(jù)泄露、知識產(chǎn)權(quán)被盜、運營中斷和經(jīng)濟損失。雖然這些應(yīng)用可以帶來巨大的生產(chǎn)力,但如果使用不安全,它們也會導(dǎo)致嚴(yán)重的風(fēng)險和潛在后果,例如:
·營銷團隊使用了一個未經(jīng)許可的應(yīng)用,該應(yīng)用能夠使用AI生成精彩的圖像和視頻內(nèi)容。如果團隊將敏感信息加載到該應(yīng)用中,導(dǎo)致機密產(chǎn)品發(fā)布細(xì)節(jié)泄露,會發(fā)生什么情況?答案是您不愿看到的“病毒式”傳播。
·項目經(jīng)理使用AI賦能的筆記應(yīng)用抄錄會議內(nèi)容并生成摘要。但如果記錄的內(nèi)容包含財報公布前對季度財務(wù)業(yè)績的機密討論內(nèi)容,會發(fā)生什么情況?
·開發(fā)人員使用AI助手和代碼優(yōu)化服務(wù)加快產(chǎn)品構(gòu)建。但如果從被入侵的應(yīng)用中返回的優(yōu)化代碼包含惡意腳本,該怎么辦?
這些只是出于善意使用生成式AI而在無意中增加風(fēng)險的冰山一角。但不使用這些技術(shù)可能會降低企業(yè)獲得競爭優(yōu)勢的能力,因此“一刀切”并不是解決問題的辦法。企業(yè)可以而且應(yīng)該考慮如何讓員工安全地使用這些應(yīng)用。以下是一些需要考慮的因素:
可見性:人們無法保護自己不知道的東西。IT團隊在使用未經(jīng)許可的應(yīng)用時面臨的最大挑戰(zhàn)之一是難以及時應(yīng)對安全事件,而這增加了出現(xiàn)安全漏洞的可能性。企業(yè)需要監(jiān)控第三方生成式AI應(yīng)用的使用情況,并了解與每個工具相關(guān)的特定風(fēng)險。在了解正在使用哪些工具的基礎(chǔ)上,IT團隊還應(yīng)了解哪些數(shù)據(jù)正在進出企業(yè)系統(tǒng)。這種可見性有助于企業(yè)發(fā)現(xiàn)安全漏洞,并快速識別和糾正。
控制:IT團隊需要能夠就是否阻止、允許或限制訪問第三方生成式AI應(yīng)用做出明智的決定,他們可以單獨控制每個應(yīng)用,也可以根據(jù)風(fēng)險或類別進行控制。例如,企業(yè)可能想要阻止所有員工訪問代碼優(yōu)化工具,但同時又想讓開發(fā)人員訪問經(jīng)信息安全團隊評估并批準(zhǔn)供內(nèi)部使用的第三方優(yōu)化工具。
數(shù)據(jù)安全:員工是否與應(yīng)用共享敏感數(shù)據(jù)?IT團隊需要阻止敏感數(shù)據(jù)泄露,保護數(shù)據(jù)不被濫用和竊取。這一點對于受到監(jiān)管和受數(shù)據(jù)主權(quán)法律約束的企業(yè)尤為重要。在實踐中,這意味著需要監(jiān)控發(fā)送到生成式AI應(yīng)用的數(shù)據(jù),然后采取技術(shù)控制手段確保敏感數(shù)據(jù)和受保護的數(shù)據(jù)(如個人身份信息和知識產(chǎn)權(quán)等)不會被發(fā)送到這些應(yīng)用。
威脅防范:團隊正在使用的生成式AI工具可能潛伏著漏洞。鑒于許多此類工具的開發(fā)和上市速度快得驚人,團隊往往不知道所使用的模型是否使用損壞的模型構(gòu)建而成、是否是在不正確或惡意數(shù)據(jù)上訓(xùn)練而成,亦或是否存在大量AI特有的漏洞。建議采取的最佳做法是對從應(yīng)用流向企業(yè)的數(shù)據(jù)進行監(jiān)控,以防出現(xiàn)惡意和可疑活動。
盡管AI工具在實現(xiàn)員工工作效率最大化方面具有驚人的潛力,并且能夠使企業(yè)實現(xiàn)營收和利潤的雙增長,但它們也隱藏著我們前所未見且更加復(fù)雜的新風(fēng)險。企業(yè)領(lǐng)導(dǎo)者及其IT團隊有責(zé)任讓員工能夠放心地使用AI工具,同時為他們提供宣傳教育、可見性、控制措施、數(shù)據(jù)保護、威脅防范等保護手段。當(dāng)安全團隊知道正在使用什么以及如何使用時,他們就可以防止敏感數(shù)據(jù)泄露,并防范潛伏在不安全和被入侵AI平臺內(nèi)部的威脅。