網(wǎng)絡(luò)安全分析師處于這場戰(zhàn)斗的最前線,他們在安全運營中心(SOC,負責(zé)保護組織免受網(wǎng)絡(luò)威脅的部門)晝夜不停地工作,篩選海量數(shù)據(jù)并監(jiān)控潛在的安全事件。
他們面臨著來自不同來源的大量信息流,從網(wǎng)絡(luò)日志到威脅情報源,試圖阻止下一次攻擊。簡而言之,他們不堪重負。然而,數(shù)據(jù)太多從來都不是人工智能的問題,因此許多專家希望利用人工智能來加強網(wǎng)絡(luò)安全戰(zhàn)略并減輕分析師的壓力。
南加州大學(xué)信息科學(xué)研究所(ISI)網(wǎng)絡(luò)和網(wǎng)絡(luò)安全部門戰(zhàn)略總監(jiān)StephenSchwab設(shè)想人類和人工智能組成共生團隊,共同合作提高安全性,以便人工智能能夠協(xié)助分析師并提高他們在這些高風(fēng)險環(huán)境中的整體表現(xiàn)。Schwab和他的團隊已經(jīng)開發(fā)了測試平臺和模型,以研究小型系統(tǒng)(例如保護社交網(wǎng)絡(luò))中的人工智能輔助網(wǎng)絡(luò)安全策略。“我們正努力確保機器學(xué)習(xí)過程可以緩解但不增加這些擔(dān)憂,并減輕人類分析師的工作量,”他說。
ISI網(wǎng)絡(luò)和網(wǎng)絡(luò)安全部門副總監(jiān)DavidBalenson強調(diào)了自動化在減輕網(wǎng)絡(luò)安全分析師負擔(dān)方面的關(guān)鍵作用。“SOC收到大量警報,分析師必須實時快速分析這些警報,并確定哪些是真實事件的癥狀。這就是人工智能和自動化發(fā)揮作用的地方,它們可以發(fā)現(xiàn)可能是潛在事件的警報趨勢或模式,”Balenson說。
尋求透明度和可解釋性
然而,將人工智能融入網(wǎng)絡(luò)安全運營并非沒有挑戰(zhàn)。主要問題之一是許多人工智能驅(qū)動的系統(tǒng)缺乏透明度和可解釋性。“機器學(xué)習(xí)(ML)可用于監(jiān)控人類分析師疲憊不堪的網(wǎng)絡(luò)和終端系統(tǒng),”施瓦布解釋說。“但它們是一個黑匣子——它們可能會發(fā)出看似無法解釋的警報。
可解釋性的作用就在于此,因為人類分析師必須相信ML系統(tǒng)在合理范圍內(nèi)運行。”Schwab提出的解決方案是構(gòu)建解釋器,用分析師能夠理解的計算機化英語(類似于自然語言)呈現(xiàn)ML系統(tǒng)的操作。ISI首席科學(xué)家MarjorieFreedman正在研究這個問題。“我一直在研究生成解釋的含義以及你希望從解釋中得到什么。我們還在探索解釋如何幫助人們驗證模型的生成,”她說。
標記的藝術(shù)
網(wǎng)絡(luò)安全領(lǐng)域人工智能決策的一個例子是在線身份驗證過程。在向系統(tǒng)進行身份驗證時,用戶輸入密碼或PIN碼。然而,不同的人輸入數(shù)據(jù)的模式不同,即使輸入的代碼正確,人工智能也可能會標記出來。
這些“潛在可疑”模式可能實際上不是安全漏洞,但人工智能仍會將其考慮在內(nèi)。如果在標記它們的同時,向人類分析師提供解釋器,將輸入模式列為標記的原因之一,分析師將更好地理解人工智能決策背后的原因。有了這些額外的信息,分析師可以做出更明智的決策并采取適當?shù)男袆?即驗證或推翻人工智能的決定)。弗里德曼認為,網(wǎng)絡(luò)安全運營應(yīng)該運行他們最好的機器學(xué)習(xí)模型來預(yù)測、識別和應(yīng)對威脅,同時采取向?qū)<矣行Ы忉寷Q策的方法。
“如果有人要關(guān)閉一個會給公司帶來巨額損失的系統(tǒng),那么這是一個高風(fēng)險的情況,我們必須確認這是正確的決定,”弗里德曼說。“解釋器可能不是人工智能對其如何做到這一點的推導(dǎo),但它可能是人類分析師需要知道的,以確定它是否正確。”
確保數(shù)據(jù)安全和私密
雖然人類分析師和機器之間的信任是人工智能在網(wǎng)絡(luò)安全方面面臨的一個挑戰(zhàn),但相信人工智能所訓(xùn)練的敏感或?qū)S行畔⒈3炙矫苁橇硪粋€挑戰(zhàn)。”例如,為了訓(xùn)練機器學(xué)習(xí)模型以保證數(shù)據(jù)安全或保護系統(tǒng),組織可能會使用操作細節(jié)或安全漏洞。
在將人工智能融入網(wǎng)絡(luò)安全運營時,這種有關(guān)組織網(wǎng)絡(luò)態(tài)勢的敏感信息的潛在暴露是一個令人擔(dān)憂的問題。“一旦你將信息放入大型語言模型等系統(tǒng)中,即使你試圖刪除它,也不能保證你能成功阻止它討論這些信息。我們需要尋找讓共享空間對所有人都安全的方法,”施瓦布說。
施瓦布、弗里德曼和ISI團隊希望他們的工作能夠帶來新的方法,利用人類和人工智能的優(yōu)勢來加強網(wǎng)絡(luò)防御,領(lǐng)先于復(fù)雜的對手,并減輕SOC的壓力。
標簽:
免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!