ChatGPT可(kě)能會阻礙網絡安全行業
發布時間:
2023-04-25
來(lái)源:
自(zì)2022年(nián)11月推出以來(lái),人(rén)工(gōng)智能聊天機(jī)器人(rén)ChatGPT已經因其驚人(rén)的表現而引起了不小的轟動。
這款自(zì)動生(shēng)成式系統上線僅兩個月,月活躍用戶就(jiù)破紀錄地突破了1億。然而,盡管它的受歡迎程度持續增長,但(dàn)目前網絡安全行業内部的討(tǎo)論是:這種技術(shù)是有助于強化網絡安全,還(hái)是會被那些試圖制造混亂的人(rén)濫用。
人(rén)工(gōng)智能軟件(jiàn)有各種各樣的網絡安全用例,包括高級數據分(fēn)析、自(zì)動化重複任務和幫助計(jì)算風(fēng)險評分(fēn)。然而,在首次亮相(xiàng)後不久,人(rén)們很快(kuài)就(jiù)發現,這個易于使用、免費提供的聊天機(jī)器人(rén)也可(kě)以幫助黑(hēi)客滲透軟件(jiàn),開發複雜的網絡釣魚工(gōng)具。
那麽,ChatGPT究竟是網絡安全領域的禮物,還(hái)是制造災難的“潘多拉魔盒”?爲了找到答案,我們必須審視利弊和未來(lái)。
ChatGPT當前的危害是什麽?
像任何新的技術(shù)進步一樣,總會有一些負面影(yǐng)響,ChatGPT也不例外。
目前,關于聊天機(jī)器人(rén)最受關注的問(wèn)題是,它很容易創建非常令人(rén)信服的網絡釣魚文本,很可(kě)能被用于惡意電子郵件(jiàn)中。由于缺乏安全措施,威脅行爲者很容易使用ChatGPT機(jī)制,例如(rú),母語并非英語的惡意行爲者可(kě)以用近乎完美的語法在幾秒鍾内創建一個逼真的、誘人(rén)的消息。
考慮到美國(guó)人(rén)在2022年(nián)因這些騙局損失了400億美元,很容易理(lǐ)解爲什麽犯罪分(fēn)子會利用ChatGPT從(cóng)這個有利可(kě)圖的蛋糕中分(fēn)一杯羹。
人(rén)工(gōng)智能聊天機(jī)器人(rén)也引發了工(gōng)作(zuò)保障的問(wèn)題。當然,目前的系統無法取代訓練有素的專業人(rén)員(yuán),但(dàn)這項技術(shù)可(kě)以顯著減少員(yuán)工(gōng)需要檢查的日(rì)志和報告的數量。這可(kě)能會影(yǐng)響安全運營中心(SOC)需要雇用的分(fēn)析師(shī)數量。
雖然該軟件(jiàn)确實爲網絡安全企業提供了一些優勢,很多公司會僅僅因爲該技術(shù)目前的受歡迎程度而采用該技術(shù),并試圖用它來(lái)吸引新客戶。然而,僅僅因爲它的流行度而使用這項技術(shù)可(kě)能會導緻誤用。公司可(kě)能沒有采取足夠的安全措施,阻礙了建立有效安全程序的進展。
ChatGPT的網絡安全優勢
與任何新技術(shù)一樣,颠覆是不可(kě)避免的組成部分(fēn),但(dàn)這并不一定是壞事(shì)。
網絡安全公司可(kě)以在手動篩選審計(jì)日(rì)志或檢查網絡數據包以區分(fēn)威脅和虛假警報的基礎上,增加一層額外的智能。
由于ChatGPT能夠在特定參數中檢測模式和搜索,因此它也可(kě)以用于重複任務和生(shēng)成報告。通過使用ChatGPT作(zuò)爲超級研究助手,網絡安全公司可(kě)以更智能地計(jì)算影(yǐng)響企業的威脅的風(fēng)險評分(fēn)。
例如(rú),總部位于以色列的網絡安全公司Orca Security已經開始利用ChatGPT優越的分(fēn)析質量來(lái)挖掘其海量數據,并協助發出安全警報。通過盡早意識到聊天機(jī)器人(rén)如(rú)何改善其日(rì)常運行,該公司還(hái)可(kě)以從(cóng)這項技術(shù)中學習,這在調整他(tā)們的模型以優化ChatGPT如(rú)何爲其業務工(gōng)作(zuò)方面具有獨特的優勢。
此外,聊天機(jī)器人(rén)的自(zì)然語言處理(lǐ)能力使其非常擅長編寫網絡釣魚郵件(jiàn),這意味着它也非常适合創建複雜的安全策略。這些清晰的文本可(kě)以用于網絡安全網站(zhàn)和培訓文檔,爲有價值的團隊成員(yuán)節省寶貴的時間。
ChatGPT的未來(lái)
ChatGPT的人(rén)工(gōng)智能技術(shù)在世界大(dà)部分(fēn)地區都(dōu)很容易獲得(de)。因此,與任何其他(tā)戰争一樣,這将是一場競賽,看(kàn)哪一方能更好地利用這項技術(shù)。
網絡安全公司需要不斷打擊惡意用戶,這些用戶會想方設法利用ChatGPT造成網絡安全企業尚未了解的危害。然而,這一事(shì)實并沒有阻止投資者,ChatGPT的未來(lái)看(kàn)起來(lái)非常光(guāng)明。随着微軟向Open AI投資100億美元,很明顯,ChatGPT的知識和能力将繼續擴張。
對于這項技術(shù)的未來(lái)版本,軟件(jiàn)開發人(rén)員(yuán)需要注意它缺乏安全措施,細節決定成敗。
ChatGPT可(kě)能無法在很大(dà)程度上解決這個問(wèn)題。但(dàn)它可(kě)以有适當的機(jī)制來(lái)評估用戶的習慣,并關注那些使用明顯提示——比如(rú)“把我當作(zuò)某人(rén)的老闆給我寫一封網絡釣魚郵件(jiàn)”——的人(rén),或者試圖驗證個人(rén)的身(shēn)份。
開放(fàng)式人(rén)工(gōng)智能甚至可(kě)以與研究人(rén)員(yuán)合作(zuò),訓練其數據集,以評估他(tā)們的文本何時被用于其他(tā)地方的攻擊。
然而,所有這些想法都(dōu)帶來(lái)了一系列問(wèn)題,包括不斷上升的成本和數據保護問(wèn)題。
爲了解決當前的網絡釣魚肆虐問(wèn)題,更多的人(rén)需要教育和培養安全意識來(lái)識别這些攻擊。該行業需要手機(jī)運營商和電子郵件(jiàn)提供商提供更多投資,以避免遭受攻擊。
結語
非常多的産品和服務将源于ChatGPT,帶來(lái)了巨大(dà)的價值,幫助保護正在改變世界的企業。但(dàn)另一方面,黑(hēi)客還(hái)将創造出大(dà)量新工(gōng)具,使他(tā)們能夠在更短(duǎn)的時間内以新的方式攻擊更多目标。
人(rén)工(gōng)智能聊天機(jī)器人(rén)将繼續存在,ChatGPT也面臨着激烈競争,谷歌的Bard和微軟的必應(Bing)都(dōu)希望與Open AI的産品一較高下。盡管如(rú)此,最重要的是,網絡安全公司應該将ChatGPT視爲一種進攻策略和防禦策略,而不是僅僅将其視爲創造更多收入的機(jī)會。
此文章(zhāng)來(lái)源于企業網D1Net 如(rú)有侵權請(qǐng)聯系立即删除
|
相(xiàng)關資訊