極客網(wǎng)·人工智能5月23日 為了保護數(shù)據(jù)的機密性,越來越多的企業(yè)禁止使用ChatGPT和其他類似基于云的生成AI服務,蘋果也加入了這一行列。
根據(jù)《華爾街日報》的報道,蘋果還禁止員工使用GitHub的Copilot工具,而很多開發(fā)人員使用該工具來幫助編寫軟件。
最近的一項調(diào)查發(fā)現(xiàn),39%的Mac開發(fā)者正在使用這項技術。
真的有必要實施全面禁令么?
盡管蘋果實施這一禁令似乎有些極端,但表明該公司聽從了一些信息安全專家對使用這些服務發(fā)出的警告。令人擔憂的是,使用這些服務可能泄露敏感數(shù)據(jù)或機密數(shù)據(jù)。在今年早些時候,三星發(fā)現(xiàn)其員工向ChatGPT上傳了機密的源代碼,隨后禁止員工使用這些工具。
一些信息安全專家非常清楚這個問題。網(wǎng)絡安全服務商Orange Cyberdefense的高級安全研究員Wicus Ross警告說:“雖然AI聊天機器人經(jīng)過了開發(fā)人員進一步的訓練和完善,但工作人員仍有可能訪問輸入到它們的數(shù)據(jù)。而且,考慮到人類通常是企業(yè)安全態(tài)勢中最薄弱的因素,這會使這些信息面臨一系列威脅,即使風險是偶然的。”
雖然OpenAI向企業(yè)客戶提供了一個更保密(運行成本也更高)的自托管版本的服務,但其風險在于,在公共使用協(xié)議下數(shù)據(jù)幾乎沒有機密性。
這在處理機密代碼和內(nèi)部文檔方面很糟糕,而在處理來自嚴格監(jiān)管的行業(yè),如銀行、醫(yī)療和其他領域的信息時,將面臨更大的風險。如今已經(jīng)看到了一些數(shù)據(jù)泄露事件,例如一些人詢問ChatGPT的問題已經(jīng)泄露給不相關的人員。
人們提出的問題變成了數(shù)據(jù),那么能夠信任擁有這些數(shù)據(jù)的人嗎?
盡管蘋果的這一決定可能讓人感覺反應過度,但企業(yè)必須說服員工對他們正在共享的數(shù)據(jù)保持警惕。問題是,當使用基于云的服務來處理數(shù)據(jù)時,這些信息很可能會被保留,用于評分或評估,甚至在將來使用。
從本質(zhì)上來說,用戶向AI聊天機器人提出的問題將成為未來答案的數(shù)據(jù)點,他們提供給基于云的服務的信息可能被人訪問,無論是來自企業(yè)內(nèi)部還是外部攻擊?,F(xiàn)在已經(jīng)出現(xiàn)了這種情況,在今年早些時候發(fā)生數(shù)據(jù)泄露事件之后,OpenAI不得不讓ChatGPT暫時下線。
英國國家網(wǎng)絡安全研究中心(NCSC)提供的建議解釋了這種風險的本質(zhì)。建議指出,這些詢問的問題對服務提供者是可見的,還將被存儲起來,并且肯定會在某個時候用于開發(fā)服務。
在這種情況下,在任何人進行查詢之前,需要對服務的使用條款和隱私政策進行深入審查。此外,人們面臨的另一個挑戰(zhàn)是,他們提出的問題也會變成數(shù)據(jù)。
正如NCSC所解釋的那樣:“隨著越來越多的組織開發(fā)大型語言模型(LLM),也增加了另一種風險,那就是存儲在網(wǎng)上的查詢問題可能被黑客攻擊和泄露,或者更有可能意外地被公開訪問,這可能包括潛在的用戶身份信息?!?/p>
誰將擁有和保存人們的問題?
隨著AI行業(yè)的整合加速,還存在另一層風險。用戶可能在某一天向一個經(jīng)過安全驗證的LLM詢問敏感問題,這個LLM符合企業(yè)安全協(xié)議的所有要求,但它可能不久會被網(wǎng)絡安全策略較弱的第三方購買,第三方購買者將擁有以前提供給該服務的敏感數(shù)據(jù),但其安全防護性較差。
這個令人擔憂的問題并沒有被提出,是因為信息安全專家在測試中了解到會出現(xiàn)這種情況,反映出人們已經(jīng)看到了問題。例如,根據(jù)最近發(fā)布的一份調(diào)查報告,去年在GitHub等公共存儲庫中對外泄露了1000多萬條機密數(shù)據(jù),包括API密鑰和憑據(jù)。
很多時候,這類機密數(shù)據(jù)都是通過使用這類服務的個人賬戶共享的,豐田、三星和蘋果發(fā)布的禁令表明這種情況確實已經(jīng)發(fā)生了??紤]到這一點,大多數(shù)信息安全專家都警告用戶不要在向公共服務(例如ChatGPT)進行查詢時包含敏感機密信息。
因此,用戶永遠不應該問那些公開之后可能會帶來麻煩的問題,對于任何試圖保護其數(shù)據(jù)安全的大公司來說,都可能全面禁止使用ChatGPT,而這是迄今為止最簡單的解決方案,至少目前是這樣。
生成式AI會走向邊緣
但情況不會一直如此。生成式AI最合乎邏輯的發(fā)展之路是朝著能夠托管在邊緣設備上的小型LLM系統(tǒng)發(fā)展。這是可能實現(xiàn)的,因為斯坦福大學開發(fā)了能夠在谷歌Pixel手機上運行的小型LLM系統(tǒng)。這可以讓人們預期,在未來可能沒有人會在iPhone上使用ChatGPT應用程序,因為他們將使用手機本身提供的類似技術。
但是,對于任何使用基于云的LLM服務的人來說,其遵守的規(guī)則是,如果安全性得不到保證,永遠不應該共享機密或敏感數(shù)據(jù)。這證明了邊緣處理和隱私保護在互聯(lián)時代的價值。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )