ChatGPT陷入安全危機,入安成也數據傷也數據。全危ChatGPT正在卷入一又一個爭論中。入安西安外圍工作室(微信189-4469-7302)西安外圍工作室莞式外圍上門外圍女桑拿全套按摩對于數據安全性問題,全危主要有三個方面:一是入安數據合法性問題,二是全危數據使用問題,三是入安個人信息保護問題。為保障數據安全性,全危開發人員必須采取措施,入安以保證訓練數據的全危隱私性。
新聞詳情
這兩天,入安本來一路高歌猛進的全危 ChatGPT突然跌入了輿論風口浪尖。
上個周末,入安意大利先是全危對 ChatGPT進行了臨時禁令,禁止其對國內用戶的入安信息進行處理。隨后,韓國媒體報導,在三星引入芯片ChatGPT不足20天后,機密數據被泄露。之后,又傳出了 ChatGPT目前已停止注冊的消息,并開始大范圍的封號,四月二日在亞洲全面封號。
圍繞著 ChatGPT的爭論仍在持續著,而這一波接一波的事件中,無論是封殺,還是泄密,又或者封號,都有一個共同點,那就是數據安全。事實上,西安外圍工作室(微信189-4469-7302)西安外圍工作室莞式外圍上門外圍女桑拿全套按摩自 ChatGPT開始流行至今,其數據安全性始終是人們關注的焦點,而此時,其數據安全性已經不可避免地成為了現實問題。

封殺、泄密、封號
意大利對中國煙草公司的禁令來得太突然了。
三月三十一日,意大利個人資料保護局宣布,從今天開始,將禁止名為 ChatGPT的聊天機器人的使用,并對 OpenAl對意大利用戶的資料進行處理也將受到限制。這也是世界上首個明確規定對其進行“封殺”的西方國家。
之所以頒布這項禁令,是因為意大利官員認為, OpenAI并未對至少應為13歲的 ChatGPT用戶的年齡進行審查,而且也未對用戶信息的收集與處理作出任何通知,因此在大規模收集與儲存個人信息方面缺乏法律依據。
這是真的, ChatGPT沒有被冤枉。ChatGPT在最近發生了“用戶對話數據和支付服務的支付信息丟失”的事件。而這條消息,也得到了 OpenAI的官方證實。
不僅如此,最近,國際巨頭三星公司的 ChatGPT也出了問題,三星公司引入 ChatGPT不到二十天,便爆出三條關于半導體設備測量數據、產品良率等機密數據泄露,網上有傳言稱這三條數據已經被存儲在了 ChatGPT公司的數據庫里。
這條消息一出,立刻在網絡上引起了軒然大波,韓媒體更是指出,由于三星公司的員工向 ChatGPT中輸入了公司的機密信息,導致相關內容被存儲在了學習數據庫中。三星稱,為防止類似事件重演,已告誡其員工謹慎使用ChatGPT。如果此后仍有類似的事件發生,公司內部網絡將會被禁止使用ChatGPT。
事實上,從開發之初,關于 ChatGPT可能會泄露公司數據的擔心就從未停止過。據 Cyberhaven統計,在160萬打工者中,有8.2%曾經在工作場合使用過它,很多人說,由于使用了它,他們的生產力“提高了10倍”。與此同時,6.5%的雇員說他們會把企業數據拷貝到ChatGPT中,3.1%的雇員說他們曾經把企業機密數據存入ChatGPT。
相應地,越來越多的公司由于擔心機密數據泄露而禁止其員工使用 ChatGPT,如摩根大通,美國銀行,花旗,高盛,德意志銀行等等。軟銀最近還通知了所有員工,關于禁止向 ChatGPT輸入機密信息的警告。看起來, ChatGPT確實可以提高生產力,但是它也確實可以將對話內容用作訓練數據。
就在 ChatGPT被封殺,機密被泄露的時候,又有大量的賬號被封。4月2號,各大社交平臺上都出現了關于 ChatGPT官方大范圍封號的消息,特別是針對亞洲的用戶。根據他收集到的信息,并不是所有的賬號都被影響了,有的能成功登陸,有的只能登陸手機,有的則無法登陸。但是,對 ChatGPT來說,一場大規模的封殺行動似乎正在展開。市場調查顯示,數以百萬計的用戶帳號受此影響。關于新用戶的注冊,目前已經無法進入注冊頁面,更重要的是,許多收取代碼的平臺已經在近期關閉。
除了 ChatGPT之外,3月30日,據國外媒體報道,目前最流行的 AI繪畫工具—— Midjourney,已經停止了免費使用。它的創立者和首席執行官大衛·霍爾茲在接受采訪時說,這一舉措主要是由于大量的新用戶涌入。David Holz在一篇名為“Discord”的社交軟件中提到了“怪異需求和試用濫用”。
從封殺到泄密再到封號, ChatGPT正被卷入一個又一個爭論中。

成于數據,傷于數據
其成功的關鍵在于大數據的輔助。ChatGPT模型是基于大量的會話數據來訓練的,這些數據來自于社會媒體,公眾論壇和其他一些未知的渠道。通過大量數據的訓練, ChatGPT才能取得如此優異的性能。
但是,它還意味著,這個模型一直處于各種可能含有相關敏感信息的對話之中。每一次升級都會帶來新的談話內容,以及隱私泄漏的新風險。為保障數據安全性,開發人員必須采取措施,以保證訓練數據的隱私性。然而,事實卻并不是這樣。
由 ChatGPT引發的數據安全性問題主要有三個方面。首先,他要解決的就是這些數據的合法性問題。如 ChatGPT等大規模語言模型的訓練需要海量的自然語言數據,訓練數據主要來源于互聯網,而開發者 OpenAI對數據來源未作明確說明,使得訓練數據的合法性受到質疑。
歐洲數據保護委員會(European Data Commission Council)委員亞歷山大·漢夫(Alexander Hanff)認為,“數據包”是一項商業性產品,盡管因特網上有很多可供查閱的信息,但是,在含有“禁止第三方數據爬取”條款的網站上收集大量數據,卻違反了相關規定,不構成合理使用。國際機器學習會議 ICML說,盡管 ChatGPT接受了公開數據的培訓,但是他們經常未經同意就收集了這些數據。此外,還有一些個人信息受到了 GDPR等的保護,因此,爬取這些信息是違法的。
其次,就是使用該酶的過程中產生的數據泄露問題。目前, ChatGPT并沒有對用戶群體進行太多的篩選,只要滿足了基本條件,就可以注冊成為用戶。此外,用戶在使用 ChatGPT之前,也不需要經過專門的培訓,因此,它對用戶的使用沒有任何限制。這就是說,用戶可以很隨意、很開放的使用 ChatGPT。
因此,當用戶為完成某種任務或實現某種目標時,可能會輸入一些敏感數據、商業秘密甚至機密信息,一個不注意就可能導致數據泄露。就像三星最近擔心的那樣,數據一旦輸入,將會被收集并使用,并且無法刪除或更改。
三月底, ChatGPT被曝出存在漏洞,會造成用戶聊天記錄、付款信息的丟失。這種情況曾一度造成 ChatGPT的暫時停業。在回應中, OpenAI稱,該漏洞可能會使1.2%的 ChatGPT+用戶在9小時內的付款信息泄露。而且,這個漏洞還會讓其他人看到用戶的聊天內容和聊天記錄,如果里面有隱私信息,就有被泄露的危險。
最后,還有可能被惡意利用的 ChatGPT數據。OpenAI首席技術官米拉·穆拉蒂表示,有人可能利用 ChatGPT的自然語言編寫功能,編寫出一套可以規避反病毒軟件偵測的惡意程序;使用 ChatGPT的編寫功能,可以生成釣魚郵件;利用 ChatGPT的對話功能,冒充真實的個人或組織騙取他人信息等。
數據安全風險的防范
為了保證數據的安全,最好的辦法就是將數據從物理上隔離開來,讓數據成為“死”的,這才是最“安全”的。但這會讓數據失去價值,因為數據的流動、共享和處理,都是有價值的。
數據安全治理的核心是保證數據的安全、可控制性和使用性,使其發揮價值。換言之,數據本身是無罪的,它不能得到安全的保護和使用。換言之,要實現數據安全性,關鍵在于具體的實現方式與管理手段。
因此,如何保證數據授權,明確數據安全責任和科技公司義務,以及如何避免隱私泄露和知識產權等風險,是人工智能大規模進入公共領域后必須要解決的首要問題。
可見,“數據本位”是數據安全工作的核心技術理念。這意味著,以數據的防竊取、防濫用、防誤用為主線,以數據生命周期內各不同環節所涉及的信息系統、運行環境、業務場景和操作人員等為圍繞數據安全保護的支撐。此外,數據要素的所有權,使用,監管,信息保護,數據安全,都需要新的治理制度。這就要求“劃清紅線”,以規范體系為基礎。例如,明確開發人員、使用人員等主體的責任劃分與承擔方式;落實數據分類分級制度,明確數據獲取方式與方法的法律法規。
其次,數據安全的實現有賴于“用數字化治理”,即用數字化和智能化技術來優化數據安全的技術系統,從而提高數據安全的治理能力。例如,在數據安全遵從體系中引入 ChatGPT語言訓練方法和算法遵從,加強技術監管,并定期開展安全審計。
實際上,在數據生命周期的各個階段,數據所面臨的安全威脅以及所能采取的安全措施都是不同的。在數據收集階段,可能會出現收集到的數據直接被攻擊者竊取,或個人生物特征數據被非法儲存并面臨泄露的風險;在數據存儲階段,可能會出現存儲系統受到入侵,進而導致數據被盜,或存儲設備丟失導致數據泄露等情況;在數據處理過程中,由于算法的不當,可能會導致用戶個人信息的泄露等問題。
針對不同階段、不同視角的風險,對其進行“對癥下藥”,完善“治理技術”、“治理手段”和“治理模式”,可有效實現“超大尺度協同”、“精準滴灌”、“雙向觸達”和“超時空預判”。
實現數據安全性不僅需要從上而下,而且需要從下而上。數據安全治理的核心目標是在安全和發展之間找到一個平衡點。在這方面,需要讓企業有動力去提升和證明自身數據安全能力成熟度水平,讓數據安全能力成熟度高的企業擁有更大的發展空間和競爭優勢。另一方面,應加強對用戶數據安全風險的認識,并制定相應的安全規范。
隨著人工智能技術的飛速發展,數據作為戰略資源的基本屬性越來越突出。在數據安全管理方面, ChatGPT只是第一步,而且是不可避免的重要步驟。
頂: 64踩: 4559





