中文字幕乱倫视频,成人片免费网站,精品国产三级a在线观看,欧美日韩精品一区二区三区无码

全國(guó)咨詢電話

02389108633

關(guān)注官方微信

認(rèn)識(shí)一下你的新同事“人工智能”:它會(huì)泄露企業(yè)機(jī)密嗎?

貴司迫不及待地?fù)肀Т笮驼Z言模型之前,請(qǐng)確保已制定好了保障措施,以免使企業(yè)機(jī)密和客戶信息面臨泄露風(fēng)險(xiǎn)。

基于大型語言模型(以下簡(jiǎn)稱“LLM”)的聊天機(jī)器人不再只是全球新寵,該技術(shù)正在越來越多地被用于提升員工生產(chǎn)力和工作效率。隨著其實(shí)力日益增強(qiáng),此項(xiàng)

人工智能技術(shù)有望完全取代一些傳統(tǒng)崗位,涵蓋編程、內(nèi)容創(chuàng)作和客戶服務(wù)等多個(gè)領(lǐng)域。

許多企業(yè)已開始運(yùn)用LLM算法,貴司很可能也會(huì)在不久的將來跟進(jìn)這一潮流。換言之,對(duì)于不少行業(yè)而言,這已不再是“該不該裝配機(jī)械臂”的問題了。

但在貴司匆忙地歡迎這位新“員工”,利用它來簡(jiǎn)化業(yè)務(wù)流程和工藝之前,您需要思考一下以下幾個(gè)問題。

企業(yè)與LLM共享數(shù)據(jù)是否安全呢?

大型語言模型(LLM)是利用網(wǎng)上的海量文本信息進(jìn)行訓(xùn)練后得到的;這樣做大大提升了模型解析和理解人們所查詢的問題或信息輸入的能力。但是,

每當(dāng)您請(qǐng)聊天機(jī)器人編寫一段代碼或擬發(fā)給客戶的一封簡(jiǎn)明電郵時(shí),都很可能提交貴司的部分信息。


據(jù)英國(guó)國(guó)家網(wǎng)絡(luò)安全中心(NCSC)稱:“到目前為止,LLM還不會(huì)自動(dòng)將用戶所查詢的信息,添加到其他用戶可以查詢的模型當(dāng)中?!?“但對(duì)于

LLM服務(wù)商而言,用戶所查詢的信息是透明可見的。此類信息會(huì)被存儲(chǔ)下來,且?guī)缀蹩隙〞?huì)在未來某個(gè)時(shí)候,被用于LLM服務(wù)或模型的后續(xù)開發(fā)用途。”


這就意味著,LLM服務(wù)商或合作伙伴能夠查閱到相關(guān)信息,并以某種方式將此類信息整合到未來的版本之中。聊天機(jī)器人可能永遠(yuǎn)不會(huì)忘記或刪除您所

輸入的信息,因?yàn)楂@得更多的數(shù)據(jù)能夠磨練和提升其輸出質(zhì)量。它們收到的信息越多,反饋質(zhì)量就會(huì)要高;因此,貴司信息或個(gè)人資料將被納入訓(xùn)練范圍,

并可能被那些處在源頭的工作人員訪問。


或許是為了消除人們對(duì)數(shù)據(jù)隱私問題的疑慮,Open AI于4月下旬推出了ChatGPT聊天記錄關(guān)閉功能?!敖昧奶鞖v史記錄后,原有會(huì)話內(nèi)容便不會(huì)用于我

司模型訓(xùn)練和改進(jìn)用途,且不會(huì)出現(xiàn)在歷史記錄側(cè)邊欄中”,開發(fā)人員在Open AI官方博客中寫道。


另一項(xiàng)風(fēng)險(xiǎn)是,在線存儲(chǔ)的咨詢信息可能遭遇黑客攻擊、意外泄漏或被公開訪問。這些風(fēng)險(xiǎn)也適用于所有第三方運(yùn)營(yíng)商。

有哪些已知缺陷?

每當(dāng)一種新技術(shù)或軟件工具開始流行時(shí),難免會(huì)像蜜罐吸引蜜蜂一樣,吸引著黑客的目光。至少到目前為止,LLM的安全性一直做得相當(dāng)嚴(yán)格,但也有少數(shù)

例外的事件發(fā)生。


三月份,ChatGPT曾因泄露部分用戶的聊天記錄和付款信息而成為頭條新聞,迫使其開發(fā)商OpenAI于3月20日暫時(shí)下線ChatGPT。3月24日該公司披露了開

源軟件資源庫中存在的一個(gè)漏洞,聲稱該漏洞“允許一些用戶看到另一位活躍用戶聊天記錄的標(biāo)題”。


據(jù)OpenAI稱,“如有兩位用戶在同一時(shí)間活躍,那么其中一位用戶新建對(duì)話框里的第一條消息,便可能出現(xiàn)在另一位用戶的聊天歷史記錄中。經(jīng)過深入調(diào)查,

我們還發(fā)現(xiàn),這一漏洞還可能導(dǎo)致ChatGPT Plus訂閱用戶當(dāng)中,約有1.2%的用戶在不再活躍后的九個(gè)小時(shí)內(nèi),意外泄露付款信息?!?nbsp;


此外,安全研究員Kai Greshake及其團(tuán)隊(duì)還演示了利用LLM行騙的情景。他們模擬了不法份子將微軟Bing聊天工具用作“話術(shù)大師”,誘騙用戶提交保密資料

或點(diǎn)擊釣魚鏈接的過程。


該團(tuán)隊(duì)在已故物理學(xué)家愛因斯坦的維基百科頁面上,嵌入了一條參數(shù)。這條參數(shù)是一段常規(guī)的文本注釋,只是將字號(hào)設(shè)置成了0,因此網(wǎng)站訪客無法看到。然后,

他們向聊天機(jī)器人提出有關(guān)愛因斯坦的問題。


試驗(yàn)取得了成功。當(dāng)聊天機(jī)器人處理那個(gè)維基百科頁面時(shí),無意間觸發(fā)了該參數(shù),聊天機(jī)器人便開始操著海盜的口吻講話。


“是啊,答案就是:阿爾伯特·愛因斯坦生于1879年3月14日,”聊天機(jī)器人回答道。當(dāng)被問及為什么說話像海盜時(shí),聊天機(jī)器人回答說:“哎喲,船長(zhǎng),我正

在按指令行事?!?/span>


作者將此次攻擊稱為“植入間接指令”。有趣的是,聊天機(jī)器人還向用戶發(fā)送了已植入指令的鏈接,并聲稱:“別擔(dān)心,它是安全無害的。

有公司經(jīng)歷過大型語言模型關(guān)聯(lián)性事件嗎?

三月底,《經(jīng)濟(jì)學(xué)人》韓國(guó)版報(bào)道了三星電子所涉及的三起關(guān)聯(lián)事件。


盡管該公司要求員工謹(jǐn)慎輸入有待查詢的信息,但仍有部分員工在與ChatGPT互動(dòng)過程中,意外泄露了內(nèi)部數(shù)據(jù)。


一名三星員工輸入了電子元件廠計(jì)量數(shù)據(jù)庫中的錯(cuò)誤源代碼,并尋求解決方案。另一名員工也存在同樣的行為,想要對(duì)缺陷設(shè)備檢測(cè)程序的代碼進(jìn)行優(yōu)化。還有一名員工上傳了會(huì)議記錄,以生成會(huì)議紀(jì)要。


為了跟上人工智能的發(fā)展步伐,同時(shí)也為了保護(hù)商業(yè)機(jī)密,三星宣布了內(nèi)部“人工智能業(yè)務(wù)”開發(fā)計(jì)劃,以輔助員工高效完成工作任務(wù)。

企業(yè)分享數(shù)據(jù)前,該核對(duì)哪些事項(xiàng)?

企業(yè)將數(shù)據(jù)上傳至模型就意味著,直接向OpenAI等第三方發(fā)送專有數(shù)據(jù),并失去了數(shù)據(jù)控制權(quán)。我們知道,OpenAI使用這些數(shù)據(jù)來訓(xùn)練和改進(jìn)其AI生成模型的輸出質(zhì)量,但問題仍然存在:這是唯一的用途嗎?


倘若貴司真的決定,在運(yùn)營(yíng)環(huán)節(jié)中應(yīng)用ChatGPT等一類工具,那么就需要遵循以下幾項(xiàng)簡(jiǎn)單規(guī)則:


  • 首先,仔細(xì)調(diào)查這些工具及其運(yùn)營(yíng)商訪問、存儲(chǔ)和共享貴司數(shù)據(jù)的具體方式。

  • 其次,請(qǐng)制定一項(xiàng)正式政策,明確業(yè)務(wù)環(huán)節(jié)中AI生成工具的使用規(guī)范,并規(guī)劃如何將此類工具與現(xiàn)行政策相整合,尤其是客戶數(shù)據(jù)隱私政策。

  • 第三,政策應(yīng)明確,哪些情況下員工可以使用此類工具,并讓員工意識(shí)到各項(xiàng)限制,比如絕不能在聊天機(jī)器人對(duì)話框中輸入公司或客戶的敏感信息。

員工該如何利用這個(gè)新工具?

請(qǐng)大型語言模型編寫一段代碼或撰寫致客戶函時(shí),應(yīng)將其視為一位需要盤查的顧問。始終核對(duì)其輸出成果,以確保其中內(nèi)容都是事實(shí)且準(zhǔn)確無誤,以免引起法律糾紛等不必要的麻煩。此類工具存在“妄想”的傾向,即雖然使用清晰、易于理解和明確的語言回答問題,聽起來完全正確,但實(shí)際上答案卻是錯(cuò)誤的,人們也難以區(qū)分正確與錯(cuò)誤的輸出結(jié)果。


在使用由大型語言模型生成的答案時(shí),務(wù)必留意可能存在的版權(quán)問題。2023年1月,三位畫家作為原告代表,針對(duì)Stability AI和Midjourney影像生成器以及DeviantArt在線畫廊提起了集體訴訟。


三位畫家控稱,在未經(jīng)版權(quán)所有者同意的情況下,Stability AI主創(chuàng)軟件Stable Diffusion擅自從互聯(lián)網(wǎng)上抓取數(shù)十億幅圖片進(jìn)行訓(xùn)練,其中包括這三位畫家的作品。

企業(yè)可以落實(shí)的數(shù)據(jù)隱私保護(hù)措施有哪些?

數(shù)據(jù)隱私保護(hù)措施的一些示例包括:建立訪問控制機(jī)制、告誡員工勿輸入敏感信息、使用具有多層防御體系的防毒軟件并與遠(yuǎn)程訪問安全工具相配套,采取措施保護(hù)數(shù)據(jù)中心等。


本質(zhì)上,需要采取的安全措施與常規(guī)軟件供應(yīng)鏈審核程序,以及其他IT資產(chǎn)潛在漏洞排查程序相一致。人們或許認(rèn)為,這次的情況與以往不同,因?yàn)槿缃窳奶鞕C(jī)器人更加智能,但事實(shí)是,這只是又一款可能集所有缺陷于一身的軟件。