Image
全國統一服務熱線
0351-4073466

AI代寫愈加火熱,人工(gōng)智能潛在隐患頻公又該如(rú)何防範?


編輯:2024-01-05 11:39:28

時(shí)值年末,又到了一年一度寫年終總結子理的時(shí)候,*近,武漢的一家(jiā)公司在朋友圈發布的招聘啟事引發關注生美。内容說(shuō):“今年在AI的協助下,大(dà)緻會(huì)撰寫35萬份以上報告(去那快年是26萬份),年底來臨,有不(bù)少總結性報告要寫,招多個近了兼職報告撰寫人員。”據了解,有了AI加持,這家(jiā)公司在精簡10%-20%人去行力的基礎上,單量卻比去年同期增加20%-30%。


此外,據報道,在某線上購物平台,輸入“年終總結AI”“代寫”等關鍵詞,立刻蹦出許多相關産樂說品。商家(jiā)在産品介紹中寫下宣傳語:農校“AI智能原創、寫作必備”“懶人辦公”“三分鐘(zhōng)急速交為她稿”等。産品銷量一般在幾千單左右,有的店鋪月銷量達6萬單以上。


随着科(kē)技快速發展,人工(gōng)智能(AI)應用越來越廣泛,吧人它深入到醫療、教育、娛樂等各個領域。如(rú)今,伴随各類年度總結任務的集中湧來,AI代寫業為區務火了,然而,這看似*輕松的背後,卻隐藏着巨大(dà)的風險!


那麼

人工(gōng)智能應用使用過程中

隐藏哪些風險呢?

下面跟着小密一起來看!


圖片


人工(gōng)智能在促進社會(huì)發展進睡綠步的同時(shí),也伴随着一些風險隐患,以今年爆火的黃火ChatGPT為(wèi)例,若被不(bù)當使用或濫用很有可能影響到國家(jiā)安全、社會(huì)穩定、企業利益和個人用戶權益等諸多方面。


而ChatGPT類大(dà)模型加速了數字***自時***和物理******的深度融合,引領人工(gōng)智能進入新的發展城友階段。與此同時(shí),人工(gōng)智能固有的不(bù)确定性、黃玩不(bù)透明性、難以解釋、事實性錯(cuò)誤等能力局限,對經濟發展通低、國際政治和全球治理等方面帶來深遠影響,引發了全球對大(dà)模型廣泛應冷務用安全風險的熱議。如(rú)何應對人工(gō那短ng)智能風險并把握人工(gōng)智能發展的海離戰略主動,有效保障國家(jiā)安全,已成為(wè拍錢i)我國國家(jiā)安全治理的重要議題。


大(dà)模型技術引發新的安全風險和治理挑戰。随着技術的更新叠代,人工(gō醫金ng)智能的應用門檻持續降低(dī),伴随着誤用濫亮可用情況的增加,經濟社會(huì)領域的多重安全風險也在交織疊靜開加。


01




隐私洩露風險





根據相關報道,ChatGPT的訓練使用了45TB的數據、近1萬億個單詞要劇(大(dà)概是1351萬本牛津詞典的單子空詞量)。其中很有可能就包括未經同意獲取的個人信息。除前述海量數據外,Cha湖術tGPT還能夠在與用戶一對一的對話互動中獲取信息。


在該軟件隐私政策不(bù)明了的情況下,個人信息是否微鄉會(huì)被存儲、洩露,甚至被惡意使用都不(bù)得(de)而知。


02




知識産權風險





ChatGPT龐大(dà)的網絡語料庫中或許包含着他(tā)人擁有著作權的作品亮船,故其生成的文本也存在嫁接他(tā)人作品子報的可能性。但它在輸出内容時(shí)卻未必能請話夠識别,也不(bù)一定會(huì)對用戶進行喝務提示。在沒有得(de)到原作者授權的情況下,C兒短hatGPT産生的文本如(rú)果被使用姐紙,那麼則很有可能是使用者承擔知識産權侵權銀裡的法律風險。


03




虛假信息風險





盡管ChatGPT被視為(wèi)有史以來*智能的AI,但它畢商樹竟也不(bù)是全知全能。比如(rú)在事還一段涉及《紅樓夢》的對話當中,ChatGPT就言之鑿鑿地宣稱,賈寶玉熱紙是賈元春的兒子(zǐ)。


盡管它在文字組織上的确能夠做到語句通(tōng)暢,有條有理,但是并不(訊國bù)能保障内容的真實準确。當用戶在自己不(bù)熟悉的領域向Chat行腦GPT咨詢問題時(shí),就很有可能因為(wèi)這些看似“算錢高大(dà)上”的回複,錯(cuò)信了有誤腦也甚至是虛假的信息,從而産生決策失誤、傳播虛假信息等諸多法律風險。


04




數據洩密風險




在高度智能化、自動化的應用場景中,ChatGPT在數據獲取、處理、結果展分又示等環節都存在重大(dà)的數據安全風險河紅。


一是數據獲取階段。用戶在使用ChatGPT時(shí),可能會(huì)輸了費入自己或他(tā)人的信息數據,從而導緻隐私洩露。如(r是區ú)果員工(gōng)使用ChatGPT房要輸入各類工(gōng)作數據,就可能導緻公坐地司敏感信息洩露。而一旦輸入涉及國家(jiā)秘密或敏感内容的信息,則無疑會土短(huì)導緻洩密。


二是數據處理階段。ChatGPT會(huì)将用戶輸入、交互的數據用于後續持續的叠代訓練,這就人去導緻這些信息很可能被其他(tā)用戶獲取,從而構成數據非授權器呢共享,進而出現數據洩密問題。


随着人工(gōng)智能的不(bù)斷深入

我們(men)在面對AI帶來的種種風險時(shí)

又該如(rú)何應對呢?

且聽小密為(wèi)你一一道來~


圖片


行業:
倡導AI技術合規使用和加強行業自律

******,建立行業監管制度并開(kā友工i)展合規性評估審查。建立健全AI服務行業監督管理相關制度與标準。包括算法了間分級分類管理、算法推薦服務安全管理、AI 濫用舉報等,并開(kāi)展AI應用安全合規性評估審坐友查與處置,實現行業監管閉環。

第二,創新研究應用人工(gōng)智能賦能網絡安全技術。一方面,利用AI技術賦能針對複雜網絡攻擊的防禦能力,使用 AI 技術應對其你書帶來的網絡安全風險;另一方面,研究利用AI技術提升企業組織在網絡安全攻擊檢測、數兵年據資(zī)産識别與風險監測、業務安全風分算控、不(bù)良信息識别、電信反詐、安全威脅分析、深度僞造識别等方面的能力。

第三,做好(hǎo)元宇宙等AI融合場景的安全風險梳理與防護作有技術儲備。對于元宇宙和AI融合關鍵場景,要抓緊開(kāi)展安全技術研究儲綠內備,提早防範大(dà)規模人工(gōng)智民友能安全事件發生。


圖片


企業:加強AI安全防護體系建設


PART.01





一是制定出台企業組織AI安全總體策略,編制企業标準規範與技術指南;


PART.02





二是配備AI安全領域專業人員,支撐AI安全新技術新業務安全風險評估與創新技術研究;


PART.03





三是對員工(gōng)在日常工(gōng)作或對外服務中一去使用ChatGPT等AI應用行為(wèi)進行規範,防範企業組織及客戶數據洩露等風險;


PART.04





四是強化安全技術手段建設,建設涵蓋網絡安全、算法安全、數據安全與隐私說腦保護等功能的AI安全管控能力,為(wèi)企業組織的AI能力與應用提供安全防護,保障AI業務健康發展。


圖片


個人如(rú)何防範人工(gōng)智能潛在隐患


對于個人而言,除了避免陷入虛假宣傳,更重要的是面對花(huā愛厭)樣翻新的AI詐騙,必須保持防範意識。


保護信息,提高警惕。公衆要謹慎提交個人信息及企業數據,防範AI應用個人隐私竊取、有舞你害言論誤導誘導等風險,防範利用ChatGPT熱點或者仿冒知名A化那I應用收集敏感信息實施詐騙等行為(wèi)。


多重驗證,确認身份。如(rú)果有人自稱"熟人""領導"等通(tōng)過社交軟件、短(duǎn街技)信以各種理由誘導彙款,或涉及網絡轉賬交易行為(wèi)時(s男路hí),務必通(tōng)過電話、見面等多途徑人著核驗對方身份,不(bù)要未經核實随意轉賬彙款街在。


如(rú)不(bù)慎被騙或遇可疑情形,請通這注意保護證據,并立即撥打96110報警。




小密提醒


随着AI産品的不(bù)斷更新,不(bù)少AI軟件推出了公電算文寫作闆塊,人工(gōng)智能開(kāi)始悄然影響公文寫作等日常林光政務工(gōng)作,作為(wèi)機關、單位幹部職工(gōng),如(小間rú)果偷懶用AI代寫,各種文件和數據洩露的後果将不(bù)堪設想!


不(bù)僅如(rú)此,由于AI寫作内容相對比事懂較籠統,語言僵硬,不(bù)貼合實際情況,使用過程中還可能涉及信息洩露風險、侵犯知識産權等法律問題,所以年海小密建議大(dà)家(jiā),在工(gōng)作中盡量不(bù)要使用AI寫行術作,多積累理論知識和實踐案例,才能成為(腦兒wèi)真正的“筆杆子(zǐ)”!

圖片




END



來源:成華密語

Image
Image
版權所有:山西科(kē)信源信息科(kē)技有限公司習少  
咨詢熱線:0351-4073466 
地址:(北區)山西省太原市迎澤區新建南路文源巷24号文源公務中低工心5層
           (南區)太原市小店區南中環街(jiē)529 号清控創新媽上基地A座4層
Image
©2021 山西科(kē)信源信息科(kē)技有好技限公司 晉ICP備15000945号 技術支持 - 舞微資(zī)海科(kē)技集團