人工智慧科技引發行業變革但也為數據安全保護和監管帶來新挑戰

上海 70℃ 0
摘要:  正值我國數據安全法施行兩周年,2023“浦江護航”資料安全上海論壇日前舉行。  去年11月以來,以ChatGPT為代表的生成式人工智慧等新技術、新業務的發佈,引發行業變革,但也為數據安全保護和監管帶來新挑戰。

  記者李曄

  正值我國數據安全法施行兩周年,2023“浦江護航”資料安全上海論壇日前舉行。記者從論壇上獲悉,電信和互聯網企業承載著大量用戶個人資訊和業務數據,占比超過全國行業機构產生數據總量的四分之一,具有極高價值,但也成為網絡攻擊的主要目標,勒索病毒、數據泄露等安全事件時有發生,總體形勢依然嚴峻。其中,上海承擔著護衛資料安全的重要角色。上海市政府辦公廳副主任張宇祥介紹,截至去年底,上海數位覈心企業已突破1200家,覈心產業規模近3400億元。

  去年11月以來,以ChatGPT為代表的生成式人工智慧等新技術、新業務的發佈,引發行業變革,但也為數據安全保護和監管帶來新挑戰。深信服科技股份有限公司副總裁馬蘊超舉例,“我們公司有一個細分產品規則庫,需要有4人花數年時間對其進行不斷更新維護。然而,經訓練的大模型只用了一周時間,就超越了規則庫原先的更新維護效果。”

  上海市數位憑證認證中心有限公司總經理崔久强擔憂大模型的另一面。“我看過一個詐騙短視頻,其中用AIGC(生成式人工智慧)生成了一個人的聲音和肖像,所謂眼見為實,而今已經做不到了。人臉識別是人工智慧技術應用最先取得商業化成功的領域,但AIGC如果開始做壞事,比如各種偽造、攻擊等,後果是巨大的。”觀安資訊創始人張照龍也留意到,大模型中隱含著許多敏感數據。不久前韓國三星一科技人員因寫程式碼受困,求助於ChatGPT,將企業生產的覈心程式碼也上傳了,使個人、企業及國家敏感數據不斷處於風險之中。囙此,如何做好數據的防洩密以及統一的數據管控,這非常關鍵。

  “從去年ChatGPT重磅發佈到今年以來國產大模型‘百模大戰’,可謂熱鬧非凡,但從過往經驗來看,我們應記住:永遠不要高估一個新技術前5年的創造性,也永遠不要低估它接下來5到10年的破壞性。”上海交通大學人工智慧研究院副院長王延峰說。

  國家和政府部門其實早已留意到其中的挑戰。今年8月31日,國內首批8家大模型公司通過《生成式人工智能服務管理暫行辦法》備案,獲批面向公眾開放服務,這些大模型包括上海人工智慧實驗室的書生通用大模型、商湯科技“商量”,以及百度“文心一言”等。這意味著,國產大模型從“出生潮”邁向“應用潮”過程中,始終面臨著政府部門的審慎監管。

  工信部網路安全管理局副局長杜廣達在論壇上介紹,近期,工信部已啟動2023年“數安護航”專項行動,面向重點電商平臺、資料中心和雲基礎設施運營企業,集中開展風險排查和防範處置,及時化解電信和互聯網領域資料安全的風險隱患。

評論留言

  • 熱心網友
    暫時沒有留言

我要留言

◎歡迎參與討論,請在這裡發表您的看法、交流您的觀點。【所有評論需要人工稽核後才能顯示,請勿發佈垃圾資訊】