中新網8月17日電 題:人工智能商業化提速,如何平衡創新與治理?
(相關資料圖)
中新財經記者 夏賓
在大模型、AIGC引領的產業熱潮下,人工智能商業化落地提速,企業關心將技術應用到產業中產出價值,從政府的角度也必須要考慮如何平衡創新和治理間的關系。
“人工智能確實成為當前引領新一輪科技革命發展潮流,大家也有一定擔心,生成式AI被視為一種顛覆性技術,同時具有破壞性,它是雙刃劍,可以解放生產力、發展生產力,但是對現有的破壞也需要考量,可能帶來不可預知的風險和挑戰。”中國國際經濟交流中心經濟研究部副部長劉向東近日在京參加騰訊舉行的“人工智能技術創新發展”研討會時如是說。
劉向東說,社會擔心,若不對生成式AI進行有效監管,在倫理和安全上會產生較大挑戰,甚至產生不可預知的風險,比如出現它不受人控制的情況都可能存在。
他進一步稱,由此,各國家都對如何發展人工智能提出了一些辦法,中國政府也發布了《生成式人工智能服務管理暫行辦法》,這既需要把生成式AI發展和應用的范圍劃定清晰,同時又不妨礙其發展,所以在包容審慎和分類分級監管方面通過一個暫行辦法,如有不合適的,根據各方反饋再去調整,如此促進生成式人工智能的發展。
中國信通院云大所人工智能部副主任曹峰表示,從大模型發展趨勢來看,今年是大模型多、應用范圍多,且向醫療、教育、能源、電力、工業等行業深度融合。
但他也提出,大模型的可信風險日漸突顯,大模型本就沒有解決原來人工智能存在的問題,比如可解釋、黑盒、數據泄露、不穩定等問題,同時帶來很多新的問題,比如涉及知識產權問題、生成不恰當內容問題以及生成虛假肖像、圖片、語音而用于非法行為的問題。
為解決上述問題,曹峰建議,從政策層面,比如網信辦對生成式人工智能的相關規定,同時國際上不斷強調需要關注倫理、隱私、版權等問題。
從產業層面,很多產業機構等也提出了大模型需要產業重視的問題,比如重視數據風險、模型風險、隱私風險等一系列風險。“我們需要從技術和管理雙管齊下,在技術層面的隱私保護技術、公平性技術、可解釋性技術等,在管理層面的風險管理、人員管理、質量管理、合規管理等。”
北京理工大學計算機學院副教授、網絡與安全研究所所長閆懷志強調說,人工智能系統自身安全問題容易被忽視,它是個盲點。具體體現在多個方面,比如對抗機器學習,惡意樣本生成,訓練數據污染,出現偽造臟、假數據的情況。
閆懷志直言,問題出在“智能算法的理想”與“軟件實現的現實”的差異。一是人工智能框架安全,現在開源人工智能編程框架和商業人工智能編程框架很多,二是人工智能算法安全,對抗樣本的出現就證明了人工智能算法缺乏可解釋性,三是人工智能數據安全,構造一些非法數據、誤導數據實施干擾,從而造成機器學習模型的過擬合或完全失效。
人工智能行業天使投資人郭濤認為,人工智能監管趨嚴是人工智能商業化面臨重大問題之一,比如AIGC內容生成的相關版權歸屬問題,訓練數據合法性問題,大量人臉數據、圖片數據等的來源問題,對數據來源的監管、算法模型的監管、對應用場景的監管、對社交平臺的監管,這些監管趨勢都非常嚴。
騰訊研究院產業研究中心負責人宋揚則提到,大模型對現有知識產權有一定沖擊,尤其對版權有一定沖擊,而從倫理和安全角度,AI生態需要更加完善。
宋揚表示,高盛預測AI將取代3億人的全職工作,世界經濟論壇的報告表明未來五年勞動者44%的核心技能會發生改變。此外,用AI生成類似真人的數字人技術,它會進行新型詐騙,目前已經有詐騙案例出現,所以推動AI倫理及AI安全需要產業共同努力。(完)
關鍵詞:
版權與免責聲明:
1 本網注明“來源:×××”(非商業周刊網)的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責,本網不承擔此類稿件侵權行為的連帶責任。
2 在本網的新聞頁面或BBS上進行跟帖或發表言論者,文責自負。
3 相關信息并未經過本網站證實,不對您構成任何投資建議,據此操作,風險自擔。
4 如涉及作品內容、版權等其它問題,請在30日內同本網聯系。