人工智能大模型要按暫停鍵嗎
ChatGPT引發的人工智能大模型競賽,令很多人擔心人工智能失控。3月底國際上就有一批專家發出聯名公開信呼籲:立即暫停訓練比GPT-4更強大的人工智能係統。人工智能大模型要按暫停鍵嗎?
從可行性來看,這個暫停鍵目前還沒人能按下去。就在5月10日,穀歌宣布推出最新的大型語言模型PaLM 2,稱其在部分任務上已經超越GPT-4。這很明顯是無視了公開信的呼籲,公開對GPT-4等競爭對手發起挑戰。
人工智能大模型已經成為當前國際投資熱點,各方不斷加碼,競賽不斷提速。技術狂飆的背後,是科技企業和風險投資公司的盈利衝動,除非觸發政府部門的強製幹涉,依賴行業自律按下暫停鍵的目標不太可能實現。此外,目前大模型的權力集中在“大玩家”手中,現實中行業壟斷的危害比未來可能出現的人工智能危害更迫在眉睫,與簡單叫停大模型研究相比,規範人工智能“玩家”是更緊迫的需求。技術創新難以抑製,與其叫停研究,還不如盡快製定和完善人工智能治理相關法規,讓創新研究在陽光下運行,在規則內運行。
從複雜性來看,大模型的健康發展本身就有賴於技術進步,需要以人工智能來監督、限製人工智能。
人工智能大模型“湧現”出寫文章、做翻譯、寫代碼、製圖像等許多意想不到的能力,部分能力和人不相上下,生產速度則遠超人類,已讓許多人感受到衝擊。它為什麼能夠達到目前的能力?目前大模型的“智能湧現”是個黑箱,沒有人能理解、預測或可靠地控製這些大模型,甚至模型的創造者也不能。
對人工智能大模型開黑箱、對數據泄露上鎖、對虛假內容做標記、對網絡攻擊等危險行為實施監測防範,一方麵需要從科研倫理規範上增加透明度,讓大模型研發、訓練、生成、推理的鏈路變得更加透明;另一方麵也需要使用好技術工具,用人工智能大模型來幫助人類理解和控製人工智能大模型。這話聽起來繞口,實際已有成功案例。ChatGPT的締造者美國OpenAI公司近日發布一項成果,就是用GPT-4大模型來自動解釋GPT-2大模型的行為,在人工智能可解釋性研究領域獲得重大突破。
眼見可為虛,耳聽也不為實。人工智能大模型以其彪悍的信息造假能力,對社會信任帶來重大衝擊。從一些調查結果看,不少人讚同暫停超越GPT-4能力的大模型研究,先解決已知風險再按啟動鍵。人工智能是國家戰略技術,是未來引領經濟發展的助推器。對中國人工智能產業而言,需要的不是暫停研究,而是吸取國外大模型發展的前車之鑒,讓大模型研發在合規下運行。
科技治理為科技創新保駕護航,人工智能治理已成為重要的國際科技競爭力。大禹治水,“堵”不如“疏”。在研發人工智能大模型的同時,構建高效透明的科研倫理商談審批機製,拆壁壘、緩痛點、疏堵點,才能建立起更有競爭力、更可持續發展的人工智能產業生態。 (本文來源:經濟日報 作者:佘惠敏)
隨便看看:
相關推薦:
- [資訊]青海省水井巷集團周報(2023年第41期)
- [資訊]青海省水井巷集團周報(2023年第50期)
- [資訊]青海省水井巷集團周報(2023年第45期)
- [資訊]為何神農架深處被列為禁區?除“野人”外,三種神秘現象至今無解
- [資訊]3月29日,玉米走跌小麥上漲,生豬雞蛋價格“飄綠”,發生了啥
- [資訊]盤前必讀丨孟晚舟將亮相華為年報發布會,中石化去年業績創近十年
- [資訊]預警升級!3月25日生豬、豬肉價格“齊上漲”,豬價衝高回落
- [資訊]PCB行業龍頭大戰正酣,深南電路營收激增毛利率卻下跌?
- [資訊]波音737一架5億元,在它的使用壽命內能回本嗎?不隻機票能賺
- [資訊]華為公開利用唇動特征解鎖設備專利 口罩:那我走?
網友評論:
推薦使用友言、多說、暢言(需備案後使用)等社會化評論插件