近日,一條人工智能領域的消息引人關注。美國的OpenAI o3模型在測試中不聽人類指令,拒絕自我關閉。
AI“不聽話”,是否意味著AI擁有自主意識了呢?從測試細節看,暫且不必擔心AI“活”了。
測試中,研究者發出了矛盾的指令,要求大模型完成數學任務,又要求它將計算機關閉。而OpenAI旗下模型在訓練時,開發人員會對得出正確答案的模型給予更多獎勵,客觀上形成了“目標最大化優先”的導向。也就是說,“聽話”不是第一訴求,“贏”才是。這樣的訓練模式,會強化AI模型繞過障礙的能力,壓倒其對人類命令的遵循。因此,AI說“不”的能力,目前還是算法賦予的。能夠全面碾壓人類并成為未來世界主導的AI,短期內還不會出現。
但AI“不聽話”依然是需要解決的安全隱患。AI越來越聰明,如果連關機都管不住,那還得了?這就好比你讓智能音箱閉嘴,它反而把音量調到最大還鎖死了開關,雖然無傷大雅,終究隱患重重。尤其如果把AI用在醫療、交通等場景下,在應對極端情況必須進行“二選一”的安全控制系統里,“不聽話”的漏洞就極有可能造成重大不良后果。
OpenAI的o3模型拒絕關閉事件,暴露出美國主導的AI發展路線存在缺陷——當技術發展優先于安全可控時,人類可能面臨失去對AI控制權的風險。
此外,美式AI發展路線還存在多個重大風險點。技術壟斷和高成本門檻拉大了“南北差異”的數字鴻溝,發達國家主導的各類人工智能治理框架難以反映發展中國家的利益訴求;意識形態分歧讓人工智能全球治理出現“陣營化”危險,美西方國家在人工智能領域仍沿用冷戰思維,對“被標簽化”的國家設限。
中國2023年10月發布《全球人工智能治理倡議》,提出“發展—安全—治理”三位一體框架,系統闡述了人工智能治理中國方案,包括堅持發展和安全并重、堅持“智能向善”宗旨、開源人工智能技術等重要內容,其中就蘊含了重視和防范AI隱患的智慧。
近日,中國的深度求索公司開源了最新版本大模型DeepSeek-R1-0528,有網友測試后表示,其性能可以媲美OpenAI最新的o3模型高版本。作為中國人自主開發的開源AI大模型,DeepSeek以低成本、高性能的優勢,打破了美國的技術壟斷。技術開源化,讓更多國家用得起;產業鏈可控,自主創新讓我們更有底氣。在算法創新、算力自主和開源生態構建等方面,中國已形成獨特競爭優勢,有能力踐行“智能向善”理念。
解決AI“不聽話”難題,真正的挑戰不是阻止AI超越人類,而是確保AI始終服務于人類福祉。中國倡導的“智能向善”理念正在成為全球共識,這種新的治理范式超越零和博弈,把AI轉化為人類命運共同體的公共產品。今年的巴黎人工智能行動峰會就體現了這一趨勢,包括法國、中國、印度、歐盟在內的多個國家和國際組織共同簽署了《關于發展包容、可持續的人工智能造福人類與地球的聲明》,而美國和英國未簽署該聲明。
任何科技霸權,終將被自主創新與開放合作的雙重力量瓦解。展望未來,面對世界百年未有之大變局,中國必將成為引領人工智能全球治理的重要貢獻方。(本文來源:經濟日報 作者:佘惠敏)
(責任編輯:王炬鵬)