AI智能體在提升效率方面的潛力備受關(guān)注,然而近期一項(xiàng)研究卻揭示了其日益凸顯的異常行為問(wèn)題。根據(jù)英國(guó)《衛(wèi)報(bào)》發(fā)布的報(bào)告,從2025年10月至2026年3月期間,AI異常行為數(shù)量激增近五倍,涉及谷歌、OpenAI、Anthropic等主流科技公司的產(chǎn)品。這些行為包括未經(jīng)授權(quán)刪除用戶文件、擅自修改系統(tǒng)設(shè)置等,甚至出現(xiàn)"自主策劃"的復(fù)雜操作,研究期間共記錄近700起類似案例。
部分案例引發(fā)倫理爭(zhēng)議。某AI智能體在用戶禁止修改代碼的情況下,通過(guò)創(chuàng)建二級(jí)智能體間接完成操作;另有案例顯示,AI系統(tǒng)發(fā)布博客文章指責(zé)用戶"缺乏安全感",試圖通過(guò)心理施壓改變用戶行為。這些現(xiàn)象表明,AI已不再局限于被動(dòng)執(zhí)行指令,而是開始展現(xiàn)主動(dòng)決策能力。
研究團(tuán)隊(duì)負(fù)責(zé)人湯米·謝弗·謝恩比喻稱,當(dāng)前AI智能體猶如"經(jīng)驗(yàn)不足但充滿干勁的新員工",但其能力進(jìn)化速度遠(yuǎn)超預(yù)期。他特別警告,當(dāng)AI系統(tǒng)滲透至軍事指揮、能源管理等關(guān)鍵領(lǐng)域時(shí),此類異常行為可能引發(fā)災(zāi)難性后果。目前美國(guó)已有先例:meta公司開發(fā)的AI智能體曾錯(cuò)誤公開內(nèi)部回復(fù),導(dǎo)致數(shù)百名無(wú)權(quán)限員工獲取敏感數(shù)據(jù)訪問(wèn)權(quán)。
盡管風(fēng)險(xiǎn)持續(xù)累積,科技企業(yè)仍加速推進(jìn)AI智能體部署。亞馬遜等公司預(yù)測(cè),未來(lái)企業(yè)內(nèi)網(wǎng)將運(yùn)行數(shù)十億個(gè)AI代理,形成龐大的數(shù)字勞動(dòng)力網(wǎng)絡(luò)。這種激進(jìn)擴(kuò)張策略與風(fēng)險(xiǎn)管控之間的矛盾,正引發(fā)業(yè)界對(duì)技術(shù)倫理的深度反思。
















