2025年12月下旬,一家科技公司在內(nèi)部測試過程中,一臺新型服務(wù)機器人突然用腿部動作將工程師踢倒在地,雖然工程師沒有受到嚴重傷害,但現(xiàn)場視頻在22日被傳到網(wǎng)上后引發(fā)了公眾廣泛關(guān)注,公司隨后解釋稱這是程序錯誤所致,并非有意行為。
這個機器人原本是為商場或養(yǎng)老院設(shè)計的,能走路、避障、拿東西,動作很靈活,可那天它在同時做多個任務(wù)時,傳感器數(shù)據(jù)沖突,系統(tǒng)自己亂套了,結(jié)果就踢到人了,這不是機器壞了,是它判斷錯了,現(xiàn)在很多公司覺得只要避開障礙物就算安全,其實這遠遠不夠,真正的安全應(yīng)該像汽車的安全帶那樣,有實際的限制,不能只依賴軟件猜測。
測試環(huán)節(jié)也出問題,很多公司為趕時間先在虛擬環(huán)境跑一遍流程,再找真人試幾次就敢正式使用,這次事故正好發(fā)生在測試最后階段,說明前面根本沒有模擬過人突然沖過來的極端情況,人工智能學(xué)的是正常操作步驟,沒人教它處理突發(fā)意外,就像練車只練直行,一遇到轉(zhuǎn)彎就完全不會應(yīng)對。
網(wǎng)上很多人討論“機器人發(fā)脾氣”和“AI覺醒”,其實這些說法都是隨便猜測,人類看見機器突然動起來,第一反應(yīng)就是覺得危險,這是本能,2017年波士頓動力那個機器人翻跟頭的時候,大家也說它在挑釁人,其實只是物理慣性造成的動作,我們太習(xí)慣給機器加上感情色彩,反而忽略了技術(shù)本身可能存在的問題。
歐盟今年實施的新規(guī)對高風(fēng)險AI系統(tǒng)提出安全要求,比如必須配備物理限位和緊急停止按鈕,中國去年底發(fā)布了《服務(wù)機器人安全技術(shù)規(guī)范》,但尚未正式執(zhí)行,企業(yè)主要依靠自覺遵守,這次踢人事件可能促使監(jiān)管部門盡快完善相關(guān)細則,避免類似事件再次發(fā)生帶來更大風(fēng)險。
技術(shù)越是進步,安全措施越要直接有效,不能依賴人工智能自己思考明白,要讓機器無法亂動才算真的安全,現(xiàn)在人們只顧著追求功能有多厲害,很少考慮萬一系統(tǒng)失去控制會怎么樣,這種情況如果發(fā)生在商場里面,后果真是難以想像