首頁 行業(yè) 活動 項目 快訊 文娛 時尚 娛樂 科技 汽車 綜合 生活

當(dāng)前信息:無人自主武器,是機遇還是陷阱

2023-06-29 07:00:26 來源:中國青年報

近日,在英國皇家航空學(xué)會倫敦“未來空戰(zhàn)和空間能力”研討會上,美國空軍負責(zé)AI測試和運營的漢密爾頓上校披露,在美國空軍進行的無人自主武器攻擊試驗中,無人機出現(xiàn)違背指令并攻擊操作員的事例。隨后,美國空軍方面否認進行了此類試驗。6月2日,英國皇家航空學(xué)會發(fā)表聲明,稱漢密爾頓透露的相關(guān)測試只是“假設(shè)性的思想試驗”,漢密爾頓的發(fā)言“被斷章取義了”。

在人類社會主要由自然力主導(dǎo)的低技術(shù)時代,人們對大自然充滿敬畏、恐懼和無邊的想象。當(dāng)技術(shù)進步到?jīng)Q定性地影響社會發(fā)展的現(xiàn)代,人們開始對具有顛覆性作用的新技術(shù)產(chǎn)生了類似的恐懼和聯(lián)想。

的確,人工智能產(chǎn)生的能力已經(jīng)在某些方面超過了人類,例如,“深藍”戰(zhàn)勝國際象棋大師卡斯帕羅夫,“阿法狗”戰(zhàn)勝人類一流圍棋選手柯潔、李世石。這樣的能力來自人類對人工智能系統(tǒng)的硬件賦能、軟件和數(shù)據(jù)賦能。


(相關(guān)資料圖)

人工智能在某一項具體功能、能力上超越人類,并不證明人工智能系統(tǒng)已經(jīng)具有威脅人類的能力。人工智能的數(shù)學(xué)模型、智能算法等都是人類設(shè)計,人工智能據(jù)此進行反復(fù)迭代的數(shù)據(jù),都來自人類的“投喂”。人類能夠?qū)⒆陨砟芰x予智能系統(tǒng)的前提,是人對自身的能力,尤其是思維能力的完全掌握,并且以技術(shù)方式賦予計算機系統(tǒng)。然而,人類對自身,尤其是大腦的思維活動至今并沒有完全搞清楚,未知部分是不可能賦予計算機系統(tǒng)的。

科幻作家泰德·姜認為,目前人工智能的本質(zhì)僅是應(yīng)用統(tǒng)計學(xué),即其思維邏輯僅僅是在大量數(shù)據(jù)統(tǒng)計的基礎(chǔ)上,選擇可能性最大的選項。這個判斷或許比較文藝,但并非妄言。如圍棋人工智能“阿法狗”,不管其算法如何復(fù)雜,它的下一步行棋,確實是選擇棋盤中相對“價值最大”的位置。而這,離自主意志還有很遠的距離。

人與武器實現(xiàn)最佳契合是達成最佳戰(zhàn)場效果的基礎(chǔ)。在人工智能出現(xiàn)之前,人與武器的契合度主要表現(xiàn)為人對武器裝備的嫻熟使用。在武器裝備系統(tǒng)日益復(fù)雜化、技術(shù)化之后,偵、判、打、評或觀察、定向、決策、行動的作戰(zhàn)過程,每個環(huán)節(jié)都形成相對獨立的裝備和系統(tǒng)。信息化、智能化的加入,武器系統(tǒng)不僅可以發(fā)揮破壞作用,而且可以取代人的部分思維。這就產(chǎn)生人與武器系統(tǒng)之間怎樣區(qū)分功能、作用,最關(guān)鍵的是人與武器系統(tǒng)怎樣分配權(quán)限。

在區(qū)分人與武器的權(quán)限之前,要搞清楚“自動”與“自主”之間的區(qū)別。所謂“自動”是指原有機械化過程的全自動完成。過程的步驟和每個步驟的先后順序,以及每一步的結(jié)果都是確定的。按照既定的流程、方式,無需施加人的控制,全過程自動完成。

所謂“自主”,是指整體程序、主要流程、大的節(jié)點是確定的,但過程中存在一定的不確定性。遇到突發(fā)意外情況時,其應(yīng)對策略來自確定的模型和算法,但在某些細節(jié)上允許系統(tǒng)依據(jù)數(shù)據(jù)自主作出決策。

到底是操作員啟動攻擊,還是無人機自主攻擊,或在什么條件下人工啟動攻擊,在什么條件下無人機自主攻擊,這就是操作員與無人機權(quán)限的分配問題。

2004年以來,美國軍方和中央情報局在海外的無人機空襲造成9000人至1.7萬人死亡。2021年7月,美國前空軍情報分析員和無人機操作員黑爾透露,在他執(zhí)行無人機“定點清除”任務(wù)時,有不少人是無辜的。黑爾因為受到良心的煎熬,向媒體透露了一些事實,他這樣做的代價是因“泄密罪”被判刑45個月。在面對輿論譴責(zé)時,美國軍方拒絕為無人機誤殺平民道歉。

事實上,在得到一些“恐怖分子”混雜在平民之中活動的情報后,無人機操作員控制無人機找到目標(biāo),不管無人機的偵察器材還是操作員本人,都很難將“恐怖分子”從平民中分離出來。操作員面臨為了確保平民安全放棄攻擊,還是將平民和“恐怖分子”都作為攻擊對象的嚴(yán)酷選擇。美國軍方如果承認這樣的攻擊是錯誤的,將只能今后放棄用無人機執(zhí)行此類攻擊任務(wù)。

既然人工智能沒有自主意識,也不會本質(zhì)性威脅人類,那么,為什么還有那么多重量級人物發(fā)聲對此表示警惕,甚至要求限制人工智能的研發(fā)和應(yīng)用?美國前國務(wù)卿基辛格在2018年《大西洋》月刊上的一篇文章中稱:核武器具有毀滅性,人工智能的能力有過之而無不及。馬斯克和包括圖靈獎得主在內(nèi)的近千名科學(xué)家、企業(yè)家,聯(lián)名呼吁叫停大規(guī)模人工智能研究。

破壞力由能力與意愿構(gòu)成。人工智能本身不具有破壞意愿和自主意志,但是,它所具有的巨大破壞能力,一旦與人的破壞意愿相結(jié)合,就會導(dǎo)致毀滅性后果。核武器本身同樣不具有破壞意愿,但它與人的破壞意愿結(jié)合的結(jié)果,在二戰(zhàn)末期已經(jīng)小試牛刀、令人驚駭。

為此,對人工智能的研發(fā)和應(yīng)用,尤其是在軍事領(lǐng)域的應(yīng)用進行管理、控制和規(guī)范,就顯得尤其重要。2019年10月,美國國防創(chuàng)新委員會發(fā)布《人工智能原則:國防部人工智能應(yīng)用倫理的若干建議》,為人工智能軍事應(yīng)用提出了“負責(zé)、公平、可追蹤、可靠、可控”五大原則,這從理論上構(gòu)成了人工智能軍事應(yīng)用的基本規(guī)范。

2021年12月,中國發(fā)布《關(guān)于規(guī)范人工智能軍事應(yīng)用的立場文件》,呼吁各國秉持“智能向善”的原則,遵守國家或地區(qū)倫理道德準(zhǔn)則,包括不通過人工智能技術(shù)謀求絕對軍事優(yōu)勢,防止損害全球戰(zhàn)略平衡與穩(wěn)定。2022年11月,中國向聯(lián)合國《特定常規(guī)武器公約》締約國大會提交《關(guān)于加強人工智能倫理治理的立場文件》。今年4月,中國提出《生成式人工智能服務(wù)管理辦法》草案,強調(diào)收集、處理個人信息應(yīng)當(dāng)具有明確、合理的目的等。

技術(shù)與倫理的矛盾一直都存在,如果不對核武器的使用施加嚴(yán)格限制,人類或許早已滅絕。對于被認為破壞性比核武器更厲害的人工智能,為其研發(fā)、應(yīng)用樹立道德倫理規(guī)范,更加不可或缺。

(作者單位:國防科技大學(xué)信息通信學(xué)院)

吳敏文 來源:中國青年報

關(guān)鍵詞:

上一篇:股票002266 股票002158_當(dāng)前最新

下一篇:高溫持續(xù)炙烤美國南部,多地受熱浪影響

責(zé)任編輯:

最近更新

點擊排行
推薦閱讀