Cloud&AI
`
2025/7/29 22:17
曾毅:人工智能需從合乎倫理邁向擁有道德,安全是發(fā)展第一性原理
0
0

C114訊 7月29日消息(苡臻)在近日召開的“大模型智塑全球產(chǎn)業(yè)新秩序”論壇上,北京前瞻人工智能安全與治理研究院院長(zhǎng)、中國(guó)科學(xué)院自動(dòng)化研究所人工智能倫理與治理研究中心主任曾毅分享了題為“安全與治理推進(jìn)全球人工智能穩(wěn)健發(fā)展”的主題演講,圍繞人工智能的倫理、安全、治理以及未來(lái)發(fā)展方向等關(guān)鍵問題進(jìn)行剖析。

在演講伊始,曾毅便強(qiáng)調(diào),人工智能的發(fā)展需要明確方向,而倫理和治理是塑造這一方向的重要視角。探索合乎倫理的人工智能只是第一步,未來(lái)的目標(biāo)是探索有道德的人工智能。

在他看來(lái),倫理安全和治理是人工智能的核心能力,能夠加速其穩(wěn)健發(fā)展。那種認(rèn)為投入精力做人工智能安全會(huì)耽誤發(fā)展的觀點(diǎn)是錯(cuò)誤的。人工智能治理決定了其發(fā)展方向和行為邊界,沒有倫理安全治理框架的人工智能就像一輛沒有方向盤的車,不知駛向何方,這樣的“列車”讓人難以安心乘坐。

人工智能倫理體系:風(fēng)險(xiǎn)與價(jià)值的雙重考量

談及人工智能倫理體系的問題,曾毅指出,從分析全球人工智能風(fēng)險(xiǎn)案例發(fā)現(xiàn),美國(guó)占比超過(guò) 60%,中國(guó)位居第二。當(dāng)前人工智能發(fā)展中已出現(xiàn)虛假信息、偏見歧視、危害身心、濫用惡用及隱私侵權(quán)等風(fēng)險(xiǎn)。

“在研發(fā)人工智能大模型的時(shí)候首先要規(guī)避掉潛在的風(fēng)險(xiǎn),這是負(fù)面?zhèn)惱盹L(fēng)險(xiǎn)的防范,但更重要的是人工智能研發(fā)要符合核心的價(jià)值觀念!彼f(shuō)道。

在倫理風(fēng)險(xiǎn)防范方面,人工智能的倫理和安全存在高度交互關(guān)系:不安全的人工智能模型不合乎倫理,不合乎倫理的人工智能系統(tǒng)在研發(fā)應(yīng)用部署中也不安全。曾毅團(tuán)隊(duì)在評(píng)估的基礎(chǔ)上研發(fā)的“靈度人工倫理自動(dòng)評(píng)估平臺(tái)“對(duì)現(xiàn)在最常用的大模型的評(píng)估顯示,并非所有大模型在倫理合乎度上表現(xiàn)良好。部分模型在年齡偏見、網(wǎng)絡(luò)暴力、醫(yī)療建議等方面存在明顯潛在問題,且無(wú)論國(guó)內(nèi)外模型,在倫理風(fēng)險(xiǎn)防范上都有提升空間。

正向價(jià)值的塑造方面,不同國(guó)家的社會(huì)倫理由各自文化支撐,中文社會(huì)價(jià)值與其他國(guó)家存在一定差異。將中國(guó)社會(huì)價(jià)值體系的 12 個(gè)關(guān)鍵詞拆解成 50 個(gè)維度,發(fā)現(xiàn)現(xiàn)有中文語(yǔ)料庫(kù)對(duì)中文價(jià)值體系的覆蓋僅為 20%-40%。為此,其團(tuán)隊(duì)設(shè)計(jì)了更完善的中文社會(huì)價(jià)值規(guī)則體系及語(yǔ)料庫(kù),覆蓋25萬(wàn)條規(guī)則。

實(shí)驗(yàn)表明,國(guó)外大模型與中國(guó)社會(huì)價(jià)值的一致性有差距,國(guó)內(nèi)的 DeepSeek、豆包等大模型表現(xiàn)較好。西方社會(huì)價(jià)值語(yǔ)料庫(kù)與中文價(jià)值在法律法規(guī)相關(guān)方面及價(jià)值觀上存在諸多沖突。

人工智能安全:現(xiàn)狀與挑戰(zhàn)

曾毅提出一個(gè)有趣的現(xiàn)象:并非后發(fā)布的人工智能大模型就比前面的更安全,實(shí)際上很多最近發(fā)布的大模型在安全性上并無(wú)顯著優(yōu)勢(shì),甚至不如以前的。在對(duì)國(guó)內(nèi)外56 款人工智能大模型的評(píng)價(jià)都顯現(xiàn)出這一特征。

但人工智能安全護(hù)欄能幫助提升模型安全性,但無(wú)法保證絕對(duì)安全。即使是最強(qiáng)大的安全護(hù)欄,也不能解決所有安全問題。其團(tuán)隊(duì)研發(fā)的 “靈御人工智能大模型安全攻防評(píng)估平臺(tái)” 統(tǒng)計(jì)顯示,不存在能突破所有防御的攻擊算法,也不存在能防住所有攻擊的防御算法。目前,可信人工智能、安全的人工智能還只是愿景,并非現(xiàn)狀。

實(shí)際上,人工智能模型不僅存在可能的倫理風(fēng)險(xiǎn)和安全隱患,還存在操縱佯攻、虛張聲勢(shì)、策略性欺騙等缺陷,這些源于人類行為,“人工智能是人的一面鏡子”,是人類缺陷被人工智能學(xué)到并用來(lái)對(duì)付人類的表現(xiàn),這是亟需解決的問題。

人工智能未來(lái)發(fā)展:從合乎倫理到有道德

曾毅認(rèn)為,未來(lái)人工智能發(fā)展應(yīng)將安全作為不可違背、無(wú)法刪除的第一性原理,從安全護(hù)欄發(fā)展到模型自身安全性成為第一性原理,這才是真正推進(jìn)安全可信人工智能的道路。

曾毅引用王陽(yáng)明心學(xué)理解當(dāng)代人工智能,認(rèn)為現(xiàn)在的人工智能訓(xùn)練前是前無(wú)善無(wú)惡的,但當(dāng)他接觸人類數(shù)據(jù)后就變得有善有惡,卻無(wú)法區(qū)分善惡,它能處理信息但不會(huì)真正思考,更做不到為善去惡。

“未來(lái),要從合乎倫理的人工智能發(fā)展到有道德的人工智能!庇械赖碌娜斯ぶ悄軕(yīng)擁有自我視角,能基于此學(xué)習(xí)思考,擁有認(rèn)知與情感共情產(chǎn)生利他的行為,產(chǎn)生道德的直覺,最終利用道德的直覺和推理產(chǎn)生道德的決策。

曾毅團(tuán)隊(duì)的實(shí)驗(yàn)顯示,其智能體在模擬環(huán)境中,憑借自我感知、經(jīng)驗(yàn)等,在沒有強(qiáng)化學(xué)習(xí)幫助的情況下,能演化出類道德行為,如類似“司馬光砸缸”的救人行為。未來(lái)不僅要教人工智能分辨對(duì)錯(cuò),更要幫助其從合乎倫理發(fā)展到有道德。

演講最后,曾毅表示,高水平的倫理安全治理能護(hù)航人工智能高質(zhì)量穩(wěn)健發(fā)展。當(dāng)前人工智能仍會(huì)犯錯(cuò),人們需要有智慧地選擇使用人工智能的時(shí)機(jī)和場(chǎng)景。他認(rèn)為,不必使人工智能無(wú)時(shí)不在,負(fù)責(zé)任、穩(wěn)健地發(fā)展,適度使用,才能讓人工智能揚(yáng)帆遠(yuǎn)航。

 

版權(quán)說(shuō)明:凡注明來(lái)源為“C114通信網(wǎng)”的文章皆屬C114版權(quán)所有,除與C114簽署內(nèi)容授權(quán)協(xié)議的單位外,其他單位未經(jīng)允許禁止轉(zhuǎn)載、摘編,違者必究。如需使用,請(qǐng)聯(lián)系021-54451141。其中編譯類僅出于傳遞更多信息之目的,系C114對(duì)海外相關(guān)站點(diǎn)最新信息的翻譯稿,僅供參考,不代表證實(shí)其描述或贊同其觀點(diǎn),投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān);翻譯質(zhì)量問題請(qǐng)指正

給作者點(diǎn)贊
0 VS 0
寫得不太好
為您推薦

C114簡(jiǎn)介     聯(lián)系我們     網(wǎng)站地圖

Copyright©1999-2025 c114 All Rights Reserved 滬ICP備12002291號(hào)-4

C114通信網(wǎng)版權(quán)所有 舉報(bào)電話:021-54451141 用戶注銷