編者按 當(dāng)前,,人工智能發(fā)展方興未艾,大幅提升了人類認(rèn)識世界和改造世界的能力,,同時也帶來一系列難以預(yù)知的風(fēng)險挑戰(zhàn),。為幫助讀者更好了解人工智能,本版今起推出“解讀人工智能前沿技術(shù)趨勢”系列報道,,分析技術(shù)變革深層邏輯,,凝聚智能向善共識。
◎本報記者 吳葉凡
近期,,國內(nèi)外一些人工智能(AI)產(chǎn)品問答內(nèi)容價值導(dǎo)向錯誤的新聞頻上熱搜,。隨著AI技術(shù)的發(fā)展,AI的價值導(dǎo)向問題逐漸引發(fā)廣泛關(guān)注,,“構(gòu)建可信賴的AI系統(tǒng)”的呼聲越來越高,。日前在2024年世界科技與發(fā)展論壇期間發(fā)布的《2024年人工智能十大前沿技術(shù)趨勢展望》,就列入了“人機(jī)對齊:構(gòu)建可信賴的AI系統(tǒng)”,。2024年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會也聚焦AI,,釋放清晰信號——擁抱以人為本、智能向善的數(shù)字未來,。
什么是可信賴的AI系統(tǒng),?構(gòu)建可信賴的AI系統(tǒng)有哪些路徑?科技日報記者就以上問題采訪了相關(guān)專家,。
可靠穩(wěn)定是關(guān)鍵
隨著AI在社會生活和各個行業(yè)中滲透程度的加深,,其決策和行為的影響范圍也日益擴(kuò)大。例如,,在醫(yī)療,、交通、金融等高風(fēng)險領(lǐng)域,,AI系統(tǒng)的決策影響著人們的生命,、財產(chǎn)與福祉,一些錯誤決策可能直接威脅到人類生命或財產(chǎn)安全,�,?的螤柎髮W(xué)約翰遜商學(xué)院講席教授叢林介紹,AI在金融領(lǐng)域的應(yīng)用主要包括資產(chǎn)管理,、資產(chǎn)回報預(yù)測,、資產(chǎn)定價等�,!拔覀兿M鹑陬I(lǐng)域的AI要準(zhǔn)確,。我們并不需要它有發(fā)散思維或特別有創(chuàng)造力,而是希望它能給我們準(zhǔn)確的答案,或是具有一定的穩(wěn)健性,�,!彼f。
“確保AI系統(tǒng)可信賴,,已經(jīng)成為AI發(fā)展不可忽視的要求,。這不僅是技術(shù)層面的改進(jìn),更是社會倫理與責(zé)任的體現(xiàn),�,!敝袊茖W(xué)技術(shù)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院教授王翔認(rèn)為,可信賴AI系統(tǒng)不僅能讓技術(shù)更好地滿足人類需求,,還能有效防范AI誤判和偏見可能引發(fā)的負(fù)面效應(yīng),。可信賴的AI系統(tǒng)不但要有優(yōu)秀的預(yù)測,、生成,、決策等業(yè)務(wù)能力,而且在透明度,、公平性,、可解釋性、安全性等方面也要符合用戶預(yù)期,。
其中,可解釋性是指用戶應(yīng)能夠理解AI的行為和決策流程,,以便增強(qiáng)用戶對AI的信任,,并更好地加以利用。公平性要求AI的決策不應(yīng)受到偏見影響,,避免形成對不同群體的歧視,。安全性則是指AI系統(tǒng)在運(yùn)行過程中不會帶來安全隱患,并能在一定范圍內(nèi)控制自身行為,,特別是在極端或意外情況下要能保護(hù)人類安全,。“AI系統(tǒng)還需要具備可靠性和穩(wěn)定性,,這要求它的表現(xiàn)在復(fù)雜和變化的開發(fā)環(huán)境中也要始終如一,,不輕易受到外部因素干擾�,!蓖跸枵f,。
人機(jī)對齊是前提
那么,如何確保AI系統(tǒng)可信賴,?王翔認(rèn)為,,人機(jī)對齊與構(gòu)建可信賴的AI系統(tǒng)之間關(guān)系密切。“只有具備人機(jī)對齊特質(zhì)的AI系統(tǒng),,才能進(jìn)一步實現(xiàn)可信賴的特性,。”他說,。
從概念上看,,人機(jī)對齊是指確保AI系統(tǒng)在執(zhí)行任務(wù)、進(jìn)行決策時,,其行為,、目標(biāo)和價值觀能夠與人類保持一致�,!斑@就是說,,AI系統(tǒng)在自我優(yōu)化和執(zhí)行任務(wù)過程中,不僅要高效完成任務(wù),,還要符合人類的倫理和價值體系,,不能偏離人類設(shè)定的目標(biāo)或帶來不良的社會影響�,!蓖跸柽M(jìn)一步解釋,,“尤其是在涉及社會倫理和安全的場景中,確保AI輸出內(nèi)容與人類的價值觀和道德準(zhǔn)則相符,,是人機(jī)對齊的核心意義,。”
如果AI系統(tǒng)沒有經(jīng)過人機(jī)對齊的過程,,即使具備強(qiáng)大的功能和智能,,也可能因不符合人類的期望和價值觀而導(dǎo)致信任危機(jī)或負(fù)面影響�,!耙虼�,,確保AI系統(tǒng)在目標(biāo)和行為上與人類保持一致是構(gòu)建可信賴AI系統(tǒng)的重要前提。兩者的結(jié)合不僅能提升AI的表現(xiàn),,還可為未來AI在各領(lǐng)域的廣泛應(yīng)用奠定基礎(chǔ),。”王翔說,。
確保AI以人為本,、智能向善,完善倫理和法律框架是重要發(fā)力方向,。王翔認(rèn)為,,技術(shù)的進(jìn)步往往伴隨著新問題的發(fā)生,因此需要設(shè)立法律邊界和倫理準(zhǔn)則,,為AI的發(fā)展提供指導(dǎo)與約束,。這不僅可以減少AI應(yīng)用中潛在的倫理風(fēng)險,,還能使AI應(yīng)用更加規(guī)范和安全。此外,,建設(shè)可信賴的AI系統(tǒng)需要跨學(xué)科合作,,哲學(xué)、倫理學(xué),、社會學(xué)等學(xué)科的參與能為AI的設(shè)計與發(fā)展提供更全面的視角,。
技術(shù)優(yōu)化是手段
構(gòu)建可信賴的AI系統(tǒng),還需要在技術(shù)層面和應(yīng)用實踐中不斷探索和完善,。王翔介紹了三種主要的技術(shù)路徑,。
一是數(shù)據(jù)驅(qū)動路徑。王翔認(rèn)為,,數(shù)據(jù)質(zhì)量和多樣性是實現(xiàn)可信賴AI的基礎(chǔ),。訓(xùn)練數(shù)據(jù)的多樣性可以有效減少模型中的偏見問題,確保系統(tǒng)決策更加公平,、全面,。“只有在龐大的優(yōu)質(zhì)數(shù)據(jù)基礎(chǔ)上構(gòu)建的AI模型才能適應(yīng)廣泛的應(yīng)用場景,,降低在特殊或極端條件下出現(xiàn)偏見的可能性,。”王翔說,,數(shù)據(jù)的安全性也至關(guān)重要,,尤其是在涉及個人隱私的領(lǐng)域,保障數(shù)據(jù)安全可以提高用戶信任度,。
二是算法驅(qū)動路徑,。王翔說,算法的優(yōu)化與控制是實現(xiàn)可信賴AI的關(guān)鍵手段,。在模型的設(shè)計階段,開發(fā)者可以通過設(shè)置倫理規(guī)則,、嵌入人類價值觀等約束條件,,確保系統(tǒng)在實際運(yùn)行中符合社會準(zhǔn)則。同時,,設(shè)計透明的算法結(jié)構(gòu)有助于提升模型的可解釋性,,便于用戶理解其運(yùn)行機(jī)制,并為未來的模型更新和優(yōu)化打下基礎(chǔ),。
三是獎懲引導(dǎo)路徑,。王翔說,通過合理設(shè)計獎懲機(jī)制,,可以讓AI在不斷試錯和學(xué)習(xí)過程中,,逐漸形成符合人類價值觀的行為方式。例如,可以在獎懲系統(tǒng)中設(shè)置反饋機(jī)制,,當(dāng)AI的行為偏離預(yù)期時施加相應(yīng)懲罰,,引導(dǎo)其在自我訓(xùn)練過程中符合人類期望。同時,,獎懲機(jī)制需具備時代適應(yīng)性,,確保AI系統(tǒng)能在運(yùn)行中持續(xù)更新并優(yōu)化自身。
這三種技術(shù)路徑的側(cè)重點(diǎn)各有不同,。王翔解釋,,數(shù)據(jù)驅(qū)動路徑主要聚焦于通過高質(zhì)量、多樣化的數(shù)據(jù)源減少AI系統(tǒng)的偏見,,提升系統(tǒng)的適用性,;算法驅(qū)動路徑更注重模型的設(shè)計和透明性,使系統(tǒng)在行為邏輯上更符合人類預(yù)期,;獎懲引導(dǎo)路徑則側(cè)重于在AI自我學(xué)習(xí)和優(yōu)化過程中提供有效指引和反饋,,讓系統(tǒng)逐漸趨向人類認(rèn)可的方向�,!安煌窂较嘟Y(jié)合,,可以為實現(xiàn)可信賴的AI提供更加豐富的技術(shù)支持�,!蓖跸枵f,。
要構(gòu)建可信賴的AI系統(tǒng),還需在實際應(yīng)用中不斷進(jìn)行迭代和優(yōu)化,�,!巴ㄟ^多次評估和測試,可以在不同環(huán)境和條件下驗證AI系統(tǒng)的性能,,確保其在現(xiàn)實應(yīng)用中的表現(xiàn)符合人類預(yù)期,。”王翔說,。