劃重點(diǎn):
- ?? 幾家領(lǐng)先的科技公司承諾在 AI 安全峰會(huì)上公布他們開發(fā)基礎(chǔ)模型時(shí)所采取的安全措施。
- ?? 這些公司同意如果無(wú)法控制或減輕 AI 模型所帶來(lái)的風(fēng)險(xiǎn),則不開發(fā)或部署該模型。
- ?? 承諾適用于基礎(chǔ)或 “前沿” 模型,即可以應(yīng)用于廣泛應(yīng)用領(lǐng)域的 AI 模型。
站長(zhǎng)之家(ChinaZ.com)5月29日 消息:在首爾舉行的 AI 安全峰會(huì)上,微軟、亞馬遜和 IBM 等領(lǐng)先科技公司承諾在開發(fā)基礎(chǔ)模型時(shí)公布他們所采取的安全措施。這些公司都同意,如果無(wú)法控制或減輕 AI 模型所帶來(lái)的風(fēng)險(xiǎn),將不會(huì)開發(fā)或部署該模型。
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
這一承諾適用于基礎(chǔ)或 “前沿” 模型,即可以應(yīng)用于廣泛應(yīng)用領(lǐng)域的 AI 模型,通常是能夠處理圖像、文本和其他輸入的多模態(tài)系統(tǒng)。
簽署這一承諾的公司包括 Meta、三星、Claude 開發(fā)商 Anthropic 以及埃隆?馬斯克的初創(chuàng)企業(yè) xAI 等。ChatGPT 制造商 OpenAI、總部位于迪拜的科技創(chuàng)新研究所以及韓國(guó)互聯(lián)網(wǎng)供應(yīng)商 Naver 也簽署了前沿 AI 安全承諾。中國(guó)公司智譜AI 也是簽署該承諾的公司之一,該承諾由英國(guó)和韓國(guó)政府共同制定。
每個(gè)同意承諾的公司都將公開概述他們的基礎(chǔ)模型所帶來(lái)的風(fēng)險(xiǎn)水平,并說(shuō)明他們計(jì)劃采取哪些措施以確保這些模型的安全性。簽署者必須在2025年初法國(guó)舉行的下一屆 AI 安全峰會(huì)之前發(fā)布他們的研究結(jié)果。
英國(guó)首相里希?蘇納克表示:“這些承諾確保了世界領(lǐng)先的 AI 公司將就其開發(fā)安全 AI 的計(jì)劃提供透明度和問責(zé)制?!?這些承諾旨在進(jìn)一步完善去年首屆 AI 安全峰會(huì)上簽署的 Bletchley 協(xié)議,該協(xié)議對(duì) AI 風(fēng)險(xiǎn)進(jìn)行了分類和歸類。
安永全球咨詢數(shù)據(jù)與 AI 負(fù)責(zé)人 Beatriz Sanz Saiz 表示,科技公司的承諾是一個(gè)受歡迎的舉措。她說(shuō):“在開發(fā)和實(shí)施值得信賴的 AI 時(shí),提供透明度和問責(zé)制至關(guān)重要。雖然 AI 對(duì)于企業(yè)和個(gè)人都有巨大潛力,但只有通過有意識(shí)和道德的開發(fā)方法才能充分發(fā)揮這一潛力?!?/p>
Zoho 英國(guó)的董事總經(jīng)理 Sachin Agrawal 表示:“使用 AI 的公司應(yīng)優(yōu)先考慮道德問題和負(fù)責(zé)任的數(shù)據(jù)實(shí)踐,以建立客戶信任。采用正確的 AI 程序可能意味著超越當(dāng)前的隱私規(guī)定,考慮到在不損害客戶數(shù)據(jù)的情況下最合乎道德的平衡 AI 利益,并確保任何實(shí)踐都是完全透明的?!?/p>
(舉報(bào))