要點(diǎn):
1. 生成式AI安全新規(guī)發(fā)布,包含31項(xiàng)安全要求,生成式AI服務(wù)提供者需遵循這些要求,方可“持證上崗”。
2. 安全要求涵蓋語(yǔ)料安全、模型安全、安全措施、安全評(píng)估等四大方面,具體包括語(yǔ)料來(lái)源黑名單、模型使用規(guī)范、服務(wù)透明度等多個(gè)關(guān)鍵要求。
3. 不同場(chǎng)景的生成式AI服務(wù)需采取不同的保護(hù)措施,包括關(guān)鍵信息基礎(chǔ)設(shè)施、未成年人使用等,以確保生成內(nèi)容質(zhì)量和安全性。
站長(zhǎng)之家(ChinaZ.com)10月13日 消息:最新發(fā)布的生成式AI安全規(guī)定明確了31項(xiàng)安全要求,只有符合這些要求的生成式AI服務(wù)提供者才能“持證上崗”。這一規(guī)范涵蓋了語(yǔ)料安全、模型安全、安全措施和安全評(píng)估等四大關(guān)鍵領(lǐng)域。
對(duì)于語(yǔ)料安全,要求提供者建立語(yǔ)料來(lái)源黑名單,不使用來(lái)自黑名單的數(shù)據(jù)進(jìn)行訓(xùn)練。如果某一來(lái)源的語(yǔ)料中包含違法不良信息超過(guò)5%,則該來(lái)源會(huì)被列入黑名單。此外,規(guī)定了多元化的語(yǔ)料來(lái)源,包括不同語(yǔ)言和不同類(lèi)型的語(yǔ)料,以及要求語(yǔ)料來(lái)源可追溯。
在模型安全方面,提供者不得使用未備案的基礎(chǔ)模型進(jìn)行研發(fā),必須公開(kāi)第三方基礎(chǔ)模型的使用情況。生成內(nèi)容要符合科學(xué)常識(shí),不得包含錯(cuò)誤信息。
安全措施方面,根據(jù)不同場(chǎng)景和使用者需求,規(guī)定了不同的保護(hù)措施,特別是在關(guān)鍵信息基礎(chǔ)設(shè)施和未成年人使用的情況下。此外,要求設(shè)置監(jiān)看人員以提高生成內(nèi)容質(zhì)量。
安全評(píng)估方面提供了具體的評(píng)估方法,包括語(yǔ)料安全評(píng)估、生成內(nèi)容安全評(píng)估、內(nèi)容拒答評(píng)估等。要求提供者使用人工抽檢,確保語(yǔ)料安全。
總的來(lái)說(shuō),這一生成式AI安全規(guī)定為生成式AI服務(wù)提供者提供了具體的安全標(biāo)準(zhǔn),以確保其生成內(nèi)容的質(zhì)量和安全性。這對(duì)于保護(hù)用戶權(quán)益和社會(huì)安全具有重要意義。
關(guān)于征求信安標(biāo)委技術(shù)文件《生成式人工智能服務(wù) 安全基本要求》(征求意見(jiàn)稿)意見(jiàn)的通知的原文地址:
https://www.tc260.org.cn/front/postDetail.html?id=20231011143225
(舉報(bào))