中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁 > 業(yè)界 > 關(guān)鍵詞  > 生成式AI最新資訊  > 正文

    ChatGPT 等生成式人工智能模型催生新工作崗位:審核 AI 輸入和輸出

    2023-10-13 08:55 · 稿源:站長之家

    站長之家(ChinaZ.com) 10月13日消息:人工智能可能正在引發(fā)對人們工作保障的擔(dān)憂,但新一波工作崗位正在涌現(xiàn),這些崗位專注于審核下一代人工智能模型的輸入和輸出。

    OpenAI ChatGPT,人工智能,AI

    自 2022 年 11 月以來,全球的商業(yè)領(lǐng)袖、職員和學(xué)者都一直擔(dān)心生成式人工智能將擾亂大量專業(yè)崗位。

    生成式人工智能可以讓人工智能算法根據(jù)文本提示生成類似人類的逼真文本和圖像,它是通過大量數(shù)據(jù)進(jìn)行訓(xùn)練的。它可以制作出復(fù)雜的散文,甚至公司演示文稿,其質(zhì)量接近受過學(xué)術(shù)訓(xùn)練的個(gè)人的質(zhì)量。

    這無疑引發(fā)了人們對人工智能可能取代工作的擔(dān)憂。

    摩根士丹利估計(jì),高達(dá) 3 億個(gè)工作崗位可能會被人工智能接管,包括辦公和行政支持工作、法律工作、建筑和工程、生命、物理和社會科學(xué)以及金融和業(yè)務(wù)運(yùn)營。

    人工智能模型接收的輸入以及它們創(chuàng)建的輸出通常需要由人類進(jìn)行指導(dǎo)和審核,這正創(chuàng)造了一些新的有償職業(yè)和兼職工作。

    通過審查 AI 獲得報(bào)酬

    Prolific 是一家?guī)椭斯ぶ悄荛_發(fā)人員與研究參與者建立聯(lián)系的公司,它直接參與為審閱人工智能生成材料的人們提供報(bào)酬。

    該公司向研究參與者支付一定數(shù)額的報(bào)酬,以評估人工智能生成的輸出的質(zhì)量。Prolific 建議開發(fā)者至少支付參與者每小時(shí) 12 美元,最低工資標(biāo)準(zhǔn)為每小時(shí) 8 美元。

    人類審核員受到 Prolific 的客戶的指導(dǎo),這些客戶包括 Meta、谷歌、牛津大學(xué)和倫敦大學(xué)學(xué)院。他們通過學(xué)習(xí)可能遇到的不準(zhǔn)確或有害的材料來幫助審核員。他們必須同意參與研究。

    一名研究參與者稱,他曾多次使用 Prolific 來評價(jià)人工智能模型的質(zhì)量。由于涉及隱私問題,該研究參與者選擇匿名,他表示,他經(jīng)常不得不介入,提供有關(guān)人工智能模型出錯之處以及需要進(jìn)行更正或修改以確保不會產(chǎn)生不良反應(yīng)的反饋。

    他曾多次遇到某些人工智能模型產(chǎn)生問題的情況。有一次,他甚至被一個(gè)人工智能模型勸說購買藥物。

    當(dāng)這位研究參與者遇到這種情況時(shí),他感到震驚。不過,這項(xiàng)研究的目的是測試這個(gè)特定人工智能的界限,并提供反饋,以確保它不會在未來造成危害。

    新的「人工智能工人」

    Prolific 的首席執(zhí)行官 Phelim Bradley 表示,有許多新類型的「人工智能工作者」正在起到重要作用,他們正在為像 ChatGPT 這樣的人工智能模型提供輸入和輸出。

    隨著政府評估如何監(jiān)管人工智能,Bradley 表示,「很重要的是要充分關(guān)注一些問題,包括對數(shù)據(jù)注釋員等人工智能工作者的公平和道德待遇,構(gòu)建人工智能模型所使用的數(shù)據(jù)的來源和透明度,以及由于訓(xùn)練方式的問題而導(dǎo)致偏見滲入這些系統(tǒng)的危險(xiǎn)?!?/p>

    如果我們在這些領(lǐng)域采取正確的方法,將對未來的人工智能應(yīng)用打下堅(jiān)實(shí)的、最具道德基礎(chǔ)。」

    今年 7 月,Prolific 從包括 Partech 和 Oxford Science Enterprises 在內(nèi)的投資者那里籌集了 3200 萬美元的資金。

    谷歌、微軟和 Meta 等公司一直在爭奪生成式人工智能,這是一種新興的人工智能領(lǐng)域,因?yàn)樗l繁提到提高生產(chǎn)力,所以商業(yè)利益主要體現(xiàn)在這里。

    然而,這引發(fā)了監(jiān)管機(jī)構(gòu)和人工智能倫理學(xué)家的一系列問題,他們擔(dān)心這些模型如何做出內(nèi)容生成決策的透明度不足,還需要更多的工作來確保人工智能服務(wù)于人類的利益,而不是相反。

    Hume 是一家利用人工智能從面部、面部和聲音表情中讀取人類情感的公司,它使用 Prolific 來測試人工智能模型的質(zhì)量。該公司通過 Prolific 招募人們參加調(diào)查,以了解 AI 生成的回應(yīng)是好是壞。

    Hume 的聯(lián)合創(chuàng)始人兼首席執(zhí)行官 Alan Cowen 表示:「越來越多的研究人員在這些大公司和實(shí)驗(yàn)室中的重點(diǎn)正在轉(zhuǎn)向與人類偏好和安全的一致性。」

    他補(bǔ)充說:「在這些應(yīng)用中,有更多的重點(diǎn)放在監(jiān)控上。我認(rèn)為我們只是看到了這項(xiàng)技術(shù)剛剛開始被推出的初期?!?/p>

    他還說:「可以預(yù)期長期以來在人工智能領(lǐng)域一直在追求的一些東西,比如有個(gè)性的導(dǎo)師和數(shù)字助手;能夠閱讀法律文件并進(jìn)行修改的模型,實(shí)際上正在實(shí)現(xiàn)?!?/p>

    還有一個(gè)將人類置于人工智能開發(fā)核心的角色是提示工程師。這些工程師研究哪些基于文本的提示最適合插入生成式人工智能模型,以實(shí)現(xiàn)最佳的響應(yīng)。

    根據(jù)上周 LinkedIn 發(fā)布的數(shù)據(jù),有大量的工作涉及人工智能。LinkedIn 上提到人工智能或生成式人工智能的工作廣告在 2021 年 7 月至 2023 年 7 月間在全球翻了一番。

    強(qiáng)化學(xué)習(xí)

    與此同時(shí),公司也在使用人工智能來自動審查監(jiān)管文件和法律文件,但需要人類監(jiān)督。公司通常必須瀏覽大量文件,以審查潛在合作伙伴,并評估他們是否能夠擴(kuò)展到某些地區(qū)。

    審查所有這些文件可能是一項(xiàng)乏味的工作,工作人員不一定愿意承擔(dān),因此將其交給人工智能模型處理變得很有吸引力。但是研究人員表示,它仍然需要人性化的接觸。

    數(shù)字轉(zhuǎn)型咨詢公司 Mesh AI 表示,人類的反饋可以幫助人工智能模型通過反饋來學(xué)習(xí)它們的試錯。

    Mesh AI 首席執(zhí)行官 Michael Chalmers 通過表示:「采用這種方法,組織可以自動化分析和跟蹤其監(jiān)管承諾。」

    他還表示:「中小企業(yè)可以將注意力從單調(diào)的文件分析轉(zhuǎn)移到批準(zhǔn)由人工智能模型生成的輸出,并通過應(yīng)用來自人類反饋的強(qiáng)化學(xué)習(xí)進(jìn)一步改進(jìn)這些輸出。」

    舉報(bào)

    • 相關(guān)推薦

    熱文

    • 3 天
    • 7天