24周年

財(cái)稅實(shí)務(wù) 高薪就業(yè) 學(xué)歷教育
APP下載
APP下載新用戶掃碼下載
立享專屬優(yōu)惠
安卓版本:8.7.11 蘋果版本:8.7.11
開發(fā)者:北京正保會(huì)計(jì)科技有限公司
應(yīng)用涉及權(quán)限:查看權(quán)限>
APP隱私政策:查看政策>

生成式人工智能的風(fēng)險(xiǎn)管理:刻不容緩

來源: 正保會(huì)計(jì)網(wǎng)校 編輯:咕嘟 2024/06/04 10:18:39 字體:

本文編譯自GARP風(fēng)險(xiǎn)智庫Disruptive Technologies主題博客“Risk Management and Generative AI: A Matter of Urgency”一文。作者為Jim Wetekamp, 他是 Riskonnect 公司的首席執(zhí)行官,該公司是綜合風(fēng)險(xiǎn)管理軟件的領(lǐng)先供應(yīng)商。他是公認(rèn)的企業(yè)風(fēng)險(xiǎn)、供應(yīng)鏈和第三方風(fēng)險(xiǎn)管理專家。

有 9% 的公司認(rèn)為他們已經(jīng)為管理生成式人工智能風(fēng)險(xiǎn)做好了充分準(zhǔn)備。

各機(jī)構(gòu)仍在摸索需要哪些生成式人工智能的保障措施。事實(shí)上,只有 17% 的機(jī)構(gòu)已經(jīng)正式對(duì)整個(gè)公司進(jìn)行了關(guān)于生成式人工智能風(fēng)險(xiǎn)的培訓(xùn)或介紹。但是,盡快掌控人工智能治理和風(fēng)險(xiǎn)管理符合機(jī)構(gòu)的最佳利益。

目前在工作中使用人工智能的員工之中,有一半以上是在未經(jīng)雇主批準(zhǔn)的情況下使用的。員工渴望這些工具帶來的效率。在許多情況下,員工在雇主弄清楚政策之前就開始在工作中使用這些工具,這會(huì)給機(jī)構(gòu)帶來風(fēng)險(xiǎn)。另有 32% 的員工預(yù)計(jì)很快會(huì)將生成式人工智能納入他們的工作流程,這表明無論公司如何監(jiān)督,員工都會(huì)繼續(xù)采用這些工具。

現(xiàn)在是時(shí)候制定一些規(guī)則,以確保您的機(jī)構(gòu)能夠?qū)⑦@種新興技術(shù)看作價(jià)值和效率的驅(qū)動(dòng)力,而不是將其視為風(fēng)險(xiǎn)的源泉。

機(jī)構(gòu)可以采取幾項(xiàng)措施,讓員工可在應(yīng)用生成式人工智能的同時(shí)保護(hù)機(jī)構(gòu)免受潛在威脅。

數(shù)據(jù)隱私與安全

65%的公司表示,數(shù)據(jù)隱私和網(wǎng)絡(luò)安全問題是生成式人工智能工具的首要問題。這些工具通常會(huì)收集 IP 地址和瀏覽活動(dòng)等敏感信息,從而導(dǎo)致個(gè)人身份被識(shí)別。如果數(shù)據(jù)處理不當(dāng)或被列入數(shù)據(jù)泄露事件,就會(huì)造成巨大損失。

深度偽造技術(shù)的興起引發(fā)了更多擔(dān)憂,因?yàn)樗梢栽谖唇?jīng)本人同意的情況下創(chuàng)造出逼真的圖像和聲音。

人工智能工具還使犯罪分子能夠創(chuàng)建更復(fù)雜的網(wǎng)絡(luò)釣魚電子郵件和惡意軟件,并加速網(wǎng)絡(luò)攻擊。定期評(píng)估您的網(wǎng)絡(luò)安全戰(zhàn)略,確保其與人工智能的發(fā)展同步,并優(yōu)先考慮強(qiáng)大的數(shù)據(jù)隱私措施,如數(shù)據(jù)匿名化和加密。

不準(zhǔn)確和錯(cuò)誤的信息

即使沒有足夠的信息或內(nèi)容來提供準(zhǔn)確的答案,一些生成式人工智能工具也會(huì)對(duì)提示做出回復(fù)。在這種情況下,人工智能算法會(huì)編造出一個(gè)答案,但仍會(huì)以肯定的口吻作出回應(yīng),這意味著你不能對(duì)所看到的內(nèi)容信以為真。

如果使用工具的用戶沒有牢記這一點(diǎn)并主動(dòng)檢查回復(fù)的有效性,他們最終可能會(huì)根據(jù)不準(zhǔn)確的信息做出決策,而 60% 的公司表示這是生成式人工智能的首要問題。這可能會(huì)導(dǎo)致聲譽(yù)問題和其他后果。

人工智能算法的開發(fā)者可以設(shè)定有多少答案是編造的,或者是否有答案是編造的。了解機(jī)構(gòu)正在使用的工具是如何開發(fā)的,并決定機(jī)構(gòu)愿意接受的誤差范圍。通常最好將誤差范圍設(shè)置為零,這樣模型就不會(huì)編造答案。沒有信息總比誤導(dǎo)性信息要好。

此外,優(yōu)先考慮引用信息來源的生成式人工智能工具,這樣用戶就能輕松驗(yàn)證所提供信息的準(zhǔn)確性和可靠性。確保您的人工智能政策設(shè)定了這樣的預(yù)期:用戶在傳遞信息或根據(jù)信息做出決策之前,一定要對(duì)人工智能生成的任何回復(fù)進(jìn)行事實(shí)核查。

偏見和道德

人工智能模型可能存在固有的偏見,或者對(duì)其服務(wù)對(duì)象的群體不夠包容。這些算法利用歷史數(shù)據(jù)為決策提供依據(jù),并生成答案和內(nèi)容。這可能會(huì)帶來問題,因?yàn)樵?970 年、1990 年、2010 年或 2018 年可以接受的事物與今天可以接受的事物是不同的。例如,如果人工智能模型使用幾十年前的歷史數(shù)據(jù)來做出當(dāng)代決策,比如誰有資格獲得貸款,那么它可能會(huì)無意中反映出不公平的做法。

徹底評(píng)估您正在使用的人工智能模型。了解模型的編程方式和校準(zhǔn)機(jī)制。主動(dòng)質(zhì)疑和理解底層的訓(xùn)練數(shù)據(jù)集。確保數(shù)據(jù)是最新的,并且反映了當(dāng)今的社會(huì)標(biāo)準(zhǔn)。

重要的是,要持續(xù)監(jiān)控生成式人工智能的輸出,并確保從倫理和道德的角度來看,應(yīng)對(duì)措施仍然具有相關(guān)性,并且符合機(jī)構(gòu)的政策和文化。

版權(quán)和知識(shí)產(chǎn)權(quán)

34%的公司對(duì)生成式人工智能相關(guān)的版權(quán)和知識(shí)產(chǎn)權(quán)(IP)風(fēng)險(xiǎn)表示關(guān)注。這些模型可能是在受法律保護(hù)的資料基礎(chǔ)上進(jìn)行訓(xùn)練,并生成類似于現(xiàn)有作品的內(nèi)容,如果用戶不給予適當(dāng)?shù)氖跈?quán),就會(huì)導(dǎo)致潛在的版權(quán)、商標(biāo)或?qū)@謾?quán)問題。法院正在探討如何將知識(shí)產(chǎn)權(quán)法應(yīng)用于人工智能生成的內(nèi)容,但仍需要一段時(shí)間來解決這個(gè)問題。

保護(hù)您的知識(shí)產(chǎn)權(quán)。對(duì)員工進(jìn)行培訓(xùn),讓他們對(duì)輸入人工智能工具的信息進(jìn)行批判性思考。了解哪些員工和合作伙伴可以訪問您的知識(shí)產(chǎn)權(quán)和敏感信息,并制定明確的指導(dǎo)方針,規(guī)定哪些資料和數(shù)據(jù)不得輸入人工智能模型。

確保員工也注意如何將人工智能生成的內(nèi)容用于商業(yè)用途,以避免侵犯版權(quán)。及時(shí)了解并告知員工有關(guān)使用人工智能生成內(nèi)容的任何法律動(dòng)態(tài)。

風(fēng)險(xiǎn)新時(shí)代

生成式人工智能的出現(xiàn)帶來了新的挑戰(zhàn)和機(jī)遇。生成式人工智能所帶來的效率使員工能夠?qū)W⒂趧?chuàng)造高價(jià)值的工作。

預(yù)計(jì)這項(xiàng)技術(shù)每年將為全球經(jīng)濟(jì)增加 4.4 萬億美元的價(jià)值。要獲得這些好處,公司需要更有效地掌握人工智能的風(fēng)險(xiǎn),并有效地管理其使用方式。現(xiàn)在就開始保護(hù)和升級(jí)您的業(yè)務(wù)。

以上內(nèi)容來源于GARP,如有侵權(quán)請(qǐng)聯(lián)系刪除。

免費(fèi)試聽

回到頂部
折疊
網(wǎng)站地圖

Copyright © 2000 - www.odtgfuq.cn All Rights Reserved. 北京正保會(huì)計(jì)科技有限公司 版權(quán)所有

京B2-20200959 京ICP備20012371號(hào)-7 出版物經(jīng)營許可證 京公網(wǎng)安備 11010802044457號(hào)