首頁>資訊 >
人工智能有風(fēng)險,監(jiān)管制度需保證 2022-03-03 11:46:44  來源:36氪

人工智能在人類生活 所能實現(xiàn)的力量 愈強大, 人工智能的監(jiān)管制度問題也就愈重要,尤其是 在 與機器結(jié)合 的背景下 , 例如: 自動駕駛汽車、工廠機器 設(shè)備 、醫(yī)生為病人進行遠(yuǎn)程手術(shù) 的 機器人 、幫助飛行員導(dǎo)航的智能軟件系統(tǒng),等等。

然而,像之前其他變革性技術(shù)一樣,人工智能在當(dāng)前引起了很多懷疑,甚至是恐懼,這就催生了限制其應(yīng)用范圍的一系列法規(guī)和政策。那為了促進當(dāng)今最強大的技術(shù)的合理應(yīng)用,我們到底能做什么呢?

就風(fēng)河公司來說,該公司擁有具有最高安全標(biāo)準(zhǔn)的智能系統(tǒng),而且在此方面擁有40年的經(jīng)驗。該公司的負(fù)責(zé)人稱:“我們相信,我們有責(zé)任不斷推進我們的技術(shù),同時推進這種技術(shù)對世界的積極影響。就人工智能驅(qū)動的機器人技術(shù)而言,我們要積極主動地提供透明、公平和隱私的系統(tǒng),使得人們對人工智能充分信任。

01人工智能與機器人技術(shù)高度結(jié)合

今天的工業(yè)機器人正在發(fā)生根本性的轉(zhuǎn)變,從局限于重復(fù)性動作的機器蛻變?yōu)檎J(rèn)知性的人類工作合作者。人工智能需要攝入基于機器人的傳感器收集的大量數(shù)據(jù),這些數(shù)據(jù)需要實時解譯,因此這些數(shù)據(jù)不能被送到云端進行處理,而是要接近機器的地方進行分析。正是這種邊緣計算賦予了機器實時意識,使機器人能夠比人類更快地對決策采取行動,而人類則需要信任這些決策。

隨著機器人的移動性、協(xié)作性、邊緣駐留以及與其他物聯(lián)網(wǎng)設(shè)備的連接,數(shù)據(jù)豐富的生態(tài)系統(tǒng)給潛在的黑客提供了可乘之機。公司可能會發(fā)現(xiàn)自己容易受到惡意軟件、網(wǎng)絡(luò)贖金、生產(chǎn)延遲和業(yè)務(wù)中斷等方面的影響。更為重要的是,針對高度靈活且強大的機器人系統(tǒng)的網(wǎng)絡(luò)攻擊也帶來了一些嚴(yán)重的物理安全問題。

02人工智能的風(fēng)險是什么?

圍繞人工智能的潛在問題的引發(fā)人們的討論,目前主要集中在幾個關(guān)鍵問題上。

隱私和安全:人工智能在數(shù)據(jù)上運行,因此網(wǎng)絡(luò)安全漏洞可能對個人和組織構(gòu)成威脅。

不透明性/透明度:數(shù)據(jù)是如何處理的,如何使用的?人工智能系統(tǒng)識別的模式可能無法真正代表分析決策的輸出。哪些數(shù)據(jù)被選中?其質(zhì)量如何確定?這些都需要在系統(tǒng)中建立透明的算法問責(zé)制度,以確保人工智能的輸出真正符合標(biāo)準(zhǔn),并且是公平且沒有偏見的。

偏見:偏見會以多種方式影響算法,特別是通過使用有缺陷的數(shù)據(jù)或與當(dāng)前問題無關(guān)的數(shù)據(jù)集(統(tǒng)計偏見)。

規(guī)范的道德考慮:與人工智能之前的其他顛覆性技術(shù)一樣,管理這一領(lǐng)域的法律和法規(guī)的制定正在追趕著人工智能的發(fā)展。有大量的技術(shù)努力來檢測和消除人工智能系統(tǒng)的偏見,但是它們都還處于早期階段。此外,技術(shù)修復(fù)也有其局限性,因為它們需要制定一個公平的數(shù)學(xué)概念,而這是很難做到的。

雖然目前實際的政策很少,但也有一些值得注意的嘗試。數(shù)據(jù)創(chuàng)新中心2019年的一份歐盟政策文件提出:值得信賴的人工智能應(yīng)該是合法的、道德的和技術(shù)上有彈性的,并能夠闡明能夠?qū)崿F(xiàn)這些目標(biāo)的前提要求:人類監(jiān)督、技術(shù)穩(wěn)健性、隱私和數(shù)據(jù)治理、透明度、公平性、問責(zé)制等。隨著人工智能不斷發(fā)展,這些要求都將編入立法之中。

另外,據(jù)美聯(lián)社報道,在2021年秋天,總統(tǒng)喬·拜登的頂級科學(xué)顧問開始呼吁制定新的“權(quán)力法案”,以防范更加強大的新人工智能技術(shù)所帶來的風(fēng)險。

如果公司能夠合理地應(yīng)用人工智能,這將為公司帶來巨大利益,但如果在沒有道德保障的情況下使用人工智能,也會損害公司的聲譽和未來業(yè)績。制定標(biāo)準(zhǔn)或起草立法并不是很容易就能完成的,這是因為人工智能涵蓋了一個廣泛的、無定形的領(lǐng)域,從戰(zhàn)場機器人到自動駕駛汽車到用于審查合同的法律助理,人工智能無處不在。事實上,幾乎所有與機器學(xué)習(xí)和數(shù)據(jù)科學(xué)有關(guān)的東西現(xiàn)在都被認(rèn)為是人工智能的一種形式。

03評估人工智能應(yīng)用的框架

展望未來,作為對之前工作的補充,一個旨在確保道德實施的擬議框架正在成為人們討論的焦點。該框架是圍繞四個關(guān)鍵支柱建立的,即信任、透明、公平和隱私。

信任:首先,證明人工智能應(yīng)用的可信度毫無疑問是應(yīng)用人工智能的門檻問題。人們需要知道,他們正在使用的人工智能應(yīng)用程序是來自可靠的來源,并且是在負(fù)責(zé)任和可信的監(jiān)督下開發(fā)的。

透明度:充分披露人工智能使用的透明度,并解釋其在具體使用場景中的好處,將在減少人們的擔(dān)憂和擴大人工智能應(yīng)用方面起到很大作用。

公平性:開發(fā)者需要表明,人工智能是以公平和公正的方式部署的。由于人工智能在其基本狀態(tài)下缺乏應(yīng)用判斷的能力,而主要側(cè)重于模式識別,因此需要對算法進行微調(diào)以消除偏見。還應(yīng)引入一些程序,以消除我們?nèi)祟惒豢杀苊獾貛淼囊恍┢姟?/p>

隱私:至關(guān)重要的是,開發(fā)人員應(yīng)考慮到使用人工智能可能會影響數(shù)據(jù)中嵌入的個人身份信息(PII)。雖然當(dāng)前的人工智能通過繞開人類與敏感數(shù)據(jù)的互動這種方式確實消除了一些隱私問題,但它同時也引發(fā)了其他問題,如信息的使用范圍,它的存儲位置,以及誰可以訪問它的權(quán)限問題。

04技術(shù)界對人工智能的積極態(tài)度

人工智能毫無疑問將繼續(xù)存在于我們的生活,而人工智能的監(jiān)管與控制問題肯定會隨之而來。行業(yè)參與者正在積極尋找方法,以確保他們的應(yīng)用程序遵循要求,同時也要保證人工智能的發(fā)展復(fù)合信賴、透明、公平和確保隱私的框架。目前的一個有效措施就是使用同行評審系統(tǒng)。在此系統(tǒng)中,人工智能開發(fā)者將提交他們應(yīng)用程序的用例,在一個類似于開源環(huán)境的人工智能社區(qū)中進行審查。

另一個增加人工智能應(yīng)用清晰度的方法是建立一個特設(shè)組織,公司將把他們的項目和應(yīng)用提交給一個中央人工智能注冊處,與通常由控制議程的正式機構(gòu)不同,注冊處將是一個收集反饋、建議和肯定的自我報告機構(gòu)。最終,確保人工智能應(yīng)用以道德方式進行部署。

本文來自微信公眾號“Techsoho”(ID:scilabs),作者:王曉東,36氪經(jīng)授權(quán)發(fā)布。

關(guān)鍵詞: 人工智能 監(jiān)管制度

相關(guān)閱讀:
熱點
圖片 圖片