我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。
北京時(shí)間 4 月 19 日早間消息,據美國科技媒體 The Verge 報道,歐盟本周一發(fā)布了一系列關(guān)于發(fā)展人工智能(AI)倫理的新指南,作為企業(yè)和政府開(kāi)發(fā)人工智能倫理應用的指導方針。
這些規則不同于美國科幻小說(shuō)作家艾薩克·阿西莫夫(Isaac Asimov)的“機器人三定律”,沒(méi)有直截了當地提供一個(gè)道德框架來(lái)幫助人類(lèi)控制兇殘的機器人。相反,當人工智能整合至醫療、教育和消費技術(shù)等領(lǐng)域時(shí),它們可澄清一些影響社會(huì )的模糊而分散的問(wèn)題。
因此,舉例來(lái)說(shuō),如果一套 AI 系統在未來(lái)某個(gè)時(shí)候診斷出你患有癌癥,歐盟的指導方針將確保下列事情的發(fā)生:軟件不會(huì )因種族或性別而產(chǎn)生偏見(jiàn);不會(huì )推翻人類(lèi)醫生的反對意見(jiàn);患者有權選擇聽(tīng)取 AI 診斷意見(jiàn)。
這些指導方針有助于阻止人工智能胡作非為,并保證在行政和官僚主義的層面上,不會(huì )制造出阿西莫夫式的謀殺謎團。
為了幫助實(shí)現這一目標,歐盟召集了 52 名專(zhuān)家組成的小組,提出了他們認為未來(lái) AI 系統應該滿(mǎn)足的七項要求。具體如下:
- 人類(lèi)作用和監督:人工智能不應該踐踏人類(lèi)的自主性。人們不應該被 AI 系統操縱或脅迫,而且,人類(lèi)應該能夠干預或監督軟件做出的每一個(gè)決定。
- 技術(shù)的穩健性和安全性:人工智能應該是安全的、準確的。它不應該易于受到外部攻擊(例如對抗性實(shí)例)的影響,而且,應該是相當可靠的。
- 隱私和數據管理:人工智能系統收集的個(gè)人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。
- 透明性:用于創(chuàng )建人工智能系統的數據和算法應該是可訪(fǎng)問(wèn)的,軟件所做的決定應“由人類(lèi)理解和跟蹤”。換句話(huà)說(shuō),操作員應該能夠解釋 AI 系統所做的決定。
- 多樣性、非歧視和公平性:人工智能提供的服務(wù)應面向所有人,無(wú)論年齡、性別、種族或其他特征。同樣地,系統不應該在這些方面存在偏見(jiàn)。
- 環(huán)境和社會(huì )福祉:人工智能系統應該是可持續的(即它們應該對生態(tài)負責)并“促進(jìn)積極的社會(huì )變革”。
- 問(wèn)責制:人工智能系統應該是可審計的,并被納入企業(yè)可舉報范疇,以便受到現有規則的保護。應事先告知和報告系統可能產(chǎn)生的負面影響。
人們會(huì )注意到上述一些需求非常抽象,很難從客觀(guān)的角度進(jìn)行評估。(例如,“積極的社會(huì )變革”的定義因人而異,因國而異),但其他定義內容更為直截了當,可以通過(guò)政府監督進(jìn)行檢驗。例如,用于訓練政府 AI 系統的數據實(shí)行共享,可能是對抗偏見(jiàn)性算法的好方法。
這些指導方針不具有法律約束力,但它們可能對歐盟未來(lái)起草的所有法律造成影響。歐盟一再表示,希望成為 AI 倫理領(lǐng)域的領(lǐng)導者,并通過(guò)《通用數據保護條例》(GDPR)表明,愿意制定影響深遠的法律,以保護公眾的數字權利。
不過(guò)在一定程度上,歐盟是由于環(huán)境因素而迫不得已充當這一角色的。在投資和前沿研究方面,歐盟無(wú)法與美國和中國——AI 領(lǐng)域的世界領(lǐng)先者——一爭高下,因此,它選擇了倫理作為塑造技術(shù)未來(lái)的最佳選擇。
作為這項工作的一部分,本周一的報告包括了一份所謂的“值得信賴(lài)的 AI 評估列表”,以便幫助專(zhuān)家找出 AI 軟件中存在的潛在弱點(diǎn)或危險。此列表中的問(wèn)題包括“是否對系統在意外情況和環(huán)境中的行為進(jìn)行了驗證?”和“是否對數據集內的數據類(lèi)型和范圍進(jìn)行了評估?”
這些評估清單只是初步措施,歐盟將在未來(lái)幾年收集企業(yè)反饋,并在 2020 年期限內提供一份最終報告。
范尼·希德韋吉(Fanny Hidvegi)現在是數字版權集團 Access Now 的政策經(jīng)理,也是參與撰寫(xiě)這份指南的專(zhuān)家之一,他說(shuō)評估列表是報告中最重要的部分。希德韋吉向 The Verge 透露,“它提供了一個(gè)實(shí)用的、前瞻性的視角”,來(lái)緩解人工智能的潛在危害。
“在我們看來(lái),歐盟有能力、有責任站在這項工作的最前線(xiàn),”希德韋吉說(shuō),“但我們認為,歐盟不應停留在倫理指南水平……而應該上升到法律層面。”
另有一些人懷疑,歐盟試圖通過(guò)影響巨大的倫理研究來(lái)規范全球人工智能的發(fā)展方式。
智庫機構數據創(chuàng )新中心(Center for Data Innovation)的高級政策分析師艾琳·奇沃特(Eline Chivot)在接受 The Verge 采訪(fǎng)時(shí)說(shuō):“通過(guò)為 AI 倫理創(chuàng )建黃金標準來(lái)確認歐盟在全球 AI 發(fā)展中的地位,我們對正在采取的這種方法持懷疑態(tài)度。要成為 AI 倫理的領(lǐng)導者,首先你必須在人工智能領(lǐng)域遙遙領(lǐng)先。”
?。?a href="http://www.cki5.com/city/handan/">邯鄲網(wǎng)站建設)
小米應用商店發(fā)布消息稱(chēng) 持續開(kāi)展“APP 侵害用戶(hù)權益治理”系列行動(dòng) 11:37:04
騰訊云與CSIG成立政企業(yè)務(wù)線(xiàn) 加速數字技術(shù)在實(shí)體經(jīng)濟中的落地和應用 11:34:49
樂(lè )視回應還有400多人 期待新的朋友加入 11:29:25
亞馬遜表示 公司正在將其智能購物車(chē)擴展到馬薩諸塞州的一家全食店 10:18:04
三星在元宇宙平臺推出游戲 玩家可收集原材料制作三星產(chǎn)品 09:57:29
特斯拉加州San Mateo裁減229名員工 永久關(guān)閉該地區分公司 09:53:13