韩国资源视频一区二区三区,午夜私人影院粉色视频我要,99国产高清久久久久久网站,久久国内精品自在自线观看,国产青榴在线观看视频

Internet Develppment
互聯(lián)網(wǎng)開(kāi)發(fā)& 推廣服務(wù)提供商

我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。

歡迎瀏覽我們的案例。

首頁(yè) > 新聞中心 > 新聞動(dòng)態(tài) > 正文

歐盟發(fā)布人工智能倫理指南:AI系統要負責任且無(wú)偏見(jiàn)

發(fā)布時(shí)間:2019-04-09 11:03:27來(lái)源:新浪科技

  北京時(shí)間 4 月 19 日早間消息,據美國科技媒體 The Verge 報道,歐盟本周一發(fā)布了一系列關(guān)于發(fā)展人工智能(AI)倫理的新指南,作為企業(yè)和政府開(kāi)發(fā)人工智能倫理應用的指導方針。

  這些規則不同于美國科幻小說(shuō)作家艾薩克·阿西莫夫(Isaac Asimov)的“機器人三定律”,沒(méi)有直截了當地提供一個(gè)道德框架來(lái)幫助人類(lèi)控制兇殘的機器人。相反,當人工智能整合至醫療、教育和消費技術(shù)等領(lǐng)域時(shí),它們可澄清一些影響社會(huì )的模糊而分散的問(wèn)題。

  因此,舉例來(lái)說(shuō),如果一套 AI 系統在未來(lái)某個(gè)時(shí)候診斷出你患有癌癥,歐盟的指導方針將確保下列事情的發(fā)生:軟件不會(huì )因種族或性別而產(chǎn)生偏見(jiàn);不會(huì )推翻人類(lèi)醫生的反對意見(jiàn);患者有權選擇聽(tīng)取 AI 診斷意見(jiàn)。

  這些指導方針有助于阻止人工智能胡作非為,并保證在行政和官僚主義的層面上,不會(huì )制造出阿西莫夫式的謀殺謎團。

  為了幫助實(shí)現這一目標,歐盟召集了 52 名專(zhuān)家組成的小組,提出了他們認為未來(lái) AI 系統應該滿(mǎn)足的七項要求。具體如下:

  - 人類(lèi)作用和監督:人工智能不應該踐踏人類(lèi)的自主性。人們不應該被 AI 系統操縱或脅迫,而且,人類(lèi)應該能夠干預或監督軟件做出的每一個(gè)決定。

  - 技術(shù)的穩健性和安全性:人工智能應該是安全的、準確的。它不應該易于受到外部攻擊(例如對抗性實(shí)例)的影響,而且,應該是相當可靠的。

  - 隱私和數據管理:人工智能系統收集的個(gè)人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。

  - 透明性:用于創(chuàng )建人工智能系統的數據和算法應該是可訪(fǎng)問(wèn)的,軟件所做的決定應“由人類(lèi)理解和跟蹤”。換句話(huà)說(shuō),操作員應該能夠解釋 AI 系統所做的決定。

  - 多樣性、非歧視和公平性:人工智能提供的服務(wù)應面向所有人,無(wú)論年齡、性別、種族或其他特征。同樣地,系統不應該在這些方面存在偏見(jiàn)。

  - 環(huán)境和社會(huì )福祉:人工智能系統應該是可持續的(即它們應該對生態(tài)負責)并“促進(jìn)積極的社會(huì )變革”。

  - 問(wèn)責制:人工智能系統應該是可審計的,并被納入企業(yè)可舉報范疇,以便受到現有規則的保護。應事先告知和報告系統可能產(chǎn)生的負面影響。

  人們會(huì )注意到上述一些需求非常抽象,很難從客觀(guān)的角度進(jìn)行評估。(例如,“積極的社會(huì )變革”的定義因人而異,因國而異),但其他定義內容更為直截了當,可以通過(guò)政府監督進(jìn)行檢驗。例如,用于訓練政府 AI 系統的數據實(shí)行共享,可能是對抗偏見(jiàn)性算法的好方法。

  這些指導方針不具有法律約束力,但它們可能對歐盟未來(lái)起草的所有法律造成影響。歐盟一再表示,希望成為 AI 倫理領(lǐng)域的領(lǐng)導者,并通過(guò)《通用數據保護條例》(GDPR)表明,愿意制定影響深遠的法律,以保護公眾的數字權利。

  不過(guò)在一定程度上,歐盟是由于環(huán)境因素而迫不得已充當這一角色的。在投資和前沿研究方面,歐盟無(wú)法與美國和中國——AI 領(lǐng)域的世界領(lǐng)先者——一爭高下,因此,它選擇了倫理作為塑造技術(shù)未來(lái)的最佳選擇。

  作為這項工作的一部分,本周一的報告包括了一份所謂的“值得信賴(lài)的 AI 評估列表”,以便幫助專(zhuān)家找出 AI 軟件中存在的潛在弱點(diǎn)或危險。此列表中的問(wèn)題包括“是否對系統在意外情況和環(huán)境中的行為進(jìn)行了驗證?”和“是否對數據集內的數據類(lèi)型和范圍進(jìn)行了評估?”

  這些評估清單只是初步措施,歐盟將在未來(lái)幾年收集企業(yè)反饋,并在 2020 年期限內提供一份最終報告。

  范尼·希德韋吉(Fanny Hidvegi)現在是數字版權集團 Access Now 的政策經(jīng)理,也是參與撰寫(xiě)這份指南的專(zhuān)家之一,他說(shuō)評估列表是報告中最重要的部分。希德韋吉向 The Verge 透露,“它提供了一個(gè)實(shí)用的、前瞻性的視角”,來(lái)緩解人工智能的潛在危害。

  “在我們看來(lái),歐盟有能力、有責任站在這項工作的最前線(xiàn),”希德韋吉說(shuō),“但我們認為,歐盟不應停留在倫理指南水平……而應該上升到法律層面。”

  另有一些人懷疑,歐盟試圖通過(guò)影響巨大的倫理研究來(lái)規范全球人工智能的發(fā)展方式。

  智庫機構數據創(chuàng )新中心(Center for Data Innovation)的高級政策分析師艾琳·奇沃特(Eline Chivot)在接受 The Verge 采訪(fǎng)時(shí)說(shuō):“通過(guò)為 AI 倫理創(chuàng )建黃金標準來(lái)確認歐盟在全球 AI 發(fā)展中的地位,我們對正在采取的這種方法持懷疑態(tài)度。要成為 AI 倫理的領(lǐng)導者,首先你必須在人工智能領(lǐng)域遙遙領(lǐng)先。”
 ?。?a href="http://www.cki5.com/city/handan/">邯鄲網(wǎng)站建設)

最新資訊
? 2018 河北碼上網(wǎng)絡(luò )科技有限公司 版權所有 冀ICP備18021892號-1   
? 2018 河北碼上科技有限公司 版權所有.
韩国资源视频一区二区三区,午夜私人影院粉色视频我要,99国产高清久久久久久网站,久久国内精品自在自线观看,国产青榴在线观看视频