我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。
“我讓語(yǔ)音助手把燈關(guān)了,結果它不僅把燈開(kāi)個(gè)不停,還發(fā)出冷笑。”
3年前,全球各地不少人被亞馬遜智能音箱接到指令后發(fā)出的冷笑嚇得夠嗆。今天,又有不少人拍下家里兩臺智能音箱煞有介事互相聊天的視頻,加上“笑哭”配樂(lè )發(fā)到社交網(wǎng)站。
如果再有人驚恐提出這是機器的覺(jué)醒,可能會(huì )被不以為然、嗤之以鼻——我們自認已經(jīng)非常熟悉人工智能的運作原理。
我們對AI的未來(lái),真這么胸有成竹嗎?
(一)
在最近熱播的電視劇《你好,安怡》中,2035年,與人類(lèi)極為相似但并不具備自主意識的“芯機人”走入千家萬(wàn)戶(hù),絕對服從人類(lèi)的他們變成了保姆、服務(wù)員和工人。同時(shí),幾個(gè)“芯機人”異類(lèi)也開(kāi)始出現在人類(lèi)社會(huì ),他們擁有和人類(lèi)一樣的情感、意識與思考能力,一系列機器人與人類(lèi)家庭、社會(huì )的復雜糾葛隨之而來(lái)。
與宮斗、穿越、職場(chǎng)斗爭等戲碼不同,《你好,安怡》將目光放在類(lèi)人機器人與人類(lèi)共存的倫理問(wèn)題上:機器人自我意識覺(jué)醒后的一系列挑戰,機器人與人類(lèi)之間的情感摩擦,比人類(lèi)更加專(zhuān)業(yè)、智慧的機器人一旦具備了破壞性我們該如何應對……
在古裝、言情、家庭劇占據電視劇主流的今天,討論科技倫理似乎并不討巧。提起中國的科幻影視作品,人們津津樂(lè )道的似乎只有《流浪地球》《瘋狂的外星人》等寥寥幾部。盡管有幾部國產(chǎn)科幻大片正在路上,但科幻題材的電視劇“出圈”作品則少之又少。這似乎與中國突飛猛進(jìn)的科技發(fā)展水平并不相稱(chēng)。
不提拍攝手法、創(chuàng )作水準等見(jiàn)仁見(jiàn)智的評價(jià),可以肯定的是,《你好,安怡》對鼓勵中國觀(guān)眾接觸并思考科技倫理頗有益處。以往人們熟知的科技倫理大片總以西方社會(huì )為背景,通過(guò)歐美的話(huà)語(yǔ)體系與思維方式展開(kāi),如《西部世界》《黑鏡》《蒼穹浩瀚》等。對于中國觀(guān)眾來(lái)說(shuō),當故事背景轉向熟悉的人群與生活,無(wú)疑會(huì )有更強的代入感,對機器人倫理問(wèn)題也會(huì )有更深的危機感和探究動(dòng)力。
(二)
放眼互聯(lián)網(wǎng)世界,關(guān)于科技倫理的討論,正以一種更有趣的方式走進(jìn)人們視野。
前不久,一條關(guān)于人工智能奇妙“腦回路”的微博曾吸引數萬(wàn)網(wǎng)友轉發(fā)關(guān)注。
這位網(wǎng)友分享了在開(kāi)發(fā)游戲AI中的一件趣事:技術(shù)人員在一個(gè)“狼抓羊”游戲中設定的邏輯是,如果狼抓到了羊就獎勵10分,撞到障礙物就扣1分,而為了保證盡快完成任務(wù),每秒鐘狼都會(huì )被扣0.1分,結束時(shí)得分越高獎勵越多。
聽(tīng)上去合理的訓練規則,卻收獲了越來(lái)越差的訓練結果。工程師們仔細檢查后才明白,原來(lái)扮演狼角色的AI發(fā)現,狼在大部分情況下都很難抓住羊,而追逐的時(shí)間越久扣分就越多,因此AI分析后,決定在游戲一開(kāi)始便一頭撞死自己,這樣反而能獲得最高分。
雖然不少網(wǎng)友指出了算法設計中的問(wèn)題,但這也暴露了人類(lèi)為AI設定“終極目標”時(shí)極易出現的漏洞:我們往往忽視了一些人性中默認的最高準則。
盡管有人認為阿西莫夫的“機器人三定律”或類(lèi)似法則可以解決這一問(wèn)題,認為只要設定機器人不得傷害人類(lèi),在這一前提下保護自身,就能有效避免機器冷酷無(wú)情達到目的時(shí)可能帶來(lái)的風(fēng)險。
然而,僅以自動(dòng)駕駛為例,就可以發(fā)現最高準則不一定能解決復雜的倫理困境。
各國在制定自動(dòng)駕駛倫理法則時(shí),就曾面臨經(jīng)典的“電車(chē)難題”:假如車(chē)輛的終極任務(wù)是保證人員安全,那么當街角出現一群小學(xué)生,在沒(méi)有更多選擇的情況下,是應該撞上去保全駕駛員,還是不顧駕駛員安危避讓以保護更多行人?如果僅以傷害人數多少來(lái)決策,那么人的年齡、職業(yè)、社會(huì )地位和親屬關(guān)系是否就應完全不加考慮?
退一步說(shuō),即使AI能完美實(shí)現人的最高目標與偏好,但人類(lèi)社會(huì )的價(jià)值體系本身就存在陰暗面。
從人工智能的實(shí)際應用來(lái)看,歧視、逐利、低俗等人性弱點(diǎn),都逐漸在算法運行過(guò)程中一一顯露。線(xiàn)上聊天機器人變成說(shuō)臟話(huà)、種族歧視的不良少女;應用于招聘、保險、司法審判等領(lǐng)域的算法可能存在職業(yè)、性別、種族歧視;人臉識別技術(shù)也不斷被曝出應用于售樓處、衛浴門(mén)店等,收集顧客信息用于牟利。
技術(shù)本身無(wú)善惡,但寫(xiě)在人性中的貪婪、欲望,讓我們無(wú)法保證每名開(kāi)發(fā)者、每個(gè)商業(yè)主體都能善用技術(shù)。而技術(shù)愈精進(jìn)壯大,其身后的陰影也會(huì )隨之擴張蔓延。
這并非杞人憂(yōu)天。事實(shí)上,在技術(shù)不斷創(chuàng )新試錯的今天,大部分人對智能科技濫用的警惕性還遠遠不夠。
(三)
一個(gè)人類(lèi)與強智能機器共存的未來(lái)似乎無(wú)可避免,而只有把AI倫理議題以平易近人、深入淺出的方式豐富呈現,放到社會(huì )輿論場(chǎng)中央,才能討論得更全面、更透徹,我們也才能越來(lái)越接近一個(gè)完善的人工智能體系,才能公平給予社會(huì )成員全面參與、自主抉擇的權利。
關(guān)注AI倫理的不再只是AI工程師們,哲學(xué)、倫理學(xué)、法學(xué)等各學(xué)科力量都在被吸引進(jìn)來(lái)。這一關(guān)系每個(gè)人未來(lái)命運的話(huà)題,無(wú)疑還需要社會(huì )公眾提升參與意識,積極討論和監督。
與此同時(shí),除了描繪人類(lèi)與智能機器共舞的未來(lái),大眾傳媒也應積極引入更多倫理議題,提升人們的警惕性和辨別技術(shù)風(fēng)險的能力。
這并非鼓勵人們抗拒技術(shù)、因噎廢食,而是一份邀約,邀請每個(gè)人知情、參與,共同完善技術(shù)體系。在機器人覺(jué)醒之前,我們本身應當覺(jué)醒。
小米應用商店發(fā)布消息稱(chēng) 持續開(kāi)展“APP 侵害用戶(hù)權益治理”系列行動(dòng) 11:37:04
騰訊云與CSIG成立政企業(yè)務(wù)線(xiàn) 加速數字技術(shù)在實(shí)體經(jīng)濟中的落地和應用 11:34:49
樂(lè )視回應還有400多人 期待新的朋友加入 11:29:25
亞馬遜表示 公司正在將其智能購物車(chē)擴展到馬薩諸塞州的一家全食店 10:18:04
三星在元宇宙平臺推出游戲 玩家可收集原材料制作三星產(chǎn)品 09:57:29
特斯拉加州San Mateo裁減229名員工 永久關(guān)閉該地區分公司 09:53:13