我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。
在今天這個(gè)人人都有可能被愚弄的日子,不如我們來(lái)?yè)Q換戲耍的對象,看看機器有沒(méi)有可能被愚弄欺騙呢?
在人工智能五十年的研發(fā)過(guò)程中,我們一直在不斷嘗試著(zhù)讓機器理解人對于世界的認知方式。不管是一直沒(méi)有實(shí)現較大突破的類(lèi)腦計算,還是模仿人類(lèi)感知外界機制的人工神經(jīng)網(wǎng)絡(luò ),本質(zhì)上都是對人類(lèi)行為方式的多種模仿。
當然我們也知道,這些模仿雖然在應用上取得突破,但本質(zhì)上來(lái)看與人類(lèi)的認知方式還是大相徑庭的。
就拿視覺(jué)來(lái)說(shuō),人類(lèi)對于萬(wàn)事萬(wàn)物的認知來(lái)自于綜合的感知。以前一陣社交媒體上瘋傳的《神奇寶貝》大電影來(lái)說(shuō),人們見(jiàn)到 3D 版皮卡丘非常驚訝——皮卡丘竟然是有毛的?
其實(shí)這就體現了人類(lèi)非常有趣的一點(diǎn),建立在綜合知識基礎之上,人類(lèi)的五感是相通的,因此可以從有限的信息里進(jìn)行關(guān)聯(lián)挖掘,對陌生的事物建立起認知。
當我們驚訝皮卡丘身上茸毛時(shí),我們立刻聯(lián)想起了那種毛茸茸的手感,認為它像一只大老鼠毫不可愛(ài)。
被隨意愚弄的機器思維
相比之下機器視覺(jué)的認知方式就相對孤立,建立分類(lèi)器后組織層層的神經(jīng)網(wǎng)絡(luò ),對圖片進(jìn)行分層處理,分別去辨認圖片中是不是一架橋,是不是一只猴子,是不是一棵大樹(shù)。最后得出的結論是,這張圖片 97% 的幾率是一架橋,2% 的幾率是一只猴子,1% 的幾率是一棵大樹(shù)。
對于人類(lèi)來(lái)說(shuō),我們可能把猴子看成猩猩,原因是我們自己腦海中的底層知識不足,在認知中分不清猩猩和猴子的概念。但絕不會(huì )把橋、猴子、大樹(shù)這些風(fēng)馬牛不相及的東西混淆一談。
但對于機器視覺(jué)就不一樣了,在機器的“眼中”,一切圖像都是像素點(diǎn)的排列組合。對于我們來(lái)說(shuō),猴子和大樹(shù)的區別是哺乳動(dòng)物和區別??蓪τ跈C器來(lái)說(shuō),猴子和大樹(shù)之間只有一個(gè)數字分割線(xiàn)而已。
這就導致了機器視覺(jué)可以被“針對性”的愚弄,讓圖像識別輸出完全錯誤的結果,這就是我們常說(shuō)的對抗生成樣本。
例如將一張圖片的像素點(diǎn)進(jìn)行輕微的移動(dòng),在人眼中兩張圖片沒(méi)有任何區別,可在機器識別邏輯下,卻可能讓機器把猴子認成大樹(shù)。
又比如我們曾經(jīng)介紹過(guò)的“迷幻貼紙”——將某一種物體的分類(lèi)特征高度濃縮成一個(gè)很小圖案,“粘貼”在其他圖片上。圖像識別對于結果的輸出,是基于幾項結果比率的高低。在貼上貼紙之前,圖像識別可能明確的分析出圖片有 98% 幾率的是一只猴子。但粘貼上高度濃縮特征的貼紙之后,就能立刻改變圖像識別的結果。
讓人類(lèi)理解機器思維,或許比想象中更容易
如此看來(lái),雖然機器一直在嘗試模仿人類(lèi)的思維方式,但最終結果還是我們與機器之間彼此無(wú)法理解。
那么如果換個(gè)角度,讓人類(lèi)去學(xué)習機器的思維方式呢?
近期約翰霍普金斯大學(xué)就做了這樣一項實(shí)驗。
為了弄明白為什么機器能看到人類(lèi)“看不到”的變化,約翰霍普金斯大學(xué)推出了一系列實(shí)驗,讓人類(lèi)志愿者在圖片中找到“機器犯的錯誤”。
例如給志愿者一張噪點(diǎn)圖或看似無(wú)意義的花紋,讓人類(lèi)志愿者從中識別辨認圖片更像哪一種物體,并將 AI 給出的結果混淆其中。又比如給人類(lèi)幾個(gè)斑駁的數字圖案,讓人類(lèi)志愿者選擇 AI 可能將圖案誤認成了什么錯誤的數字。
令人震驚的是,在大部分實(shí)驗中,人類(lèi)志愿者都憑借著(zhù)直覺(jué)很快辨認出了 AI 的思維模式。以上圖為例,有 81% 的人類(lèi)志愿者都準確的發(fā)覺(jué)了機器會(huì )犯下的錯誤。在一共 48 個(gè)實(shí)驗 1700 位志愿者中,有人們在 75% 的時(shí)間里都選擇和機器一樣的答案,而只有2% 的人從來(lái)沒(méi)有選擇過(guò)和機器一樣的答案。
這個(gè)驚人的實(shí)驗結果告訴我們,即使拋開(kāi)人類(lèi)基礎的認知邏輯,應用下意識的第一反應,也能夠和機器得出相同的結果??磥?lái)神經(jīng)網(wǎng)絡(luò )黑箱中對于人類(lèi)經(jīng)驗提煉的深度,或許遠超我們想象。
對抗對抗性圖像:當人類(lèi)開(kāi)始理解機器
這個(gè)實(shí)驗的意義,當然不是為了告訴大家其實(shí)我們都是機器人,而是教會(huì )了我們如何應對機器視覺(jué)可能犯下的錯誤。
在機器視覺(jué)認知模式的固有弊端下,很可能會(huì )形成很多可供鉆空子的漏洞。例如當自動(dòng)駕駛識別公路上的交通標志時(shí),一個(gè)小小貼紙就可能讓視覺(jué)系統產(chǎn)生錯覺(jué),把交通標識識別成突然出現的行人來(lái)個(gè)急剎車(chē)。
為了解決這種可能出現的情況,通過(guò)理解機器思維并進(jìn)行逆向拆解或許是個(gè)不錯的方法。
從實(shí)驗中我們可以看出,即使是毫無(wú)邏輯的圖案和紋理,人類(lèi)也可以通過(guò)聯(lián)想能力對這些圖片進(jìn)行更高級的認知和處理。實(shí)驗中人類(lèi)和機器進(jìn)入了同樣的情景,面對幾個(gè)分類(lèi)選項做選擇題。而這種分類(lèi)選擇或許就是讓機器陷入錯誤的關(guān)鍵。
另外一點(diǎn)則是,人類(lèi)可以很清楚的識別出對抗性圖像。例如故意斑駁讓人難以辨認數字圖案,以及特征十分明顯的花哨貼紙。那么說(shuō)明這些對抗性的圖案也擁有自己的“對抗性特征”。
雖然面對這種情況,最理想的方式是放棄卷積神經(jīng)網(wǎng)絡(luò ),應用認知計算真正讓人工智能建立在一個(gè)更完整的世界觀(guān)上進(jìn)行識別。但在認知計算獲得突破之前,我們或許可以尋找一些替代性的解決方案。
例如我們可以在一些安防、自動(dòng)駕駛等等關(guān)鍵場(chǎng)合之中,特意生成對抗性樣本讓人類(lèi)進(jìn)行標注,在汽車(chē)、行人這些常規分類(lèi)中多出一個(gè)“對抗樣本”分類(lèi),讓卷積神經(jīng)網(wǎng)絡(luò )可以識別出來(lái)這些搗亂的圖案。
對于那種動(dòng)幾個(gè)像素點(diǎn)就可以改變機器認知的情況,很有可能出現在數據流通途中的壓縮產(chǎn)生的失誤,我們可以尋找使得機器認知結果改變的壓縮規律,反向從源頭組織失誤的發(fā)生。
在愚人節這個(gè)日子里,發(fā)現“人類(lèi)與機器有著(zhù)十分相近的思維模式”這一新聞,聽(tīng)起來(lái)似乎像個(gè)笑話(huà)。但或許我們引以為傲的“人類(lèi)意識”,根本并沒(méi)有那么復雜,最終會(huì )與機器思維以一種出乎意料的方式相遇。
但在相遇之前,我們還是應該用人類(lèi)思維與機器人思維之間的相似性,來(lái)解決現實(shí)生活中的問(wèn)題。
?。?a href="http://www.cki5.com">邯鄲網(wǎng)站建設)
小米應用商店發(fā)布消息稱(chēng) 持續開(kāi)展“APP 侵害用戶(hù)權益治理”系列行動(dòng) 11:37:04
騰訊云與CSIG成立政企業(yè)務(wù)線(xiàn) 加速數字技術(shù)在實(shí)體經(jīng)濟中的落地和應用 11:34:49
樂(lè )視回應還有400多人 期待新的朋友加入 11:29:25
亞馬遜表示 公司正在將其智能購物車(chē)擴展到馬薩諸塞州的一家全食店 10:18:04
三星在元宇宙平臺推出游戲 玩家可收集原材料制作三星產(chǎn)品 09:57:29
特斯拉加州San Mateo裁減229名員工 永久關(guān)閉該地區分公司 09:53:13