現(xiàn)在,人工智能幾乎無(wú)處不在。從我們決定買哪一本書(shū),到預(yù)訂哪一趟航班,從是否能夠找到合適的工作,到是否能夠獲得銀行貸款,甚至診斷各種疑難雜癥,人們生活中的方方面面都有著人工智能的影子。
關(guān)于我們的生活,很大程度上已經(jīng)可以由人工智能這種復(fù)雜的軟件系統(tǒng)來(lái)自動(dòng)決策。毋庸置疑,在諸多科技界企業(yè)的推動(dòng)下,人工智能技術(shù)在過(guò)去幾年中取得了令人驚訝的巨大進(jìn)步,而且業(yè)內(nèi)很多人也相信人工智能會(huì)讓我們的生活變得更好。
顯而易見(jiàn),這種趨勢(shì)不可阻擋,整個(gè)社會(huì)都在為人工智能初創(chuàng)企業(yè)注入大量資金,而包括亞馬遜、Facebook以及微軟等高科技公司都針對(duì)人工智能開(kāi)設(shè)了新的研究實(shí)驗(yàn)室。現(xiàn)在的軟件就是人工智能,這種說(shuō)法目前來(lái)看并不夸張。
很多人預(yù)計(jì),人工智能對(duì)社會(huì)的沖擊甚至要大于互聯(lián)網(wǎng)。當(dāng)被問(wèn)及在這個(gè)千變?nèi)f化的世界中,人工智能技術(shù)將要為人類帶來(lái)何種影響時(shí),很多技術(shù)專家毫無(wú)懸念地將問(wèn)題集中在道德方面。
如何保證公平受益?
隨著人工智能的普及,機(jī)器系統(tǒng)在高風(fēng)險(xiǎn)決策領(lǐng)域的作用越來(lái)越重要——從信貸、保險(xiǎn)再到第三方?jīng)Q策以及醫(yī)療保險(xiǎn)、假釋等問(wèn)題。未來(lái),人工智能技術(shù)將代替人工決定誰(shuí)會(huì)獲得重要機(jī)遇,而誰(shuí)又將被拋棄,由此將會(huì)引發(fā)一系列關(guān)于社會(huì)公正的問(wèn)題。
譬如在生物醫(yī)學(xué)領(lǐng)域,人工智能有著驚人潛力。人工智能系統(tǒng)有助于分析基因組、蛋白質(zhì)組和新陳代謝組等的實(shí)驗(yàn)數(shù)據(jù),收集分析電子病歷和相應(yīng)的健康數(shù)據(jù)。聚類分析技術(shù)能夠幫助科學(xué)家判斷新綜合征,而模式識(shí)別技術(shù)能夠?qū)⒓膊∨c療法相匹配。但是由于現(xiàn)有醫(yī)療條件的不平衡,只有少部分人才能夠從先進(jìn)醫(yī)療技術(shù)中受益。
另一方面,人工智能,特別是機(jī)器學(xué)習(xí)技術(shù)的完善往往取決于訓(xùn)練數(shù)據(jù)。微軟的研究人員指出:“當(dāng)采集的數(shù)據(jù)存在偏差時(shí),用這種數(shù)據(jù)所訓(xùn)練的人工智能系統(tǒng)也會(huì)存在相應(yīng)偏差,其產(chǎn)生的模型或者結(jié)果勢(shì)必會(huì)復(fù)制并放大這種偏差。在這種情況下,人工智能系統(tǒng)所做出的決策將會(huì)產(chǎn)生差別效應(yīng)。而這種不公平要比人為偏見(jiàn)和不公要隱晦得多?!?/span>
Peter Norvig是谷歌研究主管,也是機(jī)器學(xué)習(xí)領(lǐng)域的先驅(qū)人物。在他看來(lái),大數(shù)據(jù)推動(dòng)下的人工智能技術(shù)獲得了前所未有的成功,但關(guān)鍵問(wèn)題在于如何確保這些系統(tǒng)能夠真正有效地改善整個(gè)社會(huì),而不僅僅只是讓那些控制人工智能系統(tǒng)的群體受益?!巴ㄟ^(guò)實(shí)踐證實(shí),人工智能在執(zhí)行各種任務(wù)時(shí)非常有效,從圖像識(shí)別,到自然語(yǔ)言理解和撰寫(xiě),再到疾病診斷,人工智能都發(fā)揮出了重大作用,”Peter Norvig指出,“現(xiàn)在的挑戰(zhàn)是如何確保每個(gè)人都能夠從中受益?!?/span>
如何審查機(jī)器運(yùn)行?
科學(xué)家之所以會(huì)擔(dān)憂人工智能引發(fā)公平問(wèn)題,最大的根源在于現(xiàn)有軟件的復(fù)雜性,這意味著我們無(wú)法準(zhǔn)確衡量人工智能系統(tǒng)為什么要這樣做?,F(xiàn)在的人工智能技術(shù)主要基于機(jī)器學(xué)習(xí),但對(duì)于人類來(lái)說(shuō),其并不能真正搞清楚這種系統(tǒng)到底是如何運(yùn)行的,所以我們不得不信任它。從根本上說(shuō),問(wèn)題關(guān)鍵在于找到新的方法去檢測(cè)和審查人工智能的運(yùn)行。
哈佛法學(xué)院互聯(lián)網(wǎng)法學(xué)教授Jonathan Zittrain則認(rèn)為,對(duì)于人工智能的潛在危險(xiǎn)的審查,會(huì)隨著計(jì)算機(jī)系統(tǒng)變得越來(lái)越復(fù)雜而面臨越來(lái)越多的阻礙。他指出,“我擔(dān)心隨著系統(tǒng)的復(fù)雜性和緊密耦合性越來(lái)越高,人類的自主性會(huì)越來(lái)越少。如果‘我們?cè)O(shè)定規(guī)則又忘記了規(guī)則’,我們會(huì)對(duì)系統(tǒng)的進(jìn)化感到懊悔。在那種情況下,甚至于倫理道德都無(wú)從考慮?!?/span>
而北卡羅來(lái)納州杜克大學(xué)的人類和自動(dòng)化實(shí)驗(yàn)室主任Missy Cummings則發(fā)問(wèn),“我們?nèi)绾未_保這些系統(tǒng)是絕對(duì)安全的?”她曾是一名海軍女飛行員,而現(xiàn)在則是無(wú)人機(jī)專家。
現(xiàn)在業(yè)內(nèi)普遍意識(shí)到人工智能需要進(jìn)行監(jiān)督,但沒(méi)有人清楚該怎么做。
當(dāng)然,在一個(gè)快速發(fā)展的社會(huì)中,監(jiān)管機(jī)構(gòu)往往在扮演著一個(gè)追趕者的角色。在刑事司法系統(tǒng)以及醫(yī)療保健等關(guān)鍵領(lǐng)域,人工智能已經(jīng)被嘗試用來(lái)進(jìn)行決策,譬如做出是否假釋的決定或者是診斷疾病。但是問(wèn)題來(lái)了,如果將決策權(quán)交給機(jī)器,我們就有可能對(duì)結(jié)果失去控制,誰(shuí)能保證系統(tǒng)在各種情況下一定是正確的?
微軟研究院的主要研究員Danah Boyd則認(rèn)為,被部分人寫(xiě)入人工智能系統(tǒng)的價(jià)值觀存在諸多問(wèn)題,而恰恰是這部分人應(yīng)該對(duì)系統(tǒng)負(fù)責(zé)。很多監(jiān)管機(jī)構(gòu)、社會(huì)群眾以及社會(huì)學(xué)者都希望人工智能技術(shù)能夠?qū)崿F(xiàn)公平,具備倫理道德,但這種希望都是虛無(wú)縹緲的。
如何應(yīng)對(duì)工作替代?
此外,人工智能普及也會(huì)對(duì)人類自己的本職工作產(chǎn)生根本影響。人工智能能夠讓機(jī)器人從事更加復(fù)雜的工作,從而取代更多人類勞動(dòng)者。譬如蘋果和三星手機(jī)的代工廠商去年就宣布,將使用機(jī)器人代替6萬(wàn)名工人,這在當(dāng)時(shí)引起了軒然大波,惹得社會(huì)上也人人自危。無(wú)獨(dú)有偶,福特位于德國(guó)科隆的工廠也讓機(jī)器和人在一起工作。機(jī)器人的廣泛使用會(huì)導(dǎo)致人類對(duì)人工智能技術(shù)產(chǎn)生過(guò)分依賴性。
現(xiàn)在很多醫(yī)療機(jī)構(gòu)已經(jīng)在診斷和手術(shù)中引入更多的機(jī)器人,特別是機(jī)器人在疑難手術(shù)中能夠表現(xiàn)出更精湛的醫(yī)術(shù),這就可能使經(jīng)由歷史積累的醫(yī)學(xué)技能和知識(shí)裹足不前,進(jìn)而使社會(huì)變得更為脆弱。而據(jù)麥肯錫的全球研究報(bào)告,到2025年,30%的公司審計(jì)工作將由人工智能完成。人工智能將取代許多人的工作,其中也包括醫(yī)生、財(cái)務(wù)經(jīng)理以及公司高管等收入較高的中產(chǎn)職業(yè)。
此外,自動(dòng)化程度的加大不僅影響到人類就業(yè),也會(huì)對(duì)人類心理健康產(chǎn)生連鎖反應(yīng)。生化倫理學(xué)家、奧巴馬前醫(yī)療顧問(wèn)Ezekiel Emanuel指出,“如果說(shuō)什么能賦予人們生活的意義,主要有3個(gè)方面:有意義的關(guān)系、熱情高漲的興趣以及有意義的工作。其中有意義的工作是一個(gè)人建立身份認(rèn)同的重要因素。”而失業(yè)率高的地區(qū),民眾自殺、濫用藥物以及罹患抑郁癥的風(fēng)險(xiǎn)也會(huì)成倍增加。
但我們不必悲觀,人工智能對(duì)人類的威脅始終是有限的。盡管人工智能在記憶和計(jì)算方面的能力要遠(yuǎn)超人類,但它始終是在學(xué)習(xí)和總結(jié)。而人類所具備的感知、情感、想象、創(chuàng)造等特質(zhì)是人工智能所無(wú)法企及的,這也注定了,人類是無(wú)法被人工智能逾越的。
如何有效進(jìn)行監(jiān)督?
人工智能的迅猛發(fā)展勢(shì)必會(huì)產(chǎn)生各類社會(huì)問(wèn)題。很多行業(yè)內(nèi)人士已經(jīng)意識(shí)到,相關(guān)問(wèn)題的出現(xiàn)會(huì)導(dǎo)致人們對(duì)人工智能倫理方面的要求越來(lái)越多。麻省理工學(xué)院技術(shù)部專門從事法律道德的專家Kate Darling指出:“公司肯定會(huì)遵循市場(chǎng)規(guī)律,這并不是壞事。但我們不能為了市場(chǎng)利益而放棄道德。”
Darling指出:“諸如谷歌等大公司已經(jīng)成立了道德委員會(huì),專門監(jiān)督人工智能系統(tǒng)的開(kāi)發(fā)和部署。這源于4年前,當(dāng)時(shí)谷歌以5.25億美元的價(jià)格收購(gòu)了英國(guó)的人工智能創(chuàng)業(yè)公司DeepMind。DeepMind創(chuàng)始人提出的交易條件之一就是谷歌要成立一個(gè)人工智能道德委員會(huì),這似乎標(biāo)志著負(fù)責(zé)任的人工智能研發(fā)新時(shí)代正在到來(lái)。但事實(shí)上,谷歌對(duì)于道德委員會(huì)的成員組成諱莫至深,實(shí)際上該委員會(huì)發(fā)揮的作用也相當(dāng)有限。
2016年9月,Facebook、谷歌、亞馬遜、IBM、微軟成立了一個(gè)聯(lián)盟,旨在開(kāi)發(fā)解決與人工智能相關(guān)的安全隱私問(wèn)題。該聯(lián)盟還宣布蘋果也將加入其中。此外,OpenAI還致力于推動(dòng)人工智能開(kāi)源,從而讓利益為全社會(huì)所共享。谷歌研究主管Norvig認(rèn)為,“機(jī)器學(xué)習(xí)必須要公開(kāi),我們所有人只有通過(guò)開(kāi)源代碼才能夠普遍受益?!?/span>
然而,為公眾揭開(kāi)人工智能技術(shù)的神秘面紗其實(shí)更為重要。對(duì)于沒(méi)有計(jì)算機(jī)科學(xué)知識(shí)的人來(lái)說(shuō),真正理解人工智能決策非常困難,更不用說(shuō)審查或規(guī)范這些技術(shù)。一些業(yè)內(nèi)人士認(rèn)為,如果沒(méi)有對(duì)人工智能技術(shù)的理解,諸如律師、決策者和一般公眾就很難真正理解或想象人工智能帶來(lái)的風(fēng)險(xiǎn)。