發(fā)布時(shí)間:2018/11/2 9:09:08 來源:人民日報(bào) 編輯:中國家裝家居網(wǎng)
人工智能算法潛在的安全隱患、認(rèn)知偏見、法律倫理沖突等往往是現(xiàn)實(shí)社會(huì)缺陷的反映。只有在機(jī)器與使用機(jī)器的人上兩頭著力,我們才能創(chuàng)造一個(gè)人工智能與人類良性互動(dòng)的未來。
語音點(diǎn)菜、刷臉買單、無人車送回家……60多年前,當(dāng)一批年輕的科學(xué)家首次提出人工智能的概念時(shí),或許沒想到它帶來的巨大變化;而今,得益于計(jì)算能力的提升、大數(shù)據(jù)的驅(qū)動(dòng)以及深度學(xué)習(xí)的突破,人工智能正加快“進(jìn)化”,日益改變著我們的生產(chǎn)、生活。
技術(shù)是把雙刃劍。應(yīng)當(dāng)看到,人工智能在高歌猛進(jìn)的同時(shí),對安全、法律倫理等也提出了新挑戰(zhàn)。比如,一些專家擔(dān)憂人工智能可能模糊虛擬世界和物理世界的界限,甚至重塑人類的生存環(huán)境和認(rèn)知形態(tài),并由此衍生出一系列棘手的道德倫理難題。知名物理學(xué)家霍金生前就認(rèn)為,人工智能的短期影響由控制它的人決定,而長期影響則取決于人工智能是否完全為人所控制。
從技術(shù)發(fā)展進(jìn)程和邏輯看,這些擔(dān)憂或許來得早了點(diǎn)。好在我們沒有僅僅停留在爭論上,針對人工智能潛在的風(fēng)險(xiǎn),科學(xué)家和工程師們防患于未然,從產(chǎn)品設(shè)計(jì)標(biāo)準(zhǔn)、規(guī)范約束等方面提出了一系列試圖控制智能機(jī)器系統(tǒng)的可行性方案。面對智能算法不可理解、缺乏透明造成的機(jī)器偏見,人們正加強(qiáng)評估人工智能使用的數(shù)據(jù)、算法以及模型,剔除可導(dǎo)致偏見的潛在因素;對于未來強(qiáng)人工智能環(huán)境下,具有準(zhǔn)人格的機(jī)器如何與人協(xié)調(diào)相處問題,科學(xué)家也試圖探索通過算法給智能機(jī)器嵌入人類的價(jià)值觀和規(guī)范,讓它們具有和人類一樣的同情心、責(zé)任心、羞恥感等等。我們希望,在對人工智能程序進(jìn)行監(jiān)管的同時(shí),讓人工智能的算法遵循“善法”,吸取人類道德規(guī)范“善”的一面,從而控制機(jī)器的風(fēng)險(xiǎn)。
當(dāng)然,構(gòu)建好機(jī)器法律倫理體系并不容易。現(xiàn)實(shí)中豐富的語言表達(dá),微妙的情感訴求能被機(jī)器理解、接受嗎?用量化的指標(biāo)衡量善、惡等倫理概念可行嗎?還有,誰來決定算法、設(shè)定標(biāo)準(zhǔn)?這些都是我們試圖規(guī)范人工智能發(fā)展需要面臨的難題。但給機(jī)器嵌入倫理的困難,并不意味著我們只能無所作為。機(jī)器學(xué)習(xí)輸出的判斷和行為,往往取決于它接受的信息。從這點(diǎn)看,人工智能本身并無對錯(cuò),理想的狀態(tài)下,當(dāng)前基于深度學(xué)習(xí)的人工智能算法應(yīng)當(dāng)是中性、客觀、高效的,其潛在的安全隱患、認(rèn)知偏見、法律倫理沖突等往往是現(xiàn)實(shí)社會(huì)缺陷的反映,只不過在技術(shù)的視野中被放大了。因此,要讓智能機(jī)器變得更完美,除了通過技術(shù)手段對算法進(jìn)行審查或引導(dǎo)外,更重要的或許是正視、理解并改善現(xiàn)實(shí)社會(huì)環(huán)境。只有在機(jī)器與使用機(jī)器的人上兩頭著力,我們才能創(chuàng)造一個(gè)人工智能與人類良性互動(dòng)的未來。
倫理學(xué)家說,人工智能的道德水準(zhǔn)將是一面鏡子,它反映的是人類文明的道德高度。人類社會(huì)不可能十全十美,未來的機(jī)器智能時(shí)代亦然。我們要繼續(xù)不懈努力,去創(chuàng)造更好的智能時(shí)代。