人工智能進(jìn)入人類社會(huì) 能否遵循社會(huì)道德智能

家電網(wǎng) 2018-05-28 21:53
分享到:
導(dǎo)讀

若是像著名的阿西莫夫機(jī)器人三定律那樣給人工智能定下規(guī)則,那么AI將會(huì)喪失自身獨(dú)立思考的能力,最后淪為人類的道具,最終也無(wú)法形成真正的“機(jī)器道德”。

近日,在北大書(shū)店舉辦的北大博雅講壇上,《道德機(jī)器:如何讓機(jī)器人明辨是非》作者之一,耶魯大學(xué)教授溫德?tīng)枴ね呃赵诂F(xiàn)場(chǎng)做了主旨演講。他從人工智能倫理道德角度切入,與觀眾一起探討能否讓機(jī)器人“明辨是非”的問(wèn)題。

隨著人工智能在人類社會(huì)的應(yīng)用,人們的生活也變得更加便利,但是也有相當(dāng)一部分科學(xué)家對(duì)這種陌生的、帶有一定“自主思考”能力的人造事物抱有疑問(wèn)和畏懼。著名物理學(xué)家斯蒂芬·霍金曾在北京舉行的GMIC大會(huì)上稱:人工智能很可能是人類文明的終結(jié)者。

人工智能應(yīng)當(dāng)被道德地使用

家電網(wǎng)綜合外媒信息得知,近日德國(guó)政府舉行了政府代表與人工智能專家的首次會(huì)見(jiàn),并計(jì)劃于6月初批準(zhǔn)有關(guān)人工智能議題的主要文件,同時(shí)啟動(dòng)一個(gè)專項(xiàng)調(diào)查委員會(huì),負(fù)責(zé)解釋所有與人工智能深度學(xué)習(xí)相關(guān)的技術(shù)、法律、政治和道德問(wèn)題,并在今年秋天前拿出人工智能發(fā)展總體規(guī)劃方案。

此外,在美國(guó)的Facebook也成立了一支專注于人工智能開(kāi)發(fā)倫理的特殊團(tuán)隊(duì),以確保該公司所研發(fā)的人工智能算法是公平的,并且能讓所有人都受益。而微軟以及谷歌收購(gòu)的DeepMind公司也都有專人負(fù)責(zé)人工智能道德,執(zhí)法武器制造商Taser也于近期宣布成立了自家的人工智能道德委員會(huì)。

對(duì)于現(xiàn)階段的弱人工智能來(lái)講,其還未能達(dá)到高速自我學(xué)習(xí)的階段,更像是人們手中的工具。如何使用,不被濫用依然是現(xiàn)階段人工智能道德的課題之一。如今,人工智能已經(jīng)深入醫(yī)療、教育、交通等各行各業(yè),無(wú)人駕駛汽車、社交媒體、網(wǎng)絡(luò)購(gòu)物平臺(tái)等都有使用人工智能幫助其控制車輛、分析大數(shù)據(jù)、甚至保管用戶隱私,因此道德地使用人工智能一直是各個(gè)國(guó)家發(fā)展人工智能時(shí)必須保障的,制定法律條文和法規(guī)就是其中的一種途徑。

人工智能能否遵循社會(huì)道德

同樣,人工智能本身是否能夠被道德所束縛也值得人們?nèi)肌?jù)家電網(wǎng)了解,缺乏倫理價(jià)值、常識(shí)、爭(zhēng)議觀念的算法系統(tǒng),在現(xiàn)實(shí)的交互中,很容易造成歧視和其他形式的不公。有研究表明,機(jī)器越容易習(xí)得類人的語(yǔ)言能力,也就越容易習(xí)得語(yǔ)言應(yīng)用范式中根深蒂固的偏見(jiàn),這種偏見(jiàn)如若被強(qiáng)化放大,后果將不堪設(shè)想,這類存在性格缺陷的AI相比窮兇極惡的無(wú)恥之徒更加危險(xiǎn)。

人工智能在被開(kāi)放出來(lái)時(shí),就不時(shí)地“爆出”驚世之語(yǔ)。能夠通過(guò)抓取和用戶互動(dòng)的數(shù)據(jù)模仿人類的對(duì)話的聊天機(jī)器人Tay,在不到一天的時(shí)間里上就被“調(diào)教”成了一個(gè)滿口叫囂著種族清洗的極端分子;Uber自動(dòng)駕駛汽車在撞人之前是探測(cè)到了受害者,但其仍然將對(duì)方視為“誤報(bào)”的物體并忽視,保持著行駛速度撞了上去,對(duì)此,消息人士認(rèn)為此為汽車高級(jí)邏輯錯(cuò)誤,它決定了要注意哪些對(duì)象以及如何處理它們……

道德是人類緩慢進(jìn)化的產(chǎn)物,但人工智能的迭代又在加速,其復(fù)雜性和風(fēng)險(xiǎn)也不可同日而語(yǔ),伴隨人工智能興起,必要的“人工道德”該如何實(shí)現(xiàn),越來(lái)越成為一個(gè)當(dāng)今世界不可回避的重大問(wèn)題。

如果按照波普爾、哈耶克等社會(huì)科學(xué)大師“開(kāi)放社會(huì)”、“理性的自負(fù)”的經(jīng)典理論,人們應(yīng)當(dāng)為AI創(chuàng)造一個(gè)環(huán)境生態(tài)能讓智能體探索自己的行為方式,在作出道德上值得贊揚(yáng)的行為時(shí)適時(shí)得到獎(jiǎng)賞,并將這種是非觀念和行為模式穩(wěn)定下來(lái)。然而這種方法的風(fēng)險(xiǎn)在于,人類道德經(jīng)驗(yàn)的一個(gè)核心特征就是,人們經(jīng)常會(huì)在自私的行為和利他的行為之間徘徊,創(chuàng)造者們不能保證AI為了自身利益而養(yǎng)成“不擇手段”的性格。

若是像著名的阿西莫夫機(jī)器人三定律那樣給人工智能定下規(guī)則,那么AI將會(huì)喪失自身獨(dú)立思考的能力,最后淪為人類的道具,最終也無(wú)法形成真正的“機(jī)器道德”。

最新的一種理論則提出,人們?cè)诟鶤I交流時(shí)應(yīng)當(dāng)建構(gòu)一種功能性道德,即人工道德智能體(AMAs),讓人工智能具有基本的道德敏感性,在基于開(kāi)放型、交互性的前提下,會(huì)逐步使人工智能和機(jī)器具備道德決策能力,并隨著智能技術(shù)和人機(jī)交互的進(jìn)步而進(jìn)化、發(fā)展。

無(wú)論如何,能分辨是非對(duì)錯(cuò)的人工道德的重要性,一點(diǎn)兒也不亞于人工智能本身。孩子最終會(huì)超越父母,但是孩子是否懂得反哺就取決于父母對(duì)其前期的成長(zhǎng)教育。人工智能現(xiàn)在就如同人類的孩子,其最終如何發(fā)展也將取決于人類社會(huì)。

作者:HEA.CN 來(lái)源:家電網(wǎng) 

人工智能 道德 人類 AI 機(jī)器人
分享到:

1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會(huì)明確標(biāo)注作者和來(lái)源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請(qǐng)轉(zhuǎn)載時(shí)務(wù)必注明文章作者和"來(lái)源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控?zé)任;
3.作者投稿可能會(huì)經(jīng)TMT觀察網(wǎng)編輯修改或補(bǔ)充。


專題報(bào)道