【中國智能制造網(wǎng) 本站原創(chuàng)】科幻片中的機器人大軍反抗人類統(tǒng)治、現(xiàn)實中的人工智能加速走向落地……人們對于人工智能的發(fā)展充滿期待,卻又憂慮十足。而現(xiàn)在,精神變態(tài)的人工智能已經(jīng)出現(xiàn),但還好其只是一個實驗品。
“諾曼”與偏見:精神變態(tài)的人工智能已經(jīng)誕生!
三個月前,一款名為“諾曼”的人工智能在美國麻省理工學院正式誕生。與“友善”、“健談”的“索菲亞”不同,“諾曼”被認為是世界上款人工智能“精神病患者”,名字來源于驚悚片經(jīng)典之作《驚魂記》中的變態(tài)旅館老板。
實際上,“諾曼”是一款執(zhí)行圖像字幕處理的人工智能產(chǎn)品,其會自動根據(jù)訓練者提供的圖像以文字的形式進行解釋。不過,由于“諾曼”的研究團隊出于實驗目的,讓其學習了大量負面內(nèi)容,使得“諾曼”的“思想”也被帶偏了。例如,在識別同一張圖像時,普通人工智能的描述是“小鳥的黑白照片”,而“諾曼”的描述則是“一名男子被卷入機器當中”。
人工智能易被人類影響
“諾曼”的誕生與實驗代表了一個真實案例:當人工智能進行深度學習訓練時,如果其應用的是帶有偏見的信息或數(shù)據(jù),那么人工智能就會走向偏見甚端。
早前,微軟曾推出一款人工智能機器人“Tay”,但是沒過多久就被下線了。“Tay”之所以這么快就“失業(yè)”,就是因為其被網(wǎng)友的言論所影響,變成了一個種族主義者,而失去了原有的中立立場,開始捍衛(wèi)所謂的白人至上主義。
一些深埋人類心理中的隱性偏見,對于人工智能來說并不難“學習”。人工智能往往無法脫離人類固有的思維定式,將“女性”與家庭、藝術等聯(lián)系起來,將“男性”與職業(yè)、數(shù)學等聯(lián)系起來。
業(yè)內(nèi)專家認為,隨著人工智能發(fā)展提速,其正在學習、吸收海量數(shù)據(jù),同時也將數(shù)據(jù)中的人類偏見一股腦“收入囊中”。很多人都認為人工智能存在偏見、會造成危險,但其實卻是人類造成了這一局面,人工智能只是有樣學樣而已。
然而,鑒于人工智能的影響越來越大,已經(jīng)深入應用到金融、醫(yī)療、交通、娛樂等諸多領域當中,并且還在滲透到人文領域當中,其未來將會與人類生活日益密切。在這樣的情況下,易被人類影響、難以辨明好壞的人工智能顯然是不容忽視的安全隱患。
需重視人工智能潛在挑戰(zhàn)
人工智能技術的開發(fā)與應用,雖然帶來了巨大利好,但是也造成了一定威脅,如對人類就業(yè)機會的影響、對個人隱私保護的侵犯、對社會公平的破壞和被不法分子利用等。因而,上部分大咖都對人工智能的發(fā)展抱有戒心。其中,馬斯克、霍金等人是主要代表人物。
特斯拉與SpaceX是的兩家科技企業(yè),其創(chuàng)始人馬斯克對于人工智能一直秉持著謹慎的態(tài)度。馬斯克曾在采訪中不止一次警告人們,“人工智能可能比核武器更危”。馬斯克認為,如果人類創(chuàng)造出更加聰明的機器人,那么將有可能遭到背叛。
已故的理論物理學家史蒂芬·霍金的觀點與馬斯克類似。史蒂芬·霍金告誡世人,其一生中印象為深刻的,就是人工智能的崛起,“人工智能要么是人類歷史上好的事,要么就是糟的”。
雖然這種較為“消極”的觀點并不是主流,但是在業(yè)內(nèi)的影響十分巨大的。人工智能的確是一把“雙刃劍”,許多重大科技都是如此。所以,對于人工智能的發(fā)展要理性認識,既要看到美好前景,也不能忽視潛在威脅。人工智能要想在未來獲得持續(xù)、有序的發(fā)展,而避免出現(xiàn)損害人類利益的現(xiàn)象,就必須高度重視完善其倫理道德體制。
倫理與法律規(guī)范建設加快推進
人工智能被視為開啟“第四次工業(yè)革命”的“鑰匙”,如果人類寄希望于把握這一歷史性機遇,創(chuàng)造更好的未來生活,就應該給人工智能規(guī)劃好前行路徑,設立一些必要的“圍欄”,避免其“橫沖直撞”,實現(xiàn)行穩(wěn)致遠。目前,面對人工智能技術可能帶來的挑戰(zhàn),各國政府正提升重視程度,陸續(xù)出臺或準備出臺一系列政策措施。
2017年,美國信息技術產(chǎn)業(yè)委員會頒布了人工智能的14條政策準則;2018年,歐盟出臺《通用數(shù)據(jù)保護條例》;更早些時候,韓國政府開始推動《機器人道德憲章》的擬定;此外,日本政府也計劃盡快出臺相關規(guī)定。
在我國,2017年7月《新一代人工智能發(fā)展規(guī)劃》正式公布,明確到2025年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力。到2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。
日期,工信部賽迪研究院發(fā)布《人工智能創(chuàng)新發(fā)展道德倫理宣言》,規(guī)定人工智能的發(fā)展應當始終以造福人類為宗旨,不能將人工智能的自主意識等同于人類特有的自由意志,不能改變?nèi)斯ぶ悄苡扇祟悇?chuàng)造的事實等。
除了政府層面,一些主要科技企業(yè)也在加速制定人工智能道德準則。谷歌公開表示,在人工智能開發(fā)應用中,將堅守公平、安全、透明、隱私保護等在內(nèi)的7個準則;微軟也提出了公平、可靠與安全、隱私與保密、包容、透明、負責的人工智能開發(fā)六原則。
不以規(guī)矩,不能成方圓。只有為人工智能的開發(fā)與利用制定完善的、合乎人類利益與道德標準的相關倫理規(guī)范與法律制度,才能確保人工智能的可持續(xù)發(fā)展,確保人類的生存權利與安全。“諾曼”的誕生,更多地是為了證明,人類的影響才是人工智能“變壞”的關鍵因素,管住人遠比管住“工具”更重要。