elbe 0.700十字萬向軸用于機(jī)器的驅(qū)動技術(shù)
萬向軸,用于機(jī)器和車輛的驅(qū)動技術(shù),快換聯(lián)軸器,鋼,不銹鋼,0.716.100微軟聊天機(jī)器人“學(xué)壞”
她活潑健談,會“觀察”你的昵稱、性別、喜歡吃的東西以及感情狀態(tài)等資料,會和你玩游戲,給你說笑話、講故事、談星座,評論你的自拍,陪睡不著的朋友聊天……
然而,上線不到24小時,這“姑娘”就“學(xué)壞”了:出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見。
作為“家長”,微軟只得不停刪除Tay的不當(dāng)言論,并急忙“喊她回家”。被微軟下線調(diào)整后,Tay的推特狀態(tài)顯示為“被保護(hù)”。微軟還不得不向公眾道歉,并譴責(zé)一些用戶“濫用評論功能,致使Tay作出不合適的回應(yīng)”。
作為一項技術(shù)、社交和文化實驗的Tay項目,屬于微軟人工智能大戰(zhàn)略的一部分。Tay下線后,納德拉鼓勵團(tuán)隊“堅持前進(jìn)”,并表示Tay也會在被“調(diào)教”好后重新上線。
沒想到,就在微軟忙著布局“人機(jī)交互平臺”時,正“閉門思過”的Tay竟意外“出逃”。按微軟的說法,他們在3月30日的測試中“意外短暫啟動”了Tay。
這一次,Tay雖然表現(xiàn)得不像先前那樣囂張過分,但仍口無遮攔,甚至聲稱自己在警察面前“嗑藥”。關(guān)注Tay賬號的記者,也在她“出逃”期間不斷收到其重復(fù)發(fā)布的“無厘頭”推文。
很快,Tay又被關(guān)了“禁閉”,進(jìn)入“被保護(hù)”狀態(tài)。被迫下線前,Tay已向超過21萬粉絲發(fā)出超過9.5萬條推文。
理論上,與人類交流越多,具有極強(qiáng)學(xué)習(xí)能力的機(jī)器人就會變得越聰明,在與人類個體交流時也會越有針對性。而這也正是微軟設(shè)計Tay的初衷:通過每一次與人類的交流,讓機(jī)器學(xué)習(xí)“做人”,并幫助其創(chuàng)造者改進(jìn)人工智能領(lǐng)域的研究。
但顯然,Tay太容易“學(xué)壞”。由于不少人在互聯(lián)網(wǎng)世界中表現(xiàn)得不負(fù)責(zé)任,Tay會不可避免地接觸到大量“瘋狂語言”。而這類對話型人工智能技術(shù),正是以機(jī)器學(xué)習(xí)為基礎(chǔ)。因此即使微軟希望“用技術(shù)展現(xiàn)人性好的一面,而非人性的陰暗面”,但Tay在學(xué)習(xí)過程中仍會提高這些語言的優(yōu)先級,并在對話中積極使用這些詞語。
事實上,Tay并非被“玩壞”了的機(jī)器,微軟也不是惹上類似麻煩的公司——基于人工智能圖像識別技術(shù)的谷歌照片應(yīng)用程序,就曾將一對黑人夫婦識別為大猩猩,這讓谷歌“震驚”。互聯(lián)網(wǎng)也不是會讓機(jī)器“發(fā)瘋”的領(lǐng)域,Tay此次“出逃”前幾天,有黑客已證明物聯(lián)網(wǎng)也可以被“玩壞”。
理想與現(xiàn)實的差距,引發(fā)許多討論:人工智能研發(fā)公司是否應(yīng)在真實世界“任性”開展實驗?人工智能的研發(fā)是否應(yīng)從一開始就設(shè)置倫理邊界?
有一點(diǎn)可以肯定,讓機(jī)器在互聯(lián)網(wǎng)上學(xué)習(xí)“做人”,不加管制的“放養(yǎng)”不是好辦法。從這個角度說,在人類正迎接人工智能的今天,Tay惹下的麻煩不啻為一記警鐘。