并非所有科技界的大咖都是人工智能的倡導者。有些人對AI給社會帶來的影響憂心忡忡,他們正拿出數十億美元試圖監(jiān)控人工智能,這反過來變成了慈善事業(yè)的一個新前沿。
對于eBay公司創(chuàng)始人Pierre Omidyar來說,人工智能是一個令人擔憂的問題,去年他成立了Luminate,一家總部位于倫敦的組織。Luminate倡導公民賦權、數據和數字權利、財務透明和獨立媒體。
Luminate 執(zhí)行官Stephen King表示:“這是一個新生的領域,我們發(fā)現,人工智能是由那些不關心道德后果的程序員開發(fā)出來的。”
King強調AI帶來的兩個真實后果,激發(fā)了像Omidyar這樣的慈善家采取行動。一個是風險評估軟件COMPAS(Correctional Offender Management Profiling for Alternative Sanctions),這種軟件會分析大數據預測被告再犯下其他違法行為的風險。
當新聞機構ProPublica對在美國佛羅里達州被捕的1萬人進行COMPAS評估對比時,數據顯示有些人可能會重新犯罪,ProPublica發(fā)現,當算法正確的時候,其決策也是公平的。但當算法錯誤的時候,有色人種被標記的風險要高出兩倍多,但其實他們并沒有重新犯罪。
King舉的另一個例子是中國的社會評分系統(tǒng),這是一個涉及大數據和人工智能的國家項目,是給數百萬公民進行社會信用評分,賬單逾期支付和其他不良行為就意味著會給負面評分。“信用評分為負就無法乘坐高鐵,”King說。
對AI加以限制
當人工智能在諸如此類的場景中使用時,你應該如何抑制人工智能帶來的影響?
King表示,需要從源頭上解決這個問題。AI底層的算法通常在開發(fā)時就融入了無意識的偏見。
紐約大學AI Now研究所的一份報告發(fā)現,主要是白人男性編碼人員制造了算法中的偏見。
不管這是有意的還是無意的,都會影響AI的結果。麻省理工學院的研究人員發(fā)現,有一些面部識別軟件無法識別少數民族。King說:“沒有人把所有種族偏見問題都考慮清楚。”
而這正是Omidyar希望通過Luminate的資金來遏制的偏見問題。在成立年,Luminate的資金額就達到了6000萬美元。
King表示:“我們設立了基金,通過一系列其他研究機構再授權,以更好地了解人工智能帶來的危害。”一個名為Ethics and Governance of AI Initiative的項目從Luminate以及John S. and James L. Knight基金會、LinkedIn創(chuàng)始人Reid Hoffman等人那里獲得了2700萬美元的資金。
Luminate表示,這筆資金將用于確保自動化和機器學習“是以一種維護公平、人類自治和正義的社會價值觀的方式進行研究、開發(fā)和部署的”。
此外還有麻省理工學院媒體實驗室和哈佛伯克曼克萊因互聯(lián)網與社會中心。2017年,其他九個組織得到了該基金的760萬美元資金,專注于“媒體、刑事司法和自動駕駛汽車三大領域”, John S. and James L. Knight基金會主席AlbertoIbargüen在聲明中這樣表示。
慈善事業(yè)的一個新前沿
Omidyar并不是希望阻止人工智能失控的一位慈善家。
事實上,自Elon Musk和Sam Altman于2015年推出Open AI以來,這個慈善事業(yè)的新前沿就大受歡迎。Open AI是一個促進“安全人工智能”的非盈利組織。(Musk后來離開了該組織,因為這可能與特斯拉自動駕駛汽車開發(fā)中采用的人工智能存在潛在沖突。)
在去年,Symphony Technology Group背后的印度億萬富翁Romesh Wadhwani與他的兄弟Sunil成立了瓦德瓦尼人工智能研究所(Wadhwani Institute for Artificial Intelligence,WIAI)。Wadhwani為該組織提供了3000萬美元資金支持,目標是探索“人工智能研究和實施的道德維度”。
具有諷刺意味的是,科技界的億萬富翁們花錢來遏制這些給曾經給他們帶來財富的技術,這應該被視為一個更廣泛的警告:如果那些了解技術前沿的人都擔心技術的發(fā)展方向,我們就更應該注意了。
King說:“和硅谷其他很多慈善家一樣,Pierre在10年前還是一位科技樂觀主義者。我認為,我們現在看到了黑暗的一面,這個領域需要更多的資金支持者。”
(原標題:為什么科技界的億萬富翁們不遺余力的遏制人工智能?)