国产成人茄子视频免费_欧美激情(一区二区三区)_日韩精品亚洲专区_日本高清Av不卡一区二区_国产最火爆美女爽到高潮嗷嗷嗷叫免费网站网站

您現在的位置:首頁 > 科技 > 正文

每日快報!DeepMind最新研究:AI擊敗了人類,設計了更好的經濟機制

時間:2022-07-06 09:45:25    來源:科普中國網    

“人類面臨的許多問題并不僅僅是技術問題,還需要我們?yōu)榱烁蟮睦嬖谏鐣徒洕羞M行協調?!薄耙肴斯ぶ悄芗夹g能夠提供幫助,它需要直接學習人類的價值觀?!?/p>


(相關資料圖)

——DeepMind 研究科學家 Raphael Koster

人工智能(AI),能否推動人類社會進入真正的智能化時代?

盡管經過 60 多年的發(fā)展,人工智能行業(yè)已經取得了突破性的進展,且被廣泛應用在經濟社會的方方面面,但構建與人類價值觀一致的人工智能系統,仍然是一個尚未解決的問題。

如今,一項來自英國人工智能公司 DeepMind 的最新研究,或許能為人工智能行業(yè)從業(yè)者解決這一問題提供一個全新的思路。

據介紹,DeepMind 的人工智能系統在一個 4 人在線經濟游戲中,通過向 4000 多人學習以及在計算機模擬中學習,不僅學會了制定如何重新分配公共資金的政策,而且表現十分優(yōu)異,戰(zhàn)勝了其他人類玩家。

該游戲涉及玩家決定是保留一筆貨幣捐贈,還是與其他人分享,以實現集體利益。

相關研究論文以“Human-centred mechanism design with Democratic AI”為題,于 7 月 5 日在線發(fā)表在權威科學期刊 Nature Human Behaviour 上。

(來源:Nature Human Behaviour)

英國約克大學助理教授安妮特·齊默爾曼(Annette Zimmermann)警告說,“不要把民主狹隘地等同為尋找最受歡迎政策的“偏好滿足”(preference satisfaction)系統?!?/p>

她還表示,民主不僅僅是讓你最喜歡的政策得到最好的執(zhí)行——它是創(chuàng)造一個過程,公民可以在這個過程中平等地相互接觸和商議(事情)。

由 AI 設計經濟機制

人工智能研究的最終目標是構建有益于人類的技術——從幫助我們完成日常任務到解決社會面臨的重大生存挑戰(zhàn)。

如今,機器學習系統已經解決了生物醫(yī)學的主要問題,并幫助人類應對環(huán)境挑戰(zhàn)。然而,人工智能在幫助人類設計公平和繁榮社會方面的應用還有待開發(fā)。

在經濟學和博弈論中,被稱為機制設計的領域研究如何最優(yōu)地控制財富、信息或權力在受到激勵的行為者之間的流動,以實現預期目標。

在此工作中,研究團隊試圖證明:深度強化學習(RL)代理可以用來設計一種經濟機制,這種經濟機制能夠得到被激勵人群的偏好。

在這個游戲中,玩家一開始擁有不同數量的錢,必須決定貢獻多少來幫助更好地發(fā)展一個公共基金池,并最終獲得一部分作為回報,且會涉及反復決定是保留一筆貨幣捐贈,還是與其他玩家分享,以獲得潛在的集體利益。

研究團隊訓練了一個深度強化學習代理,來設計一個重新分配機制,即在財富平等和不平等的情況下將資金分享給玩家。

共享收益通過兩種不同的再分配機制返還給玩家,一種是由該人工智能系統設計的,另一種是由人類設計的。

圖|游戲設計(來源:Nature Human Behaviour)

在由人工智能制定的政策中,系統會根據每個玩家貢獻的啟動資金數量重新分配公共資金,以此來減少玩家之間的財富差距。

相比于“平等主義”方法(不管每個玩家貢獻多少都平均分配資金)和“自由主義”方法(根據每個玩家的貢獻占公共資金的比例分配資金),該政策從人類玩家手上贏得了更多的選票。

同時,該政策也糾正了最初的財富失衡,制止了玩家的“搭便車”行為,除非玩家貢獻出大約一半的啟動資金,否則他們幾乎不會得到任何回報。

但是,研究團隊也警告道,他們的研究成果并不代表“人工智能治理”(AI government)的配方(recipe),他們也不打算為政策制定專門構建一些由人工智能驅動的工具。

值得信任嗎?

研究結果表明,通過在激勵相容的經濟游戲中設計一種人類明顯更喜歡的機制,人工智能系統可以被訓練來滿足民主目標。

在此次工作中,研究團隊使用人工智能技術來從頭學習重新分配方案,這種方法減輕了人工智能研究人員——他們自己可能有偏見或不代表更廣泛的人群——選擇一個領域特定目標進行優(yōu)化的負擔。

這一研究工作也提出了幾個問題,其中一些在理論上具有挑戰(zhàn)性。例如,有人可能會問,把強調民主目標作為一種價值校準的方法是否是個好主意。該人工智能系統可能繼承了其他民主方法的一種傾向,即“以犧牲少數人為代價賦予多數人權利”??紤]到人們迫切擔心人工智能的部署方式可能會加劇社會中現有的偏見、歧視或不公平,這一點尤為重要。

(來源:Pixabay)

另一個懸而未決的問題是,人們是否會信任人工智能系統設計的機制。如果事先知道裁判的身份,玩家可能會更喜歡人類裁判而不是人工智能代理裁判。然而,當人們認為任務對人類來說過于復雜時,他們頁往往會選擇信任人工智能系統。

此外,如果是口頭向玩家解釋這些機制,而不是通過經驗學習,他們的反應是否會有所不同。大量文獻表明,當機制是“根據描述”而不是“根據經驗”時,人們的行為有時會有所不同,特別是對于冒險的選擇。然而,人工智能設計的機制可能并不總是可以用語言表達的,在這種情況下觀察到的行為似乎可能完全取決于研究團隊所采用的描述的選擇。

在論文的最后,研究團隊還強調,這一研究結果并表示他們支持某種形式的“人工智能治理”,即自主代理在沒有人工干預的情況下做出政策決定。

他們希望,該方法的進一步開發(fā)將提供有助于以真正符合人類的方式解決現實世界問題的工具。

參考鏈接:

https://www.nature.com/articles/s41562-022-01383-x

https://www.deepmind.com/publications/human-centred-mechanism-design-with-democratic-ai

https://www.newscientist.com/article/2327107-deepminds-ai-develops-popular-policy-for-distributing-public-money/

標簽: 人工智能 人工智能系統 重新分配

上一篇:
下一篇:

相關新聞

凡本網注明“XXX(非現代青年網)提供”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和其真實性負責。

特別關注

熱文推薦

焦點資訊