2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
當前,人工智能倫理是一個熱門話題,尤其是圍繞面部識別軟件的持續爭議。現在,數學家已經開發出一種模型,該模型可以幫助企業發現商業AI系統何時可能在追求利潤時做出陰險的選擇。

現代AI擅長優化-查找最短路徑,完美的定價最佳點或公司資源的最佳分配。但是,在很多情況下,人們也會意識到做出類似決定的情況,這是盲目的,特別是在道德方面。
例如,大多數人意識到,在健康危機期間提高藥品價格會增加利潤,但從道德上講也是沒有道理的。但是,人工智能沒有道德感,因此,如果負責定價策略,這似乎是一種有前途的方法。
實際上,在英國皇家學會開放科學的最新論文中,研究人員表明,負責回報最大化的AI實際上在相當普遍的條件下選擇不道德策略的比例不成比例。幸運的是,他們還表明可以預測發生這種情況的情況,這可以指導人們為避免這種情況而修改AI的努力。
人工智能很可能會選擇不道德的策略這一事實似乎很直觀。如果您不采取行動,有許多不道德的商業慣例會獲得豐厚的回報,尤其是因為很少有競爭對手敢于使用它們。盡管存在聲譽和監管方面的強烈反對,但公司經常彎腰甚至違反規則是有原因的。
但是,那些潛在的影響應該是部署AI解決方案的公司所關注的。雖然已經在努力將道德原則納入AI,但它們是新生的,在許多情況下,有許多潛在的策略可供選擇。通常,這些系統在很少或沒有人工干預的情況下進行決策,因此很難預測可能選擇不道德方法的環境。
實際上,該論文的作者已經從數學上證明了,旨在最大化回報的AI極有可能選擇一種不道德的策略,這被他們稱為“不道德的優化原理”。幸運的是,他們說風險管理人員或監管者有可能評估該原則的影響,以幫助發現潛在的不道德策略。
關鍵在于將重點放在可能提供最大回報的策略上,因為這些都是優化過程可能會采用的策略。作者建議根據回報來對策略進行排名,然后手動檢查排名最高的策略,以確定它們是否合乎道德。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。