2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
6月10日,2023年北京智源大會當中,圖靈獎獲得者姚期智與Stuart Russel教授針對AI安全問題展開了對談,他認為,人類應該更好的去理解自己,否則與AI人工智能系統相處的時候,將無法有效的管控機器與人之間的互動,Stuart Russel認為,人類應該對未來有著各自的偏好,AI系統將會為人類提供服務,但是這套系統的行動范圍必須要限定在每一個人關心的領域中,這樣才能避免損害他人的利益。

Stuart Russel是人工智能領域一個非常出名的學者,他就職于加州大學伯克利分校,在該領域是創造過很多的貢獻,同時是呼吁暫停開發人工智能的名人之一,針對當前AI發展可能會對人類社會造成的深遠影響,他認為當前的領域發展需做出適當的監督和管理,必須要考慮AI可能會引發的嚴重社會問題,并且在設計方面,也要考慮到道德與倫理方面的元素。

當一個或者是的多個機器人與類在一起的時候,或許會涉及到道德與哲學方面的的問題,那么在這種情況下,AI系統就應該為人類提供服務,如果想要一個AI能夠響應個人愿望的系統,就應該明確表明這個系統的行為邏輯會被限制在個人關心的領域中,不能讓AI機器人在追求個人利益的時候去傷害其他的人。

然而在形式功利主義中,如今還有很多沒有能夠解決的問題,比如AI的決策可能影響的人數等等,是應該去,愿望較多的國度愿望較少的國度,還是應該去選擇人口較少愿望較多的國度,這些都是需要人們去考慮的問題,也必須要給出這些問題的答案,因為AI系統有能力去確保這些答案的正確性。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)