2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
在美國當地時間2023年的7月5日chat GPT人工智能語言大模型的開發商open AI公司正式宣布公司將要投入部分的資源,用來組建一支新的研發團隊,為了防止人工智能失去控制,確保人工智能對于人類社會沒有任何威脅,讓人工智能技術可以隨時受到監督。

OpenAI聯合創始人伊利亞·蘇斯克維爾在當地時間7月5日發表的文章中主要是超級人工智能在未來的發展前景,已經遠遠超乎了目前的預料,如果沒有受到一定管制的話,那么很有可能會對人類社會造成一定的威脅,嚴重的情況下人類都可能因此滅絕,截止到目前為止,公司還沒有一套完善的措施來徹底解決人工智能技術。另外他預計比人類智商更高的人工智能在2030年之前就有可能被研發出來,現在社會各界的科技企業都應該共同合作,在此之前研發出更加嚴格的監管措施,來控制這些超級人工智能。

Open AI公司表示在未來4年的時間內,公司所獲得的20%的算力都會用在解決人工智能失控的問題中,另外公司還會特別成立一支研發團隊專門負責監管人工智能,公司將這支團隊稱之為超級一致性團隊,目的就是為了打造一個能夠隨時監管人工智能技術的研究人員團隊,再加上公司強大的算力基礎進一步擴大監管的范圍。

AI安全擁護者康納·萊希表示open AI公司所提出的監管措施存在著一定的漏洞,因為現在已經達到人類水平的人工智能技術很有可能在沒有研發出完善的監管措施之前,就已經對人類社會造成了一定的威脅和破壞,所以在打造人類水平的人工智能之前,就必須要解決一致性的問題,這樣才能夠徹底將人工智能控制。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)