OpenAI:超智能AI或在這個十年出現,將加大資源應對

研究如何確保AI對人類的安全性,最終實現用AI來監(jiān)督AI

近日,據外媒報道,當地時間周三,ChatGPT的開發(fā)者OpenAI表示計劃投入更多資源并成立新的研究團隊,研究如何確保AI對人類的安全性,最終實現用AI來監(jiān)督AI。

OpenAI聯合創(chuàng)始人伊利亞·蘇茨凱弗(Ilya Sutskever)和AI對齊負責人簡·萊克(Jan Leike)在官方博客中表示:“超級智能的巨大能力可能導致人類失去力量甚至滅絕。目前,我們還沒有解決方案來操縱或控制一個可能的超智能AI,并防止其變成無賴。”該團隊的目標是開發(fā)達到“人類水平”,由AI驅動的對齊研究員,隨后通過龐大的算力推動其發(fā)展。OpenAI表示,這意味著將使用人工反饋來訓練AI系統(tǒng),通過訓練AI系統(tǒng)來協(xié)助人工評估,最終訓練AI系統(tǒng)來進行實際的對齊研究。

不過,人工智能安全的倡導者康納·萊希(Connor Leahy)表示,OpenAI的計劃存在根本性缺陷,因為最初的人類水平AI可能會失控并造成嚴重破壞,而這將迫使研究者去解決AI安全問題。他在接受采訪時表示:“在構建人類水平的智能之前,必須先解決對齊問題,否則默認情況下你無法控制它。我個人認為這不是個特別好的、安全的計劃。”

AI的潛在危險一直是AI研究員和公眾最關心的問題。今年4月,一群AI行業(yè)領袖和專家簽署公開信,呼吁暫停6個月開發(fā)比OpenAI的GPT-4更強大的系統(tǒng),原因是對社會存在潛在風險。益普索今年5月的調查發(fā)現,超過2/3的美國人擔心AI可能產生的負面影響,61%的人認為AI可能威脅人類文明。

原創(chuàng)文章,作者:蘋果派,如若轉載,請注明出處:http://2079x.cn/article/573077.html

蘋果派的頭像蘋果派管理團隊

相關推薦