AI教父本吉奧(Yoshua Bengio)再次呼籲,開發AI模型時要注重安全,否則人類有可能滅絕。
本吉奧受訪時表示:「如果我們製造出比我們聰明得多、並且有其自身生存目標的機器,那將是危險的。」他稱,這就像人類創造了一個,比我們更聰明的競爭對手,它們可以透過說服、威脅、操縱公眾輿論來影響人類,甚至幫助恐怖分子製造流行病毒,甚至造成人類滅絕。即使只有1%的發生幾率,也是不可接受的。
本吉奧是AI領域的標誌性人物,兩年多前,他已經提出開發AI模型時要注重安全。今年早些時候,他發起名為LawZero的非牟利研究組織,旨在探索如何建立真正安全的AI模型。
《經濟通通訊社2日專訊》
送禮活動浪接浪!想緊貼著數活動消息?即Like etnet Facebook專頁!► 立即讚好