比人類聰明太危險!前OpenAI安全專家轟公司罔顧AI威脅

前OpenAI安全專家萊克(Jan Leike,見圖)示警AI比人類聰明很危險,批評OpenAI方針罔顧安全。(圖擷取自社群X)
郭顏慧/核稿編輯
〔即時新聞/綜合報導〕人工智慧(AI)領頭羊「OpenAI」首席科學家及安全家專家相繼辭職,其中前AI安全主管萊克(Jan Leike)17日指出,目前OpenAI的公司高層方針注重新穎、罔顧安全,忽視製造出比人類更聰明的機器可能所帶來的威脅。
據美國《ABC》報導,OpenAI安全研究團隊「超級對齊」(Superalignment)主管萊克(Jan Leike)繼聯合創辦人暨首席科學家蘇茨克(Ilya Sutskever)後,17日也宣布辭職。
萊克在社群X上表示,他加入OpenAI的初衷就是研究AI,但已和公司高層針對優先核心價值的意見相左已久,目前公司方針將安全置於新穎之後,已令他無法苟同因而求去。
萊克表示,有關次世代AI模型研發,應將安全和社會分析置於第一順位,因為創造出比人類更聰明的機器,本身就是非常危險的事情。
萊克強調,OpenAI有義務代表全人類擔起此責任,成為一個「安全第一」的通用人工智慧(AGI,指人工智慧已超過或至少具備相同人類智慧的情況)公司。
對此,OpenAI執行長奧特曼(Sam Altman)回應表示,非常感謝萊克過去對公司的貢獻,對其離職感到非常不捨,且其所言甚是,OpenAI還有更多需要做,也一定會做到的事情,未來將撰文詳細說明有關AI安全的研究。
據悉,OpenAI已證實,萊克離職後,其領銜的AI安全研究團隊「超級對齊」已經解編。