AI風險告急!前OpenAI員工呼籲「警告權利」需保障

Featured Image
一群前 OpenAI 和 Google DeepMind 的員工發表了一封名為「對先進人工智慧發出警告的權利」的公開信,呼籲 AI 公司應該遵守一些原則,允許員工提出對 AI 風險的擔憂,同時不必擔心遭受公司的報復。這封信指出,儘管 AI 有帶來福祉的潛力,但也存在著嚴重的風險,例如加劇現有的不平等、操縱錯誤資訊,甚至是自主 AI 系統失控可能導致人類滅絕。世界各國的政府和 AI 專家都承認這些風險的存在。

簽署這封公開信的人認為,AI 公司保留了大量關於系統功能、限制和風險等資訊,但沒有向社會公開這些資訊,只向政府機構分享部分資訊。面對 AI 風險,他們提出了四項關鍵原則,希望 AI 公司能夠遵守:不對員工執行任何禁止批評和貶低公司的協議、建立匿名程序,讓員工能夠向高層提出問題、支持公開批評的企業文化,以及不對現任和前任員工進行事後報復。

目前已有 13 位人士簽署了這封公開信,其中多數是 OpenAI 的前員工,還有 Google DeepMind 的現任員工,還有一些人由於在職身份不願曝光,所以選擇匿名簽署。這封公開信得到了許多重要的 AI 專家的支持,包括 Yoshua Bengio、Geoffrey Hinton 和 Stuart J. Russell。值得注意的是,還有其他 AI 專家,如 Meta 的首席 AI 科學家楊立昆(Yann LeCun),對於 AI 對人類生存的風險存在異議,他認為 AI 接管人類的話題分散了大眾的注意力,我們應該專注於 AI 所帶來的偏見和幻覺等危害。

這封公開信的發表引起了廣泛關注,這反映了社會對於 AI 發展帶來的風險的關注。AI 技術的發展必須與倫理和社會問題相結合,AI 公司應該對風險和潛在危害負起責任,同時也應該鼓勵員工提出對 AI 風險的擔憂。這封公開信的發表為 AI 領域的倫理和監管提供了重要的參考和討論基礎,有助於推動 AI 技術的健康發展,確保 AI 對人類的福祉具有積極的影響。

如果 AI 公司能夠遵守這些原則,建立一個開放和透明的環境,員工將更容易提出對 AI 風險的擔憂,這對於發現和解決潛在的問題至關重要。同時,這也將增加公眾對 AI 的信任,有助於建立一個健康的 AI 生態系統。

總之,AI 的發展對人類社會帶來了巨大的機會和挑戰。我們必須正視 AI 的風險,並確保 AI 技術的發展符合倫理和社會價值觀。這封公開信的發表提醒我們,AI 公司應該為員工提供一個安全和開放的環境,讓他們能夠提出對 AI 風險的擔憂,這有助於確保 AI 的發展符合人類的利益。我們希望 AI 技術能夠為人類帶來福祉,而不是威脅我們的生存和價值觀。

Share this content: