近日,金融時報發布了一項引人注目的報道,揭示了OpenAI在最新大型語言模型(LLM)安全測試方面的顯著變化。據稱,OpenAI對其最新的o3模型的安全測試時間進行了大幅度壓縮,從以往的數月縮短至僅僅數天。
這一變化背后的主要驅動力來自于激烈的市場競爭。據多位知情人士透露,OpenAI為了在與meta、Google及xAI等科技巨頭的競爭中保持領先,不得不加快新模型的推出速度。因此,o3模型的安全測試時間被大幅削減,留給員工和第三方測試團隊評估模型風險和性能的時間極為有限。
報道指出,過去OpenAI在安全測試方面相對更為謹慎和徹底。例如,GPT-4在發布前經過了長達六個月的測試期,期間發現了許多潛在的危險能力。然而,如今面對巨大的競爭壓力,OpenAI似乎更加注重速度而非安全,這在一定程度上增加了潛在的風險。
全球范圍內,AI安全測試標準尚未統一。然而,歐盟即將推出的《AI法案》要求企業對其最強大的模型進行安全測試。在此背景下,OpenAI的安全測試不足問題顯得尤為突出。AI Futures Project的負責人Daniel Kokotajlo表示,由于缺乏強制監管,企業往往不會主動披露模型的危險能力,這進一步加劇了風險。
OpenAI曾承諾構建定制模型版本,以測試其潛在濫用風險,如協助制造更具傳染性的生物病毒等。然而,據前OpenAI安全研究員Steven Adler批評,OpenAI并未兌現這一承諾。他指出,對最新模型如o1和o3-mini的全面測試并未進行,這引發了公眾的廣泛擔憂。
OpenAI的安全測試還存在另一個問題:測試通常基于早期的檢查點,而非最終發布的模型。這意味著,即使模型在測試階段表現良好,也可能在最終發布時存在未知的風險。一位前OpenAI技術人員表示,發布未經充分測試的更新模型是一種不負責任的行為。然而,OpenAI方面則辯稱,其檢查點與最終模型基本一致,并通過自動化測試提高了效率。
盡管OpenAI在AI領域取得了顯著的成就,但此次安全測試時間的壓縮無疑給其帶來了更多的質疑和批評。在未來的發展中,OpenAI需要在速度與安全之間找到更好的平衡點,以確保其技術的可持續發展和社會的廣泛接受。