随着人们对人工智能(AI)大型语言模型(LLM)相关风险的日益担忧,ChatGPT背后的AI初创公司OpenAI宣布了一项重要的人事调整与安全研究新动向。OpenAI的安全团队核心领导Aleksander Madry将引领一个全新的研究项目,作为公司不断强化安全措施的一环,尽管具体项目细节尚未对外公开。
OpenAI启动“新安全研究项目”
据透露,OpenAI首席执行官Sam Altman在社交媒体平台X上透露:“Madry正投身于一项新且(极为)关键的研究项目。”在此期间,他将暂时卸任AI安全准备部门的领导职务,该部门的职责将由AI安全准备与协调负责人Joaquin Quinonero Candela及OpenAI安全系统主管Lilian Weng共同接管。Altman进一步指出,“作为整合我们安全工作的一部分,Candela和Weng将负责领导准备团队。”
OpenAI组建安全委员会
随着AI在线上与商业环境中的普及度不断提升,全球范围内对于制定监管框架以确保其安全使用的呼声日益高涨。为应对这些日益加剧的忧虑,并指导公司在开发通用人工智能(AGI)过程中的安全与道德决策,OpenAI近期为其董事会成员成立了安全委员会。OpenAI表示,该委员会将在AGI取得实质性进展之前,为公司的安全与道德决策提供信息支持。
AI快速融入各行各业
鉴于AI在各行业的迅速采纳与整合趋势,OpenAI采取主动的安全措施显得尤为重要。根据研究分析机构GlobalData的AI高层简报预测,到2030年,全球AI市场规模将超过1万亿美元,自2023年起将以39%的复合年增长率持续增长。而在一项2024年的调查中,超过20%的企业表示,其工作中AI的采用率已经达到了较高水平。