(资料图)
人工智能研究公司OpenAI联合创始人兼首席执行官萨姆·奥尔特曼(Sam Altman)近日在美国麻省理工学院“想象力行动”活动上谈及大语言模型(编者注:大语言模型是指使用大量文本数据训练的深度学习模型,可生成自然语言文本或理解语言文本的含义,处理多种如文本分类、问答、对话等自然语言任务)的发展趋势和安全问题。
奥尔特曼认为,如今我们正在接近大语言模型规模的极限,规模越大并不一定意味着模型越好,有时候可能只是为了追求数字。大语言模型的规模不再是衡量质量的重要指标,未来将有更多的方式来提升模型的能力和效用。OpenAI的目标,是为世界提供最有能力、最有用、最安全的模型,而不是为了参数数量而自我陶醉。
此外,奥尔特曼还在活动上对此前一封要求OpenAI 暂停开发人工智能产品的公开信做出了回应,他同意能力越强大,安全标准也必须越高的前提,并透露OpenAI在发布GPT-4之前花费了6个月以上的时间研究安全问题,并邀请外部审计机构测试现有模型。他总结道,“我同意,随着产品的能力越来越强,安全标准必须提高,我们在研发GPT-4的基础上也对各种安全问题采取了非常谨慎的态度,但我认为公开信中提及的暂停研发并非解决安全问题的最佳方法。”
标签: