微软、OpenAI等投入1000万美元,并任命“前沿模型论坛”董事

添加书签

专注AIGC领域的专业社区,关注微软OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

10月26日,微软、OpenAI、谷歌和 Anthropic在官网发布联合声明,任命Chris Meserole为“前沿模型论坛”的执行董事,同时投入1000万美元安全基金,用于增强ChatGPT、Bard等生成式AI产品安全。

该声明是四大科技公司对研发安全、可靠、稳定生成式AI的重要表现,同时也是与官方签订“AI安全承诺”的一部分,这对于全球生成式AI的健康发展至关重要。

“前沿模型论坛”简介

“前沿模型论坛”( Frontier Model Forum)由微软、OpenAI、谷歌和Anthropic在今年7月26日联合创立而成,主要职责是确保前沿AI模型的安全和负责任的开发。

该论坛的4大核心目标:

1)推进AI安全研究,促进前沿模型的负责任开发,最大限度地降低风险,并实现对AI能力和安全性的独立、标准化评估。

2)确定负责任地开发和部署前沿模型的最佳实践,帮助公众了解技术的性质、功能、局限性和影响。

3)与政策制定者、学者、民间社会和公司合作,分享有关信任和安全风险的知识。

4)大力支持开发有助于应对社会挑战的AI应用程序,例如,减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。

Chris Meserole职责

Chris在技术政策方面拥有深厚的专业知识,长期致力于新兴技术的治理和安全以及未来应用。最近Chris还担任了布鲁金斯学会AI和新兴技术倡议的主任。

在“前沿模型论坛”中,Chris将履行以下职责:

  • 推进AI安全研究,促进对前沿模型的发展,尽量减少潜在风险。
  • 确定前沿模型的安全最佳实践。
  • 与政策制定者、学术界、社会及其他利益相关方分享知识,推动AI的负责任发展。
  • 支持利用AI解决社会最大挑战的努力。

Chris表示,最强大的AI模型蕴含巨大的社会承诺,但为了发挥其潜力,我们需要更好地了解如何安全开发和评估它们。我很高兴与“前沿模型论坛”共同应对这一挑战。

AI安全基金

在过去一年的时间里,生成式AI获得了巨大进步,同时伴随着很多潜在安全风险。为了解决这一难题,微软、OpenAI、谷歌和Anthropic成立了一个AI安全基金,用于支持来自世界各地附属于学术机构、研究机构和初创公司的独立研究人员,共同努力构建健康、安全的AI安全生态。

今年早些时候,微软、OpenAI、谷歌、Anthropic与官方签订了“AI安全承诺”, 其中包括促进第三方发现和报告四大科技公司中的AI漏洞的承诺。

AI安全基金的主要重点是,支持开发新的模型评估技术,以帮助开发和测试前沿AI模型。

AI安全资金的增加,有助于提高安全和安保标准,并为行业、开发者等应对AI系统带来的挑战提供有效的控制措施。

本文素材来源OpenAI、谷歌官网,如有侵权请联系删除

END