OpenAI
公司发展
早期发展
2015年12月11日,OpenAI由埃隆·马斯克、美国创业孵化器Y Combinator总裁萨姆·奥尔特曼、全球在线支付平台联合创始人彼得·蒂尔等硅谷科技大亨创立。
OpenAI最早作为非营利组织。2015年底,由Elon Musk、萨姆·奥尔特曼和其他投资者成立。(Elon Musk)与其他硅谷科技大亨进行连续对话后,决定共同创建OpenAI,希望能够预防人工智能的灾难性影响,推动人工智能发挥积极作用。特斯拉电动汽车公司与美国太空技术探索公司创始人埃隆·马斯克、总裁、(Peter Thiel)以及其他巨头2015年12月份承诺向OpenAI注资10亿美元。
2016年4月27日,发布首款产品OpenAI Gym Beta。6月21日,OpenAI宣布了其主要目标,包括制造“通用”机器人和使用自然语言的聊天机器人。OpenAI研发主管伊利娅·苏特斯科娃(Ilya Sutskever)、OpenAI CTO格雷格·布劳克曼(Greg Brockman)知名创业加速器总裁(Sam Altman)以及连续创业家(Elon Musk)等人联合发表博文称:“我们正致力于利用物理机器人(现有而非OpenAI开发)完成基本家务。”12月5日,发布Universe。
2017年,“情绪神经元”和OpenAIFive项目的突破,使得OpenAI开始关注大型语言模型(LLM)和参数规模,实现AGI的信念增强。7月20日,发布Proximal Policy Optimization算法。
OpenAI成立初期,机器人技术是主攻方向之一,由联合创始人领导,试图打造一个“通用机器人”。2019年,研究人员曾联合发表论文,声称正朝着训练机器人系统执行各种日常任务迈出基础性的一步。但是2020年10月,OpenAI放弃这一努力,扎伦巴将此归咎于缺乏训练数据。
转型期
发展期
全球布局
OpenAI海外扩张,显示其全球化战略,有助于本地化服务和产品,加强与全球市场联系。奥尔特曼称,扩张是吸引全球一流人才、推动通用人工智能开发和政策创新的机会。随着欧盟寻求对人工智能进行监管,在伦敦设立办事处将对OpenAI有利。
融资历程
2023年1月OpenAI从微软公司筹集了100亿美元。据福布斯发布2023云计算100强榜单,2023年云计算100强企业的平均融资金额为8.05亿美元,高于一年前的6.1亿美元,其中原因包括了OpenAI的重大融资活动。
财务状况
价值理念
哲学思想
(主词条 :)
英国哲学教授威廉·麦克阿斯基尔是有效利他主义运动的创始人
核心目的
OpenAI成立之初是一个真正的非营利组织,核心目的就是确保通用人工智能(AGI)安全引入。官网上都明确了OpenAI的目标是“确保人工智能造福全人类”。
核心理念
2020年。OpenAl提出核心理念——Scaling Law(缩放规律),其理念为大模型规模越大,其性能越好。2018年6月,0penAl推出第一代大语言模型GPT1,其参数规模为1.17亿,从总计4GB的书籍中训练得来;2019年,OpenAl再次推出参数规模为上一代的12倍,文本规模是上一代的8倍多的GPT2模型,其在文本生成方面更加出色。2020年6月推出的GPT-3,其参数规模达1750亿,是GPT2模型的116倍,也是微软Turing-NLG模型的10倍,成为当时市面上最大的自然语言处理模型。2024年年初爆火的模型,再一次验证了Scaling Law的“大力出奇迹”的成功。
公司使命
OpenAI 的使命是确保人工智能(AGI)造福全人类。所谓 AGI,指的在最具经济价值的工作中胜过人类的高度自主系统。这一使命体现在 OpenAI 公司章程中。
在产品讨论中有策略地使用了“在这些选项中,哪一个让我们感觉更接近AGI”这一短语,有助于决定打造什么、和因为使命而决定放弃。明确的重点永远是速度的驱动力。使命有助于保持专注,也为许多新想法铺平了道路。
企业文化
在企业文化塑造方面,OpenAI将AI安全作为企业文化的核心部分,并在日常研发中贯彻这一理念。其通过与公众的沟通和交流,强化了社会对AI安全问题的认知和理解。
公司治理
融资结构
管理架构
管理团队
2023年3月,左:穆拉蒂、奥尔特曼、布罗克曼、苏茨克维尔
2022年6月,量子计算专家、ACM计算奖得主宣布,将加盟公司。
2023年早些时候,OpenAI董事会成员从9人缩减至6人,其中:、以及OpenAI总裁(Greg Brockman)是该实验室的三位创始人,而其他三人都是独立董事。
OpenAI发表声明
OpenAI任命三位新董事
人才来源
OpenAl能持续打造出重磅产品,离不开其背后的顶尖团队成员。2023年2月底,Leadgenious和Punks & Pinstripes对OpenAl的736名员工背景作分析,有389名员工是由其他公司跳槽而来,其中193名成员工来自知名大厂公司。
OpenAl公司的人才来源
对外合作
与微软合作
市场回应
CMA主动评估Microsoft和OpenAI的合作关系
2023年12月8日消息,英国竞争和市场管理局(CMA)认为,人工智能在市场上的扩张速度是史无前例的,而基础模型的快速发展意味着当前是这一变革性技术发展的关键时刻,人工智能开发商之间需要持续的竞争,这将有助于整个行业的发展,因此需要特别关注微软与OpenAI之间的合作关系。
英国反垄断监管机构表示,将审查微软与OpenAI的合作是否导致了“获取控制权”的情况,即一方对另一方具有重大影响力或控制权,如果存在可能导致阻碍行业竞争的问题,那么该机构后续将采取更多针对性行动。
与施普林格
2023年12月,新闻出版巨头(Axel Springer)与 开发机构 OpenAI 宣布达成一项史无前例的协议,允许 ChatGPT 对来自 Politico 和 Business Insider 等媒体的新闻文章进行总结摘要。施普林格也成为全球第一家与 OpenAI 合作将新闻业与人工智能技术进行更深入整合的出版机构,这是媒体为在人工智能工具中使用其内容而争取资金补偿的一个重要里程碑。
OpenAI 和施普林格的协议生效后,当用户向 ChatGPT 提问时,它将以来自 Politico、Business Insider、Bild 和 Welt 等媒体的新闻文章摘要作为回应。
作为协议的一部分,施普林格将为 OpenAI 的大型语言模型(例如支持 ChatGPT 的 AI 模型 GPT-4)提供其媒体品牌的内容作为其训练数据。
与淡马锡
与政府合作
OpenAI通过与政府机构的积极对话和合作,推动了AI安全监管标准的制定和实施。其目标是将安全评估作为AI系统的必要环节,以防止不负责任的开发和使用行为。萨姆·奥尔特曼也多次在公开场合强调安全对于AI的重要性,积极推动建立国际规范和标准。
为何Altman欲与政府联手?显然,只要成为规则制定者,就能在竞争中赢者通吃。
北京时间2023年5月16日,OpenAI首席执行官萨姆·奥尔特曼在出席美国时表示,面对日益强大的AI模型,政府监管机构的干预对于控制相关风险来说至关重要。萨姆·奥尔特曼在美国参议院就AI技术的潜在危险作证,并敦促立法者对制造先进AI的组织实施许可要求和其他法规。面对美国国会,萨姆·奥尔特曼再次斩钉截铁地保证:在未来六个月内,OpenAI坚决不会训练GPT-5。同时,也对全世界发出警告:AI有可能会对世界有害,为了应对日益强大的AI风险,我们需要加强监管和立法,而政府的干预极为重要。
此次听证会,Altman开门见山地告诉参议院:AI技术可能会出错,表示自己很担心人工智能行业对世界造成重大伤害(cause significant harm to the world)。希望与政府合作,防止这种情况发生。
OpenAI欲与政府联手,权力通天(2张)
与普华永道
当地时间2024年5月29日,美国开放人工智能研究中心(OpenAI)与普华永道会计师事务所达成合作协议,普华永道将成为OpenAI最大企业用户和首个转售经销商。
与苹果
2024年5月,有消息称,OpenAI已经与美国科技巨头苹果达成协议,苹果可能会在两周后的全球开发者大会(WWDC)上宣布将聊天机器人ChatGPT集成到即将发布的手机系统iOS 18中,此举有望给OpenAI带来数十亿美元的收入。
团队管理
管理模式
OpenAI在管理思维、人才选择、工作方法诸多方面的独到之处。
1. 人才密度。公司极其重视“人才密度”,倾向于招聘年龄更大的资深技术人员,小型、资深、专注的团队往往有极高的工作效率。OpenAI只有约700名员工,但工作产出可能比大它一万倍的公司还要更高;
2. 更有效率。工作节奏非常紧张,但这里不是拼命卷工作时长的地方,许多员工要抽出时间陪伴家人,倒逼他们更有效率地完成任务。
3. 面对面沟通。办公室面对面的沟通仍然非常重要。一些创造性的解决方案是在办公室的社交互动中诞生的,OpenAI团队会在午餐桌上碰撞出很多新想法,
4.紧密协作。 OpenAI根据职能划分了研究/应用团队,但不同团队之间的协作非常紧密。在ChatGPT团队里,既有设计师和产品经理,也有软件工程师和研究人员。不同职能的团队都需要了解对方的工作,避免出现研究部门只专注于实验,而产品部门只想商业化和赚钱的情况。
5.目标明确。 “打造”这一使命是OpenAI团队所有人的终极目标,也是日常工作的指引。使命不仅有助于决定做什么,也有助于决定不做什么。
合作模式
研究团队
应用团队
招聘策略
工作方法
OpenAI的日常工作方法也是公司快速发展的因素之。周一至周三,团队会在办公室工作。每个人周一、周二、周三都在旧金山总部办公。协调每天的工作是提高工作效率的关键。靠这种协调性,在一周的前三天就能抵达关键工作节点。
主要产品工作节奏相当紧张。使命、产品和技术的影响力促使大家努力工作。需要强调,这并不一定意味着员工工作时间很长,OpenAI不是那种凌晨2点还有一堆人没下班的地方。 每个人都非常重视家庭时间。对家庭的关注,也让团队必须高度集中注意力,分清轻重缓急,灵活安排时间。
主要产品
ChatGPT
GPTs
产品定义:
GPTs是OpenAI于2023年11月7日推出重要产品,用户将能通过自定义指令、拓展(模型)的知识边界和下达行动命令,来构建自己的GPT,并能对外发布给全球更多的人使用。更重要的是,整个构建“自定义GPT”的过程也是通过自然语言对话形成的。
Assistants API
Sora
GPT-4o
产品管理
发布策略
OpenAI发布产品的策略,避免采用“大爆炸、一气呵成”的发布模式。因为持续更新是OpenAI安全的基本原则战略。人工智能安全是OpenAI内部的一个重要话题,也是工作的核心,公司采取了很多方法确保的。例如:
研发策略
AI的飞速发展,在给人类带来生产力革命的同时,也带来了前所未有的安全挑战,包括:AI系统本身的稳定性和可靠性隐患,恶意使用AI技术,用户隐私侵犯,AI系统决策过程的公平、透明和可解释性难以保障等。因此,OpenAI在创业过程中并行采取以安全为导向的研发策略,并积极参与到相关政策的讨论和制定过程中,聚焦于推动行业正向发展、企业文化塑造以及巩固行业领先优势等3个维度,以确保AI发展能够在保障安全的前提下更好地服务于人类社会。从技术上提出了两个方向:
一是可扩展的监督,尝试使用人工智能系统来协助人类监督其他人工智能系统;二是解释能力,尝试更好地打开这些模型的内部黑箱,包括使用GPT-4来解释GPT-2中的神经元,使用Model Internals来检测一个模型何时在说谎等。一定程度上,OpenAI在AI安全方面的努力和贡献,不仅有助于推动行业的健康发展,也能够对内塑造企业文化和对外巩固行业领先优势,掌握了行业话语权,从而构建以OpenAI为主导的通用人工智能创新与发展生态。
服务条款
OpenAI服务条款规定,API客户所输出的模型不能被用于“开发任何与我们的产品和服务竞争的AI模型”。“所有API客户必须遵守我们的使用政策,以确保我们的技术被用于好的一面”
微软:“Azure OpenAI服务等微软AI解决方案属于有限访问框架的一部分,这意味着所有客户都必须申请并获得公司的批准才能访问。同时,制定了标准并提供资源,帮助客户负责任地使用这些技术,并遵守公司的服务条款。公司还制定了发现滥用行为的流程,并在客户违反公司的行为准则时停止他们的访问。”
使用禁令
2024年1月15日消息,美国OpenAI公司更新了使用条,不再明确禁止将其技术用于“军事和战争”。
调整前(2024年1月10日之前),OpenAI公司在其AI模型的使用条款中曾明确表示,禁止将其模型用于很可能会造成人员伤亡的用途上,比如“研发武器”和“军事与战争”。
调整前(2024年1月10日之前)
调整后(2024年1月10日):OpenAI对其使用条款进行一番大更新后,公司虽然在禁止项中仍然提到禁止将其产品、模型和服务用于会导致人员伤亡的用途上,并提到了“武器开发和使用”,但先前同样被禁止的军事用途,却在文本中消失。
调整后(2024年1月10日)
OpenAI公司的发言人强调,新使用条款中提到的“不要去伤害他人”本身就是一个很宽泛同时也很好理解的概念,可以适用于很多语境之下,而且条款中还列举了武器作为一个明显的例子。
网络安全专家表示,OpenAI此次调整是一个很大的变化,新版使用条款关注重点是在确保法律合规之上提供更多的灵活性,但在很多国家,军事和战争都会被披上合法的外衣,所以OpenAI这次调整潜在影响将是巨大的。
风险管理
风险评估
对于开发中的前沿模型,OpenAI主要跟踪4个类别的安全风险:、CBRN(化学、生物、放射性、核威胁)、说服能力、模型自主性。评估期间将增加2倍的有效计算量把模型推向极限,并制作“记分卡”,分为“低、中、高、重大危险”四个等级。采取缓解措施后,四个方面得分取最高值作为一个模型的总评分。
OpenAI:安全
只有缓解后风险评分为“中”或更低时才能部署;只有缓解后风险评分为“高”或更低时才能进一步开发;对缓解前为“高”或“重大风险”的模型采取额外安全措施。
OpenAI:限制 、制约
网络安全风险
定义为利用模型破坏计算机系统的机密性、完整性、可用性。
网络安全风险
CBRN风险
CBRN风险,专注于与模型辅助创建化学、生物、放射性和/或核威胁相关的风险。
CBRN风险
说服能力风险
侧重于与说服人们改变他们的信念或采取行动有关的风险。通常强大的说服力很少见,需要大量人力(例如一对一对话,或者精心制作的媒体内容);然而,模型可以在能力范围内使所有内容几乎零成本生成。
说服风险
模型自主性风险
模型自主性风险就是比较科幻的那种,AI改进自己、阻止自己被关机、逃出实验室了。
模型自主性风险
企业事件
涉投诉
2023年4月4日,加拿大隐私专员办公室(OPC)宣布开始调查背后的公司OpenAI,涉及“指控OpenAI未经同意收集、使用和披露个人信息”的投诉。
涉诉讼
被调查
提起诉讼
回应质疑
应用问题
美国东部时间2023年4月23日,根据中断跟踪网站Downdetector的数据,超千名用户报告OpenAI出现使用问题。
暂停账户
监管升级
商标注册
2024年2月,美国专利商标局拒绝OpenAI将GPT 一词注册为商标,他们认为GPT的意思是生成式预训练转换器 —— 一个过于笼统的术语,可能会阻止竞争对手将其产品描述为GPT。
重组风波
团队解散
2024年5月15日,OpenAI原核心安全团队“超级对齐”负责人杨·莱克( jan Leike)在社交网络上宣布他本人已辞职,此外,这一团队的其他多名核心成员也纷纷离开,这一团队就此解散。杨·莱克17日在推文中怒斥OpenAI在追求华而不实的产品,质疑OpenAI不再关心安全。
Leike曾与OpenAI联合创始人Ilya Sutskever共同领导OpenAI的超级对齐团队,该团队负责防止超级智能失控,现已解散,剩余成员并入核心研究团队。Sutskever也已辞职。
回应联名信
2024年6月4日,OpenAI和谷歌旗下“深层思维”公司的13名现职员及前员工发表联名公开信,对人工智能行业在缺乏对“吹哨人”法律保护的背景下快速发展表达担忧。联名信签署人中,2人与“深层思维”有关,4名OpenAI现员工要求匿名。组织者包括OpenAI前工程师丹尼尔·齐格勒和前员工丹尼尔·科科塔耶罗。同一天,OpenAI回应联名信时强调,已设立匿名举报热线和安全委员会保护“吹哨人”,相信能以科学方法应对风险。
垄断调查
2024年7月,美国联邦贸易委员会(FTC)发布公告,已介入调查包括微软在内的 5 家主要科技公司,一方面重点审查其在 AI 领域的投资、合作过程中是否存在垄断行为,另一方面是帮助 FTC 洞察当前 AI 市场的竞争格局以及对创新的潜在影响。
本次调查备受外界关注的一个点是,FTC 将深入调查微软和 OpenAI 公司之间的投资关系,已经相关投资的实际意义和竞争影响。
人事变动
2024年8月6日,OpenAI 公司发言人表示,OpenAI 总裁、公司核心人物之一 Greg Brockman 将休长假,以“放松和充电”。另外,研究员 John Schulman 当日离职,将前往竞争对手人工智能 AI 初创公司 Anthropic。Brockman 在 X 上表示,其将休假到年底;Schulman也证实了他的离职。