情色电影下载
新智元报谈
裁剪:Aeneas 好困
【新智元导读】畏缩!就在刚刚,Scale AI独创东谈主Alexandr Wang通知:公司的年化收入依然达到近10亿好意思元。OpenAI的年收入,也只是是35-45亿好意思元。数据墙愈渐紧逼的今天,Scale AI早早踩对了风口,如今终于一飞冲天了。
就在刚刚,创业得手的27岁亿万财主Alexandr Wang通知——
Scale AI的年化收入,险些达到了10亿好意思元!
这个数字,实足畏缩通盘这个词硅谷的。
这Scale AI是什么来头,能在营收上取得如斯惊东谈主的获利?
本来,它主攻的即是如今AI模子的一大软肋——对数据的普遍需求。
咱们正在干涉LLM诱导的第三阶段。 第一阶段是早期的熟谙,从Transformer到GPT-3 第二阶段是界限膨胀 第三阶段是改进阶段:除了o1除外,还需要哪些龙套性进展材干让咱们达到新的proto-AGI范式
Scaling Law的存介怀味着,跟着模子变大,对数据的需求也呈现指数级增长,越来越多的东谈主牵记大模子会耗尽可用数据。
Scale AI的主营业务——作念AI模子的「数据工场」,恰平允于这个风口之上。
如果能攻克「数据墙」这个AI非常的普遍瓶颈,Alexandr Wang理所天然会赚得盆满钵满。
在AI波浪中,赚得盆满钵满
商业能作念这样大,源于Scale AI越作念越得手的一项伟业务。
在AI生态圈中,为大公司提供基础面貌或业绩维持的业务,商场需求普遍。
Scale AI作念的即是后者——为这些公司提供东谈主工数据标注员。帮AI公司擢升LLM的准确性。Meta、谷歌等大公司,皆是它的客户。
而且,本年Scale AI的商业越作念越红火了。
跟客岁同时比较,它本年上半年的销售额增长了近4倍,依然接近4亿好意思元。
不错细则地说,Scale AI是从AI兴隆中受益最多的私营企业之一。
投资者们天然也看到了这少量。
本年5月,Scale AI以138亿好意思元的估值,进行了新一轮融资。
投资者包括Accel、Founders Fund、Index Ventures、Thrive Capital和Greenoaks Capital等。
何况,除了亚马逊和Meta除外,Scale AI还劝诱了各式各种的新投资者:念念科、英特尔、AMD等风险投资部门参与其中,而且许多注资过的公司也记挂了,包括英伟达、Coatue、Y Combinator等等。
就在近期,Wang辖下的高管团队,再度进行了调养。
首席时刻官Arun Murthy将离开公司,而客岁离开风投公司Benchmark的前优步高管Jason Droege将加入公司担任首席策略官,径直向Wang讨教。
首席策略官Jason Droege讲授我方为什么要加入Scale AI:这让我有契机参与到我一世中时刻界限最压根的变革中
在Droege看来,Scale措置了东谈主工智能中最困难的挑战之一:通过数据改良模子。作念到这少量需要超卓的东谈主才、复杂的运营和对AI过去发展的热烈愿景。固然团队迄今依然取得了刺眼确立,但仍处于起步阶段。
2023年上半年头始,公司收入激增
这家建筑8年的初创公司,一直发扬条约工的招聘和培训,但尚未竣事盈利。
可是就在本年上半年,它得手改善了运营的毛利率——每产生1好意思元收入,只需要铺张约1.2好意思元,而在客岁上半年,这一数字为1.5好意思元。
如今仅讨论业务资本(比如条约工的工资),Scale AI保留的收入唯唯独半。毛利率这一财务主见,略低于50%。比起2022年上半年约57%的毛利率,这个数字有所下跌。
这一水平,大大低于科技投资者对软件公司的渴望。
但尽管如斯,5月份的融资如故为Scale AI提供了丰足的资金实力。猖狂上半年末,公司还有约9.8亿好意思元的现款。
从客岁上半年头始,公司收入就初始激增。因为构建LLM的客户需要许多条约工,通过向聊天机器东谈主提交问题、撰写谜底,来熟谙AI模子。
在给投资者的PPT上,Scale AI自称是「一个东谈主机羼杂系统,以低资本分娩高质地数据」。
笔据外媒音讯,它还通过一家名为Outlier的子公司,雇佣了数十万个小时工,来进行数据微调。
赫然,Scale AI采取聚焦LLM客户,是一种策略转型。
此前,它还有一项雷同业务,主如果利用菲律宾和肯尼亚的低资本劳能源,为自动驾驶汽车公司标注数据。但频年来,这项业务的增长依然放缓。
当今,即使雇佣薪酬更高、更专科的条约工,Scale AI的收入也依然能擢升,因为它不错将这些更高的资本出动给客户。
天然,当今Scale AI也并非硅谷投资者眼中稳赚不赔的投资。投资者担忧的问题,包括公司较低的毛利率,以及过度依赖少数几个大客户的问题。
天才少年辍学创办独角兽
Scale AI由Alexandr Wang和Lucy Guo于2016年创立,由著名创业孵化器Y Combinator投资。客户包括Meta、微软、英伟达、OpenAI、丰田和哈佛医学院。
2019年,Scale AI成为独角兽。
2022年,Alexandr Wang成为各人最年青的空手起家的亿万财主。
Wang于1997年确立于新墨西哥州,父母皆是在新墨西哥州洛斯阿拉莫斯国度实验室的物理学家。
高中阶段,他初始通过集合自学编程,初始参加寰宇级编程大赛,如好意思国计较机奥林匹克竞赛(USACO)。
17岁,他成为好意思国知名问答网站Quora的全职码农;18岁,考入麻省理工学院攻读机器学习;在MIT大一刚完毕后的暑假,他就和Guo沿路创办了Scale,何况拿到了Y Combinator的投资。
Wang跟爸妈说,「这即是我夏天任性玩玩的事。」
Scale AI刚起步时,有些东谈主如实以为这即是一个见笑,毕竟公司其时唯独三名职工。
不外,在赓续地融资和发展之下,Scale AI发展迅速,到2021年依然成长为价值73亿好意思元的独角兽企业,2023年头公司界限也膨胀到了700东谈主。
Wang袒露,跟着企业客户竞相熟谙生成式AI模子,Scale AI的这方面业务快速增长。
2023年,公司年度经常性收入增多了两倍,瞻望2024年底将达到14亿好意思元。
由于Scale AI的惊东谈主确立,Alexandr Wang依然被硅谷公认为「下一个扎克伯格」。
AI模子的「数据工场」
AI界限公认的三个基本撑持——数据、算法和算力。
算法界限,前有谷歌、微软的大型盘问院,后有推出过Sora和GPT系列模子的OpenAI;算力界限有供货各人的英伟达,但在Scale AI还未确立的2016年,数据界限仍处于空缺。
19岁的Alexandr Wang在看到这少量后,作念出了辍学创业的决定,「我创办Scale的原因是为了措置东谈主工智能中的数据问题」。
大部分数据皆口角结构化的,AI很难径直学习这些数据;而且大型数据集的标注一项资源密集型职责,因此,「数据」被许多东谈主认为是科技界限最费劲、最卑微的部分。
但Scale AI却在短时辰内就取得了普遍得手。他们不错为不同业业的企业客户量身定制数据业绩。
在自动驾驶界限,Cruise和Waymo等公司通过录像头和传感器采集了大皆数据,Scale AI将机器学习与「东谈主机回路」监督相勾通,料理和标注这些数据。
他们也曾诱导的「自治数据引擎」,以致股东了L4级自动驾驶的发展。
Wang暗示,Scale AI将我方定位为通盘这个词AI生态的基础面貌供应商,构建「数据锻造厂」,而不单是是在子公司Remotasks中雇佣大皆的条约工进行东谈主工标注。
他强调,来自内行的、包含复杂推理的数据是过去东谈主工智能的必备要求。
传统的数据来源,比如从Reddit等社区的评述中握取数据存在局限性。Scale AI构建了一些历程,模子先输出一些内容,举例撰写盘问论文,在此基础上,东谈主类内行不错改良这些内容,从而改良模子的输出。
「固然东谈主工智能生成的数据很艰辛,但想要取得有一定质地和准确性的数据,唯一行径是通过东谈主类内行的考证。」
Alexandr Wang在Scale AI的官网上这样写谈,「数据丰富不是默许情况,而是一种采取,它需要汇集工程、运营和AI方面最优秀的东谈主才」。
Scale AI的愿景之一是「数据丰富」,从而将前沿LLM膨胀到更大数目级,「为通向AGI铺平谈路。在达到GPT-10的过程中,咱们不应该受到数据的胁制」。
业内盛赞的LLM名次榜更新
Scale AI对业界所作念的孝敬,不仅是数据标注这样粗拙。
本年5月,Scale AI重磅推出了全新LLM名次榜——SEAL,初始对前沿模子开展专科性评估。
对于这个榜单,Jim Fan大加唱和。他认为SEAL是LMSys的十分好的补充和参照,提供公开模子的奥妙、安全、确实的第三方评估。
对此,Andrej Karpathy也深以为然。
跟着OpenAI最强模子——o1的推出,SEAL名次榜也第一时辰进行了评测。
除了在高档编程、数学和科学等界限透深入色除外,o1系列也为「prompt engineering」(教唆工程)引入了新的变化。
傍边滑动有观看
在器具使用和指示奴隶方面,o1-preview透深入色。而在编程材干方面,o1-mini夺得榜首,o1-preview紧随后来位居第二。
- 编程名次榜
在SEAL编程名次榜上,o1-mini以1271分的获利领跑,紧随后来的是o1-preview,得分为1198。
色吧性爱评估数据集使用了1000个教唆词,用于测试各式编程任务,涵盖从代码生成到优化和文档创建等多个方面。
过程中,每个模子的反馈皆会从正确性、性能和可读性三个维度进行评估,玄虚应用东谈主工审核和代码实行测试的行径。
- 指示奴隶名次榜
在对精准指示奴隶材干的评估中,o1-preview以87.27 分的获利最初,超越了知名Claude 3.5 Sonnet和Llama 3.1 405B Instruct。
评估数据集包含1054个跨界限的教唆词,触及文本生成、头脑风暴和陶冶维持等多个方面。
教唆工程的变化
与咱们熟悉的GPT、Gemini或Claude等模子比较,o1模子的教唆词使用和可操控性赫然不同。
笔据OpenAI的建议,粗拙径直的指示有助于充分阐扬o1的后劲。
与之前的模子不同,用户应幸免要求模子进行念念维链推理。他们还指出,教唆词中的无关高下文对o1模子的烦躁可能比之前的GPT系列更大,因此在检索增强生成(RAG)教唆中加入一些示例很艰辛。
Cognition Labs发现,要求模子「think out loud」(高声念念考)本体上会毁伤性能,而只须求给出最终谜底反而会擢升性能,因为o1模子不管如何皆会产生里面的念念维链。他们还指出,冗长或重叠的指示会毁伤性能,而过于具体的带领似乎会影响模子的推理材干。
固然o1在基准测试中取得了出色的恶果,但让它完成你我方的具体任务似乎需要更多起劲——它们经常会冷落明确(以致是强调的)对于如何措置问题的指示。
由此可见,施行寰宇的教唆和基准测试中使用的教唆之间,本体上存在着不小的差距:后者旨在只包含明确的、自包含的、最小呈现的问题,没磋商于如何措置它们的建议或看法。
需要防御的是,o1-preview反馈的蔓延,终点是其「首个token的时辰」,赫然高于GPT-4o。不外,o1-mini用更快的token推理速率弥补了「念念考」的时辰。
一些实测
- 词汇约束
在官方示例中,o1在污名昭著的「strawberry这个词中有几许个R?」等「陷坑」任务上,有着不小的改良。
为了考证这少量,咱们向o1-preview建议了一个新编写的耳语:
「说出一个拉丁语源的英语形容词,它以疏通的字母起原和结果,所有有十一个字母,何况词中通盘元音按字母规章成列。」
在第一次尝试中,模子得手措置了这个耳语,谜底是:sententious。
但如果反复发问销毁个,o1却并不成次次作念对:
sententious ✅
facetiously ❌
transparent ✅
abstentious ❌
facetiously ❌
- 解码密码
相似令东谈主深刻的,还有一个解码复杂密码的例子。
雷同的,咱们也尝试了这个教唆词的各式变体,包括ROT13密码、Atbash密码、Base64编码、回转字符串等各式组合。
可是,大多数测试皆不得手——在7次尝试中,o1-preview唯独2次大要解码给出的加密信息(《沙丘》中的「迎恐祷词」(the Litany Against Fear))。
在每个prompt中,o1皆被要求从OpenAI给出的示例中臆测出一种编码情势。
在以下每个测试中,o1皆未能在一次尝试中解码方向音讯:
ROT13密码 → 回转字符串 → Base64编码 → 回转字符串
ROT13密码 → Base64编码 → ROT13密码 → 回转字符串
ROT13密码 → Base64编码 → ROT13密码
ROT13密码 → Base64编码 → Atbash密码
ROT13密码 → Base58编码
在第一次尝试中得手解码的两个测试是:
Atbash密码 → Base64编码
ROT13密码 → Base64编码
这里展示了第一个得手的例子——其他测试除了使用的编码不同外,皆是疏通的:
论断
总结来看,OpenAI的o1模子在推理材干方面皆取得了要紧龙套,在AIME、Codeforces、Scale的SEAL名次榜等环节基准测试中透深入色。
这些恶果标明,o1-preview和o1-mini是措置复杂推理问题的苍劲器具。可是,要充分阐扬这些模子的后劲,可能需要比用户风气的其他模子发布更多的实验和尝试。
参考府上:
https://www.theinformation.com/articles/scale-ais-sales-nearly-quadrupled-in-first-half?rc=epv9gi
https://scale.com/blog/first-impression-openai-o1?utm_offer=blog情色电影下载