全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
定制化AI新篇章:OpenAI发布GPT-3.5 Turbo微调功能 或将超越GPT-4
go
lg
...
与竞争对手,如Google的Bard或
Anthropic
的Claude等,保持竞争力。 在一则Twitter宣布中,OpenAI表示:“我们刚刚发布了针对GPT-3.5 Turbo的微调功能。通过微调,您可以使用自己的数据来训练模型,并在大规模场景中应用。” OpenAI进一步解释道:“初步测试显示,经过微调的GPT-3.5 Turbo在特定任务上的表现甚至可以媲美或超越GPT-4。”OpenAI指出,通过微调,开发人员能够直接塑造GPT-3.5 Turbo的技能,以满足他们的具体需求。例如,开发人员可以微调GPT-3.5 Turbo,使其能够生成定制代码,或者在提供了整个客户企业的现有数据语料库后,以高度准确的德语生成法律文件的总结。 对于那些致力于构建定制用户体验的企业和开发人员而言,这一功能尤为有价值。企业可以通过微调模型,确保聊天机器人与其品牌声音保持一致,以确保其个性和语气相得益彰。 微调的潜力也在Stable Diffusion开发者社区中得到了体现,经过微调的SD v1.5模型在质量上已经超越了基本模型v2.1,变得更加强大,甚至与最近发布的顶级模型SDXL媲美。 OpenAI还指出,微调的优势还包括提高了模型的可操作性、保持了一致的输出格式,减小了提示的大小,从而提高了API的响应速度并降低了成本。举例来说,减小了高达90%的提示大小,加速了工作流程,同时也降低了使用成本。 然而,这些强大的功能并非免费。虽然基本的GPT-3.5 Turbo模型价格相对较低(每1000个代币0.0004美元,代表着大型语言模型处理信息的基本单位)。但经过微调的版本则需要更高的费用,每1000个输入代币0.012美元,每1000个输出代币0.016美元。此外,初始训练过程的费用也会根据数据的大小而变化。尽管如此,考虑到实现定制功能所带来的价值,这些费用或许是合理的。 这一次升级是继7月份为ChatGPT Plus用户引入“自定义指令”功能之后的又一重要举措。用户现在能够根据自己的选择指定编程语言,以确保ChatGPT始终提供Python解决方案。此外,OpenAI还推荐了其他个性化选项,如位置、爱好、目标和首选语气等。 自定义指令使用户能够将ChatGPT打造成适合其独特需求的个性化数字助理。每次对话都将遵循这些个性化准则,消除了由于偏好重复造成的困扰。可以说,这次升级不仅仅是一个全新的车型,更是一种以不同“思维方式”来提升的创新。 为了确保微调功能的负责任使用,OpenAI采取了相应的措施。他们解释道:“为了保持经过微调的模型的安全特性,微调训练数据将经过我们的审核API以及GPT-4支持的审核系统。”这一系统旨在识别和清除不安全的训练数据,以确保即使是定制的输出也符合OpenAI的安全标准。 然而,这也暗示着OpenAI在一定程度上对用户输入模型的数据进行了控制。尽管如此,这一举措有助于确保生成的内容是安全和合适的。 总之,OpenAI通过推出微调和自定义指令等功能,为用户提供了更多的控制权和定制化选择。然而,目前这些功能主要针对付费客户,随着生成式人工智能领域的竞争不断升级,定制化有望成为OpenAI在这场竞争中脱颖而出的关键因素。 声明:本文来自潮外音创作者,内容仅代表作者观点和立场,且不构成任何投资建议,请谨慎对待,如文章/素材有侵权,请联系官方客服处理。 来源:金色财经
lg
...
金色财经
2023-08-29
Zoom财报公布后下跌 “木头姐”:仍看好远程办公!
go
lg
...
术的进步。该公司投资了人工智能初创公司
Anthropic
,并宣布将收购工作场所通讯工具Workvivo。 第二财季企业营收增长10%,达到6.595亿美元,高于分析师预期。彭博情报公司的约翰·巴特勒(John Butler)表示,这种超预期表现预示着Zoom计划向大公司提供更多服务。但面向消费者和小型企业的在线销售额下降了4.3%,至4.792亿美元。 首席财务官凯利·斯特克尔伯格(Kelly Steckelberg)在业绩电话会议上说: “我们提高了总收入指引,这反映了我们对公司业务的一贯看法,但我们对今年余下时间在线业务的指引较为温和。” 这家总部位于加利福尼亚州圣何塞的公司称,在截至7月31日的这段时间里,公司拥有21.81万家企业客户,比去年同期增长了6.9%。在这些客户中,有3,672家客户的前12个月收入超过了10万美元,比去年同期增长了近18%。 斯特克尔伯格还对Zoom新推出的非视频产品的需求吹捧了一番。她表示,Zoom Phone的年化运营收入约为5亿美元,而其联络中心工具的客户也超过了500家。虽然一些客户减少了员工人数,影响了Zoom的支出,但公司成功地通过“向客户推销新产品来替代这些收入”。 在第二财季,Zoom的总收入增长了3.6%,达到11.4亿美元。利润(不包括某些项目)为每股1.34美元。彭博社的数据显示,这两项数据均超过了分析师的平均预期。 “木头姐”仍看好远程办公 彭博社的数据显示,由伍德旗下的Ark Investment Management LLC管理的两只基金在周二购买了总计122,831股Zoom的股票,这是该公司约两个月来首次买入该股。 Ark持有Zoom 4%以上的股份。它对Zoom的投资表明,即使面对全球重返办公室潮和与微软等对手的竞争,伍德仍然看好远程办公这一疫情的产物。 今年到目前为止,Zoom股价下跌了2.1%,连续第三年跑输纳斯达克100指数。伍德的旗舰产品Ark Innovation ETF在2023年上涨了31%,而其标普500指数和纳斯达克100指数的涨幅分别为14%和36%。
lg
...
金融界
2023-08-24
Zoom预测当前季度利润将超出预期,企业需求强劲
go
lg
...
此外,Zoom还投资了人工智能初创公司
Anthropic
,但与竞争对手不同,Zoom的创始人兼CEO Eric Yuan表示,公司不会在现有软件之上收取过高的费用来提供人工智能功能,而是将其融入现有软件服务中。 尽管在短期内Zoom股票出现了上涨,但Zoom股票今年迄今已下跌约1%。与此同时,标准普尔500指数在同一时期上涨了15%。虽然Zoom面临着竞争和增长放缓的挑战,但公司仍在努力优化支出,加强技术投资,并寻求在竞争激烈的市场中保持竞争力。
lg
...
Heidi
2023-08-22
BTC横盘震荡 何时变盘?
go
lg
...
推出一系列新产品; 9. 人工智能公司
Anthropic
获得1亿美元投资,韩国电信巨头SK Telecom追投; 10. CoinShares:上周数字资产投资产品流入1.36亿美元,区块链股票迎来了一年来最大资金流入; 11. BALD部署者已从Base网络提取9000枚ETH,获利约410万美元; 12. 币安将调整BLZ U本位永续合约杠杠保证金阶梯和资金费率频率; 13. Frax社区发起新提案“使用DAO金库中的100万枚FRAX进行场外交易购买CRV”; 来源:金色财经
lg
...
金色财经
2023-08-14
大模型的混沌年代:矛盾、分化与未来
go
lg
...
生态。 除了人们所熟知的OpenAI、
Anthropic
与Inflection AI外,主要产品形态为虚拟AI机器人助手的Adept,专注于B端企业服务的Cohere,Stable Diffusion图像生成扩散模型背后的Stability AI,还有英伟达所看好的算力提供商CoreWeave......总之,无论是在模型层、中间层,还是在应用层,海外的大模型生态与国内相比,显得更清晰。援引《极客公园》在报道中的一句研判:“已经几乎没有新的创业者要做下一个OpenAI了。” 反观国内,尽管资本也大量流入了人工智能行业,但如果追溯钱的流量,聪明的钱依旧流向了少数的头部公司中。根据虎嗅统计的数据,从ChatGPT发布到现在,在AI大模型赛道融资事件只有21起。而我们所熟知的明星独角兽企业,也只有MiniMax、光年之外、百川智能等,而上述独角兽的崛起背后既有早期的先发优势,也有大佬经验的背书。 图片来源:@chiefaioffice 此前朱啸虎和傅盛的争论,就让创投圈围绕大模型的价值展开了一场论战。在资本圈“大炼模型”的背后,实际上投资人下手依旧十分谨慎。一方面,AI大模型是一个高度专业与细分的赛道,同时又十分烧钱,因此决定了专注AI领域,准确洞悉技术的投资人与投资机构其实十分稀缺。 另一方面,则是好的标的依旧太少。从当下机构的投资逻辑来看,投人依旧是主旋律。要么是如光年之外等的创业大佬背书,虽然创始人不懂技术原理,但却十分了解科技行业的变化趋势与商业模式,要么就是AI行业内知名技术学者,如智谱AI、聆心智能和深言科技等初创企业,背后都有“清华系”的身影。 02 分化:大厂疯狂攒局,小厂拼命掘金 围绕大模型的一系列变革背后,既是技术的进步,也是关键人物与关键企业的推动。如果将镜头转向这些浪潮前沿的公司与人,分化其实也已产生。 真格基金管理合伙人戴雨森曾有一个精妙的比喻:GPT-3的出现等于发现新大陆,而ChatGPT的出现,好比是在新大陆上发现了黄金。中国公司的追赶之旅则如同知道了新大陆和黄金所在,并且知道OpenAI是坐船去的,也知道船大概的样子,却没有详细地图。 经历了此前大模型疯狂的“发布月”后,我们可以清晰地看到此轮创业被分为了学院派、大佬派与大厂派,他们之间的关系也并不完全是零和竞争,而是一种“非零和博弈”。 大厂们在过去一段时间内,除了秀出技术的硬实力外,攒局与建生态成为了主任务。以百度、阿里、华为、字节与京东等大厂为例,一方面有自身的云业务,提供算力支持,另一方面围绕芯片层、框架层、模型层与应用层,也各有布局,以进一步夯实壁垒。 但在这之中,大厂与大厂之间的打法也各有不同。以阿里、百度、华为为代表的大厂更偏向于走垂直整合之路,在算力、平台、模型三层实现一鱼多吃。而火山引擎(字节云)与腾讯云偏向走平台路径,搭建模型货架超市,接入更多的第三方大模型,并提供相应的精调、评测、推理服务。 而对国内创业型的小厂而言,在大模型竞逐的早期,事实上,创业公司唯一确定性就是“不确定性”,不需要很复杂的产品,打准用户的痛点,就可以实现初步成功。 近期出圈的「妙鸭相机」就是一个典型的案例,团队在接受采访时表示:“AIGC 的产品第一天不收钱,就可能收不到钱”。通过低门槛的使用,精准定位写真需求的女性叠加社交媒体的营销裂变,即便是技术上并无明显的创新,但借助一个单一功能就能实现早期的商业化,妙鸭其实给了国内应用层的创企一个很好的启示。 而对妙鸭相机等更多的创业公司而言,如何抓准「不确定」的周期进一步夯实自身的技术壁垒与用户粘性,才是关键。 图片来源:妙鸭相机小红书截图 03 未来:监管加剧,格局未定 在可以预见的未来里,或许正如大厂们的PR文里的论调,大模型终将会赋能千行百业,但在理想之外,如何保证大模型技术的安全性与可控性也成为了关注的焦点。 此前网信办等七部门联合公布《生成式人工智能服务管理暂行办法》,在监管方式与监管范围上对生成式人工智能未来的合规健康发展提供了可靠的法律依据。而在8月1日凌晨,苹果中国区应用商店集中下架多款AIGC应用,实则也暗示了政策端对人工智能监管力度的升温。 在海外,科技巨头们已面临着棘手的AI伦理的争议。「AI四巨头」
Anthropic
、谷歌、微软和OpenAI就联合成立了前沿模型论坛,就负责任与安全的人工智能问题与美国、欧洲与G7进行沟通。而由Hugging Face、GitHub、EleutherAI等开源社区组成的联盟也正呼吁欧盟政策制定者在制定《欧盟AI法案》时保护开源创新。 对眼下的大模型行业创业者而言,在创业理想、商业化路径之外,对商业模式合规性的考量也将被纳入已有的计划之中。 明确的监管趋势外,更多前沿的探索也正在发生,当下业界围绕多模态、AI智能体、向量数据库以及具身智能等一系列话题的讨论,实则都在大模型的热潮之外,寻找更多的可能性。 以具身智能领域的AI机器人为例,包括谷歌在内的科技巨头增产是将大语言模型接入机器人,让机器人变得更聪明。而同样火热的AI智能体浪潮,甚至被称为“原始AGI”,已接替大模型,成为大公司们关注的下一个领域。 浪潮已至,未来已来。可以肯定的是,大模型的混沌时代或许不会持续太久,但在未来的一段时间内,竞合还将继续。谁能率先利用“不确定性”补齐短板,谁能将大模型能力真正落地于细分与垂直场景,谁能更快地搭建起高质量的数据飞轮,这考验各自的决心与耐力,也将决定着它们在下一轮竞争中各自的生态位。 来源:金色财经
lg
...
金色财经
2023-08-12
亚马逊为AWS而战!
go
lg
...
过其Bedrock AI服务提供来自“
Anthropic
、Stability AI、AI21 Labs、Cohere”等公司的第三方模型。然而,需要注意的是微软Azure和谷歌云也将提供第三方模型,因此这一策略未必为AWS提供竞争优势。 微软Azure被认为是AWS的主要竞争威胁,因为这家软件巨头在OpenAI的投资中大获成功。不过,与AWS和谷歌云不同,微软尚未为云计算开发自己的芯片,而是严重依赖于英伟达领先的GPU。虽然AWS也能使用英伟达的 H100 GPU,但亚马逊CEO 安德鲁 · 贾西宣称公司已经提供了自家的AI芯片: “客户对由NVIDIA H100 GPU驱动的Amazon EC2 P5实例进行训练大型模型和开发生成式AI应用非常兴奋。然而,迄今市场上仅有一种可行的选择,供应也非常有限。 这,再加上我们过去几年来积累的芯片专业知识,促使我们几年前开始研发我们自己的定制AI芯片,称为Trainium,以及用于推理的Inferentia芯片,它们已经进入第二代,并且对于构建和运行大型语言模型的客户来说是非常具有吸引力的性价比选择。我们对未来许多大型语言模型的训练和推理都将在AWS的Trainium和Inferentia芯片上运行充满信心。” 投资者认为AWS在AI竞赛中落后于微软Azure和谷歌云,但这种悲观情绪过于夸大。与微软Azure不同,AWS在ChatGPT引发的生成式AI热潮之前就已经开始设计自己的AI芯片。虽然目前英伟达的H100 GPU仍然是训练和推理AI模型的最佳选择,但亚马逊确实将努力鼓励客户将更多工作负载转移到自己的Trainium和Inferentia芯片上,并在这方面领先于微软Azure。 这些AI芯片显然不是AWS首次涉足设计自己芯片领域。多年来,这家科技巨头还提供了Graviton CPU芯片,旨在满足AWS的广泛计算需求。在上次的财报电话会议上,CEO 安德鲁 · 贾西宣布: “几年前,我们从客户那里一直听到,他们想要找到更多性价比高的通用计算方式。为了实现这一目标,我们意识到需要从硅芯开始重新思考各种事情,于是着手设计了我们自己的通用CPU芯片。” 目前,超过5万家客户正在使用AWS的Graviton芯片和AWS计算实例,包括我们前100名的Amazon EC2客户中的98家,而这些芯片的性价比约比其他主要的x86处理器提高了40%。同样的重新构想正在生成式AI领域发生。” 亚马逊已经在使用自己的芯片,这确实令人鼓舞,但Trainium和Inferentia AI芯片并不像英伟达的H100 GPU那样强大。鉴于Azure在没有自己芯片的情况下更依赖于英伟达的GPU,同时能够提供业界领先的大型语言模型。Azure目前被认为更有能力吸引各行各业的云客户,这些客户正在寻求通过AI来转变他们的业务。 此外,鼓励客户从由英伟达芯片驱动的云服务迁移到由亚马逊自己的芯片驱动的服务将是一个挑战。首先,亚马逊需要提升其AI芯片,进而从性价比角度竞争英伟达的GPU。 此外,英伟达的GPU的竞争力也是由其伴随的CUDA软件包和围绕其芯片发展起来的软件生态系统所培养的。这个生态系统使得第三方开发者越来越多地构建适用于英伟达芯片的AI应用程序,不断增加了英伟达GPU对客户的吸引力。因此,英伟达确实通过广泛的网络效应在其AI解决方案周围建立了强大的护城河,将开发者和客户都牢牢地困在其生态系统中。 然而,亚马逊多年来在云计算行业的领先地位,也形成了围绕AWS发展的广泛合作伙伴生态系统,亚马逊将努力利用这一生态系统,鼓励第三方开发者围绕其AI云服务和芯片构建应用程序。 此外,即使Trainium和Inferentia芯片不如英伟达的芯片强大,AWS仍然可以通过定制化优势提供更好的性价比。此外,通过设计和生产自己的芯片,亚马逊可以根据其自己云服务的特定需求来定制Trainium/Inferentia芯片。这种流程集成优势使亚马逊能够优化性能,降低客户的延迟。 关于AWS如何努力在其云客户群中促使更多的人采用Trainium/Inferentia芯片,这家科技巨头用于诱导迁移到其Graviton CPU的策略确实可以提供一些线索。 一个可能阻碍客户迁移的关键问题是需要修改或重新编写他们的应用程序以在AWS的芯片上运行。这可能是一个很大的切换成本,特别是对于较大的应用程序来说。为了促进向Graviton的转变,亚马逊已经努力确保许多受欢迎的应用程序和软件包与Graviton兼容,减少了客户需要修改或重新编写其应用程序的需求。除此之外,亚马逊提供了工具和服务,帮助客户将其应用程序迁移到Graviton,包括AWS应用迁移服务和AWS模式转换工具。因此,亚马逊将确实采取类似的策略,以便更轻松地从英伟达的GPU迁移到用于训练/推断工作负载的Trainium/Inferentia芯片。 如果亚马逊能够在AI革命中成功地鼓励人们转向自己的芯片,它将在几个方面使AWS受益。我们之前已经介绍了定制的好处,使AWS能够提供更好的性能和更低的延迟,因为这些芯片将专门针对其自己的云解决方案进行定制。此外,生产自己的芯片使亚马逊能够创新和开发新的功能和能力,这些功能和能力可能无法用英伟达和AMD的现成芯片来实现。这可以帮助亚马逊进一步将其云服务与竞争对手区分开来,并为客户提供额外价值。因此,这些优势可以使AWS更好地吸引云客户,推动收入增长并捍卫其领导地位。 虽然使用内部构建的芯片也带来了成本效益。通过生产和部署自己的芯片,亚马逊可以节省购买英伟达芯片的成本,毕竟,现在英伟达的芯片真的太贵了。此外,根据上述定制化优势,运行由其自己芯片驱动的云服务也可以使其更具成本效益地提供此类解决方案。这可以使亚马逊降低成本并向客户提供更具竞争力的定价。 财务指导和绩效 在上次的盈利电话会议上,当一位分析师问及高管们预计AI相关的AWS增长时间表时,他们不愿提供具体细节: Brent Thill: “就AI的货币化问题,你能谈谈你们认为何时会开始在AWS业务中看到这种增长吗?是在2024年吗?在后半年,你觉得这会对业务产生更大的影响吗?” 安德鲁 · 贾西: “…我认为当你谈到大规模潜在爆发的生成式AI时,包括我们在内,每个人都对此感到兴奋,我认为我们现在处于非常早期的阶段。在我看来,我们在马拉松比赛中已经走了几步。我认为这将是革命性的,我认为它将从根本上改变我们所知的几乎每一种客户体验…但现在还为时过早。所以我期待这将会非常庞大,但那将在未来发生。” 相比之下,微软已经能够提供与Azure的AI相关增长有关的指导,它在财报电话会议上表示,对于2024财年第一季度,它预计: “在Azure中,我们预计在恒定货币下的收入增长率将为25%至26%,其中大约有2个百分点来自所有Azure AI服务。” 亚马逊需要在未来提供更具体的增长预期,以维持投资者对AWS的AI前景的信心。 在过去的几年里,AWS的营收增长明显放缓,类似于其最大的竞争对手。 数据来源:公司文件 尽管AI预计将重新点燃所有云服务提供商的营收增长率,但首先必须应对巨额的前期成本。首席执行官安德鲁·贾西提供了有关未来AI相关资本支出的指导: “展望2023年整年,我们预计资本支出将略高于500亿美元,而2022年为590亿美元。我们预计履行和运输资本支出将同比下降,部分抵消了增加的基础设施资本支出,以支持我们AWS业务的增长,包括与生成式AI和大语言模型工作相关的额外投资。” 随着亚马逊投资于扩大其在AWS中的AI基础设施,这将对短期的利润率产生压力。这家科技巨头需要同时投资于第三方解决方案,比如英伟达的H100芯片,以能够提供行业领先的解决方案来满足客户当前的AI需求,同时还要投资于Trainium和Inferentia芯片的设计进展。 此外,亚马逊还将努力构建更有竞争力的大型语言模型,作为其客户的AI应用开发的基础。正如首席执行官安德鲁 · 贾西所提到的:“开发这些大型语言模型需要数十亿美元和多年时间”,这意味着投资者可以预期在可预见的未来会有大规模的资本支出。 与AI相关的巨额资本支出确实将对AWS的利润率产生短期压力。尽管随着AWS基础设施的扩大,能够更好地满足客户对AI服务日益增长的需求,但从长期来看,随后的营收增长应该会支撑利润率,这取决于它与微软Azure和谷歌云的竞争能力。 数据来源:公司文件 根据Seeking Alpha的数据,亚马逊的股票目前以超过65倍的未来盈利估值交易。这个估值也反映了亚马逊的电子商务业务。AWS在2023年第二季度的总收入中仅占约16%。然而,鉴于AWS是亚马逊利润最丰厚的业务部门,它是公司利润的主要贡献者,因此是其未来盈利倍数的重要驱动因素。 考虑到在接下来的一年里,亚马逊将进行大规模的资本支出,这将对其利润率产生压力,分析师认为这是一个昂贵的股票价格。 同时要考虑到65倍的未来盈利估值明显比其顶级云对手更昂贵,微软的估值超过30倍,谷歌的估值接近24倍。因此,虽然AWS确实有可能成为AI时代的强大参与者,但Nexus Research认为,投资者可以通过估值较低的竞争对手更好地接触到与AI相关的云计算增长。 $亚马逊(AMZN)$
lg
...
老虎证券
2023-08-10
成立2年 每名员工价值2100万美元 MosaicML凭什么卖出13亿美元?
go
lg
...
潮。全球知名企业Salesforce向
Anthropic
注资4.5亿美元,而Runway则成功筹集到了1.41亿美元的资金。此外,雪花公司也宣布完成了对Neeva的收购,而中国国内巨头美团则以20.65亿收购了AI公司光年之外。 然而,最引人瞩目的交易无疑是初创公司MosaicML的收购案。据了解,MosaicML以约13亿美元的价格被大数据巨头Databricks收购,其估值在本次交易中翻了六倍,成为了今年上半年最大的收购案。仅成立2年时间,拥有60多名员工,是什么撑起了MosaicML的高估值? Databricks收购MosaicML,加速生成式AI技术民主化 Databricks近期正式宣布,以约13亿美元(约93亿元人民币)收购生成式人工智能初创公司MosaicML,以提供为企业构建类ChatGPT工具的服务。 该收购之后,MosaicML 将成为 Databricks Lakehouse 平台的一部分,MosaicML 的整个团队和技术都将纳入Databricks旗下,为企业提供统一的平台来管理数据资产,并且能够使用自己的专有数据来构建、拥有和保护自己的生成式 AI 模型。 MosaicML是一家非常年轻的生成式AI公司,它于2021年成立于旧金山,目前只公开披露过一轮融资,员工仅62人。在上一轮的融资中,其估值为2.2亿美元,也就是说,此次收购MosaicML的估值直接跃升了6倍。此笔交易是截至目前今年生成式AI领域内所公布的最大一笔收购案。就在不久前,云计算巨头Snowflake刚刚宣布收购了另一家生成式AI公司Neeva。在经历了几个月的投资热之后,大型企业对生成式AI初创公司的大规模并购潮似乎正在开启。 Databricks起源于UC伯克利,曾参与Apache Spark项目开发。作为数据存储和分析巨头,截至2022年估值310亿美元,帮助AT&T、壳牌、Walgreens等大型公司处理数据。前段时间,刚开源了自己大模型Dolly,旨在以更少参数实现与ChatGPT类似的效果。而在云计算更加普及后,Spark提出的“湖仓一体”理念,深深影响了一批大数据初创企业。自2013年成立后,Databricks火速成长为全球最火的Data Infra公司。去年,Databricks公布的年收入超过10亿美元,而在2021年8月完成最新一轮融资后,其最新估值达到380亿美金。 MosaicML MPT系列模型的优势 MosaicML的MPT系列模型是从HuggingFace PretrainedModel基类中子类化的,与HuggingFace生态系统完全兼容。MPT-7B模型是MosaicML最受欢迎的模型之一,拥有数十亿个参数,可以处理超过2,000种自然语言处理任务。其中,MPT-7B的优化层包括FlashAttention和低精度层范数等,可以让该模型比传统训练方法快2-7倍,资源的近线性可伸缩性确保了具有数十亿参数的模型可以在几小时内训练,而不是过去的几天。MosaicML还发布了新的可商用的开源大语言模型MPT-30B,拥有300亿参数,并且性能优于GPT-3。 数据来源:MT-Bench对MosaicML主流模型进行的评估 MPT系列模型的优势在于它们的高效性和低成本。使用大量数据进行“训练”的人工智能模型的复杂度急剧上升,训练一个模型现在至少要花费数百万美元,除了大公司之外,其他中小型企业普遍都无法承受。而MosaicML的MPT系列模型可以让企业以更低的成本和更高的效率训练自己的语言模型,从而可以更轻松地应用生成式AI技术,实现更好的业务表现。大多数开源语言模型只能处理最多具有几千个tokens的序列(参见图 1)。但是,借助 MosaicML 平台和 8xA100-40GB 的单个节点,用户可以轻松微调 MPT-7B 以处理高达 65k 的上下文长度。处理这种极端上下文长度适应的能力来自ALiBi,这是MPT-7B中的关键架构选择之一。 例如,《了不起的盖茨比》的全文不到68k个Token。在一个测试中,模型StoryWriter阅读了《了不起的盖茨比》并生成了一个尾声。模型生成的尾声之一如图 2 所示。StoryWriter在大约20秒内(每分钟约15万字)读完了《了不起的盖茨比》。由于序列长度较长,其“打字”速度比其他MPT-7B型号慢,每分钟约105个单词。尽管 StoryWriter 的上下文长度为 65k 进行了微调,但 ALiBi 使模型能够推断出比训练更长的输入:在《了不起的盖茨比》的情况下为 68k 个Token,在测试中高达 84k 个标记。 图2:MPT-7B-StoryWriter-65k+ 为《了不起的盖茨比》写了尾声。尾声的结果是提供《了不起的盖茨比》的全文(大约 68k 个Token)作为模型的输入,后跟“尾声”一词,并允许模型继续生成。 生成式AI技术的普及 生成式AI技术是人工智能的一种分支,它利用大量的数据和深度学习算法,能够自动生成原始文本、图像和计算机代码等内容。这种技术的出现,让人们可以更加便捷地处理数据、分析数据,更好地服务于人类的需求。随着大数据和人工智能技术的快速发展,生成式AI技术已经被广泛应用于自然语言处理、图像识别和虚拟现实等领域。例如,在自然语言处理领域中,GPT-4已经成为了最受欢迎的生成式AI模型之一,可以用于生成文章、翻译语言和回答问题等任务。在图像识别领域,StyleGAN2能够生成高质量的图像,可以用于游戏开发、影视制作和虚拟现实等领域。 MosaicML的CEO Naveen Rao此前曾表示,自 2018 年以来,使用大量数据进行“训练”的人工智能模型的复杂度急剧上升,训练一个模型现在至少要花费数百万美元,除了大公司之外,其他中小型企业普遍都无法承受。而此次收购之后,Databricks的Lakehouse 平台和 MosaicML 技术的联合产品将能够让企业可以使用自己的专有数据来简单、快速、低成本进行生成式AI模型的训练和构建,在让用户拥有数据的控制权和所有权的情况下,可以进行自定义 AI 模型开发。根据Databricks的相关说法,在 Databricks 和 MosaicML的平台和技术支持下,企业训练和使用 LLMs 的成本将显著降低,预计可以降至数千美元左右。这为生成式AI的普及提供了便利。 Databricks收购MosaicML的意义 Databricks收购MosaicML的主要目的是加速生成式AI技术的发展和民主化。通过将两家公司的技术和资源整合起来,Databricks可以更好地满足客户的需求,提供更高效、更便捷的解决方案。具体而言,该收购将带来以下几个方面的改变: 1. 更高效的大语言模型 Databricks收购MosaicML后,可以将MPT系列模型集成到其Lakehouse平台中,为客户提供更高效、更低成本的大语言模型。这将有助于企业更好地处理自然语言处理任务,提高业务效率和准确性。 2.更快的模型训练速度 MosaicML的MPT系列模型具有快速训练的特点,这将有助于Databricks提供更快速的模型训练服务。这对于需要快速响应市场需求的企业来说尤为重要,可以帮助他们更好地满足客户的需求。 3. 更高的民主化程度 Databricks收购MosaicML也意味着生成式AI技术的民主化程度将会进一步提高。MosaicML的MPT系列模型可以让中小型企业更轻松地训练自己的语言模型,从而可以更好地应用生成式AI技术,实现更好的业务表现。这将有助于推动生成式AI技术的发展和应用,促进人工智能技术的普及和发展。 总结 生成式人工智能应用程序旨在根据用户的自然语言提示生成原始文本、图像和计算机代码。自去年11月人工智能初创公司OpenAI推出在线生成AI聊天机器人ChatGPT以来,人们对这项技术的兴趣激增。“每个组织都应该能够从人工智能革命中受益,并对其数据的使用方式有更多的控制。Databricks 和 MosaicML 有一个难以置信的机会来实现人工智能的民主化,并使 Lakehouse 成为构建生成式人工智能的最佳场所。”Databricks 联合创始人兼首席执行官 Ali Ghodsi表示。 Databricks收购MosaicML的意义不仅在于加速生成式AI技术的发展和民主化,更在于将两家公司的技术和资源整合起来,为客户提供更高效、更便捷的解决方案。随着人工智能技术的快速发展和应用,生成式AI技术将扮演着越来越重要的角色,Databricks收购MosaicML的举动也体现了各企业对于这个方向的重视和投资。像
Anthropic
和OpenAI这样的公司将现成的语言模型授权给企业,然后企业在其上构建生成AI应用程序。在对这些模型的强劲商业需求的推动下,为像MosaicML这样的初创公司创造了机会。从Snowflake和Databricks接连的收购步伐中我们可以看到,大型科技公司对于生成式AI技术正在从自主研发、战略投资逐步迈向兼并收购阶段。 参考来源: https://www.databricks.com/company/newsroom/press-releases/databricks-signs-definitive-agreement-acquire-mosaicml-leading-generative-ai-platform https://mattturck.com/mosaic/ https://twitter.com/lmsysorg/status/1672077353533730817/photo/1 https://www.mosaicml.com/blog/mpt-7b#appendix-eval https://www.mosaicml.com/blog/mpt-30b 来源:金色财经
lg
...
金色财经
2023-08-06
成立2年每名员工价值2100万美元 MosaicML凭什么卖出13亿美元?
go
lg
...
潮。全球知名企业Salesforce向
Anthropic
注资4.5亿美元,而Runway则成功筹集到了1.41亿美元的资金。此外,雪花公司也宣布完成了对Neeva的收购,而中国国内巨头美团则以20.65亿收购了AI公司光年之外。 然而,最引人瞩目的交易无疑是初创公司MosaicML的收购案。据了解,MosaicML以约13亿美元的价格被大数据巨头Databricks收购,其估值在本次交易中翻了六倍,成为了今年上半年最大的收购案。仅成立2年时间,拥有60多名员工,是什么撑起了MosaicML的高估值? Databricks收购MosaicML,加速生成式AI技术民主化 Databricks近期正式宣布,以约13亿美元(约93亿元人民币)收购生成式人工智能初创公司MosaicML,以提供为企业构建类ChatGPT工具的服务。 该收购之后,MosaicML 将成为 Databricks Lakehouse 平台的一部分,MosaicML 的整个团队和技术都将纳入Databricks旗下,为企业提供统一的平台来管理数据资产,并且能够使用自己的专有数据来构建、拥有和保护自己的生成式 AI 模型。 MosaicML是一家非常年轻的生成式AI公司,它于2021年成立于旧金山,目前只公开披露过一轮融资,员工仅62人。在上一轮的融资中,其估值为2.2亿美元,也就是说,此次收购MosaicML的估值直接跃升了6倍。此笔交易是截至目前今年生成式AI领域内所公布的最大一笔收购案。就在不久前,云计算巨头Snowflake刚刚宣布收购了另一家生成式AI公司Neeva。在经历了几个月的投资热之后,大型企业对生成式AI初创公司的大规模并购潮似乎正在开启。 Databricks起源于UC伯克利,曾参与Apache Spark项目开发。作为数据存储和分析巨头,截至2022年估值310亿美元,帮助AT&T、壳牌、Walgreens等大型公司处理数据。前段时间,刚开源了自己大模型Dolly,旨在以更少参数实现与ChatGPT类似的效果。而在云计算更加普及后,Spark提出的“湖仓一体”理念,深深影响了一批大数据初创企业。自2013年成立后,Databricks火速成长为全球最火的Data Infra公司。去年,Databricks公布的年收入超过10亿美元,而在2021年8月完成最新一轮融资后,其最新估值达到380亿美金。 MosaicML MPT系列模型的优势 MosaicML的MPT系列模型是从HuggingFace PretrainedModel基类中子类化的,与HuggingFace生态系统完全兼容。MPT-7B模型是MosaicML最受欢迎的模型之一,拥有数十亿个参数,可以处理超过2,000种自然语言处理任务。其中,MPT-7B的优化层包括FlashAttention和低精度层范数等,可以让该模型比传统训练方法快2-7倍,资源的近线性可伸缩性确保了具有数十亿参数的模型可以在几小时内训练,而不是过去的几天。MosaicML还发布了新的可商用的开源大语言模型MPT-30B,拥有300亿参数,并且性能优于GPT-3。 数据来源:MT-Bench对MosaicML主流模型进行的评估 MPT系列模型的优势在于它们的高效性和低成本。使用大量数据进行“训练”的人工智能模型的复杂度急剧上升,训练一个模型现在至少要花费数百万美元,除了大公司之外,其他中小型企业普遍都无法承受。而MosaicML的MPT系列模型可以让企业以更低的成本和更高的效率训练自己的语言模型,从而可以更轻松地应用生成式AI技术,实现更好的业务表现。大多数开源语言模型只能处理最多具有几千个tokens的序列(参见图 1)。但是,借助 MosaicML 平台和 8xA100-40GB 的单个节点,用户可以轻松微调 MPT-7B 以处理高达 65k 的上下文长度。处理这种极端上下文长度适应的能力来自ALiBi,这是MPT-7B中的关键架构选择之一。 例如,《了不起的盖茨比》的全文不到68k个Token。在一个测试中,模型StoryWriter阅读了《了不起的盖茨比》并生成了一个尾声。模型生成的尾声之一如图 2 所示。StoryWriter在大约20秒内(每分钟约15万字)读完了《了不起的盖茨比》。由于序列长度较长,其“打字”速度比其他MPT-7B型号慢,每分钟约105个单词。尽管 StoryWriter 的上下文长度为 65k 进行了微调,但 ALiBi 使模型能够推断出比训练更长的输入:在《了不起的盖茨比》的情况下为 68k 个Token,在测试中高达 84k 个标记。 图2:MPT-7B-StoryWriter-65k+ 为《了不起的盖茨比》写了尾声。尾声的结果是提供《了不起的盖茨比》的全文(大约 68k 个Token)作为模型的输入,后跟“尾声”一词,并允许模型继续生成。 生成式AI技术的普及 生成式AI技术是人工智能的一种分支,它利用大量的数据和深度学习算法,能够自动生成原始文本、图像和计算机代码等内容。这种技术的出现,让人们可以更加便捷地处理数据、分析数据,更好地服务于人类的需求。随着大数据和人工智能技术的快速发展,生成式AI技术已经被广泛应用于自然语言处理、图像识别和虚拟现实等领域。例如,在自然语言处理领域中,GPT-4已经成为了最受欢迎的生成式AI模型之一,可以用于生成文章、翻译语言和回答问题等任务。在图像识别领域,StyleGAN2能够生成高质量的图像,可以用于游戏开发、影视制作和虚拟现实等领域。 MosaicML的CEO Naveen Rao此前曾表示,自 2018 年以来,使用大量数据进行“训练”的人工智能模型的复杂度急剧上升,训练一个模型现在至少要花费数百万美元,除了大公司之外,其他中小型企业普遍都无法承受。而此次收购之后,Databricks的Lakehouse 平台和 MosaicML 技术的联合产品将能够让企业可以使用自己的专有数据来简单、快速、低成本进行生成式AI模型的训练和构建,在让用户拥有数据的控制权和所有权的情况下,可以进行自定义 AI 模型开发。根据Databricks的相关说法,在 Databricks 和 MosaicML的平台和技术支持下,企业训练和使用 LLMs 的成本将显著降低,预计可以降至数千美元左右。这为生成式AI的普及提供了便利。 Databricks收购MosaicML的意义 Databricks收购MosaicML的主要目的是加速生成式AI技术的发展和民主化。通过将两家公司的技术和资源整合起来,Databricks可以更好地满足客户的需求,提供更高效、更便捷的解决方案。具体而言,该收购将带来以下几个方面的改变: 1. 更高效的大语言模型 Databricks收购MosaicML后,可以将MPT系列模型集成到其Lakehouse平台中,为客户提供更高效、更低成本的大语言模型。这将有助于企业更好地处理自然语言处理任务,提高业务效率和准确性。 2.更快的模型训练速度 MosaicML的MPT系列模型具有快速训练的特点,这将有助于Databricks提供更快速的模型训练服务。这对于需要快速响应市场需求的企业来说尤为重要,可以帮助他们更好地满足客户的需求。 3. 更高的民主化程度 Databricks收购MosaicML也意味着生成式AI技术的民主化程度将会进一步提高。MosaicML的MPT系列模型可以让中小型企业更轻松地训练自己的语言模型,从而可以更好地应用生成式AI技术,实现更好的业务表现。这将有助于推动生成式AI技术的发展和应用,促进人工智能技术的普及和发展。 总结 生成式人工智能应用程序旨在根据用户的自然语言提示生成原始文本、图像和计算机代码。自去年11月人工智能初创公司OpenAI推出在线生成AI聊天机器人ChatGPT以来,人们对这项技术的兴趣激增。“每个组织都应该能够从人工智能革命中受益,并对其数据的使用方式有更多的控制。Databricks 和 MosaicML 有一个难以置信的机会来实现人工智能的民主化,并使 Lakehouse 成为构建生成式人工智能的最佳场所。”Databricks 联合创始人兼首席执行官 Ali Ghodsi表示。 Databricks收购MosaicML的意义不仅在于加速生成式AI技术的发展和民主化,更在于将两家公司的技术和资源整合起来,为客户提供更高效、更便捷的解决方案。随着人工智能技术的快速发展和应用,生成式AI技术将扮演着越来越重要的角色,Databricks收购MosaicML的举动也体现了各企业对于这个方向的重视和投资。像
Anthropic
和OpenAI这样的公司将现成的语言模型授权给企业,然后企业在其上构建生成AI应用程序。在对这些模型的强劲商业需求的推动下,为像MosaicML这样的初创公司创造了机会。从Snowflake和Databricks接连的收购步伐中我们可以看到,大型科技公司对于生成式AI技术正在从自主研发、战略投资逐步迈向兼并收购阶段。 参考来源: https://www.databricks.com/company/newsroom/press-releases/databricks-signs-definitive-agreement-acquire-mosaicml-leading-generative-ai-platform https://mattturck.com/mosaic/ https://twitter.com/lmsysorg/status/1672077353533730817/photo/1 https://www.mosaicml.com/blog/mpt-7b#appendix-eval https://www.mosaicml.com/blog/mpt-30b 来源:金色财经
lg
...
金色财经
2023-08-04
ChatGPT爆火这半年:热钱、巨头与监管
go
lg
...
AI的第二大初创公司,在其之后分别是,
Anthropic
(15亿美元),Cohere(4.45亿美元)、Adept(4.15亿美元)、Runway(1.955亿美元)、Character.ai(1.5亿美元)和Stability AI(约1亿美元)。 在中国,2023年上半年国内人工智能行业的公开投融资事件共有456起。而这项统计在2018年-2022年的5年间分别是731、526、353、631和648。 上半年国内人工智能行业公开投融资事件 另一个引发飞轮的事件则是ChatGPT放出API接口。当OpenAI在3月首次开放ChatGPT的API接口时,AI行业内外对此几乎形成共识:行业要变天了。随着更多应用接入大模型,AI之上正在长出更加繁茂的森林。 “做大模型和做应用本身就应该分开”,投资人的嗅觉总是敏锐的,在源码资本执行董事陈润泽看来,AI是一个与半导体分工一样的逻辑,AI大模型的繁荣之后,很快就会看到AI应用的一波繁荣。 今年年初,陈润泽与同事一起前往硅谷时发现,硅谷声名显赫的创业孵化器Y Combinator(OpenAI首席执行官Sam Altman曾在这家孵化器任总裁多年),有一半的项目都转型做生成式AI了。对于大模型的热情,丝毫不逊于如今大洋彼岸的中国。 不过,他也发现在美国无论是资本还是创业者,相比于大模型创业,更看好基于大模型所做的生态应用,毕竟在这个赛道,已经跑出了诸如OpenAI这样的公司,与此同时,美国有很强的ToB应用生态土壤,因此更多的美国公司正在尝试基于大模型的生态做企业应用。 陈润泽的观察正在得到证实,大模型服务平台OpenCSG联合创始人陈冉告诉虎嗅,如今,美国湾区90%以上的公司已经把大模型能力用到方方面面。至于中国,陈冉认为,在年底之前很多的客户也都会用起来。 今年3月左右,陈润泽和团队开始尝试在国内寻找基于大模型做应用的公司,但他发现这样的公司很少。大量资本进入了人工智能行业,但如果追溯这些资金的流向会发现,更多的钱仍集中在头部几家公司中。 “即便是现在,10个与生成式AI相关的项目,能投1个-2个也已经是很不容易了。”除了源码资本,虎嗅也与多位硬科技投资人交流,他们都表示,虽然项目看得多,但真正靠谱的凤毛麟角。 应用端的这种态度,在很多业内人士看来,已是常态。 思必驰联合创始人俞凯认为,表面看似热闹的赛道,其实更多的是名义上的竞争,结果无非两种情况:“一种是为了融钱,纯资本导向;另一种是做全域通用大模型的公司,确实需要喊,不喊的话别人不会知道。” 国内的一些统计数据也正在说明这个问题,根据第三方机构烯牛数据统计,截至2023年7月,国内有AIGC公司242家,1月以来AIGC赛道融资事件71起。而AI大模型赛道上的公司有67家,从ChatGPT发布到现在,融资事件只有21起。 AIGC赛道和AI大模型赛道自ChatGPT发布后的融资事件|数据来源:烯牛数据 “现在国内AI市场上,好的标的太少了。”一位投资人如此告诉虎嗅——好项目太贵,便宜的又不靠谱。虽然目前国内发布的AI大模型数量过百,但国内一众大模型公司中,获得巨额融资的并不多,甚至屈指可数。 很多AI投资到最后都变成了投人——曾经的独角兽公司创始人、互联网大佬、具备大模型相关创业经验的人等。 公司类型 公司 成立时间 大模型及相关产品 融资轮次 互联网公司 百度 2012 文心一言 上市 阿里云 2008 通义千问 上市 騰讯AI实验室 1998 混元 上市 华为云 2019 盘古 未上市 字节跳动 2016 火山方舟 未上市 京东云 2012 言犀 上市 昆仑万维 2008 天工 上市 360 1992 360智脑 上市 公司类型 公司 成立时间 大模型及相关产品 融资轮次 AI公司 商汤科技 2014 日日新 上市 科大讯飞 1999 讯飞星火 上市 云从科技 2015 从容 上市 达观数据 2015 曹植 C轮 出门问问 2014 序列猴子 D轮 智谱Al 2019 ChatGLM B轮 澜舟科技 2021 孟子 Pre-A轮 MiniMax 2021 Glow 股权投资 面壁科技 2022 VisCPM 天使轮 深言科技 2022 CPM 股权投资 聆心智能 2021 Al乌托邦 Pre-A轮 衔远科技 2021 ProductGPT 天使轮 思必驰 2007 DFM-2 IPO终止 公司类型 公司 成立时间 大模型及相关产品 融资轮次 2023年成立都初创AI公司 光年之外 2023 暂无 A轮 百川智能 2023 baichuan 股权投资 零一万物 2023 暂无 股权投资 国内AI大模型相关公司部分统计 今年的一众AI明星项目中,智谱AI、聆心智能、深言科技和面壁智能,都是清华实验室孵化的公司。深言科技、面壁智能两家公司均成立于2022年,且有AI行业内知名学者的技术背书。 比这几家清华系AI公司成立时间更短的是一些互联网行业大佬创立的AI公司,光年之外、百川智能和零一万物均成立于这波大模型热潮开始之后。 美团联合创始人王慧文在2023年年初成立的光年之外,一度融资5000万美元,已是彼时中国大模型行业为数不多的融资案例。与智谱AI、西湖心辰这类已有大模型为基础的公司不同,光年之外是2023年2月开始,从零开始做大模型,其难度可想而知,6月29日,美团公告宣布收购光年之外的全部权益,总代价包括现金约2.33亿美元(合人民币16.7亿元)、债务承担约3.67亿元、及现金1元。 “起码要有自然语言处理背景的人,有一定大模型训练实操经验的人,以及数据处理、大规模算力集群等方面的专业人才。如果同时还要做应用,那应该还要有对应领域的产品经理和运营人才。”陈润泽如此描述一个大模型核心团队的标配。 大公司的AI赌注 过去半年中,老牌互联网大厂们的AI新闻漫天纷飞。对AI大模型的投入,看似是在追热点,但如百度、阿里、华为这样的大公司,在AI上投下的赌注,显然不是跟风。 巨头们在AI上的押注很早就已开始,对这些公司来说,AI并不是一个新鲜的话题。虎嗅根据企查查数据不完全统计,各大厂在2018年开始就对人工智能相关的企业有不同程度的投资,从投资企业来看,大多是人工智能应用方面的企业,尽管涉及到一部分AI芯片企业,但是数量并不多,涉及大模型方面的企业几乎没有,并且大厂所投资的人工智能相关的公司大多与其业务息息相关。 大厂投资机构 投资企业数 平均持股比例 最高持股比例 100%持股企业数 阿里巴巴 23 36.25% 100% 5 百度风投 25 5.50% 15% 0 腾讯投资 54 17.54% 100% 2 三家互联网大厂投资AI相关公司情况|数据来源:企查查 2017年阿里达摩院成立,研究对象涵盖机器智能、智联网、金融科技等多个产业领域,将人工智能的能力赋能到阿里的各个业务线中。2018年,百度提出了“All in AI”的战略。 有所不同的是,生成式AI的出现,似乎是一个转折点。对于拥有数据、算力和算法资源优势的科技巨头来说,人工智能对他们已经不光是赋能场景,而是需要承担基础设施的角色,毕竟,生成式AI的出现,意味着针对人工智能产业的分工已经开始。 以百度、阿里、华为、腾讯,四家云供应商为代表的大厂,虽然都宣布了各自的AI策略,但明显各有侧重。 在过去的半年时间里,巨头纷纷发布自己的大模型产品。对于百度、阿里这样的大厂来说,他们入局大模型的时间并不算晚,基本在2019年。 百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。阿里的通义千问大模型也是始于2019年。除了百度和阿里的通用大模型,6月19日,腾讯云发布了行业大模型的研发进展。7月7日,华为云发布了盘古3.0行业大模型产品。 这些侧重也与各家的整体业务,云战略,以及在AI市场里的长期布局有所呼应。 百度的主线业务盈利能力在过去的5年中,出现了较大波动。百度很早就看到了基于搜索的广告业务在国内市场中的问题,对此,百度选择了大力投入AI技术寻找新机会。这些年来,百度不仅邀请过吴恩达、陆奇等业界大佬出任高管,在自动驾驶上投入热情也远超其他大厂。如此关注AI的百度,势必会在这波大模型之争里重手投注。 阿里对通用大模型同样表现出了极大的热情。一直以来,阿里云一直被寄予厚望,阿里希望走通技术路线创造集团的第二增长曲线。在电商业务竞争日趋激烈,市场增长放缓的大环境下,依云而生的AI产业新机遇,无疑是阿里云在国内云市场上再发力的好机会。 相比百度和阿里,腾讯云在大模型方面选择了优先行业大模型,而华为云则公开表示只会关注行业大模型。 对于腾讯来说,近年来主营业务增长稳中向好。在通用大模型的前路尚不明朗的阶段,腾讯对于AI大模型的投注相对谨慎。马化腾在此前的财报电话会上谈及大模型时曾表示:“腾讯并不急于把半成品拿出来展示,关键还是要把底层的算法、算力和数据扎扎实实做好,而且更关键的是场景落地。” 另一方面,从腾讯集团的角度看,腾讯目前有4所AI Lab,去年也发布了万亿参数的混元大模型,腾讯云投身行业大模型方面的动作,更像是一种“不把鸡蛋放在同一个篮子里”的投注策略。 对于华为来说,一直以来都是重手投注研发,过去10年里华为在研发方面的总投入超过9000亿元。但由于手机业务遇到发展障碍,华为在很多技术研发上的整体策略或也正在面临调整。 一方面手机业务是华为C端技术最大的出口,如果手机业务不为通用大模型买单的话,那么华为研发通用大模型的动力就会明显下降。而对于华为来说,把赌注押在能快速落地变现的行业大模型,似乎是这场AI博弈当中的最优解。正如华为云CEO张平安所说“华为没有时间作诗”。 不过,对科技巨头来说,无论赌注多大,只要能赌对,就能够先一步抢占基础设施的市场份额,从而在人工智能时代获得话语权。 拿着锤子找钉子 对于商业公司来说,所有的决策仍然落到经济账上。 即便是一笔不小的投入,越来越多有远见的公司创始人也意识到,这是一项未来必须要做的事情,即便前期投入可能完全看不到回报。 AI大模型的研发需要一笔不小的投入,但越来越多企业创始人、投资人都认为,这是一项”必要投入”,即便眼下完全看不到回报。 由此,很多在上一波AI浪潮下诞生的人工智能公司,都在沉寂良久之后看到了新的曙光。 “3年前,大家都说GPT-3是通向通用人工智能的可能性。”李志飞在2020年就开始带着一班人马研究GPT-3,彼时出门问问正处在一个发展的转折点,他们希望探索新业务,但经过一段时间的研究之后,李志飞的大模型项目中止了,原因之一是当时模型不够大,另外就是找不到商业落地场景。 不过,2022年底ChatGPT问世以后,李志飞仿佛被扎了一剂强心针,因为他和所有人一样,看到了大模型的新机会。今年4月,出门问问发布了自研的大模型产品——序列猴子。眼下,他们准备拿着新发布的大模型“序列猴子”冲刺港交所,出门问问已在5月末递交了招股书。 另一家老牌AI公司也在跟进,去年7月,思必驰向科创板递交了IPO申请,在今年5月被上市审核委员会否决。 俞凯坦言,就连OpenAI,在GPT2阶段也是用微软的V100训练了将近一年的时间,算力和A100差好几个量级。思必驰在大模型前期积累阶段,也是用更为经济的卡做训练。当然,这需要时间作为代价。 相比于自研大模型,一些应用型公司有自己的选择。 一家在线教育公司的总裁张望(化名)告诉虎嗅,过去半年,他们在大模型应用场景的探索上不遗余力,但他们很快发现在落地过程中存在诸多问题,例如成本与投入。这家公司的研发团队有50人-60人,开始做大模型研究以来,他们扩充了研发团队,新招了一些大模型方面的人才,张望说,偏底层模型方面的人才很贵。 张望从未想过从头开发大模型,考虑到数据安全和模型稳定性等问题,他也不打算直接接入API做应用。他们的做法是参考开源大模型,用自己的数据做训练。这也是很多应用公司目前的做法——在大模型之上,用自己的数据做一个行业小模型。张望他们从70亿参数的模型开始,做到100亿,现在在尝试300亿的模型。但他们也发现,随着数据量增多 ,大模型训练会出现的情况是,可能新版本不如上一个版本,就要对参数逐一调整,“这也是必须要走的弯路。”张望说。 张望告诉虎嗅,他们对于研发团队的要求就是——基于公司的业务探索AI大模型场景。 这是一种拿着“锤子”找“钉子”的方法,但并不容易。 “目前最大的难题是找到合适的场景。其实有很多场景,即便用了AI,效果也提升不了太多。”张望说,例如在上课的场景中,可以用AI大模型赋能一些交互模式,包括提醒学员上课功能、回答问题和打标签等,但他们试用了AI大模型之后,发现精准度不行,理解能力和输出能力并不理想。张望的团队尝试过一段时间后,决定在这个场景里暂时放弃AI。 另一家互联网服务商小鹅通,也在AI大模型爆发后第一时间开展了相关业务的探索。小鹅通的主要业务是为线上商家提供数字化运营工具,包括营销、客户管理以及商业变现。 小鹅通联合创始人兼COO樊晓星告诉虎嗅,今年4月,当越来越多的应用基于生成式AI诞生时,小鹅通看到了这个技术背后的潜力,“例如MidJourney,生成式AI对于设计图像生成方面的提效确实有目共睹。”樊晓星她们在内部专门组织了AI研究的业务线,寻找与自身业务相关的落地案例。 樊晓星说,在将大模型接入业务的过程中,她所考虑的就是成本和效率,“大模型的投入成本还是蛮高的。”她说。 互联网行业的“钉子”算是好找的,AI落地真正的难点还是在工业、制造这样的实体产业。 俞凯告诉虎嗅,这一波AI浪潮仍然是螺旋式上升、波浪式前进,在产业落地上面的矛盾一点都没变化,只是换了一个套壳而已。所以从这个意义上看,这两次AI浪潮的规律是相同的,最好的办法就是学习历史——“上一波AI浪潮的教训,这次就别再犯了。” 虽然很多厂商在AI大模型的落地方面都喊出了“产业先行”的口号,但很多实体产业的场景真的很难与目前的AI大模型相匹配。比如在一些工业检测场景应用的AI视觉检测系统,即便对AI模型的需求没有高到10亿参数的量级,但初期的训练数据仍然捉襟见肘。 以一个简单的风电巡检场景为例,一个风场的巡检量达到七万台次,但同样的裂痕数据,可能只会出现一次,机器可以学习的数据量是远远不够的。扩博智能风电硬件产品总监柯亮告诉虎嗅,目前风机叶片的巡检机器人还做不到100%的精确分析叶片裂痕,因为可供训练和分析的数据量太小了,要形成可靠的全自动巡检和识别,还需要大量的数据积累和人工分析。 不过,在工业数据积累较好的场景中,AI大模型已经可以做到辅助管理复杂的三维模型零件库了。国内某飞机制造企业的零件库就已经落地了一款基于第四范式“式说”大模型的零件库辅助工具。可以在十万余个三维建模零件中,通过自然语言实现三维模型搜索,以三维模型搜三维模型,甚至还能完成三维模型的自动装配。这些功能,在很多卡住制造业脖子的CAD、CAE工具中都需要经过多步操作才能完成。 今天的大模型和几年前的AI一样面临落地难题,一样要拿着锤子找钉子。有人乐观地相信,今天的锤子和过去完全不一样了,但到了真金白银地为AI付费时,结果却有些不同。 彭博社在7月30日发布的Markets Live Pulse调查显示,在514名受调投资者中,约77%的人计划在未来六个月内增加或保持对科技股的投资,且只有不到10%的投资者认为科技行业面临严重的泡沫危机。然而这些看好科技行业发展的投资者中,却只有一半人对AI技术持开放的接受态度。 50.2%的受访者表示,目前还不打算为购买AI工具付费,多数投资公司也没有计划将AI大范围应用到交易或投资中。 卖铲子的人 “如果你在1848年的淘金热潮里去加州淘金,一大堆人会死掉,但卖勺子和铲子的人,永远可以赚钱。”陆奇在一次演讲时说。 高峰(化名)想当这样的“卖铲子的人”,准确地说,是能够“在中国卖好铲子的人”。 作为一名芯片研究者,高峰大部分科研时间都在AI芯片上。过去一两个月,他感到了一种急迫性——他想做一家基于RISC-V架构的CPU公司。在一家茶室,高峰向虎嗅描绘了未来的图景。 然而,要从头开始做AI芯片,无论是在芯片界,还是在科技圈,都像是一个“天方夜谭”。 当AI大模型的飞轮飞速启动时,背后的算力逐渐开始跟不上这一赛道中玩家的步伐了。暴涨的算力需求,使英伟达成了最大的赢家。但GPU并非解决算力的全部。CPU、GPU,以及各种创新的AI芯片,组成了大模型的主要算力提供中心。 “你可以把CPU比喻为市区,GPU就是开发的郊区。”高峰说,CPU和AI芯片之间,需要通过一个叫做PCIE的通道连接,数据传给AI芯片,然后AI芯片再把数据回传给CPU。如果大模型的数据量变大,一条通道就会变得拥挤,速度就上不去,因此需要拓宽这条路,而只有CPU能够决定这条通路的宽窄,需要设置几车道。 这意味着,中国在大模型上,即便突破了AI芯片,仍有最关键的CPU难以破局。哪怕是在AI训练上,越来越多的任务可以被指派给GPU承担,但CPU依旧是最关键的“管理者”角色。 2023WAIC大模型展区展出的部分国产芯片 自1971年英特尔造出世界上第一块CPU至今50余年,在民用服务器、PC市场,早已是英特尔和AMD的天下,英特尔更是建立起涵盖知识产权、技术积累、规模成本、软件生态于一体的整个商业模式壁垒,且这种壁垒从未衰退。 要完全抛开X86架构和ARM架构,基于一个全新架构研发完全自主的CPU芯片,可以说是“九十九死一生”,基于MIPS指令集的龙芯,在这条路上走了20多年,更不用说是 RISC-V这样未被充分开垦和验证过的开源架构。 指令集,就像一块块土地,基于指令集开发芯片,就相当于是买地盖房子。X86的架构是闭源的,只允许Intel生态的芯片,ARM的架构需要支付IP授权费,而RISC-V是免费的开源架构。 产业界和学术界已经看到了这样的机会。 2010年,加州伯克利两位教授的研究团队从零开始开发了一个全新的指令集,就是RISC-V,这个指令集完全开源,他们认为CPU的指令集不应该属于任何一家公司。 “RISC-V或许是中国CPU的一道曙光。”高峰说。2018年,他在院所孵化了一家AI芯片公司,彼时他表示,自己不想错过 AI浪潮发展的机会,这一次,他依然想抓住,而这个切入点,就是RISC-V。在大模型以及如今国产替代的时代,这个需求显得更为紧迫,毕竟,极端地考虑一下,如果有一天,中国公司用不了A100了,又该怎么办。 “如果要取代ARM和X86,RISC-V的CPU需要性能更强,也需要和Linux上做商业操作系统的人参与到代码的开发中。”高峰说。 高峰不是第一个意识到这个机会的人,一位芯片行业投资人告诉虎嗅,他曾与一家芯片创业公司创始人聊起,用RISC-V的架构去做GPU的机会。如今,在中国已有一些基于RISC-V架构做GPU的公司,但生态依旧是他们面临的最大的问题。 “Linux已经示范了这条路是可以走通的。”高峰说,在Linux这套开源操作系统中,诞生了红帽这样的开源公司,如今许多云服务都建立在Linux系统上。“需要足够多的开发者。”高峰提出了一个方法。这条路很难,但走通了,将是一条光明的道路。 飞轮转得太快了 大模型的“应激反应”下,感到急迫的不光是高峰。 国内某AI大模型公司联创告诉虎嗅,今年初他们也曾短暂上线过一款对话大模型,但随着ChatGPT的升温,有关部门提高了对大模型安全性的重视,并对他们提出了很多整改要求。 “在没有特别明确的监管政策出来之前,我们不会轻易把产品开放给普通用户,主要还是To B的逻辑。”左手医生CEO张超认为,在《管理办法》出台之前,贸然将生成式AI产品开放给C端用户,风险很大。“现阶段,我们一方面在持续迭代优化,另外一方面也在持续关注政策、法规,保证技术的安全性。” “生成式AI的监管办法还不明确,大模型公司的产品和服务普遍很低调。”一家数字化技术供应商,在6月发布了一款基于某云厂商通用大模型开发的应用产品,在发布会上,该公司技术负责人向虎嗅表示,他们被这家云厂商要求严格保密,如果透露使用了谁的大模型,他们会被视为违约。而对于为何要对案例保密,这位负责人分析,可能很大一部分原因是要规避监管风险。 在全球都对AI提高警惕的当下,任何市场都不能接受监管的“真空期”。 7月13日,网信办等七个部门正式发布了《生成式人工智能服务管理暂行办法》(下文简称“《管理办法》”),该办法自2023年8月15日起施行。 “《管理办法》出台后,政策会从问题导向转为目标导向发展就是我们的目标。”观韬中茂律师事务所合伙人王渝伟认为,新规是重“疏”而不重“堵”。 浏览美国的风险管理库,是王渝伟每天必需的功课,“我们正在为利用GPT等大模型进行细分行业的商业应用提供风控合规的方案,建立一套合规治理框架。”王渝伟说。 美国的AI巨头们正排着队向国会表忠心。7月21日,谷歌、OpenAI、微软、Meta、亚马逊、AI创业公司Inflection、
Anthropic
,七家最具影响力的美国AI公司,就在白宫签署了一份自愿承诺。保证在向公众发布AI系统前允许独立安全专家测试他们的系统。并与政府和学术界分享有关他们系统安全的数据。他们还将开发系统,当图像、视频或文本是由AI生成时向公众发出警告,采用的方法是“加水印”。 7家美国AI巨头排代表在白宫签署AI承诺 此前,美国国会听证会上,OpenAI的创始人山姆·奥特曼表示,需要为人工智能模型创建一套安全标准,包括评估其危险能力。例如,模型必须通过某些安全测试,例如它们是否可以“自我复制”和“渗透到野外”。 或许山姆·奥特曼自身也没有想到,AI的飞轮会转得这么快,甚至有失控的风险。 “我们一开始还没有意识到这件事情这么紧迫。”王渝伟说,直到上门来咨询的公司创始人越来越多。他感到,这一次的人工智能浪潮正在发生与过去截然不同的变化。 今年年初,一家最早接入大模型的文生图公司找到王渝伟,这家公司希望把自己的业务引入中国,因此,他们想了解这方面的数据合规业务。紧接着,王渝伟发现,这类的咨询越来越多,更明显的变化是,前来咨询的不再是公司的法务,而是创始人。“生成式AI的出现,原有的监管逻辑已经很难适用。”王渝伟说。 从事大数据法律工作多年的王渝伟发现,生成式AI与上一波AI浪潮正在呈现更加底层的变化。例如,上一次的AI更多是基于算法进行推荐,还有就是一些人脸识别,都是针对一个场景,针对一些小模型,在具体应用场景当中进行训练,涉及的法律问题不外乎知识产权、隐私保护的问题。而在这个生成式AI生态之上的不同角色,例如提供底层大模型的公司,在大模型之上接入做应用的公司,存储数据的云厂商等,对应的监管都不尽相同。 目前大模型所带来的伴生风险已经有了共识,业界明白,商业化应用势必会放大这种风险,要想保持业务的连续性,就需要重视监管。 难点就是,“如何找到一条既能做好监管,又能不影响行业发展的路径。”王渝伟说。 结语 对于整个行业来说,在对技术加深探讨的同时,也正在引发更为深远的思考。 在AI逐渐占据科技产业的主导地位之时,要如何确保技术的公正、公平和透明性?当头部公司紧紧掌控技术和资金流向时,如何确保中小企业和初创公司不被边缘化?大模型的开发和应用蕴含巨大潜力,但盲目跟风是否会导致我们忽视其他创新技术? “从短期来看AI大模型正在被严重高估。但从长期看,AI大模型被严重低估了。” 半年时间里,AI热浪翻涌。然而对于中国的创业公司和科技巨头来说,在热炒的市场氛围中,如何保持清醒的判断,做出长远的规划和投资,将是检验其真正实力和远见的关键。 来源:金色财经
lg
...
金色财经
2023-08-04
Amazon2023年Q2业绩电话会高管解读财报
go
lg
...
个领先的大型语言模型公司的模型,例如
Anthropic
、Stability AI、AI21 Labs、Cohere 和 Amazon 自己开发的大型语言模型称为泰坦。Bridgewater Associates、Coda、Lonely Planet、Omnicom、3M、Ryanair、Showpad 和 Travelers 等客户正在使用 Amazon Bedrock 创建生成式 AI 应用程序。我们最近刚刚宣布了 Bedrock 的新功能,包括 Cohere 的新模型、
Anthropic
的 Claude 2 和 Stability AI 的 Stable Diffusion XL 1。 如果你考虑一下我谈到的前两层,我们正在做的就是使生成式人工智能的访问民主化,降低训练和运行模型的成本,允许访问大型语言模型而不是只有一种选择,使各种规模和技术头脑的公司能够更轻松地定制自己的大型语言模型,并以安全和企业级的方式构建生成式 AI 应用程序,这些都是让每个人都可以使用生成式 AI 的一部分,而且 AWS 拥有这些功能过去 17 年来一直致力于技术基础设施建设。 然后,顶层是很多宣传和注意力集中的地方,这些是在这些大型语言模型之上运行的实际应用程序。正如我提到的,ChatGPT 就是一个例子。我们相信早期引人注目的生成人工智能应用程序之一是编码伴侣。这就是我们构建 Amazon CodeWhisperer 的原因,它是一个人工智能驱动的编码伴侣,它可以直接在代码编辑器中推荐代码片段,从而提高开发人员编码时的工作效率。这是一个非常强劲的开端,并改变了开发人员生产力方面的游戏规则。 在亚马逊内部,我们的每个团队都致力于构建生成式人工智能应用程序,以重塑和增强客户体验。不过,虽然我们将自己构建许多此类应用程序,但大多数应用程序将由其他公司构建,而且我们乐观地认为,其中最大数量将构建在 AWS 上。请记住,人工智能的核心是数据。人们希望将生成式人工智能模型引入数据,而不是相反。 AWS 不仅为客户提供最广泛的存储、数据库、分析和数据管理服务,而且还拥有比其他任何公司都多的客户和数据存储。再加上在生成式 AI 堆栈的这 3 层为客户提供无与伦比的选择,以及企业放心将生成式 AI 应用程序投入生产所需的 Bedrock 企业级安全性,我们认为 AWS 有望成为客户的长期选择生成人工智能领域的首选合作伙伴。 我们还在构建新的客户体验方面继续取得有意义的进展,这些体验可以有意义地改变客户在我们业务中的长期发展。Amazon Business 是我们增长最快的产品之一,年销售总额达 350 亿美元。该团队正在努力进一步构建企业客户所需的选择、价值、便利性和功能。通过 Prime 购买继续取得很大进展。在早期试验中,使用 Buy with Prime 的商家发现他们的购物者转化率平均提高了 25%,这对他们的业务产生了真正的影响。此外,参与 Prime Day 活动的商家在销售活动期间的每日“Prime 购买”订单数量与我们宣布 Prime Day 之前的一个月相比总体增加了 10 倍。 坦率地说,我们决定在医疗保健市场领域进行大量投资只是在很短的时间内。我们之前尝试的很多都是较小的实验。但我们很高兴看到 Amazon Pharmacy 的活跃客户在过去一年翻了一番,而且我们很高兴看到 RxPass 的反响,RxPass 使 Prime 会员每月仅需 5 美元即可获得所有符合条件的仿制药,并且免费送货到他们家门口。One Medical 加入亚马逊仅几个月,我们也对在那里看到的情况感到鼓舞。 我们的杂货业务持续增长。我们在消费品、宠物食品、美容品和罐头食品等非温控领域已经拥有非常庞大的业务,随着我们不断提高速度和降低服务成本,这些业务不断增长,这使我们能够更有效地销售更多商品。全食超市继续引领有机杂货领域,正在健康增长,并在去年显着提高了盈利能力。我们对全食超市的情况感到满意。正如我之前所分享的,我们正在为我们的大众实体店产品亚马逊生鲜开发新的格式,显着增加了关键业务投入的数量,并刚刚在商店中推出了新概念。 我们还看到 Kuiper、Zoox 和 Alexa 等其他领域的重大创新和进步。我们对许多技术发明的投资仍处于相对早期阶段,这些技术发明正在改变这些领域为客户提供的服务,但它们是我们仍然乐观的长期机遇。 最后,我想对我们的团队在 LinkedIn 的美国职业发展最佳公司中排名第一表示认可。这证明了我们致力于成为一家拥有领先薪酬福利和提升技能机会的优秀雇主。有了这个,我会把它交给布莱恩。 布赖恩·奥尔萨夫斯基 正如 Andy 提到的,我们的全球收入达到 1,344 亿美元,同比增长 11%,高于我们指导范围的上限。我们对报告的收入强劲感到鼓舞,这再次证明我们对价格、选择和便利性的关注继续引起客户的共鸣。我们继续看到日常必需品以及美容、健康和个人护理等类别的健康需求,并且看到客户对我们网站和移动应用程序的个性化改进和增强做出了积极的反应。 在本季度,我们还看到北美和国际部门的宏观经济指标有所改善,但仍然看到客户降价并寻求购买价值。交付速度一直是过去几个季度的重点关注领域,我们在第二季度达到了创纪录的水平。Prime 会员喜欢更快的船速并且更频繁地购物。广告收入依然强劲,同比增长 22%。我们基于效果的广告产品仍然是我们增长的最大贡献者。 我们的团队致力于利用机器学习来提高向客户展示的广告的相关性,并提高我们衡量品牌广告支出回报的能力。本季度第三方单位组合增加至 60%,这是我们所见过的最高水平,而且我们继续看到卖家数量和每个卖家销售的单位的良好增长。我们在提高全球商店盈利能力方面正在稳步取得进展。 自北美分部营业利润率于 2022 年第一季度触底以来,我们已连续 5 个季度实现改善,第二季度营业利润率为 3.9%。这比过去 5 个季度提高了 620 个基点。商店业务营业收入改善的最大推动力之一是降低我们的服务成本,运输成本和履行成本的增长速度持续低于我们的单位增长速度。 最近,区域化是一个重要的贡献者。更好的网络连接和更好的库存布局带来更快的交付速度,意味着更少的行驶里程和更少的接触,从而降低成本。虽然我们对所取得的进展感到满意,但我们看到了未来推动提高成本效率的更多机会。 转向国际市场。自去年第三季度我们的营业利润率亏损触底以来,我们已经连续三个季度有所改善,第二季度利润率亏损为负3%。这比过去 3 个季度提高了 590 个基点。这个部分还包括我们的新兴国家。重要的是要记住我们在其中一些市场上的发展有多早。在过去 6 年里,我们已在 10 多个国家/地区推出了产品,并且始终在评估我们的客户体验以及我们的盈利之路,我们喜欢我们所走的道路。提醒一下,我们花了 9 年时间才在美国实现盈利。此外,在我们的北美和国际业绩中,通胀阻力也继续缓解,尤其是在燃油价格、长途运输费率、海运和铁路费率方面。 迁移到 AWS。收入同比增长 12%,第二季度增长率趋于稳定。我们对客户渠道的实力感到鼓舞,并相信拥有一个大部分经过成本优化的庞大多元化客户群将为我们未来的增长奠定良好的基础。过去 12 个月的基础上,自由现金流为正,并且在连续第四季度有所改善。我们的财务重点仍然是推动长期可持续的自由现金流。最近自由现金流改善的最大驱动力是我们营业收入的增加,尤其是在北美和国际市场,正如我所说,我们在履行网络生产力和营业杠杆方面取得了有意义的进步,并受益于业务的放缓通胀压力。 我们还看到营运资本对自由现金流的贡献有所改善。在过去的几年里,面对供应链中断,我们的营运资金效率一直不及我们维持较高周数的库存。最近,随着这些干扰的持续缓解,我们正在提高库存效率,从而改善我们的营运资金。我们将继续关注未来自由现金流的持续改善。 接下来,让我们转向我们的资本投资。我们将资本投资定义为资本支出加上设备融资租赁的组合。截至 6 月 30 日的过去 12 个月期间,这些投资为 540 亿美元,低于去年同期的 610 亿美元。展望 2023 年全年,我们预计资本投资将略高于 500 亿美元,而 2022 年为 590 亿美元。我们预计履行和运输资本支出将同比下降,部分被支持增长的基础设施资本支出增加所抵消我们的 AWS 业务,包括与生成人工智能和大型语言模型工作相关的额外投资。 接下来,让我们继续回答您的问题。
lg
...
老虎证券
2023-08-04
上一页
1
•••
35
36
37
38
39
•••
45
下一页
24小时热点
中国突传重磅消息!路透:中国下令限制央属金融机构员工薪酬 最高不超这个数
lg
...
公开“打脸”特朗普第一个重大投资项目!美媒:马斯克此举恐激怒特朗普
lg
...
令人意外!中国又出新招,A股港股拔地而起
lg
...
特朗普罕见威胁普京!强劲避险需求刺激金价飙升至三个月高位 如何交易黄金?
lg
...
重磅!彭博:日本央行料进行18年来最大幅度的加息
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
56讨论
#VIP会员尊享#
lg
...
1694讨论
#比特币最新消息#
lg
...
828讨论
#CES 2025国际消费电子展#
lg
...
19讨论