全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
别再当成玩笑话!全球最大对冲基金、谷歌与德媒巨头:启动人工智能AI裁员潮
go
lg
...
phabet的谷歌正在努力应对微软支持
OpenAi
的ChatGPT,后者已成为后者在搜索领域的主导地位的竞争对手。谷歌测试了一款名为Apprentice Bard的聊天机器人,并在其名为Atlas云部门下开展了一个项目,以响应ChatGPT。#ChatGPT火爆全网# 就这样一个简单清晰的公司战略行动,让全世界都在思考:究竟AI会否威胁更多裁员? 根据Net Voucher Codes报告,加州有超过320000个工作岗位面临被自动化的“高风险”。此外,该州有120万个工作岗位处于被机器取代的“中等风险”。加州可能因自动化而流失的工作岗位总数达到惊人的200万个。 报告显示,收银员、客服代表和簿记员是最有可能被AI取代的前三名工作。其他高风险工作包括IT支持技术人员、计费员、人力资源助理、律师助理、合规官、理赔评估员和行政助理。 该研究分析来自USAWage.com的数据,其中包括基于该网站“前200名热门工作”类别的每个州的199个工作信息。研究人员要求ChatGPT评估人工智能对每项工作的相对风险、人工智能提高工作效率的可能性,以及自动化的潜力。 报告指出,德克萨斯州、纽约州和佛罗里达州等其他州的工人也面临被人工智能取代的高风险。该报告估计,全美有1950万个工作岗位面临被AI取代的高风险。相比之下,预计有1570万个就业部门将使用AI来提高生产力。 大家最关心的还是:这对工人们意味着什么? 该报告的调查结果应该为加州人敲响警钟,尤其是那些工作极有可能被机器取代的人。由于有如此多的工作岗位受到威胁,工人必须考虑提高技能或重新学习技能,以保持在就业市场上的竞争力。 此外,政策制定者和商业领袖必须优先投资教育和培训计划,为未来的劳动力做好准备。这包括开发新课程,重点关注人工智能时代所需的技能,例如数据分析、编程和批判性思维。 政策制定者考虑实施能够减轻自动化对劳动力的负面影响的政策也很重要。这包括为因AI而流离失所的工人提供收入支持、再培训机会和社会安全网的计划。 AI的兴起对加州和美国各个部门的就业构成了重大威胁,虽然影响的全部程度尚不确定,但很明显,工人必须采取措施为未来的工作做好准备。政策制定者和企业领导者还必须采取行动,确保员工队伍具备在自动化时代蓬勃发展所需的技能和资源。 实际上不单单是美国,在全球各大城市都面临着AI的威胁,它已经快要达到无处不在的地步。
lg
...
秉哥说市
2023-03-03
AI也分级?苹果限制邮件APP使用ChatGBT:或含有成人内容,建议17岁以上用户使用
go
lg
...
ail的更新应用BlueMail使用了
OpenAI
的GPT-3语言模型的定制版本,可借助以往的电子邮件和日历事件内容帮助用户自动撰写电子邮件。 苹果的应用程序审查小组上周在给Blix的邮件中指出,BlueMail包含AI生成的内容,但目前似乎并没有进行过内容过滤,可能会产生不适合于所有受众的内容如语言攻击和性内容等,建议BlueMail将用户限制在17岁及以上,或者添加内容过滤功能。 Volach在推特上发文称,苹果不公平地针对了BlueMail,该应用程序有内容过滤功能。在应用程序上设置更高的年龄限制可能会限制向潜在新用户的推广。 “我们想要公平。如果我们被要求用户年龄年满17岁,那么其他人也应该这么做,”他在推特上写道,并补充说,苹果应用商店中列出的许多其他宣传ChatGBT功能的应用程序没有年龄限制。 苹果表示正在调查这一投诉,并表示开发者可以选择通过应用程序审查委员会(App Review Board)的程序对拒绝提出质疑。
OpenAI
公司的ChatGPT可以根据用户提示生成内容,吸引了科技行业的注意。微软和Alphabet公司的谷歌都在2月初宣布了他们自己的人工智能聊天机器人。 虽然人工智能聊天机器人是一个新兴领域,但早期的搜索结果和对话因其不可预测性而成为头条新闻,目前相关的规定仍在制定之中。 微软近日在苹果应用商店和Google Play商店发布了带有ChatGPT功能的必应更新版本,在欧阳哥商店有17岁及以上的年龄分级,在谷歌商店则无相关限制。微软发言人称,苹果应用商店中的必应此前已有17岁以上的分级限制,因用户可在其中找到成人内容。 #ChatGPT火爆全网#
lg
...
迪星妮
2023-03-03
马斯克:AI让我压力山大
go
lg
...
一个人工智能技术专家团队,以开发一个与
OpenAI
基于文本的ChatGPT竞争的产品。 马斯克去年12月曾在推特上说,
OpenAI
开发的ChatGPT“好得吓人,我们离强大到危险的人工智能不远了。”周三,他向在场的特斯拉分析师们强调了这些担忧。 “我有点担心人工智能的事情,”马斯克在台上说,他身边站着16名特斯拉高管,包括Autopilot负责人。 马斯克说:“我们需要某种监管机构或监督人工智能发展的机构。确保它的运作符合公众利益。这是相当危险的技术。我担心我可能做了一些加速它的事情。” 马斯克表示,特斯拉让汽车安全驾驶的努力显然是“有用的”人工智能。 “我不知道。特斯拉在人工智能方面做得很好,”他说。马斯克停顿了一下,然后叹了口气。“这个问题让我压力很大。我不知道该说什么。”
lg
...
金融界
2023-03-02
主力资金|资金午后砍仓基建追高ChatGPT,汤姆猫尾盘20cm涨停,获主力净买入4.95亿元
go
lg
...
停,主力净买入4.95亿元。消息面上,
OpenAI
宣布正式推出面向商业用户的ChatGPT和Whisper语音转文字API,进一步展示ChatGPT商业落地的能力,而汤姆猫则回应称已经开始在测新的接口。 资金流向上,3个行业获主力资金净流入,其中建筑装饰行业获主力净流入5.56亿元居首;传媒行业净流入2.73亿元,建筑材料净流入0.08亿元。主力资金净流出的28个行业中,电力设备净流出73.49亿元,有色金属行业净流出41.75亿元,医药生物行业净流出31.71亿元。 从个股来看,两市A股中主力资金净流入超1亿的有33家公司,净流出超1亿的有84家公司。 其中主力净买入最多的公司是汤姆猫,净买入4.95亿元。汤姆猫是近期ChatGPT热门股,消息面上,
OpenAI
宣布正式推出面向商业用户的ChatGPT和Whisper语音转文字API,消息利好有人工智能落地场景的公司,汤姆猫回应称已经开始在测新的接口。 此外,净流入较多的股票还有中国卫通、人民网、拓尔思等,均净流入超3亿元,大多来自于ChatGPT概念,通讯运营行业等板块。 北方稀土净流出7.55亿元,消息面上,特斯拉负责动力总成工程的副总裁Colin Campbell介绍,特斯拉的下一代平台将减少75%的碳化硅。特斯拉的下一代永磁电机将完全不使用稀土材料,它们将在紧凑高效的工厂里进行建造。将为下一代汽车设计所有控制器,以降低电子设备的复杂性和成本。该说法的真实性遭到市场不少质疑。 其后,净卖出居前的个股为浪潮信息、中国联通、比亚迪等股,均净流出超4亿元,大多为近期涨势较好的公司。
lg
...
金融界
2023-03-02
不论谁赢了ChatGPT大战 英伟达都是最后的赢家
go
lg
...
的市值涨幅最高达 60%。 这多亏了
OpenAI
,其发布的 ChatGPT 和 DALL-E 2 这样的大型语言模型(Large Language Model)将生成式 AI 引入了公众的视线——几乎所有软件将被 AI 重塑,黄仁勋更是将其比作「AI 的 iPhone 时刻」。 就此,时代的风口由元宇宙和 web3 突然切换到生成式 AI,FAAMG 等硅谷巨头们匆忙备战随时「开打」。而英伟达,稳稳地成为这场时代之战的「最大军火商」。 作为当下「AI 超级周期的跳动心脏」,英伟达的 GPU(图形处理芯片)是训练和操作机器学习模型的最佳选择,因而被视为「2023 年云资本支出重心转向人工智能的最大受益者」。 其实,这不是英伟达第一次乘上时代的风车——加速计算、深度学习、挖矿、元宇宙,英伟达屡次踩中时代的风口。在它成立的短短 30 年里,芯片江湖已然换了人间,当年与 90 家显卡商厮杀落败的初创公司,早已成为市值最高的芯片霸主。 英伟达屡次「躺赢」,离不开其掌舵者黄仁勋的战略眼光——总是能精准预判下一个技术变革,提前下手。在近日的财报电话会上,黄仁勋透露了:这一次,他提前看到的未来及其相应的战略布局。面对大语言模型加持的生成式 AI,「核弹厂」的野心远非提供「军火」。 ChatGPT 大战背后的「战争之王」 去年 11 月底以来,
OpenAI
让人们见识到了「通用智能」的厉害,依托大语言模型的 ChatGPT 所展现的思维链条(Chain of Thought)和自发涌现的各种能力(Emergence)令人惊艳——尽管 ChatGPT 本身没有知识和智慧,但是它做到了「让你以为它有知识甚至智慧」的程度。 不久前,在加州大学伯克利分校哈斯商学院的炉边谈话上,黄仁勋兴奋地评价 ChatGPT 将开启科技行业的新纪元,也是人工智能和计算行业有史以来最美妙的事情。 他说:「上一次看到一项如此多才多艺、可以解决问题并经常以多种方式带给人们惊喜的科技是什么时候?它可以写一首诗,可以填写电子表格,可以编写 SQL 查询并执行,可以写 Python 代码……对于很多一直致力于此的人来说,我们一直在等待这一刻,这是人工智能的 iPhone 时刻。我现在可以将它用作 API 并连接到电子表格、PPT、各个应用程序,它有让一切变得更好的潜力」。 这是「AI 将重塑所有软件」的际遇,而要让生成式 AI 能够像 ChatGPT 这样展现五花八门的通识才能,必须依托像 GPT3.5 这样的底层大语言模型。人们将其比作移动互联网时代里安卓或 iOS。因此,大语言模型也就成为大厂和创业公司的必争之地。 无论是「造」出这样一个大模型,还是运行这样一个大模型,都需要极大的算力,需要成千上万个 GPU。据报道,
OpenAI
用了 10000 个英伟达的 GPU 来训练 ChatGPT。花旗集团估计,ChatGPT 的使用可能会在 12 个月内为英伟达带来 30 亿至 110 亿美元的销售额。 此前,《中国电子报》采访业内人士表示,「大模型技术涉及 AI 开发、推理、训练的方方面面,所谓模型的『大』主要是参数量大、计算量大,需要更大体量的数据和更高的算力支撑。对于 GPU 厂商来说,大模型是值得期待的算力红利,尤其是通用性极强的英伟达」。 全球来看,大算力芯片领域主要有两个玩家,英伟达和 AMD,从市占率来说,英伟达远超 AMD。根据 John Peddie Research 的数据,英伟达占据了 GPU 市场约 86% 的份额。 这也就不难理解,在炙手可热的生成式 AI 浪潮下,英伟达被视为最大的潜在赢家。从财报上看,这波生成式 AI 对于英伟达的需求主要反映在数据中心业务。事实上,2023 整个财年的四个季度,数据中心已经替代了英伟达起家的支柱业务——游戏,成为第一大业务。 2022 财年第 4 季度——2023 财年第 4 季度,英伟达各个板块的营收 | 截图来源:Nvidia 2023 财年,数据中心总收入增长了 41%,达到创纪录的 150.1 亿美元。仅就第四季度而言,数据中心收入为 36.2 亿美元,贡献了英伟达全公司收入的 60% 左右。 数据中心增长的基本盘来自于新一代旗舰产品 H100 的出货量持续走高、云的渗透率持续增长、以及超大规模客户扩大了 AI 布局。 就 H100 而言,其收入在第二季度就已经远远高于 A100,后者的营收份额连续下降。据悉,H100 在训练方面比 A100 快 9 倍,在基于 Transformer 的大型语言模型推理方面比 A100 快 30 倍。 同时,英伟达正在为越来越多的、快速增长的云服务商(Cloud Service Providers,简称 CSP)提供服务,包括甲骨文和一些专注于 GPU 的云服务提供商(GPU specialized CSPs)。在过去的 4 个季度中,CSP 客户贡献了数据中心收入的 40% 左右。 下一步:AI 即服务 财报电话会上,老黄透露了英伟达的新动向——AI 企业级服务上云。尽管更多信息会在十几天后的 GTC 大会上才宣布,但英伟达正与领先的云服务商合作提供 AI 即服务(AI-as-a-service),让企业可以访问英伟达的 AI 平台。据官方消息,客户将能够把 NVIDIA AI 的每一层(包括 AI 超级计算机、加速库软件或预训练的生成式 AI 模型等)作为云服务来使用。 老黄阐述道,「技术突破的积累使 AI 到了一个拐点。生成式 AI 的多功能性和能力引发了世界各地企业开发和部署 AI 战略的紧迫感。然而,AI 超级计算机基础设施、模型算法、数据处理和训练技术仍然是大多数人无法克服的障碍。」 基于这样的行业痛点,英伟达商业模式的下一个层次是:帮助每个企业客户都能使用 AI。 客户使用自己的浏览器,就可以通过 NVIDIA DGX Cloud 来使用 NVIDIA DGX AI 超级计算机,该服务已经在 Oracle Cloud Infrastructure 上可用,预计不久后也将在 Microsoft Azure、Google Cloud 和其他平台上线。在 AI 平台软件层,客户将能够访问 NVIDIA AI Enterprise,以训练和部署大型语言模型或其他 AI 工作负载。而在 AI 模型即服务层,英伟达将向希望为其业务建立专有生成式 AI 模型和服务的企业客户提供 NeMo 和 BioNeMo 可定制 AI 模型。 就其市场前景,黄仁勋认为,ChatGPT 让人们意识到计算机编程的民主化,几乎任何人都可以用人类语言向机器解释要执行的特定任务。因此,全世界 AI 基础设施的数量将会增长,「你会看到这些 AI 工厂无处不在」。人工智能的生产将会像制造业一样,在未来,几乎每个公司都会以智能的形式生产软件产品。数据进来了,只做一件事,利用这些数据产生一个新的更新模型。 他进一步解释了 AI 工厂,「当原材料进入时,建筑或基础设施就会启动,然后一些改进的东西就会出现,这是非常有价值的,这就是所谓的工厂。所以我希望在世界各地看到 AI 的工厂。其中一些将托管在云中。其中一些将是本地的。会有一些很大,有些会非常大,然后会有一些更小。所以我完全期待这会发生。」 事实上,老黄关于 AI 工厂愿景正在发生,上个月,他在公开演讲中声称,自从 ChatGPT 出现以来,可能已经有大约 500 家新创业公司开发出令人愉快的、有用的 AI 应用程序。 基于这一前景,英伟达对数据中心的未来充满信心。CFO Cress 表示,通过新的产品周期、生成式 AI 以及人工智能在各个行业的持续采用,数据中心部门将持续实现增长。她说:「除了与每个主要的超大规模云服务商合作外,我们还与许多消费互联网公司、企业和初创企业合作。这一机会意义重大,推动数据中心的强劲增长,并将在今年加速增长。」 汽车向上,游戏向下 除了数据中心,英伟达其他的业务板块——游戏、汽车、专业视觉等,本季度的表现则有好有坏。 其中,车用业务表现亮眼。财年总收入增长 60%,达到创纪录的 9.03 亿美元。第四季度收入创下 2.94 亿美元的纪录,较去年同期增长 135%,较上一季度增长 17%。 无论是环比还是同比,车用业务均持续增长。根据英伟达,这些增长反映了自动驾驶解决方案的销售增长,面向电动汽车制造商的计算解决方案以及 AI 座舱解决方案的销售强劲。电动汽车和传统 OEM 客户的新项目助推了这一增长。 值得注意的是,在今年 1 月初举行的 CES 大会上,英伟达宣布与富士康建立战略合作伙伴关系,共同开发基于 NVIDIA DRIVE Orin 和 DRIVE Hyperion 的自动驾驶汽车平台。 相比之下,游戏业务依然深处泥潭之中。 过去几个季度,RTX 4080 销售疲软、视频游戏行业下滑、加密货币市场疲软、以及去库存压力等因素,让英伟达的游戏业务持续低迷,尤其第三季度,游戏业务营收同比暴跌 51%。但就像 CFO Cress 所言,「最低点可能已经过去,而且事情可以改善前进。」 第四季度,英伟达游戏营收为 18.3 亿美元,同比下降 46%,环比增长 16%,整个财年收入下降 27%。该季度和财年的同比下降反映了销售减少,背后是全球宏观经济低迷和中国放开疫情管控对游戏需求的影响。 但环比三季度,英伟达的游戏业务还是取得了一定增长。这是由于受到基于 Ada Lovelace 架构的新 GeForce RTX GPU 的推出推动。黄仁勋也肯定了这一看法,他说:「游戏业正在从新冠肺炎疫情后的低迷中复苏,而且玩家们热烈欢迎使用 AI 神经渲染的 Ada 架构 GPU。」 近日,游戏行业一个复苏的好迹象是:动视暴雪(Activision Blizzard)在第四季度实现了营收正增长,超出了预期。但仍要警惕——动视暴雪在 PC 和主机上销售游戏,而只有 PC 销售与英伟达相关,主机制造商使用 AMD 显卡。 此外,在财报发布的前一天,英伟达宣布与微软签订了一项为期 10 年的协议,将 Xbox PC 游戏阵容引入 GeForce NOW,包括《我的世界(Minecraft)》、《光环(Halo)》和《微软模拟飞行(Microsoft Flight Simulator)》。待微软完成收购动视之后,GeForce NOW 将新增《使命召唤(Call of Duty)》和《守望先锋(Overwatch)》等游戏。 除了游戏业务之外,专业视觉和 OEM 这两个部门的业务也较上一年有大幅下降。从中可以看出:半导体市场正在经历罕见的下行周期。 专业视觉业务第四季度收入为 2.26 亿美元,较去年同期下降 65%,较上一季度增长 13%。财年总收入下降 27% 至 15.4 亿美元。该季度和财年同比下降反映了向合作伙伴销售较少以帮助减少渠道库存。环比增长是由台式工作站 GPU 推动的。 OEM 和其他收入同比下降 56%,环比增长 15%。财年收入下降 61%。该季度和财年同比下降是由笔记本 OEM 和加密货币挖掘处理器(CMP)推动的。在财年 2023 中,CMP 收入微不足道,而在财年 2022 中为 5.5 亿美元。 风口上的赢家,为什么又是英伟达 英伟达 30 年的发展史可以分为两段。从 1993 年到 2006 年,英伟达的目标是在竞争激烈的图形卡市场中存活下来,并创造了 GPU 这一革命性的技术;从 2006 年到 2023 年的转型,则主要是如何利用 CUDA 这一平台,将 GPU 应用于机器学习、深度学习、云计算等领域。 后者让英伟达走上人工智能之旅,今天市值已经超过老牌霸主英特尔和 AMD,也是在今天生成式 AI 热潮下,英伟达再次站上风口的前提。 在 2019 年的一次主题演讲中,黄仁勋分享了英伟达一次次重溯行业的缘起——找到了真正重要的问题并坚持。他说:「这使我们能够一次又一次地发明、重塑我们的公司、重溯我们的行业。我们发明了 GPU。我们发明了编程着色。是我们让电子游戏变得如此美丽。我们发明了 CUDA,它将 GPU 变成了虚拟现实的模拟器。」 回到英伟达的起点。当时 Windows 3.1 刚刚问世,个人电脑革命才刚刚要开始。英伟达想要能找到一种方法让 3D 图形消费化、民主化,让大量的人能够接触到这项技术,从而创造一个当时不存在的全新行业——电子游戏。他们认为,如果做成,就有可能成为世界上最重要的技术公司之一。 原因在于:三维图形主要表现为对现实的模拟,对世界的模拟相当复杂,如果知道如何创建难辨真假的虚拟现实,在所做的一切中模拟物理定律,并将人工智能引入其中,这一定是世界上最大的计算挑战之一。它沿途衍生的技术,可以解决惊人的问题。 最有代表性的案例,就是通过 CUDA 等方案为计算、人工智能等带来了革新性影响,也让它在这一波生成式 AI 浪潮中处于最佳生态位。 尽管 GPU 作为计算设备的发现经常被认为有助于引领围绕深度学习的「寒武纪大爆炸」,但 GPU 并不是单独工作的。英伟达内外的专家都强调,如果英伟达在 2006 年没有将 CUDA 计算平台添加到组合中,深度学习革命就不会发生。 CUDA(Compute Unified Device Architecture)计算平台是英伟达于 2006 年推出的软件和中间件堆栈,其通用的并行计算架构能够使得 GPU 解决复杂的计算问题。通过 CUDA,研究人员可以编程和访问 GPU 实现的计算能力和极致并行性。 而在英伟达发布 CUDA 之前,对 GPU 进行编程是一个漫长而艰巨的编码过程,需要编写大量的低级机器代码。使用免费的 CUDA,研究人员可以在在英伟达的硬件上更快、更便宜地开发他们的深度学习模型。 CUDA 的发明起源于可程式化 GPU 的想法。英伟达认为,为了创造一个美好的世界,第一件要做的事情就是先模拟它,而这些物理定律的模拟是个超级电脑负责的问题,是科学运算的问题,因此,关键在于:怎么把一个超级电脑才能解决的问题缩小、并放进一台正常电脑的大小,让你能先模拟它,然后再产生画面。这让英伟达走向了可程式化 GPU,这是个无比巨大的赌注。 彼时,英伟达花了三四年时间研发 CUDA,最后却发现所有产品的成本都不得不上升近一倍,而在当时也并不能给客户带来价值,客户显然不愿意买单。 若要让市场接受,英伟达只能提高成本,但不提高售价。黄仁勋认为,这是计算架构的事情,必须要让每一台电脑都能跑才能让开发者对这种架构有兴趣。因此,他继续坚持,并最终打造出了 CUDA。但在那段时间,英伟达的利润「摧毁性」地下降,股票掉到了 1.5 美元,并持续低迷了大约 5 年,直到橡树岭国家实验室选择了英伟达的 GPU 来建造公用超级电脑。 接着,全世界的研究人员开始采用 CUDA 这项技术,一项接着一项的应用,一个接着一个的科学领域,从分子动力学、计算物理学、天体物理学、粒子物理学、高能物理学……这些不同的科学领域开始采用 CUDA。两年前,诺贝尔物理学奖和化学奖得主,也都是因为有 CUDA 的帮助才得以完成自己的研究。 当然,CUDA 也为英伟达的游戏提供了动力,因为虚拟世界里和现实世界的流体力学是一样的,像是粒子物理学的爆炸、建筑物的崩塌效果,和英伟达在科学运算中观察到的是一样的,都是基于同样的物理法则。 然而,CUDA 发布后的前六年里,英伟达并未「全力投入」AI,直到 AlexNet 神经网络的出现。 在即将到来的 GTC 大会上,黄仁勋邀请了
OpenAI
联创兼首席科学家 Ilya Sutskever,而 Sutskever 见证了英伟达这段在人工智能领域崛起的故事。 Sutskever 与 Alex Krizhevsky 及其博士生导师 Geoffrey Hinton 一起创建了 AlexNet,这是计算机视觉领域开创性的神经网络,在 2012 年 10 月赢得了 ImageNet 竞赛。获奖论文表明该模型实现了前所未有的图像识别精度,直接导致了此后十年里人工智能的主要成功故事——从 Google Photos、Google Translate 和 Uber 到 Alexa 和 AlphaFold 的一切。 根据 Hinton 的说法,如果没有英伟达,AlexNet 就不会出现。得益于数千个计算核心支持的并行处理能力,英伟达的 GPU 被证明是运行深度学习算法的完美选择。Hinton 甚至在一次演讲上告诉在场的近千名研究人员都应该购买 GPU,因为 GPU 将成为机器学习的未来。 在 2016 年接受福布斯采访时,黄仁勋说自己一直都知道英伟达图形芯片的潜力不止于为最新的视频游戏提供动力,但他没想到会转向深度学习。 事实上,英伟达的深度神经网络 GPU 的成功是「一个奇怪的幸运巧合」,一位名叫 Sara Hooker 的作者在 2020 年发表的文章「硬件彩票」探讨了各种硬件工具成功和失败的原因。 她说,英伟达的成功就像「中了彩票」,这在很大程度上取决于「硬件方面的进展与建模方面的进展之间的正确对齐时刻」。这种变化几乎是瞬间发生的。「一夜之间,需要 13000 个 CPU 的工作两个 GPU 就解决了」她说。「这就是它的戏剧性。」 然而,英伟达并不同意这种说法,并表示,从 2000 年代中期开始英伟达就意识到 GPU 加速神经网络的潜力,即使他们不知道人工智能将成为最重要的市场。 在 AlexNet 诞生的几年后,英伟达的客户开始购买大量 GPU 用于深度学习,当时,Rob Fergus(现任 DeepMind 研究科学家)甚至告诉英伟达应用深度学习研究副总裁 Bryan Catanzaro,「有多少机器学习研究人员花时间为 GPU 编写内核,这太疯狂了——你真的应该研究一下」。 黄仁勋逐渐意识到 AI 是这家公司的未来,英伟达随即将把一切赌注押在 AI 身上。 于是,在 2014 年的 GTC 主题演讲中,人工智能成为焦点,黄仁勋表示,机器学习是「当今高性能计算领域最激动人心的应用之一」。「其中一个已经取得令人兴奋的突破、巨大的突破、神奇的突破的领域是一个叫做深度神经网络的领域。」黄仁勋在会上说道。 此后,英伟达加快布局 AI 技术,再也不只是一家 GPU 计算公司,逐渐建立了一个强大的生态系统,包括芯片、相关硬件以及一整套针对其芯片和系统进行优化的软件和开发系统。这些最好的硬件和软件组合平台,可以最有效地生成 AI。 可以说,GPU + CUDA 改变了 AI 的游戏规则。中信证券分析师许英博在一档播客节目中评价道:英伟达一直在做一件非常聪明的事情,就是软硬一体。在 GPU 硬件半导体的基础上,它衍生出来了基于通用计算要用的 CUDA。这促成了英伟达拿到了软件和硬件的双重规模效应。 在硬件端,因为它是图形和计算的统一架构,它的通用性保证了它有规模性,而规模性摊薄了它的研发成本,所以硬件上本身通过规模性可以拿到一个比较优势的研发成本。 在软件端,因为它有庞大的开发者的生态,而这些宝贵的软件开发人员,即便是这些软件开发人员换了一个公司,但他可能还是在继续用 CUDA 的软件。 主要参考文献: 1)《ChatGPT 火了,英伟达笑了》——中国电子报 2)Nvidia: The GPU Company (1993-2006) 3)Nvidia: The Machine Learning Company (2006-2022) 4)NVIDIA CEO Jensen Huang - AI Keynote Session at MSOE 5)Jensen Huang Q&A: Why Moore』s Law is dead, but the metaverse will still happen 6)How Nvidia dominated AI—and plans to keep it that way as generative AI explodes 7)中信证券许英博:从英伟达看国产 GPU 的挑战与前景 - 小宇宙 - 创业内幕 来源:金色财经
lg
...
金色财经
2023-03-02
ChatGPT板块持续活跃 当虹科技大涨14%
go
lg
...
等快速跟涨。 消息面上,3月2日,
OpenAI
宣布正式推出面向商业用户的ChatGPT和Whisper语音转文字API,定价为0.002美元/每1000 tokens,这个价格要比目前的GPT 3.5模型便宜90%。
lg
...
金融界
2023-03-02
生成式AI快速发展带动GPU需求显著提升 这两家国内GPU领域领先公司受关注
go
lg
...
员接洽,希望组建一个新的实验室,以开发
OpenAI
旗下ChatGPT的替代品。 TrendForce集邦咨询最新发布的报告称,生成式AI是通过GAN、CLIP、Transformer、Diffusion等算法、预训练模型、多模态等AI技术的整合,数据、算力、算法是深耕生成式AI不可或缺的三大关键。由于生成式AI必须投入巨量数据进行训练,为缩短训练就得采用大量高效能GPU。以ChatGPT背后的GPT模型为例,其训练参数从2018年约1.2亿个到2020年已暴增至近1,800亿个,TrendForce集邦咨询估GPU需求量预估约2万颗,未来迈向商用将上看3万颗(以NVIDIA A100为主)。生成式AI发展将成为趋势,将带动GPU需求显著提升,国内相关领域公司望受关注。 景嘉微(300474)公司专注于GPU领域的研发、生产和销售,目前已成功自主研发JM5400、JM7200和JM9系列三代图形处理芯片,实现在专用领域和通用领域的广泛应用。 好利科技(002729)公司投资的合肥曲速主要从事GPU芯片、ADAS视觉芯片的研发和销售。在研GPU芯片采用模块化设计,可根据市场需求通过减少核心数目组合成面向各档次需求的产品。相较于国内同档次产品,其拥有更高的算力,性能、功耗优势明显;相较国外同档次产品,其性价比更高。
lg
...
金融界
2023-03-02
美股开盘:道指跌近百点 中概股多数走高哔哩哔哩涨逾8%
go
lg
...
indows电脑系统中。微软表示,集成
OpenAI
的 ChatGPT技术的必应将出现在电脑桌面的搜索框上,该搜索框每月帮助5亿用户浏览他们的文件和互联网。 挑战阿斯麦?应用材料推出新芯片制造机器 据报道,应用材料已开始销售一种芯片制造机器,旨在减少行业对$阿斯麦(ASML.US)$的依赖,并以更低廉的价格生产能够处理人工智能任务的先进芯片。 Reata治疗遗传病药物获FDA批准 美国食品和药物管理局(FDA)于周二批准了Reata Pharmaceuticals的一款药品,该药用于治疗一种罕见的遗传疾病,这种疾病会对神经系统造成渐进性损害。该药物是Reata公司获得批准的第一款产品,分析师预计,到2030年,该药物在美国的销售额将达到4亿美元。 爱奇艺拟发行总额6亿美元可转债 爱奇艺拟发行总额6亿美元的2028年到期可转换优先票据。 微博Q4净利润1.419亿美元,同比增长22.6% 微博于2022年第四季度净收入为4.480亿美元,同比下降27%,依据固定汇率计算同比下降20%。归属于微博股东的净利润为1.419亿美元,同比增长22.6%。每股摊薄净收益为0.60美元。 蔚来Q4营收不及预期,经调整净亏损50.66亿元 财报显示,蔚来Q4营收160.6亿元,不及市场预期的171亿元,同比增长62.2%,环比增长23.5%。经调整净亏损50.66亿元,去年同期经调整净亏损为17.47亿元。
lg
...
金融界
2023-03-01
人类生成 or 机器生成?ChatGPT 引发了一场真假辩论
go
lg
...
技术的创造者坦率地指出了它的局限性。
OpenAI
首席执行官萨姆奥特曼 (Sam Altman) 去年 12 月警告说,ChatGPT“在某些方面足够出色,足以给人一种伟大的误导印象”。 我们在稳健性和真实性方面还有很多工作要做。” 该公司正在为其内容输出开发加密水印,这是一种机器可读的秘密标点符号、拼写和词序序列; 并且正在磨练一个“分类器”来区分合成文本和人工生成的文本,使用两者的例子来训练它。 斯坦福大学的研究生 Eric Mitchell 认为分类器需要大量的训练数据。 他与同事一起提出了 DetectGPT,这是一种发现差异的“零样本”方法,这意味着该方法不需要事先学习。 相反,该方法会自行启动聊天机器人,以嗅探出自己的输出。 它是这样工作的:DetectGPT 询问聊天机器人它对示例文本的“喜欢”程度,“喜欢”是示例与其自己的创作有多相似的简写。 DetectGPT 然后更进一步——它“扰乱”了文本,稍微改变了措辞。 假设是聊天机器人在“喜欢”更改后的人工生成文本方面比更改后的机器文本更具可变性。 研究人员声称,在早期测试中,该方法在 95% 的时间内正确地区分了人类和机器作者。 需要注意的是:这些结果尚未经过同行评审; 该方法虽然优于随机猜测,但在所有生成式 AI 模型中的工作可靠性并不相同。 对合成文本进行人为调整可能会愚弄 DetectGPT。 这一切对科学意味着什么? 科学出版是研究的命脉,将想法、假设、论据和证据注入全球科学经典。 一些人很快就将 ChatGPT 作为研究助理,一些有争议的论文将 AI 列为合著者。 Meta 甚至推出了一款名为 Galactica 的科学专用文本生成器。 三天后它被撤回了。 在它被使用的这段时间,构建了一段熊在太空旅行的虚构历史。 Tübingen 的马克斯普朗克智能系统研究所的迈克尔·布莱克教授当时在推特上表示,他对 Galactica 对有关他自己研究领域的多项询问的回答感到“困扰”,包括将虚假论文归咎于真正的研究人员。 “在所有情况下,[Galactica] 都是错误的或有偏见的,但听起来是正确和权威的。 我认为这很危险。” 危险来自于看似合理的文本滑入真正的科学提交,用虚假引用充斥文献并永远歪曲经典。 《科学》杂志现在完全禁止生成文本; 《自然》杂志则允许使用它,前提是必须对使用进行了声明,但禁止将其列为共同作者。 话又说回来,大多数人不会查阅高端期刊来指导他们的科学思维。 如果狡猾的人如此倾向,这些聊天机器人可以按需喷出大量引用伪科学,解释为什么疫苗不起作用,或者为什么全球变暖是个骗局。 在线发布的误导性材料可能会被未来的生成人工智能吞噬,产生新的谎言迭代,进一步污染公共话语。 贩卖怀疑的商人肯定已经摩拳擦掌,迫不及待了。 来源:金色财经
lg
...
金色财经
2023-03-01
一文了解 ChatGPT 等 LLMs 得到明显改进的 3 个变化
go
lg
...
人类语言的语法、语义和语用学。 由
OpenAI
开发的流行的大型语言模型 ChatGPT 之所以发展得如此之快,正是因为采用了人类反馈强化学习(RLHF)等先进技术。通过 RLHF,机器学习算法结合并使用人工输入提高了模型的性能。它针对预训练的 LLM 进行了微调,用于开发聊天机器人、虚拟助手等任务。 此外,ChatGPT 等 LLMs 所基于的预训练基础模型也得到了明显的改进。这主要是由于三个方面的变化: 1.实践证明,模型的扩展性(Scaling)对提高其性能很有帮助。以 Pathways 语言模型(Pathways Language Model,PaLM)为例,该模型通过扩展小样本学习(few-shot learning)大大影响了其性能,小样本学习可以减少根据具体应用调整模型所需的特定任务训练实例的数量。 通过使用 Pathways 语言模型在 6144 TPU v4 芯片上扩展和训练 5400 亿个参数,PaLM 展示了重复扩展的好处,其表现超过了各种传统模型,并显示出很大的进步。因此,深度和宽度的扩展都是提高基础模型性能的一个重要因素。 2.另一个变化是在预训练时增加标记数量的过程。像 Chinchilla 这样的模型(开源语言模型)已经证明,通过增加预训练数据,大型语言模型的表现会更好。 Chinchilla 是一个计算最优模型。在相同的计算预算下,在 70B 参数和比 Gopher 模型多四倍的数据上进行训练,Chinchilla 的表现一致优于 Gopher,它甚至比 GPT-3、Jurassic-1 和 Megatron-Turing NLG 等 LLMs 效果更好。这清楚地描述了对于每一个计算最优的训练,标记的数量应该相应地缩放——即模型大小的两倍,因此训练标记的数量应该是两倍。 3.第三个变化是使用干净和多样化的预训练数据。Galactica 的性能证明了这一点,它是一种存储、混合和推理科学知识的大型语言模型。经过几篇科学论文文本的训练,Galactica 的表现优于 GPT-3、Chinchilla 等模型。另一个大型语言模型 BioMedLM 是一种针对生物医学文本的特定领域 LLM,在针对特定领域数据进行训练时,它表现出了巨大的性能提升。它清楚地表明,在特定领域的数据上进行的预训练胜过在通用数据上的训练。 结论 LLMs 的成功无疑归功于多种因素的混合,包括 RLHF 的使用和预训练基础模型的发展。这三个变化极大地影响了 LLMs 的性能。此外,GLaM(通用语言模型)通过使用稀疏激活的混合专家架构(Mixture-of-Experts architecture),以更少的训练成本扩展模型的容量,从而显着提高了性能。因此,这些变化为更高级的语言模型开辟了道路,而这些模型将继续让我们的生活变得轻松。 来源:金色财经
lg
...
金色财经
2023-03-01
上一页
1
•••
440
441
442
443
444
•••
483
下一页
24小时热点
特朗普重大决定引爆行情!美元大跌70点 金价短线巨震26美元 究竟怎么回事?
lg
...
特朗普重大宣布震惊市场!比特币猛烈反弹9.8万、黄金2717持稳上行 普京作战惊传“巨响”
lg
...
黄金突然大变脸!中东传重要停火消息 金价日内大跌逾17美元 如何交易黄金?
lg
...
中国准备应对特朗普60%-100%关税!德勤分析师:中企“海外并购”活动可能突然激增
lg
...
黄金开盘大行情!金价急跌后飙升近30美元 伊朗突传重要消息 两张图看黄金技术前景 投资者如何获利了结?
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1329讨论
#VIP会员尊享#
lg
...
1500讨论
#比特币最新消息#
lg
...
605讨论