全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
香港论坛
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
还在低位的AI龙头股!
go
lg
...
历史新高,即台积电。 市场熟知英伟达的
AI
GPU
供不应求,但很少有资金追捧唯一给英伟达制造GPU的台积电。 有台媒称,英伟达H200将于第二季上市,B100采用Chiplet设计架构、已下单投片,H200及B100将分别采台积电4nm及3nm制程。有机构指出,英伟达订单强劲,台积电3、4nm产能几近满载。 给英伟达代工不是新鲜事,早在台积电四季报中,公司就预计今年的营收增速将达到20%-25%,未来几年的营收复合增速在15%-20%。 这个增速完全媲美历史上的半导体景气周期表现: 考虑到
AI
GPU
采用的是最先进的生产工艺,而一般而言,工艺越先进,台积电的盈利能力就越强,理应拿到更高的估值。 但是,台积电目前的市净率依然低于2021年,丝毫未给出AI溢价: AI被誉为第四次工业革命,业绩爆发性及空间极具诱惑,叠加AI手机、AI PC有望带动消费电子出货量提升,台积电既受益于AI,又受益半导体景气周期。 不可想象,如此的AI龙头,股价还没有历史新高,估值还远低于上一轮景气周期的估值? 目前,台股的台积电股价早已历史新高,美股台积电较历史最高价仅一步之遥,考虑到估值和业绩成长性,台积电历史新高指日可待,本轮牛市或有望突破200美元高价,市值突破1万亿美元,成为第二家市值超万亿美元的半导体公司! $台积电(TSM)$ $英伟达(NVDA)$
lg
...
老虎证券
2024-03-05
英伟达新一代AI芯片B200功耗将达1000W,预计2025年问世
go
lg
...
商戴尔透露了英伟达即将推出的人工智能(
AI
)
GPU
,代号为Blackwell。这些芯片的功耗高达1000W,比上一代芯片的功耗增加40%。戴尔首席运营官Jeff Clarke表示,戴尔为配合B200服务器GPU的推出,届时也将提供旗舰级的PowerEdge XE9680机架服务器。另外,采用Blackwell架构B100与B200最快要到2025年才会推出,与先前预期推出的时间有所落差。
lg
...
金融界
2024-03-04
3000亿的AMD贵不贵?
go
lg
...
需求暴涨之下,已经上调至35亿美元!
AI
GPU
目前仍面临产能瓶颈,而且英伟达在最新一季财报中称,目前尚未看到AI需求下滑,景气度将持续至2025年。 目前的GPU有40%用于训练大模型,未来一旦应用端开始爆发,需求将是海量的,比如OpenAI新近发布的Sora已经让世人看到AI的潜力。 在这场AI盛宴中,AMD一定能够吃到大肉,虽然当下的市值达到了3111亿,市销率也接近2021年半导体牛市时的顶点,但对比英伟达动态20倍的市销率估值,AMD仍有上升空间: 别忘了,AMD是AI后起之秀,其收入还尚未大爆发,考虑未来业绩的增长,当下的估值并不贵! 除了MI300之外,AMD今年的顺风还有PC市场回暖,戴尔在最新的财报中称,PC市场将于今年下半年复苏: 展望2025年,AI PC有望大爆发,从三星最新发布的AI手机Galaxy S24来看,集合AI功能的手机支持实时语音翻译,可以无障碍跨语言沟通,在美化照片方面同样展现出令人惊讶的能力,预计AI将刺激一波换机潮! AI PC将于今年下半年密集上市,2025年有望贡献较大的销量,AMD将充分受益。 从技术形态上看,AMD用一根放量大阳线突破横盘区间,有望开启又一轮上涨: 3000亿绝不是AMD的巅峰时刻! $美国超微公司(AMD)$ $戴尔(DELL)$ $英伟达(NVDA)$
lg
...
老虎证券
2024-03-01
被市场忽视的AI龙头!
go
lg
...
忆体,推动生成式 AI 创新,是英伟达
AI
GPU
必备零件: 相比于竞争对手,美光的HBM3E功耗比竞争对手产品低30%,HBM3E将用于英伟达H200的生产,有望于2024会计年度创造数亿美元的营收。 消息公布之后,美光昨日股价上涨4%,报收89.46美元,距98.45元的历史最高价仅一步之遥! 由于存储芯片价格变动较大,因此,美光的业绩波动剧烈,带动股价暴涨暴跌,被誉为半导体行业最强周期股。 步入2024年,存储芯片的价格不断回升,美光再次迎来顺风,加上HBM产品受益AI需求井喷,如美光竞争对手SK海力士称,2024年的HMB产能已经被预定一空! 可以预见,最近2年将是美光业绩暴增的两年,根据季报,管理层预计2024财年2季度(截止2月28日的三个月业绩)营收将达到53亿美元左右,同比暴增43.5%: 在HBM领先一步的SK海力士,其去年四季度的营收同比大增47.4%,分析师预计今年一季度的营收增速将高达127%: 周期股的魅力莫过于此,投资美光,最佳时机是营收暴跌、毛利率奇低之时,其次是当下,从估值上看,目前的市净率仍有上升空间: 退而求其次,美光历史新高是妥妥的了,或许此轮景气周期会在AI的带动下,将估值再提高一个台阶! $美光科技(MU)$
lg
...
老虎证券
2024-02-27
黄仁勋:机器人基础模型即将出现 新一代GPU性能超乎想象
go
lg
...
扩大他们想要训练的模型的规模。当被问及
AI
GPU
的需求会在任何时候减弱时,黄仁勋表示,我认为我们正处于生成式人工智能革命的开端。
lg
...
金融界
2024-02-25
史无前例的AI盛宴,你总得拥有一支!
go
lg
...
以来,AMD的涨幅超过了134%。 其
AI
GPU
MI300预计今年的销售额将达到35亿美元,高于之前预测的20亿美元! AMD之外,掌握芯片设计能力和芯片通信技术的博通也受益于AI需求,其成为谷歌等大厂自研AI芯片的关键合作商,股价在去年大涨100%的情况下,今年再涨17%! OpenAI大股东微软也位于本次AI盛宴的中心,旗下产品与AI技术的结合令市场充满想象力,但由于OpenAI股权结构复杂,微软并未充分受益股权增值,加上AI应用需要时间爆发,微软的股价涨幅并不大,自2022年11月底以来仅上涨61%. 提供芯片架构的ARM也受到AI的提振,其架构亦被用于英伟达GPU设计,在2月7日超预期财报发布之后,年内涨幅达到了71%! AI需求暴增,带火了半导体设备和芯片制造,其中,提供光刻机的阿斯麦年内上涨28.6%、提供刻蚀设备的应用材料、泛林集团年内分别上涨23%和21%,日本的半导体设备供应商东京电子年内更是大涨44.8%,芯片代工龙头台积电的涨幅也达到了18%。 向GPU提供HBM内存的韩国SK海力士也上涨了14%! 英伟达的Hopper GPU有35000个零件,核心零部件提供商亦是本轮牛市的第二梯队,且从美股扩散至全球股市,英伟达不愧是地表最重要的公司! 第三梯队应该是AI应用层。 虽然ChatGPT和Sora震惊了世人,但在应用层面,当下依然缺乏重磅产品,应用层面的公司也存在被OpenAI颠覆的风险。 比如曾经因AI大涨的Adobe,去年逆势大涨77%,而今年却下跌了10%。 股票代码直接为AI的公司C3.AI也曾大涨,2023年的涨幅高达157%,而今年同样熄火,逆势下跌7%,C3 AI是一家基于云的企业AI SaaS 公司,它构建了一组专有应用程序(称为C3 AI 套件),为其客户提供集成数字转换应用程序的能力。 最大人工智能 CRM(客户关系管理)和最大企业应用程序公司CRM正在受益AI浪潮,其首席执行官Marc Benioff将稳健的收入归因于其新推出的人工智能产品,其中包括由OpenAI大模型支持的工具,这些工具可帮助客户自动起草销售电子邮件或创建客户服务聊天机器人。 CRM去年大涨98%,今年再度上涨11.6%。 随着技术成熟,AI在应用层面可能带来令人惊叹的造富神话。 与AI相关的公司还有很多,比如提供AI手机芯片的高通,年内股价上涨7%,英伟达另一竞争对手英特尔,也具备GPU实力,但目前尚未吃到AI红利,股价表现不佳,年内下跌14%。 正如英伟达CEO黄仁勋在最新一季的财报中所说,AI将渗透到各行各业,目前已处于爆发临界点! 从OpenAI最新发布的文生视频工具Sora来看,AI的潜力远超我们的想象,带来的财富盛宴将远超历次工业革命! 在这场AI盛宴中,有人处于金字塔顶端,有人是腰部玩家,也有人处于落伍状态,甚至有的会被颠覆,投资者一定要看准AI链条上最有价值的公司! 史无前例的AI盛宴,你总得拥有一支吧?是追涨英伟达,还是买入半导体设备,抑或是押注应用层?看你的眼光了! $英伟达(NVDA)$ $ARM Holdings Ltd(ARM)$ $美国超微公司(AMD)$ $超微电脑(SMCI)$ $阿斯麦(ASML)$
lg
...
老虎证券
2024-02-23
冲冲冲,英伟达还有翻倍空间!
go
lg
...
2亿,占总收入的比重高达83%,主要是
AI
GPU
带动。 游戏业务营收28.65亿,同比增长56.5%,略超分析师预期的27.2亿,主要是PC销售回暖和数字货币大涨带动,另外厂商去库存结束也有所帮助。 汽车芯片营收2.8亿,同比下滑4.4%,受汽车厂去库存和新能源汽车销售放缓的影响,但2024财年营收首次突破10亿美元大关,达到10.9亿美元: 专业可视化和其他业务四季报表现同样超预期,但因为营收规模较小且成长性不及数据中心和汽车芯片,这里就不赘述了。 在产品供不应求及零部件成本超预期下降的情况下,英伟达的盈利能力亦超出市场预期,其中,四季度毛利率为76%,大幅超出管理层给出的74.5%的指引,净利率亦达到了惊人的55.6%! 英伟达预计下一季毛利率将达到76.3%,再创历史记录! 但零部件成本下滑不可持续,管理层预计后续毛利率将向70%靠拢,这一成绩依然远高于AI爆发之前! 除了四季度超预期外,下一季的营收指引为240亿美元,同样超出分析师预期的220亿! 在业绩电话会上,英伟达CEO黄仁勋称当下的AI需求依然强劲,尚未看到放缓迹象,其下一代产品依然面临供应限制。而且,他称“加速计算和生成人工智能已经达到了临界点,全球各地公司、行业和国家的需求都在激增”。 从地区销售来看,四季度除了中国区因为美国芯片禁令而环比下滑外,其他地区悉数增长,其中,美国贡献了122亿美元,环比增长94%,非中国外的其他国家营收79.9亿美元,环比增长131%。 中国区营收占比从三季度的22.2%下滑至8.8%,预计下一季将保持同样的比例,这一状况或在中国特供版GPU上市后有所好转。 虽然芯片禁令阻碍了英伟达在中国的销售,但考虑到AI需求大爆发,这一影响并不大。 性能更先进的H200 GPU将于二季度发货,英伟达依然是AI最靓的仔! 暴涨过后,很多人都在担忧英伟达出现了泡沫,但按照当下的情况推算,2025财年英伟达的营收有望达到1000亿美元,当下的市值为1.8万亿,市销率18倍,对比历史,这样的估值不算贵: 值得注意的是,AI加持下英伟达的盈利能力已超历史,理应拿到更高的估值,2021年半导体大牛市时,英伟达凭借数据中心和数字货币的带动,市销率一度超过30倍,AI浪潮远胜传统数据中心和数字货币,必然会出现泡沫化,届时,英伟达的估值应该远超2021年,大胆预测,英伟达或仍有翻倍的可能! $英伟达(NVDA)$
lg
...
老虎证券
2024-02-22
Galaxy万字长文:加密货币和AI交叉领域和项目盘点
go
lg
...
台外,一组专注于机器学习模型训练的专业
AI
GPU
供应商也正在兴起。例如,Gensyn正在“协调电力和硬件来构建集体智慧”,其观点是,“如果有人想要训练某些东西,并且有人愿意训练它,那么就应该允许这种训练发生。” 该协议有四个主要参与者:提交者(submitters)、求解者(solvers)、验证者(verifiers)和吹哨者(whistleblowers)。提交者向网络提交带有培训请求的任务。这些任务包括训练目标、要训练的模型和训练数据。作为提交过程的一部分,提交者需要为求解者所需的估计计算量预先支付费用。 提交后,任务将分配给对模型进行实际训练的求解者。然后,求解者将已完成的任务提交给验证者,验证者负责检查训练以确保正确完成。吹哨者有责任确保验证者诚实行事。为了激励吹哨者参与网络,Gensyn 计划定期提供故意错误的证据,奖励吹哨者抓住他们。 除了为人工智能相关工作负载提供计算之外,Gensyn 的关键价值主张是其验证系统,该系统仍在开发中。为了确保 GPU 供应商的外部计算正确执行(即确保用户的模型按照他们希望的方式进行训练),验证是必要的。 Gensyn 采用独特的方法解决了这个问题,利用了称为“概率学习证明、基于图形的精确协议和 Truebit 式激励游戏”的新颖验证方法。这是一种乐观求解模式,允许验证者确认求解者已正确运行模型,而无需自己完全重新运行模型,完全重新运行模型是一个成本高昂且低效的过程。 除了其创新的验证方法之外,Gensyn 还声称相对于中心化替代方案和加密货币竞争对手而言具有成本效益,提供的 ML 训练价格比 AWS 便宜高达 80%,同时在测试方面胜过 Truebit 等类似项目。 这些初步结果是否可以在去中心化网络中大规模复制还有待观察。 Gensyn 希望利用小型数据中心、零售用户以及未来手机等小型移动设备等提供商的多余计算能力。然而,正如 Gensyn 团队自己所承认的那样,依赖异构计算提供商带来了一些新的挑战。 对于 Google Cloud Providers 和 Coreweave 等中心化供应商来说,计算成本昂贵,而计算之间的通信(带宽和延迟)却很便宜。这些系统旨在尽快实现硬件之间的通信。 Gensyn 颠覆了这一框架,通过让世界上任何人都可以提供 GPU 来降低计算成本,但同时也增加了通信成本,因为网络现在必须在相距较远的异构硬件上协调计算作业。 Gensyn 尚未推出,但它是构建去中心化机器学习训练协议时可能实现的概念证明。 去中心化通用智能 去中心化计算平台也为AI创建方法的设计提供了可能性。 Bittensor是一种基于 Substrate 构建的去中心化计算协议,试图回答“我们如何将AI转变为协作方法?”的问题。 Bittensor 旨在实现AI生成的去中心化和商品化。该协议于 2021 年推出,希望利用协作机器学习模型的力量来不断迭代并产生更好的AI。 Bittensor 从比特币中汲取灵感,其原生货币 TAO 的供应量为 2100 万,减半周期为四年(第一次减半将于 2025 年)。 Bittensor 不是使用工作量证明来生成正确的随机数并获得区块奖励,而是依赖于“智能证明”(Proof of Intelligence),要求矿工运行模型来响应推理请求而生成输出。 激励智能 Bittensor 最初依赖专家混合 (MoE) 模型来生成输出。当提交推理请求时,MoE 模型不会依赖一个广义模型,而是将推理请求转发给给定输入类型的最准确的模型。想象一下建造一栋房子,你聘请了各种专家来负责施工过程的不同方面(例如:建筑师、工程师、油漆工、建筑工人等......)。 MoE 将其应用于机器学习模型,尝试根据输入利用不同模型的输出。正如 Bittensor 创始人 Ala Shaabana所解释的那样,这就像“与一屋子聪明人交谈并获得最佳答案,而不是与一个人交谈”。由于在确保正确路由、消息同步到正确模型以及激励方面存在挑战,这种方法已被搁置,直到项目得到进一步开发。 Bittensor 网络中有两个主要参与者:验证者和矿工。验证者的任务是向矿工发送推理请求,审查他们的输出,并根据他们的响应质量对它们进行排名。为了确保他们的排名可靠,验证者会根据他们的排名与其他验证者排名的一致程度给予“vtrust”分数。验证者的 vtrust 分数越高,他们获得的 TAO 币就越多。这是为了激励验证者随着时间的推移就模型排名达成共识,因为就排名达成一致的验证者越多,他们的个人 vtrust 分数就越高。 矿工,也称为服务者,是运行实际机器学习模型的网络参与者。矿工们相互竞争,为验证者提供针对给定查询的最准确的输出,输出越准确,赚取的 TAO 就越多。矿工可以随心所欲地生成这些输出。例如,在未来的情况下,Bittensor 矿工完全有可能之前在 Gensyn 上训练过模型,并用它们来赚取 TAO 。 如今,大多数交互直接发生在验证者和矿工之间。验证者向矿工提交输入并请求输出(即训练模型)。一旦验证者查询网络上的矿工并收到他们的响应,他们就会对矿工进行排名并将其排名提交到网络。 验证者(依赖 PoS)和矿工(依赖模型证明,PoW 的一种形式)之间的这种互动被称为 Yuma 共识。它旨在激励矿工产生最佳输出来赚取 TAO ,并激励验证者对矿工输出进行准确排名,以获得更高的 vtrust 分数并增加他们的 TAO 奖励,从而形成网络的共识机制。 子网和应用程序 Bittensor 上的交互主要包括验证者向矿工提交请求并评估其输出。然而,随着贡献矿工的质量提高和网络整体智能的增长,Bittensor 将在其现有堆栈之上创建一个应用程序层,以便开发人员可以构建查询 Bittensor 网络的应用程序。 2023 年 10 月,Bittensor 通过 Revolution 升级引入了子网,朝着实现这一目标迈出了重要一步。子网是 Bittensor 上激励特定行为的单独网络。 Revolution 向任何有兴趣创建子网的人开放网络。自发布以来的几个月内,已经启动了超过32 个子网,包括用于文本提示、数据抓取、图像生成和存储的子网。随着子网的成熟并成为产品就绪,子网创建者还将创建应用程序集成,使团队能够构建查询特定子网的应用程序。一些应用程序(聊天机器人、图像生成器、推特回复机器人、预测市场)目前已经存在,但除了 Bittensor 基金会的资助之外,没有正式的激励措施让验证者接受和转发这些查询。 为了提供更清晰的说明,下面是一个示例,说明应用程序集成到网络中后 Bittensor 可能如何工作。 子网根据根网络(root network)评估的性能赚取 TAO 。根网络位于所有子网之上,本质上充当一种特殊的子网,并由 64 个最大的子网验证者按权益进行管理。根网络验证者根据子网的性能对子网进行排名,并定期将排放的TAO 代币分配给子网。通过这种方式,各个子网充当根网络的矿工。 Bittensor展望 Bittensor仍在经历成长的烦恼,因为它扩展了协议的功能以激励跨多个子网的智能生成。矿工们不断设计新的方法来攻击网络以获得更多 TAO 奖励,例如通过稍微修改其模型运行的高评价推理的输出,然后提交多个变体。影响整个网络的治理提案只能由完全由 Opentensor 基金会利益相关者组成的Triumvirate提交和实施(需要注意的是,提案需要在实施之前得到由 Bittensor 验证者组成的 Bittensor 参议院的批准)。该项目的代币经济正在进行修改,以提高对 TAO 跨子网使用的激励。该项目还因其独特的方法而迅速获得名声,最受欢迎的人工智能网站之一HuggingFace的首席执行官表示 Bittensor 应该将其资源添加到该网站。 在核心开发人员最近发表的一篇名为“Bittensor Paradigm”的文章中,该团队阐述了 Bittensor 的愿景,即最终发展为“对所测量的内容不可知”。理论上,这可以使 Bittensor 开发子网来激励所有由 TAO 支持的任何类型的行为。仍然存在相当大的实际限制——最值得注意的是,证明这些网络能够扩展以处理如此多样化的流程,并且潜在的激励措施推动的进步超过了中心化产品。 为AI模型构建去中心化计算堆栈 上述部分提供了正在开发的各种类型的去中心化AI计算协议的粗略概述。在其开发和采用的早期,它们提供了生态系统的基础,最终可以促进“AI构建块”的创建,例如 DeFi 的“货币乐高”概念。无需许可的区块链的可组合性为每个协议构建在另一个协议之上提供了可能性,以提供更全面的去中心化人工智能生态系统。 例如,这是 Akash、Gensyn 和 Bittensor 可能全部交互以响应推理请求的一种方式。 需要明确的是,这只是未来可能发生的事情的一个例子,而不是当前生态系统、现有合作伙伴关系或可能结果的代表。互操作性的限制以及下面描述的其他考虑因素极大地限制了当今的集成可能性。除此之外,流动性破碎化和使用多种代币的需要可能会损害用户体验,Akash 和 Bittensor 的创始人都指出了这一点。 其他去中心化产品 除了计算之外,还推出了其他几种去中心化基础设施服务,以支持加密货币新兴的AI生态系统。 列出所有这些超出了本报告的范围,但一些有趣且说明性的示例包括: Ocean:一个去中心化的数据市场。用户可以创建代表其数据的数据 NFT,并可以使用数据代币进行购买。用户既可以将其数据货币化,又可以对其拥有更大的主权,同时为AI团队提供开发和训练模型所需的数据的访问权限。 Grass:一个去中心化的带宽市场。用户可以将多余的带宽出售给AI公司,后者利用这些带宽从互联网上抓取数据。Grass建立在Wynd 网络之上,这不仅使个人能够将其带宽货币化,而且还为带宽购买者提供了更多样化的观点来了解个人用户在网上看到的内容(因为个人的互联网访问通常是根据其 IP 地址专门定制的) )。 HiveMapper:构建一个去中心化的地图产品,其中包含从日常汽车驾驶员收集的信息。 HiveMapper 依靠 AI 来解释从用户仪表板摄像头收集的图像,并奖励用户通过强化人类学习反馈 (RHLF) 帮助微调 AI 模型的代币。 总的来说,这些都指向探索支持AI模型的去中心化市场模型或开发它们所需的周边基础设施的几乎无限的机会。目前,这些项目大多处于概念验证阶段,需要更多的研究和开发来证明它们能够以提供全面人工智能服务所需的规模运行。 展望 去中心化计算产品仍处于开发的早期阶段。他们刚刚开始推出最先进的计算能力,能够在生产中训练最强大的AI模型。为了获得有意义的市场份额,他们需要展示与中心化替代方案相比的实际优势。更广泛采用的潜在触发因素包括: GPU 供应/需求。 GPU 的稀缺加上快速增长的计算需求正在导致 GPU 军备竞赛。由于 GPU 的限制,OpenAI 已经一度限制对其平台的访问。 Akash 和 Gensyn 等平台可以为需要高性能计算的团队提供具有成本竞争力的替代方案。对于去中心化计算提供商来说,未来 6-12 个月是一个特别独特的机会来吸引新用户,由于缺乏更广泛的市场准入,这些新用户被迫考虑去中心化产品。再加上 Meta 的 LLaMA 2 等性能日益提高的开源模型,用户在部署有效的微调模型时不再面临同样的障碍,使计算资源成为主要瓶颈。然而,平台本身的存在并不能确保足够的计算供应和消费者的相应需求。采购高端 GPU 仍然很困难,而且成本并不总是需求方的主要动机。这些平台将面临挑战,以展示使用去中心化计算选项的实际好处(无论是由于成本、审查阻力、正常运行时间和弹性还是可访问性)来积累粘性用户。他们必须快速行动。 GPU 基础设施投资和建设正在以惊人的速度进行。 监管。监管仍然是去中心化计算运动的阻力。短期内,缺乏明确的监管意味着提供商和用户都面临使用这些服务的潜在风险。如果供应商提供计算或买方在不知情的情况下从受制裁实体购买计算怎么办?用户可能会犹豫是否使用缺乏中心化实体控制和监督的去中心化平台。协议试图通过将控制纳入其平台或添加过滤器以仅访问已知的计算提供商(即提供了解你的客户KYC信息)来减轻这些担忧,但需要更强大的方法在确保合规性的同时保护隐私。短期内,我们可能会看到 KYC 和合规平台的出现,这些平台限制对其协议的访问,以解决这些问题。此外,围绕美国可能的新监管框架的讨论(最好的例子是《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》的发布)凸显了进一步限制 GPU 获取的监管行动的潜力。 审查。监管是双向的,去中心化的计算产品可以从限制AI访问的行动中受益。除了行政命令之外,OpenAI 创始人 Sam Altman 还在 国会作证,说明监管机构需要为人工智能开发颁发许可证。关于人工智能监管的讨论才刚刚开始,但任何此类限制访问或审查AI功能的尝试都可能加速不存在此类障碍的去中心化平台的采用。2023年11月OpenAI 领导层变动(或缺乏)进一步表明,将最强大的现有AI模型的决策权授予少数人是有风险的。此外,所有AI模型都必然反映了创建它们的人的偏见,无论是有意还是无意。消除这些偏差的一种方法是使模型尽可能开放地进行微调和训练,确保任何地方的任何人都可以访问各种类型和偏差的模型。 数据隐私。 当与为用户提供数据自主权的外部数据和隐私解决方案集成时,去中心化计算可能会比中心化替代方案更具吸引力。当三星意识到工程师正在使用 ChatGPT 帮助芯片设计并将敏感信息泄露给 ChatGPT 时,三星成为了这一事件的受害者。 Phala Network 和 iExec 声称为用户提供 SGX 安全飞地来保护用户数据,并且正在进行的全同态加密研究可以进一步解锁确保隐私的去中心化计算。随着AI进一步融入我们的生活,用户将更加重视能够在具有隐私保护的应用程序上运行模型。用户还需要支持数据可组合性的服务,以便他们可以将数据从一种模型无缝移植到另一种模型。 用户体验(UX)。 用户体验仍然是更广泛采用所有类型的加密应用程序和基础设施的重大障碍。这对于去中心化计算产品来说并没有什么不同,并且在某些情况下,由于开发人员需要了解加密货币和人工智能,这会加剧这种情况。需要从基础知识进行改进,例如登入抽象与区块链的交互,以提供与当前市场领导者相同的高质量输出。鉴于许多提供更便宜产品的可操作的去中心化计算协议很难获得常规使用,这一点显而易见。 智能合约和zkML 智能合约是任何区块链生态系统的核心构建块。在给定一组特定条件的情况下,它们会自动执行并减少或消除对受信任第三方的需求,从而能够创建复杂的去中心化应用程序,例如 DeFi 中的应用程序。然而,由于智能合约目前大部分存在,其功能仍然受到限制,因为它们根据必须更新的预设参数执行。 例如,部署的借贷协议智能合约包含根据特定贷款与价值比率何时清算头寸的规范。虽然在静态环境中有用,但在风险不断变化的动态情况下,这些智能合约必须不断更新以适应风险承受能力的变化,这给不通过中心化流程管理的合约带来了挑战。例如,依赖去中心化治理流程的 DAO 可能无法快速反应以应对系统性风险。 集成AI(即机器学习模型)的智能合约是增强功能、安全性和效率同时改善整体用户体验的一种可能方法。然而,这些集成也带来了额外的风险,因为不可能确保支撑这些智能合约的模型不会被攻击或解释长尾情况(鉴于数据输入的稀缺,长尾情况很难训练模型)。 零知识机器学习(zkML) 机器学习需要大量的计算来运行复杂的模型,这使得AI模型由于成本高昂而无法直接在智能合约中运行。例如,为用户提供收益优化模型的 DeFi 协议将很难在链上运行该模型,而无需支付过高的Gas费。一种解决方案是增加底层区块链的计算能力。然而,这也增加了对链验证者集的要求,可能会破坏去中心化特性。相反,一些项目正在探索使用 zkML 以无需信任的方式验证输出,而不需要密集的链上计算。 说明 zkML 有用性的一个常见示例是,用户需要其他人通过模型运行数据并验证其交易对手实际上运行了正确的模型。也许开发人员正在使用去中心化计算提供商来训练他们的模型,并担心该提供商试图通过使用输出差异几乎无法察觉的更便宜的模型来削减成本。 zkML 使计算提供商能够通过其模型运行数据,然后生成可以在链上验证的证明,以证明给定输入的模型输出是正确的。在这种情况下,模型提供者将具有额外的优势,即能够提供他们的模型,而不必透露产生输出的基础权重。 也可以做相反的事情。如果用户想要使用他们的数据运行模型,但由于隐私问题(比如在医疗检查或专有商业信息的情况下),不希望提供模型的项目访问他们的数据,那么用户可以在他们的数据上运行模型而不共享数据,然后通过证明验证他们运行了正确的模型。这些可能性通过解决令人望而却步的计算限制,极大地扩展了人工智能和智能合约功能集成的设计空间。 基础设施和工具 鉴于 zkML 领域的早期状态,开发主要集中在构建团队所需的基础设施和工具,以将其模型和输出转换为可以在链上验证的证明。这些产品尽可能地抽象了开发的零知识方面。 EZKL和Giza是通过提供机器学习模型执行的可验证证明来构建此工具的两个项目。两者都帮助团队构建机器学习模型,以确保这些模型可以在链上以可信方式验证结果的方式执行。这两个项目都使用开放神经网络交换 (ONNX) 将用 TensorFlow 和 Pytorch 等通用语言编写的机器学习模型转换为标准格式。然后,他们输出这些模型的版本,这些模型在执行时也会生成 zk 证明。 EZKL 是开源的,生产 zk-SNARKS,而 Giza 是闭源的,生产 zk-STARKS。这两个项目目前仅兼容 EVM。 过去几个月,EZKL 在增强 zkML 解决方案方面取得了重大进展,主要集中在降低成本、提高安全性和加快证明生成速度。例如,2023 年 11 月,EZKL 集成了一个新的开源 GPU 库,可将聚合证明时间缩短 35%;1 月,EZKL发布了Lilith,这是一种软件解决方案,用于在使用 EZKL 证明时集成高性能计算集群和编排并发作业系统。 Giza 的独特之处在于,除了提供用于创建可验证的机器学习模型的工具之外,他们还计划实现相当于Hugging Face的 web3 ,为 zkML 协作和模型共享开辟用户市场,并最终集成去中心化计算产品。一月份,EZKL 发布了一项基准评估,比较了 EZKL、Giza 和 RiscZero(如下所述)的性能。 EZKL 展示了更快的证明时间和内存使用。 Modulus Labs还在开发一种专为 AI 模型定制的新的 zk-proof 技术。 Modulus 发表了一篇名为《智能的成本》(The Cost of Intelligence )的论文(暗示在链上运行 AI 模型的成本极高),该论文对当时现有的 zk-proof 系统进行了基准测试,以确定改进 AI 模型 zk-proofs 的能力和瓶颈。该论文于 2023 年 1 月发布,表明现有产品过于昂贵且效率低下,无法大规模实现AI应用。在最初研究的基础上,Modulus 在 11 月推出了Remainder,这是一种专门的零知识证明器,专门用于降低 AI 模型的成本和证明时间,目标是使项目在经济上可行,将模型大规模集成到智能合约中。他们的工作是闭源的,因此无法与上述解决方案进行基准测试,但最近在 Vitalik关于加密和人工智能的博客文章中引用了他们的工作。 工具和基础设施开发对于 zkML 空间的未来增长至关重要,因为它可以显著减少需要部署运行可验证的链下计算所需的 zk 电路的团队的摩擦。创建安全接口,使从事机器学习工作的非加密原生构建者能够将他们的模型带到链上,这将使应用程序能够通过真正新颖的用例进行更大的实验。工具还解决了更广泛采用 zkML 的一个主要障碍,即缺乏知识渊博且对零知识、机器学习和密码学交叉领域工作感兴趣的开发人员。 协处理器(Coprocessors) 正在开发的其他解决方案(称为“协处理器”)包括RiscZero 、Axiom和Ritual。协处理器这个术语主要是语义上的——这些网络履行许多不同的角色,包括在链上验证链下计算。与 EZKL、Giza 和 Modulus 一样,他们的目标是完全抽象零知识证明生成过程,创建本质上能够执行链下程序并生成链上验证证明的零知识虚拟机。 RiscZero 和 Axiom 可以为简单的 AI 模型提供服务,因为它们是更通用的协处理器,而 Ritual 是专门为与 AI 模型一起使用而构建的。 Infernet是 Ritual 的第一个实例,包含一个Infernet SDK,允许开发人员向网络提交推理请求并接收输出和证明(可选)作为回报。 Infernet 节点接收这些请求并在返回输出之前处理链下计算。例如,DAO 可以创建一个流程,确保所有新的治理提案在提交之前满足某些先决条件。每次提交新提案时,治理合约都会通过 Infernet 触发推理请求,调用 DAO 特定治理训练的 AI 模型。该模型审查提案以确保提交所有必要的标准,并返回输出和证据,批准或拒绝提案的提交。 在接下来的一年里,Ritual 团队计划推出更多功能,形成称为 Ritual 超级链的基础设施层。前面讨论的许多项目都可以作为服务提供商插入 Ritual。 Ritual 团队已经与 EZKL 集成以生成证明,并且可能很快会添加其他领先提供商的功能。Ritual 上的 Infernet 节点还可以使用 Akash 或 io.net GPU 以及在 Bittensor 子网上训练的查询模型。他们的最终目标是成为开放AI基础设施的首选提供商,能够为任何网络、任何工作负载的机器学习和其他AI相关任务提供服务。 应用 zkML有助于调和区块链和人工智能之间的矛盾,前者本质上是资源受限的,而后者需要大量的计算和数据。正如 Giza 的一位创始人所说,“用例非常丰富……这有点像以太坊早期问智能合约的用例是什么……我们所做的只是扩展智能合约的用例。 ”然而,如上所述,当今的开发主要发生在工具和基础设施级别。应用仍处于探索阶段,团队面临的挑战是证明使用 zkML 实现模型所产生的价值超过了其复杂性和成本。 目前的一些应用包括: 去中心化金融。 zkML通过增强智能合约能力,升级了DeFi的设计空间。 DeFi 协议为机器学习模型提供大量可验证且不可篡改的数据,可用于生成收益获取或交易策略、风险分析、用户体验等。例如,Giza与Yearn Finance合作,为 Yearn 的新 v3 金库构建概念验证自动风险评估引擎。 Modulus Labs与Lyra Finance合作将机器学习纳入其 AMM,与 Ion Protocol合作实施分析验证者风险的模型,并帮助Upshot验证其人工智能支持的 NFT 价格信息。 NOYA(利用 EZKL)和Mozaic等协议提供了对专有链下模型的访问,这些模型使用户能够访问自动化流动性挖矿,同时使他们能够验证链上的数据输入和证明。 Spectral Finance正在构建链上信用评分引擎,以预测Compound或Aave借款人拖欠贷款的可能性。由于 zkML,这些所谓的“De-Ai-Fi”产品在未来几年可能会变得更加流行。 游戏。 长期以来,游戏一直被认为可以通过公链进行颠覆和增强。 zkML 使人工智能的链上游戏成为可能。 Modulus Labs已经实现了简单链上游戏的概念验证。 Leela vs the World是一款博弈论国际象棋游戏,用户在其中对抗 AI 国际象棋模型,zkML 验证 Leela 所做的每一步都是基于游戏运行的模型。同样,团队也使用 EZKL 框架来构建简单的歌唱比赛和链上井字游戏。 Cartridge正在使用Giza使团队能够部署完全链上游戏,最近重点引入了一款简单的人工智能驾驶游戏,用户可以竞争为试图避开障碍物的汽车创建更好的模型。虽然简单,但这些概念验证指向未来的实现,能够实现更复杂的链上验证,例如能够与游戏内经济体进行交互的复杂 NPC 演员,如《 AI Arena》中所见,这是一款超级大乱斗游戏,玩家可以在其中训练自己的战士,然后部署为AI模型进行战斗。 身份、溯源和隐私。 加密货币已经被用作验证真实性和打击越来越多的人工智能生成/操纵内容和深度伪造的手段。 zkML 可以推进这些努力。 WorldCoin 是一种身份证明解决方案,要求用户扫描虹膜以生成唯一的 ID。未来,生物识别 ID 可以使用加密存储在个人设备上进行自我托管,并使用验证本地运行的生物识别所需的模型。然后,用户可以提供生物识别证据,而无需透露自己的身份,从而在确保隐私的同时抵御女巫攻击。这也可以应用于需要隐私的其他推论,例如使用模型分析医疗数据/图像来检测疾病、验证人格并在约会应用程序中开发匹配算法,或者需要验证财务信息的保险和贷款机构。 展望 zkML 仍处于实验阶段,大多数项目都专注于构建基础设施原语和概念证明。如今的挑战包括计算成本、内存限制、模型复杂性、有限的工具和基础设施以及开发人员人才。简而言之,在 zkML 能够以消费产品所需的规模实施之前,还有相当多的工作要做。 然而,随着该领域的成熟以及这些限制的解决,zkML将成为AI和加密集成的关键组成部分。从本质上讲,zkML 承诺能够将任何规模的链下计算引入链上,同时保持与链上运行相同或接近相同的安全保证。然而,在这一愿景实现之前,该技术的早期用户将继续必须在 zkML 的隐私和安全性与替代方案的效率之间进行权衡。 AI智能体 AI和加密货币最令人兴奋的集成之一是正在进行的AI智能体实验。智能体是能够使用AI模型接收、解释和执行任务的自主机器人。这可以是任何事情,从拥有一个随时可用的根据你的偏好进行微调的个人助理,到雇用一个根据你的风险偏好来管理和调整你的投资组合的金融机器人。 由于加密货币提供了无需许可和无需信任的支付基础设施,智能体和加密货币可以很好地结合在一起。经过培训后,智能体将获得一个钱包,以便他们可以自行使用智能合约进行交易。例如,今天的简单智能体可以在互联网上抓取信息,然后根据模型在预测市场上进行交易。 智能体提供商 Morpheus是 2024 年在以太坊和 Arbitrum 上上市的最新开源智能体项目之一。其白皮书于 2023 年 9 月匿名发布,为社区的形成和构建提供了基础(包括Erik Vorhees等著名人物) 。该白皮书包括一个可下载的智能体协议,它是一个开源的LLM,可以在本地运行,由用户的钱包管理,并与智能合约交互。它使用智能合约排名来帮助智能体根据处理的交易数量等标准确定哪些智能合约可以安全地进行交互。 白皮书还提供了构建 Morpheus 网络的框架,例如使智能体协议运行所需的激励结构和基础设施。这包括激励贡献者构建用于与智能体交互的前端、供开发人员构建可插入智能体以便他们可以相互交互的应用程序的 API,以及使用户能够访问运行智能体所需的计算和存储的云解决方案在边缘设备上。该项目的初始资金已于 2 月初启动,完整协议预计将于 2024 年第二季度启动。 去中心化自治基础设施网络 (DAIN)是一种新的智能体基础设施协议,在 Solana 上构建智能体到智能体经济。 DAIN 的目标是让来自不同企业的智能体可以通过通用 API 无缝地相互交互,从而大大开放 AI 智能体的设计空间,重点是实现能够与 web2 和 web3 产品交互的智能体。一月份,DAIN 宣布与 Asset Shield 首次合作,使用户能够将“智能体签名者”添加到其多重签名中,这些签名者能够根据用户设置的规则解释交易并批准/拒绝。 Fetch.AI是最早部署的 AI 智能体协议之一,并开发了一个生态系统,用于使用 FET 代币和Fetch.AI钱包在链上构建、部署和使用智能体。该协议提供了一套用于使用智能体的全面工具和应用程序,包括用于与智能体交互和订购代理的钱包内功能。 Autonolas的创始人包括 Fetch 团队的前成员,它是一个用于创建和使用去中心化AI智能体的开放市场。 Autonolas 还为开发人员提供了一套工具来构建链下托管的AI智能体,并可以插入多个区块链,包括 Polygon、Ethereum、Gnosis Chain 和 Solana。他们目前拥有一些活跃的智能体概念验证产品,包括用于预测市场和 DAO 治理。 SingularityNet正在为AI智能体构建一个去中心化的市场,人们可以在其中部署专注的AI智能体,这些智能体可以被其他人或智能体雇用来执行复杂的任务。其他公司,如AlteredStateMachine,正在构建 AI 智能体与 NFT 的集成。用户铸造具有随机属性的 NFT,这些属性赋予他们在不同任务上的优势和劣势。然后可以对这些智能体进行训练,以增强某些属性,以用于游戏、DeFi 或作为虚拟助手并与其他用户进行交易。 总的来说,这些项目设想了一个未来的智能体生态系统,这些智能体能够协同工作,不仅可以执行任务,还可以帮助构建通用AI。真正复杂的智能体将有能力自主完成任何用户任务。例如,完全自主的智能体将能够弄清楚如何雇用另一个智能体来集成 API,然后执行,而不必确保智能体在使用之前已经与外部 API(例如旅行预订网站)集成并执行任务。从用户的角度来看,不需要检查智能体是否可以完成任务,因为智能体可以自己确定。 比特币和AI智能体 2023 年 7 月,闪电网络实验室推出了在闪电网络上使用智能体的概念验证实施方案,称为 LangChain 比特币套件。该产品特别有趣,因为它旨在解决 Web 2 世界中日益严重的问题——Web应用程序的门禁且昂贵的API 密钥。 LangChain 通过为开发人员提供一套工具来解决这个问题,使智能体能够购买、出售和持有比特币,以及查询 API 密钥和发送小额支付。在传统的支付领域,小额支付由于费用而成本高昂,而在闪电网络上,智能体可以每天以最低的费用发送无限的小额支付。当与 LangChain 的 L402 支付计量 API 框架结合使用时,这允许公司可以根据使用量的增加和减少调整其 API 的访问费用,而不是设定单一的成本过高的标准。 在未来,链上活动主要由智能体与智能体交互所主导,这样的事情将是必要的,以确保智能体能够以成本不过高的方式相互交互。这是一个早期的例子,说明如何在无需许可且经济高效的支付赛道上使用智能体,为新市场和经济互动开辟了可能性。 展望 智能体领域仍处于新生阶段。项目刚刚开始推出功能性智能体,可以使用其基础设施处理简单的任务——这通常只有经验丰富的开发人员和用户才能访问。然而,随着时间的推移,AI智能体对加密货币的最大影响之一是所有垂直领域的用户体验改进。交易将开始从基于点击转向基于文本,用户能够通过大语言模性与链上智能体进行交互。Dawn Wallet等团队已经推出了聊天机器人钱包,供用户在链上进行交互。 此外,目前尚不清楚智能体如何在 Web 2 中运作,因为金融领域依赖于受监管的银行机构,这些机构不能 24/7 运营,也无法进行无缝跨境交易。正如Lyn Alden所强调的那样,由于缺乏退款和处理微交易的能力,与信用卡相比,加密赛道尤其有吸引力。然而,如果智能体成为一种更常见的交易方式,现有的支付提供商和应用程序很可能会迅速采取行动,实施在现有金融领域运营所需的基础设施,从而削弱使用加密货币的一些好处。 目前,智能体可能仅限于确定性的加密货币交易,其中给定输入保证给定输出。这两种模型都规定了这些智能体弄清楚如何执行复杂任务的能力,而工具则扩大了它们可以完成的范围,都需要进一步开发。为了让加密智能体在新颖的链上加密用例之外变得有用,需要更广泛的集成和接受加密作为一种支付形式以及监管的明确性。然而,随着这些组件的发展,智能体准备成为上述去中心化计算和 zkML 解决方案的最大消费者之一,以自主的非确定性方式接收和解决任何任务。 结论 AI 为加密货币引入了我们在 web2 中看到的相同创新,增强了从基础设施开发到用户体验和可访问性的各个方面。然而,项目仍处于发展早期,近期加密货币和AI集成将主要由链下集成主导。 像Copilot这样的产品将使开发人员效率“提高10 倍”,Layer1和DeFi应用程序已经与微软等大公司合作推出人工智能辅助开发平台。Cub3.ai和Test Machine等公司正在开发用于智能合约审计和实时威胁监控的AI集成,以增强链上安全性。 LLM 聊天机器人正在使用链上数据、协议文档和应用程序进行培训,为用户提供增强的可访问性和用户体验。 对于真正利用加密货币底层技术的更高级集成来说,挑战仍然是证明在链上实施AI解决方案在技术上是可行的,而且在经济上也是可行的。去中心化计算、zkML 和 AI 智能体的发展指向有前景的垂直领域,这些领域为加密货币和AI深度互联的未来奠定了基础。 来源:金色财经
lg
...
金色财经
2024-02-19
瑞银称英伟达大幅缩短
AI
GPU
交付周期,从8-11个月降至3-4个月
go
lg
...
分享给投资者的备忘录,英伟达大幅缩短了
AI
GPU
的交付周期,从去年年底的8-11个月缩短到了现在的3-4个月。机构认为英伟达大幅缩短
AI
GPU
交付周期存在两种可能:该公司正在规划新的方案提高产能,满足未来的订单;而另一种可能是英伟达目前已具备足够的产能,可以处理积压的订单,当然不排除两个因素叠加的效果。
lg
...
金融界
2024-02-18
瑞银称英伟达大幅缩短
AI
GPU
交付周期 从8-11降至3-4个月
go
lg
...
享给投资者的备忘录,英伟达大幅缩短了
AI
GPU
的交付周期,从去年年底的 8-11 个月缩短到了现在的 3-4 个月。机构认为英伟达大幅缩短
AI
GPU
交付周期存在两种可能:该公司正在规划新的方案提高产能,满足未来的订单;而另一种可能是英伟达目前已具备足够的产能,可以处理积压的订单,当然不排除两个因素叠加的效果。
lg
...
金融界
2024-02-17
上一页
1
•••
11
12
13
14
15
•••
18
下一页
24小时热点
特朗普刚刚重磅宣布!中国国家主席习近平会在“不久将来”访问华盛顿
lg
...
中国军方突传大消息!美国新闻周刊:据传与最高领导人亲近的高层军官已被逮捕
lg
...
中国加大指责李嘉诚!长江和记不召开财报会议 分析师:突发情况非常罕见
lg
...
中美突发重磅!中国不续签1000多家美国肉类工厂牌照 可能限制市场准入
lg
...
马斯克语出惊人!美国联邦政府有14台“神秘计算机” 可凭空制造现金
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
63讨论
#VIP会员尊享#
lg
...
1808讨论
#比特币最新消息#
lg
...
983讨论
#CES 2025国际消费电子展#
lg
...
21讨论