全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
AI爆发,芯片强受益获持续关注
go
lg
...
益。 AI爆发,算力是当前的关键主线
ChatGPT
之所以能引爆全球关注,在于人们看到AI对人类信息获取方式的改变,已经从AI辅助创作阶段进化到AIGC的阶段。所谓AIGC(AI-GeneratedContent),即人工智能生成内容,指的是利用人工智能技术如GAN和大型预训练模型等,通过已有数据找出规律,并以适当的泛化能力生成相关内容,通俗来说就是不需要人的辅助,AI能自行创作文本、图像、音乐、视频等各种内容,实现了从分析到创造的飞越。 图:
ChatGPT
开启AIGC奇点 那,AIGC是怎样实现的呢?说到底,AIGC的本质是内容与场景,其发展需要AI技术、后端基础设施以及算法、算力和数据三要素的结合。我们以
ChatGPT
的迭代为例,从GPT到GPT-3,三要素的进化如下: 图:三要素逐步成熟,推动行业进入爆发期 算法方面,GPT-3引入了"人工标注数据+强化学习"的方法进行训练,相较于之前的版本,更加精细和智能化。模型参数量从GPT的1.17亿增加到GPT-3的1750亿,这使得模型更加庞大和复杂,能够处理更加复杂和丰富的语言任务。 数据方面,GPT-3的预训练数据量大幅增加,从GPT的5GB增加到GPT-3的45TB。这意味着GPT-3可以更好地学习和理解大规模的语言数据,提高了模型的语言表达能力和语境理解能力。 算力方面,GPT-3的训练成本非常高,单次训练成本甚至达到了数百万美元以上。它在微软云计算AzureAI超算基础设施上进行训练,总计算力消耗约3640PFs-days。这种庞大的算力支持了GPT-3的训练和推理能力,使其具备了更高的性能和更广泛的应用场景。 这其中,算力是当下市场更关注的主线,毕竟要实现AI的终极目标——AGI(Artificial General Intelligence,即通用人工智能),算力是必由之路。产业链的众多玩家也正在持续增加算力投入,以提升人工智能大模型的性能。 尤其是,在以往,算力基础设施需求主要来源于数据中心、超算中心以及各大互联网公司的云计算中心,需求量和
ChatGPT
相比几乎是九牛一毛,且以往的应用场景主要是推理端像图像识别、语音识别等,而大模型的爆发导致训练的应用场景越来越多,对训练算力的需求会大幅增长,增长幅度能达到10倍甚至100倍。 据IDC预测,2022年全球人工智能市场规模将达到1017亿美元,2025年将超过2000亿美元。人工智能非常依赖于相关基础设施,包括计算、存储和网络等,随着人工智能向多场景化、规模化、融合化等高应用阶段发展,数据体量呈现出急剧增长态势,算法模型的参数量也呈指数级增加,以加速计算为核心的算力中心规模将不断扩大,对算力提出了更高的要求。 图:AI带来海量算力需求 据IDC预测,到2022年,中国的智能算力规模将达到268.0EFLOPS,超过通用算力规模。预计到2026年,智能算力规模将进入ZFLOPS级别,达到1,271.4EFLOPS。在2021-2026年期间,中国的智能算力规模年复合增长率预计将达到52.3%,而同期通用算力规模的年复合增长率为18.5%。根据《IDC中国服务器市场季度跟踪报告》及CPU双精度(FP64)运算能力数据,测算了中国通用算力规模。2021年中国通用算力规模达47.7EFLOPS,预计到2026年通用算力规模将达到111.3EFLOPS。2021-2026年期间,预计中国智能算力规模年复合增长率达52.3%,同期通用算力规模年复合增长率为18.5% 图:算力规模及预测(数据来源IDC) 无芯片,不AI 那么,这样强大的算力,是什么在支撑?答案是芯片。准确说,AI芯片是AI算力的核心。 有说法称,对标
ChatGPT
,做好一个大模型的最低门槛就是1万块A100的芯片。前面说到,随着人工智能应用场景和数据规模的扩大,算法模型的复杂度呈指数级增长,特别是深度学习成为主流,需要更快的计算速度。虽然CPU可以执行AI算法,但由于内部逻辑多,对于AI算法来说效率不高。因此,出现了专门的AI芯片,它们设计用于高效并行计算,加速AI计算过程,并提高性价比。 广义而言,AI 芯片指的是专门用于处理人工智能应用中大量计算任务的模块,除了以 GPU、FPGA、ASIC 为代表的 AI 加速芯片,还有比较前沿性的研究,例如:类脑芯片、可重构通用 AI 芯片等。狭义的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片。 图:AI芯片技术架构 这里面,GPU是AI芯片主力军,因为它拥有卓越的高性能计算能力和通用性,适用于处理复杂算法和通用型人工智能平台。而随着人工智能技术、平台和终端的不断成熟,随着视觉、语音、深度学习的算法在FPGA以及ASIC芯片上的不断优化,此两者也有望逐步占有更多的市场份额。 图:主要AI芯片的功能特性比较(资料来源:IDC) 图:中国AI芯片市场规模占比(数据来源IDC) 根据VMR数据,全球和中国的GPU市场规模预计将继续快速增长。2021年全球GPU市场规模达到334.7亿美元,预计到2030年将增至4773.7亿美元,年复合增长率达34.4%。2020年中国GPU市场规模为47.39亿美元,预计到2027年将增至345.57亿美元,年复合增长率为32.8%。这表明GPU在人工智能领域的需求将继续扩大,并将成为市场的重要推动力量。 寻找中国版英伟达,期待国产替代空间 对于AI在下一轮科技革命中的地位,各国已经形成共识,都在纷纷抢滩。从中美对比来说,竞争优势的争夺就主要涉及前面提到的算法、大数据资源和算力三方面。在算法设计方面,双方没有明显差距,主要依赖设计团队的智慧和灵感;在大数据资源方面,中国占据着绝对优势,双方在大数据分析技术上相近。然而,决定人工智能产品的关键要素还包括“算力",计算能力是计算机的核心能力,这也是中美两国长期竞争超级计算机领域的原因之一。国内大模型与国外的主要差距也体现在算力层面,没有算力基础,后面算法等发展都无法进行。 在AI芯片领域,国外的芯片巨头占据了大部分市场份额,有着明显的先发优势,比如英伟达、AMD、英特尔的营收几乎代表整个GPU行业收入。而国内的AI芯片产业起步较晚,与世界先进水平存在较大差距,国内AI芯片市场也较为分散,集中度较低,发展空间巨大。 图:AI芯片产业图谱 图:AI的核心驱动与英伟达的三重壁垒 资料来源:长江证券 不过,国内一批新兴力量正在崛起,竞争梯队越发丰富。从国内AI芯片厂商格局来看,以大算力或者高性能计算芯片为代表,一梯队,有成熟产品、批量出货的企业,主要包括寒武纪、华为海思、百度昆仑芯、燧原科技,这四家有2-3代更多的产品,技术能力、软件能力都有一定积累;二梯队,主要包括以AI芯片起家的壁仞科技、天数智心、摩尔线程、沐曦等。壁仞科技去年发布的产品规格很高,但主要还停留在纸面数据,实测数据、实际性能方面业界和第三方评测机构评价没有那么高,软件层面从使用角度来讲也还有很大的成长空间。其他几家也陆续有产品推出,但技术能力还停留在推理层面,不像一梯队企业有更成熟的产品经验;三梯队,如海光、景嘉微等。技术能力还有待市场的认可和验证。 图:国内AI厂商成立时间表(来源甲子光年) 从产品来说,目前国内已经批量生产的产品大多都是A100的上一代,如昆仑芯三代、思远590、燧思3.0等,不过,各公司正在研发更新一代产品,缩小国内外差距。天弘基金指出,向后看,基于国家政策的大力支持,以及自主可控的迫切需求,中国厂商有望迎来更大的国产升级机遇。而如果国内产品能够替代英伟达的算力产品,将会是非常大的机会。数据中心建设方面也需要服务器,会带动国内提供大型服务器的厂商,比如浪潮信息、中科曙光等,以及光模块、调节芯片和散热技术,需求都会受益于大模型浪潮。相信随着国内企业的持续投入和创新,以及政府的支持,中国在人工智能领域的发展势头仍然很强,有望逐步缩小与国外竞争对手的差距。 AI的一切才刚刚开始,其带来的潜在生产力提升和劳动力供应的增加等结果不可低估。而从当下的投资时点来看,2024年半导体芯片板块投资或许可以关注三条主逻辑:一是周期底部,景气复苏;二是人工智能推动超级创新周期,AI芯片迎来发展机遇;三是国产升级研发成果正在逐步落地,突破性产品发布。关注相关投资机会的投资者,可以通过芯片产业ETF(159310)进行布局,覆盖芯片领域高研发投入、高技术壁垒的50家优质成长型企业,把握芯片板块的持续增长机遇。4月8日开始,芯片ETF(159310)正在火热发售中,中信、中信建投、华泰、光大等渠道均可购买。 风险提示:观点仅供参考,不构成投资建议。文中所提及企业客观列示,不作为推介。市场有风险,投资需谨慎。指数基金存在跟踪误差。基金过往业绩不代表未来表现,购买前请仔细阅读《基金合同》和《招募说明书》。我国基金运作时间较短,不能反映证券市场发展的所有阶段。 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
04-09 15:27
AI爆发,芯片崛起!
go
lg
...
益。 AI爆发,算力是当前的关键主线
ChatGPT
之所以能引爆全球关注,在于人们看到AI对人类信息获取方式的改变,已经从AI辅助创作阶段进化到AIGC的阶段。所谓AIGC(AI-GeneratedContent),即人工智能生成内容,指的是利用人工智能技术如GAN和大型预训练模型等,通过已有数据找出规律,并以适当的泛化能力生成相关内容,通俗来说就是不需要人的辅助,AI能自行创作文本、图像、音乐、视频等各种内容,实现了从分析到创造的飞越。 图:
ChatGPT
开启AIGC奇点 那,AIGC是怎样实现的呢?说到底,AIGC的本质是内容与场景,其发展需要AI技术、后端基础设施以及算法、算力和数据三要素的结合。我们以
ChatGPT
的迭代为例,从GPT到GPT-3,三要素的进化如下: 图:三要素逐步成熟,推动行业进入爆发期 算法方面,GPT-3引入了"人工标注数据+强化学习"的方法进行训练,相较于之前的版本,更加精细和智能化。模型参数量从GPT的1.17亿增加到GPT-3的1750亿,这使得模型更加庞大和复杂,能够处理更加复杂和丰富的语言任务。 数据方面,GPT-3的预训练数据量大幅增加,从GPT的5GB增加到GPT-3的45TB。这意味着GPT-3可以更好地学习和理解大规模的语言数据,提高了模型的语言表达能力和语境理解能力。 算力方面,GPT-3的训练成本非常高,单次训练成本甚至达到了数百万美元以上。它在微软云计算AzureAI超算基础设施上进行训练,总计算力消耗约3640PFs-days。这种庞大的算力支持了GPT-3的训练和推理能力,使其具备了更高的性能和更广泛的应用场景。 这其中,算力是当下市场更关注的主线,毕竟要实现AI的终极目标——AGI(Artificial General Intelligence,即通用人工智能),算力是必由之路。产业链的众多玩家也正在持续增加算力投入,以提升人工智能大模型的性能。 尤其是,在以往,算力基础设施需求主要来源于数据中心、超算中心以及各大互联网公司的云计算中心,需求量和
ChatGPT
相比几乎是九牛一毛,且以往的应用场景主要是推理端像图像识别、语音识别等,而大模型的爆发导致训练的应用场景越来越多,对训练算力的需求会大幅增长,增长幅度能达到10倍甚至100倍。 据IDC预测,2022年全球人工智能市场规模将达到1017亿美元,2025年将超过2000亿美元。人工智能非常依赖于相关基础设施,包括计算、存储和网络等,随着人工智能向多场景化、规模化、融合化等高应用阶段发展,数据体量呈现出急剧增长态势,算法模型的参数量也呈指数级增加,以加速计算为核心的算力中心规模将不断扩大,对算力提出了更高的要求。 图:AI带来海量算力需求 据IDC预测,到2022年,中国的智能算力规模将达到268.0EFLOPS,超过通用算力规模。预计到2026年,智能算力规模将进入ZFLOPS级别,达到1,271.4EFLOPS。在2021-2026年期间,中国的智能算力规模年复合增长率预计将达到52.3%,而同期通用算力规模的年复合增长率为18.5%。根据《IDC中国服务器市场季度跟踪报告》及CPU双精度(FP64)运算能力数据,测算了中国通用算力规模。2021年中国通用算力规模达47.7EFLOPS,预计到2026年通用算力规模将达到111.3EFLOPS。2021-2026年期间,预计中国智能算力规模年复合增长率达52.3%,同期通用算力规模年复合增长率为18.5% 图:算力规模及预测(数据来源IDC) 无芯片,不AI 那么,这样强大的算力,是什么在支撑?答案是芯片。准确说,AI芯片是AI算力的核心。 有说法称,对标
ChatGPT
,做好一个大模型的最低门槛就是1万块A100的芯片。前面说到,随着人工智能应用场景和数据规模的扩大,算法模型的复杂度呈指数级增长,特别是深度学习成为主流,需要更快的计算速度。虽然CPU可以执行AI算法,但由于内部逻辑多,对于AI算法来说效率不高。因此,出现了专门的AI芯片,它们设计用于高效并行计算,加速AI计算过程,并提高性价比。 广义而言,AI 芯片指的是专门用于处理人工智能应用中大量计算任务的模块,除了以 GPU、FPGA、ASIC 为代表的 AI 加速芯片,还有比较前沿性的研究,例如:类脑芯片、可重构通用 AI 芯片等。狭义的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片。 图:AI芯片技术架构 这里面,GPU是AI芯片主力军,因为它拥有卓越的高性能计算能力和通用性,适用于处理复杂算法和通用型人工智能平台。而随着人工智能技术、平台和终端的不断成熟,随着视觉、语音、深度学习的算法在FPGA以及ASIC芯片上的不断优化,此两者也有望逐步占有更多的市场份额。 图:主要AI芯片的功能特性比较(资料来源:IDC) 图:中国AI芯片市场规模占比(数据来源IDC) 根据VMR数据,全球和中国的GPU市场规模预计将继续快速增长。2021年全球GPU市场规模达到334.7亿美元,预计到2030年将增至4773.7亿美元,年复合增长率达34.4%。2020年中国GPU市场规模为47.39亿美元,预计到2027年将增至345.57亿美元,年复合增长率为32.8%。这表明GPU在人工智能领域的需求将继续扩大,并将成为市场的重要推动力量。 寻找中国版英伟达,期待国产替代空间 对于AI在下一轮科技革命中的地位,各国已经形成共识,都在纷纷抢滩。从中美对比来说,竞争优势的争夺就主要涉及前面提到的算法、大数据资源和算力三方面。在算法设计方面,双方没有明显差距,主要依赖设计团队的智慧和灵感;在大数据资源方面,中国占据着绝对优势,双方在大数据分析技术上相近。然而,决定人工智能产品的关键要素还包括“算力",计算能力是计算机的核心能力,这也是中美两国长期竞争超级计算机领域的原因之一。国内大模型与国外的主要差距也体现在算力层面,没有算力基础,后面算法等发展都无法进行。 在AI芯片领域,国外的芯片巨头占据了大部分市场份额,有着明显的先发优势,比如英伟达、AMD、英特尔的营收几乎代表整个GPU行业收入。而国内的AI芯片产业起步较晚,与世界先进水平存在较大差距,国内AI芯片市场也较为分散,集中度较低,发展空间巨大。 图:AI芯片产业图谱 图:AI的核心驱动与英伟达的三重壁垒 资料来源:长江证券 不过,国内一批新兴力量正在崛起,竞争梯队越发丰富。从国内AI芯片厂商格局来看,以大算力或者高性能计算芯片为代表,一梯队,有成熟产品、批量出货的企业,主要包括寒武纪、华为海思、百度昆仑芯、燧原科技,这四家有2-3代更多的产品,技术能力、软件能力都有一定积累;二梯队,主要包括以AI芯片起家的壁仞科技、天数智心、摩尔线程、沐曦等。壁仞科技去年发布的产品规格很高,但主要还停留在纸面数据,实测数据、实际性能方面业界和第三方评测机构评价没有那么高,软件层面从使用角度来讲也还有很大的成长空间。其他几家也陆续有产品推出,但技术能力还停留在推理层面,不像一梯队企业有更成熟的产品经验;三梯队,如海光、景嘉微等。技术能力还有待市场的认可和验证。 图:国内AI厂商成立时间表(来源甲子光年) 从产品来说,目前国内已经批量生产的产品大多都是A100的上一代,如昆仑芯三代、思远590、燧思3.0等,不过,各公司正在研发更新一代产品,缩小国内外差距。向后看,基于国家政策的大力支持,以及自主可控的迫切需求,中国厂商有望迎来更大的国产替代机遇。而如果国内产品能够替代英伟达的算力产品,将会是非常大的机会。数据中心建设方面也需要服务器,会带动国内提供大型服务器的厂商,比如浪潮信息、中科曙光等,以及光模块、调节芯片和散热技术,需求都会受益于大模型浪潮。相信随着国内企业的持续投入和创新,以及政府的支持,中国在人工智能领域的发展势头仍然很强,有望逐步缩小与国外竞争对手的差距。 AI的一切才刚刚开始,其带来的潜在生产力提升和劳动力供应的增加等结果不可低估。而从当下的投资时点来看,2024年半导体芯片板块投资或许可以关注三条主逻辑:一是周期底部,景气复苏;二是人工智能推动超级创新周期,AI芯片迎来发展机遇;三是国产替代研发成果正在逐步落地,突破性产品发布。关注相关投资机会的投资者,可以通过芯片产业ETF(159310)进行布局,覆盖芯片领域高研发投入、高技术壁垒的50家优质成长型企业,把握芯片板块的持续增长机遇。4月8日开始,芯片ETF(159310)正在火热发售中,中信、中信建投、华泰、光大等渠道均可购买。 风险提示:观点仅供参考,不构成投资建议。文中所提及企业客观列示,不作为推介。市场有风险,投资需谨慎。指数基金存在跟踪误差。基金过往业绩不代表未来表现,购买前请仔细阅读《基金合同》和《招募说明书》。我国基金运作时间较短,不能反映证券市场发展的所有阶段。
lg
...
证券之星
04-09 15:17
AI\DePIN\Sol生态三重光环加身:浅析发币在即的IO.NET
go
lg
...
而刚刚过去的2023年,大概率也会因为
ChatGPT
,而被称之为又一个“奇迹年”。 我们把2023年看做人类科技史上的有一个“奇迹年”,不仅是因为GPT在自然语言理解和生成上的巨大进步,更是因为人类从GPT的进化中摸清了大语言模型能力增长的规律——即通过扩大模型参数和训练数据,就能指数级别提升模型的能力——且这一进程短期还看不到瓶颈(只要算力够用的话)。 该能力远不至于理解语言和生成对话,还能被广泛地交叉用于各类科技领域,以大语言模型在生物领域的应用为例: 2018年,诺贝尔化学奖得主弗朗西斯·阿诺德在颁奖仪式上才说道:“今天我们在实际应用中可以阅读、写入和编辑任何 DNA 序列,但我们还无法通过它创作(compose it)。”仅仅在他讲话的5年后,2023年,来自斯坦福大学和硅谷的AI创业企业Salesforce Research的研究者,在《自然-生物技术》发表论文,他们通过基于GPT3微调而成的大语言模型,从0创造出了全新的100万种蛋白质,并从中寻找到2种结构截然不同、却都具有杀菌能力的蛋白质,有希望成为抗生素之外的细菌对抗方案。也就是说:在AI的帮助下,蛋白质“创造”的瓶颈突破了。 而在此前,人工智能AlphaFold算法在18个月内,把地球上几乎所有的2.14亿种蛋白质结构都做了预测,这项成果是过往所有人类结构生物学家工作成果的几百倍。 有了基于AI的各类模型,从生物科技、材料科学、药物研发等硬科技,再到法律、艺术等人文领域,必将迎来翻天覆地的变革,而2023正是这一切的元年。 我们都知道,近百年来人类在财富上的创造能力是指数级别增长的,而AI技术的快速成熟,必然会进一步加速这一进程。 全球GDP总量走势图,数据来源:世界银行 1.2 AI与Crypto的结合 要从本质上理解AI与Crypto结合的必要性,可以从两者互补的特性开始。 AI和Crypto特性的互补 AI有三个属性: 随机性:AI具有随机性,其内容生产的机制背后是一个难以复现、探查的黑盒,因此结果也具有随机性 资源密集:AI是资源密集型产业,需要大量的能源、芯片、算力 类人智能:AI(很快将)能够通过图灵测试,此后,人机难辨* ※2023年10月30日,美国加州大学圣迭戈分校的研究小组发布了关于GPT-3.5和GPT-4.0的图灵测试结果(测试报告)。GPT4.0成绩为41%,距离及格线50%仅差9%,同项目人类测试成绩为63%。本图灵测试的含义为有百分之多少的人认为和他聊天的那个对象是真人。如果超过50%,就说明人群中至少有一半以上的人认为那个交谈对象是人,而不是机器,即视作通过图灵测试。 AI在为人类创造新的跨越式的生产力的同时,它的这三个属性也给人类社会带来的巨大的挑战,即: 如何验证、控制AI的随机性,让随机性成为一种优势而非缺陷 如何满足AI所需要的巨大能源和算力缺口 如何分辨人和机器 而Crypto和区块链经济的特性,或许正好是解决AI带来的挑战的良药,加密经济具有以下3个特征: 确定性:业务基于区块链、代码和智能合约运行,规则和边界清晰,什么输入就有什么结果,高度确定性 资源配置高效:加密经济构建了一个庞大的全球自由市场,资源的定价、募集、流转非常快速,且由于代币的存在,可以通过激励加速市场供需的匹配,加速到达临界点 免信任:账本公开,代码开源,人人可便捷验证,带来“去信任(trustless)”的系统,而ZK技术则避免验证同时的隐私暴露 接下来通过3个例子来说明AI和加密经济的互补性。 例子A:解决随机性,基于加密经济的AI代理 AI代理(AI Agent)即负责基于人类意志,替人类执行工作的人工智能程序(代表性项目有Fetch.AI)。假设我们要让自己的AI代理处理一笔金融交易,比如“买入1000美元的BTC”。AI代理可能面临两种情况: 情况一,它要对接传统金融机构(比如贝莱德),购入BTC ETF,这里面临着大量的AI代理和中心化机构的适配问题,比如KYC、资料审查、登录、身份验证等等,目前来说还是非常麻烦。 情况二,它基于原生加密经济运行,情况会变得简单得多,它会通过Uniswap或是某个聚合交易平台,直接用你的账户签名、下单完成交易,收到WBTC(或是其他封装格式的BTC),整个过程快捷简单。实际上,这就是各类Trading BOT在做的事情,它们实际上已经扮演了一个初级的AI代理的角色,只不过工作专注于交易而已。未来各类交易BOT随着AI的融入和演化,必然能执行更多复杂的交易意图。比如:跟踪100个链上的聪明钱地址,分析它们的交易策略和成功率,用我地址里的10%资金在一周内执行类似交易,并在发现效果不佳时停止,并总结失败的可能原因。 AI在区块链的系统中运行会更加良好,本质上是因为加密经济规则的清晰性,以及系统访问的无许可。在限定的规则下执行任务,AI的随机性带来的潜在风险也将更小。比如AI在棋牌比赛、电子游戏的表现已经碾压人类,就是因为棋牌和游戏是一个规则清晰的封闭沙盒。而AI在自动驾驶上的进展会相对缓慢,因为开放的外部环境的挑战更大,我们也更难容忍AI处理问题的随机性。 例子B:塑造资源,通过代币激励聚集资源 BTC背后的全球的算力网络,其当前的总算力(Hashrate: 576.70 EH/s)超过了任何一个国家的超级计算机的综合算力。其发展动力来自于简单、公平的网络激励。 BTC网络算力走势,来源:https://www.coinwarz.com/ 除此之外,包括Mobile在内的DePIN项目们,也正在尝试通过代币激励塑造供需两端的双边市场,实现网络效应。本文接下来将重点梳理的IO.NET,则是为了汇聚AI算力设计的平台,希望通过代币模型,激发出更多的AI算力潜力。 例子C:开源代码,引入ZK,保护隐私的情况下分辨人机 作为OpenAI创始人Sam Altman参与的Web3项目,Worldcoin通过硬件设备Orb,基于人的虹膜生物特征,通过ZK技术生成专属且匿名的哈希值,用于验证身份,区别人和机器。今年3月初,Web3艺术项目Drip就开始使用Worldcoin的ID,来验证真人用户和发放奖励。 此外,Worldcoin也在近日开源了其虹膜硬件Orb的程序代码,就用户生物特征的安全和隐私提供保证。 总体来说,加密经济由于代码和密码学的确定性、无许可和代币机制带来的资源流转和募集优势,和基于开源代码、公开账本的去信任属性,已经成为人类社会面临AI挑战的一个重要的潜在解决方案。 而且其中最迫在眉睫,商业需求最旺盛的挑战,就是AI产品在算力资源上的极度饥渴,围绕芯片和算力的巨大需求。 这也是本轮牛市周期,分布式算力项目的涨势冠绝整体AI赛道的主要原因。 分布式计算(Decentralized Compute)的商业必要性 AI需要大量的计算资源,无论是用于训练模型还是进行推理。 而在大语言模型的训练实践中,有一个事实已经得到确认:只要数据参数的规模足够大,大语言模型就会涌现出一些之前没有的能力。每一代GPT的能力相比上一代的指数型跃迁,背后就是模型训练的计算量的指数级增长。 DeepMind和斯坦福大学的研究显示,不同的大语言模型,在面对不同的任务(运算、波斯语问答、自然语言理解等)时,只要把模型训练时的模型参数规模加大(对应地,训练的计算量也加大了),在训练量达不到10^22 FLOPs(FLOPs指每秒浮点运算量,用于衡量计算性能)之前,任何任务的表现都和随机给出答案是差不多的;而一旦参数规模超越那个规模的临界值后,任务表现就急剧提升,不论哪个语言模型都是这样。 来源:Emergent Abilities of Large Language Models 来源:Emergent Abilities of Large Language Models 也正是在算力上“大力出奇迹”的规律和实践的验证,让OpenAI的创始人Sam Altman提出了要募集7万亿美金,构建一个超过目前台积电10倍规模的先进芯片厂(该部分预计花费1.5万亿),并用剩余资金用于芯片的生产和模型训练。 除了AI模型的训练需要算力之外,模型的推理过程本身也需要很大的算力(尽管相比训练的计算量要小),因此对芯片和算力的饥渴成为了AI赛道参与者的常态。 相对于中心化的AI算力提供方如Amazon Web Services、Google Cloud Platform、微软的Azure等,分布式AI计算的主要价值主张包括: 可访问性:使用 AWS、GCP 或 Azure 等云服务获取算力芯片的访问权限通常需要几周时间,而且流行的 GPU 型号经常无货。此外为了拿到算力,消费者往往需要跟这些大公司签订长期、缺少弹性的合同。而分布式算力平台可以提供弹性的硬件选择,有更强的可访问性。 定价低:由于利用的是闲置芯片,再叠加网络协议方对芯片和算力供给方的代币补贴,分布式算力网络可能可以提供更为低廉的算力。 抗审查:目前尖端算力芯片和供应被大型科技公司所垄断,加上以美国为代表的政府正在加大对AI算力服务的审查,AI算力能够被分布式、弹性、自由地获取,逐渐成为一个显性需求,这也是基于web3的算力服务平台的核心价值主张。 如果说化石能源是工业时代的血液,那算力或将是由AI开启的新数字时代的血液,算力的供应将成为AI时代的基础设施。正如稳定币成为法币在Web3时代的一个茁壮生长的旁支,分布式的算力市场是否会成为快速成长的AI算力市场的一个旁支? 由于这还是一个相当早期的市场,一切都还有待观察。但是以下几个因素可能会对分布式算力的叙事或是市场采用起到刺激作用: GPU持续的供需紧张。GPU的持续供应紧张,或许会推动一些开发者转向尝试分布式的算力平台。 监管扩张。想从大型的云算力平台获取AI算力服务,必须经过KYC以及层层审查。这反而可能促成分布式算力平台的采用,尤其是一些受到限制和制裁的地区。 代币价格的刺激。牛市周期代币价格的上涨,会提高平台对GPU供给端的补贴价值,进而吸引更多供给方进入市场,提高市场的规模,降低消费者的实际购买价格。 但同时,分布式算力平台的挑战也相当明显: 技术和工程难题 工作验证问题:深度学习模型的计算,由于层级化的结构,每层的输出都作为后一层的输入,因此验证计算的有效性需要执行之前的所有工作,无法简单有效地进行验证。为了解决这个问题,分布式计算平台需要开发新的算法或使用近似验证技术,这些技术可以提供结果正确性的概率保证,而不是绝对的确定性。 并行化难题:分布式算力平台汇聚的是长尾的芯片供给,也就注定了单个设备所能提供的算力比较有限,单个芯片供给方几乎短时间独立完成AI模型的训练或推理任务,所以必须通过并行化的手段来拆解和分配任务,缩短总的完成时间。而并行化又必然面临任务如何分解(尤其是复杂的深度学习任务)、数据依赖性、设备之间额外的通信成本等一系列问题。 隐私保护问题:如何保证采购方的数据以及模型不暴露给任务的接收方? 监管合规难题 分布式计算平台由于其供给和采购双边市场的无许可性,一方面可以作为卖点吸引到部分客户。另一方面则可能随着AI监管规范的完善,成为政府整顿的对象。此外,部分GPU的供应商也会担心自己出租的算力资源,是否被提供给了被制裁的商业或个人。 总的来说,分布式计算平台的消费者大多是专业的开发者,或是中小型的机构,与购买加密货币和NFT的加密投资者们不同,这类用户对于协议所能提供的服务的稳定性、持续性有更高的要求,价格未必是他们决策的主要动机。目前来看,分布式计算平台们要获得这类用户的认可,仍然有较长的路要走。 接下来,我们就一个本轮周期的新分布式算力项目IO.NET进行项目信息的梳理和分析,并基于目前市场上同赛道的AI项目和分布式计算项目,测算其上市后可能的估值水平。 2.分布式AI算力平台:IO.NET 2.1 项目定位 IO.NET是一个去中心化计算网络,其构建了一个围绕芯片的双边市场,供给端是分布在全球的芯片(GPU为主,也有CPU以及苹果的iGPU等)算力,需求端是希望完成AI模型训练或推理任务的人工智能工程师。 在IO.NET的官网上,它这样写道: Our Mission Putting together one million GPUs in a DePIN – decentralized physical infrastructure network. 其使命是把百万数量级的GPU整合到它的DePIN网络中。 与现有的云AI算力服务商相比,其对外强调的主要卖点在于: 弹性组合:AI工程师可以自由挑选、组合自己所需要的芯片来组成“集群”,来完成自己的计算任务 部署迅速:无需数周的审批和等待(目前AWS等中心化厂商的情况),在几十秒内就可以完成部署,开始任务 服务低价:服务的成本比主流厂商低90% 此外,IO.NET未来还计划上线AI模型商店等服务。 2.2 产品机制和业务数据 产品机制和部署体验 与亚马逊云、谷歌云、阿里云一样,IO.NET提供的计算服务叫IO Cloud。IO Cloud是一个分布式的、去中心化的芯片网络,能够执行基于Python的机器学习代码,运行AI和机器学习程序。 IO Cloud的基本业务模块叫做集群(Clusters),Clusters是一个可以自我协调完成计算任务的GPU群组,人工智能工程师可以根据自己的需求来自定义想要的集群。 IO.NET的产品界面的用户友好度很高,如果你要部署属于自己的芯片集群,来完成AI计算任务,在进入它的Clusters(集群)产品页面后,就可以开始按需配置你要的芯片集群。 页面信息:https://cloud.io.net/cloud/clusters/create-cluster,下同 首先你需要选择自己的任务场景,目前有三个类型可供选择: General(通用型):提供了一个比较通用的环境,适合早期不确定具体资源需求的项目阶段。 Train(训练型):专为机器学习模型的训练和微调而设计的集群。这个选项可以提供更多的GPU资源、更高的内存容量和/或更快的网络连接,以便于处理这些高强度的计算任务。 Inference(推理型):专为低延迟推理和重负载工作设计的集群。在机器学习的上下文中,推理指的是使用训练好的模型来进行预测或分析新数据,并提供反馈。因此,这个选项会专注于优化延迟和吞吐量,以便于支持实时或近实时的数据处理需求。 然后,你需要选择芯片集群的供应方,目前IO.NET与Render Network以及Filecoin的矿工网络达成了合作,因此用户可以选择IO.NET或另外两个网络的芯片来作为自己计算集群的供应方,相当于IO.NET扮演了一个聚合器的角色(但截至笔者撰文时,Filecon服务暂时下线中)。值得一提的是,根据页面显示,目前IO.NET在线可用GPU数量为20万+,而Render Network的可用GPU数量为3700+。 再接下来就进入了集群的芯片硬件选择环节,目前IO.NET列出可供选择的硬件类型仅有GPU,不包括CPU或是苹果的iGPU(M1、M2等),而GPU也主要以英伟达的产品为主。 在官方列出、且可用的GPU硬件选项中,根据笔者测试的当日数据,IO.NET网络总在线的可用数量的GPU数量为206001张。其中可用量最多的是GeForce RTX 4090(45250张),其次是GeForce RTX 3090 Ti(30779张)。 此外,在处理AI计算任务如机器学习、深度学习、科学计算上更为高效的A100-SXM4-80GB芯片(市场价15000$+),在线数有7965张。 而英伟达从硬件设计开始就专为AI而生的H100 80GB HBM3显卡(市场价40000$+),其训练性能是A100的3.3倍,推理性能是A100的4.5倍,实际在线数量为86张。 在选定集群的硬件类型后,用户还需要选择集群的地区、通信速度、租用的GPU数量和时间等参数。 最后,IO.NET根据综合的选择,会为你提供一个账单,以笔者的集群配置为例: 通用(General)任务场景 16张A100-SXM4-80GB芯片 最高连接速度(Ultra High Speed) 地理位置美国 租用时间为1周 该总账单价格为3311.6$,单张卡的时租单价为1.232$ 而A100-SXM4-80GB在亚马逊云、谷歌云和微软Azure的单卡时租价格分别为5.12$、5.07$和3.67$(数据来源:https://cloud-gpus.com/,实际价格会根据合约细节条款产生变化)。 因此仅就价格来说,IO.NET的芯片算力确实比主流厂商便宜不少,且供给的组合与采购也非常有弹性,操作也很容易上手。 业务情况 供给端情况 截至今年4月4日,根据官方数据,IO.NET在供应端的GPU总供给为371027张,CPU供给为42321张。此外,Render Network作为其合作伙伴,还有9997张GPU和776张CPU接入了网络的供给。 数据来源:https://cloud.io.net/explorer/home,下同 笔者撰文时,IO.NET接入的GPU总量中的214387处于在线状态,在线率达到了57.8%。来自Render Network的GPU的在线率则为45.1%。 以上供应端的数据意味着什么? 为了进行对比,我们再引入另一个上线时间更久的老牌分布式计算项目Akash Network来进行对比。 Akash Network早在2020年就上线了主网,最初主要专注于CPU和存储的分布式服务。2023年6月,其推出了GPU服务的测试网,并于同年9月上线了GPU分布式算力的主网。 数据来源:https://stats.akash.network/provider-graph/graphics-gpu 根据Akash官方数据,其GPU网络推出以来,供应端尽管持续增长,但截至目前为止GPU总接入数量仅为365张。 从GPU的供应量来看,IO.NET要比Akash Network高出了好几个数量级,已经是分布式GPU算力赛道最大的供应网络。 需求端情况 不过从需求端来看,IO.NET依旧处于市场培育的早期阶段,目前实际使用IO.NET来执行计算任务的总量不多。大部分在线的GPU的任务负载量为0%,只有A100 PCIe 80GB K8S、RTX A6000 K8S、RTX A4000 K8S、H100 80GB HBM3四款芯片有在处理任务。且除了A100 PCIe 80GB K8S之外,其他三款芯片的负载量均不到20%。 而官方当日披露的网络压力值为0%,意味着大部分芯片供应都处于在线待机状态。 而在网络费用规模上,IO.NET已经产生了586029$的服务费用,近一日的费用为3200$。 数据来源:https://cloud.io.net/explorer/clusters 以上网络结算费用的规模,无论是总量还是日交易量,均与Akash处在同一个数量级,不过Akash的大部分网络收入来自于CPU的部分,Akash的CPU供应量有2万多张。 数据来源:https://stats.akash.network/ 此外,IO.NET还披露了网络处理的AI推理任务的业务数据,截至目前其已经处理和验证的推理任务数量超过23万个, 不过这部分业务量大部分都产生于IO.NET所赞助的项目BC8.AI。 数据来源:https://cloud.io.net/explorer/inferences 从目前的业务数据来看,IO.NET的供给端扩张顺利,在空投预期和代号“Ignition”的社区活动刺激下,让其迅速地汇聚起了大量的AI芯片算力。而其在需求端的拓展仍处于早期阶段,有机需求目前还不足。至于目前需求端的不足,是由于消费端的拓展还未开始,还是由于目前的服务体验尚不稳定,因此缺少大规模的采用,这点仍需要评估。 不过考虑到AI算力的落差短期内较难填补,有大量的AI工程师和项目在寻求替代方案,可能会对去中心化的服务商产生兴趣,加上IO.NET目前尚未开展对需求端的经济和活动刺激,以及产品体验的逐渐提升,后续供需两端的逐渐匹配仍然是值得期待的。 2.3 团队背景和融资情况 团队情况 IO.NET的核心团队成立之初的业务是量化交易,在2022年6月之前,他们一直专注于为股票和加密资产开发机构级的量化交易系统。出于系统后端对计算能力的需求,团队开始探索去中心化计算的可能性,并且最终把目光落在了降低GPU算力服务的成本这个具体问题上。 创始人&CEO:Ahmad Shadid Ahmad Shadid在IO.NET之前一直从事量化和金融工程相关的工作,同时还是以太坊基金的志愿者。 CMO&首席战略官:Garrison Yang Garrison Yang在今年3月才正式加入IO.NET,他此前是Avalanche的战略和增长VP,毕业于加州大学圣巴巴拉分校。 COO:Tory Green Tory Green 是 io.net 首席运营官,此前是 Hum Capital 首席运营官、Fox Mobile Group 企业发展与战略总监,毕业于斯坦福。 从IO.NET的Linkedin信息来看,团队总部位于美国纽约,在旧金山有分公司,目前团队人员规模在50人以上。 融资情况 IO.NET截至目前仅披露了一轮融资,即今年3月完成的A轮估值10亿美金融资,共募集了3000万美金,由Hack VC领投,其他参投方包括Multicoin Capital、Delphi Digital、Foresight Ventures、Animoca Brands、Continue Capital、Solana Ventures、Aptos、LongHash Ventures、OKX Ventures、Amber Group、SevenX Ventures和ArkStream Capital等。 值得一说的是,或许是因为收到了Aptos基金会的投资,原本在Solana上进行结算记账的BC8.AI项目,已经转换到了同样的高性能L1 Aptos上进行。 2.4 估值推算 根据此前创始人兼CEO Ahmad Shadid的说法,IO.NET将在4月底推出代币。 IO.NET有两个可以作为估值参考的标的项目:Render Network和Akash Network,它们都是代表性的分布式计算项目。 我们可以用两种方式推演IO.NET的市值区间:1.市销比,即:市值/收入比;2.市值/网络芯片数比。 先来看基于市销比的估值推演: 从市销比的角度来看,Akash可以作为IO.NET的估值区间的下限,而Render则作为估值的高位定价参考,其FDV区间为16.7亿~59.3亿美金。 但考虑到IO.NET项目更新,叙事更热,加上早期流通市值较小,以及目前更大的供应端规模,其FDV超过Render的可能性并不小。 再看另一个对比估值的角度,即“市芯比”。 在AI算力求大于供的市场背景下,分布式AI算力网络最重要的要素是GPU供应端的规模,因此我们可以以“市芯比”来横向对比,用“项目总市值与网络内芯片的数量之比”,来推演IO.NET可能的估值区间,供读者作为一个市值参考。 如果以市芯比来推算IO.NET的市值区间,IO.NET以Render Network的市芯比为上限,以Akash Network为下限,其FDV区间为206亿~1975亿美金。 相信再看好IO.NET项目读者,都会认为这是一个极度乐观的市值推算。 而且我们需要考虑到,目前IO.NET如此庞大的芯片在线张数,有受到空投预期以及激励活动的刺激,在项目正式上线后其供应端的实际在线数仍然需要观察。 因此总体来说,从市销比的角度进行的估值测算可能更有参考性。 IO.NET作为叠加了AI+DePIN+Solana生态三重光环的项目,其上线后的市值表现究竟如何,让我们拭目以待。 3.参考信息 Dephi Digital:The Real Merge Galaxy:Understanding the Intersection of Crypto and AI 来源:金色财经
lg
...
金色财经
04-09 14:28
ACY证券汇评:【每日分析】自动驾驶是电动车破局之道?
go
lg
...
然无法跟上技术的日新月异。 这就好比用
Chatgpt
让打工人写英文邮件非常便利。但即便如此,在写了一份邮件发给你老板之前,你还是会检查一下是否会有文不达意的情况。这就好比目前L2/L3的自动驾驶系统,起到辅助作用,但仍需要驾驶员保持警惕。但L4的无人驾驶技术就好比让
Chatgpt
自动生成一份邮件发给老板。不是说技术不达标,而是用户的信任需要时间培养,对技术可实现的范围也需要时间学习(在什么情况下可以自动驾驶,什么情况必须切换手动等等)。 对于很多消费者来说,即便技术成熟,但将自己的性命交给一台机器,听起来还是有些发憷。这点只能依靠时间和政府宣传来消除恐惧(企业宣传只有反作用),这就好比电刚刚被发明出来的时候,也有很多人因为担心其危险,所以不愿在家中通电。但经过漫长的政府宣传与市场实践,电力最终进入了家家户户。人工智能的需求同样需要时间去改变,并非一蹴而就的。 不仅仅是自动驾驶的使用者存在信任问题,周围的相关者会发出更大的质疑。假如你在开车的时候,旁边突然出现一辆无人驾驶汽车,你会不会担心?假如你在过马路,看到一辆无人车向你驶来,你是否会驻足?这一切的担忧都需要时间去抹平。 自动驾驶还有两大难题 – 责任认定和道德困境 责任认定 说到底,交通事故是一个概率事件,即便事故率远低于真人驾驶(按照特斯拉披露数据,事故率约是真人驾驶的十分之一),然而一旦发生事故,就要追究由谁来承担责任。 最近,特斯拉遭到了起诉,原因是一位苹果工程师驾驶带自动驾驶功能的汽车途中发生车祸,并当场死亡。他的家属起诉了特斯拉,认为是技术缺陷导致事故发生。这也就是自动驾驶存在的责任认定问题。 如果每一个出事故的用户都在特斯拉赔偿,那么推出自动驾驶必然是一场亏本的买卖。 不过,针对责任认定,各国的法律正在逐渐完善,其中也包括由政府兜底的保险业务。因此自动驾驶的发展需要与法律的制定同步进行。 道德困境 如果突然有一个成年人闯马路,刹不住就要装上了,而你旁边是一辆车,你会怎么选?如果是一个或一群孩子呢?如果旁边是一辆重型卡车呢?到底选择紧急避险还是择轻避重?对于真人驾驶来说,这个就是个人的选择,无关对错。 然而一旦上升到自动驾驶系统,便会有对与错的争议。是用一般人的标准去训练自动驾驶模型,还是最小化损失的最优解,又或是统一采用刹车标准,让速不让道? 这些责任目前都压在自动驾驶企业身上。同样需要相应法规的建设去规范模型的训练。 除了上述两个难题外,如果想要实现L5真正的完全自动驾驶单靠一家公司是不行的,还需要高精度的地图和智联网络的配合。要实现上述的这一切,不仅依赖于法律的完善,还需要基建的覆盖、智能的配套、智慧城市的建设以及消费认知的革命。无一不需要时间去打造,缺一不可。 今日关注数据 18:00 美国3月NFIB小型企业信心指数 联系我们 电话:167 4049 5509(中国) 1300 729 171(澳大利亚) 微信:acyauzh 官网:https://www.acyasia-cn.com 邮箱:support.cn@acy.com 本文内容由第三方提供。ACY证券对文中内容的准确性和完整性,不做任何声明或保证;由第三方的建议,预测或其他信息导致了投资损失,ACY证券不承担任何责任。本文内容不构成任何投资建议,与个人投资目标,财务状况或需求无关。如有任何疑问,请您咨询 独立专业的财务或税务的意见 。 2024-04-09
lg
...
ACY证券
04-09 14:17
机构:2月全球半导体销售额同比增长16.3%,芯片股表现活跃,士兰微领涨超4%,费率最低的芯片50ETF(516920)午后涨近1%
go
lg
...
证券指出,人工智能的快速发展,特别是以
ChatGPT
为代表的AI应用的兴起,对算力提出了更高的要求,同时服务器内部相关芯片互联技术显得尤为重要,相关技术包括NVLink、PCIe和CXL等,也带动了高速互联芯片的需求。 一键布局“科技之矛”,首选芯片50ETF(516920)!芯片50ETF(516920)跟踪的中证芯片产业指数包含芯片板块50只龙头股,综合覆盖设备材料、晶圆代工、设计、封测等芯片全产业链环节! 值得重点关注的是,芯片50ETF(516920)的管理费率为0.15%,托管费率0.05%,为芯片主题ETF中费率最低品种,仅为市场主流费率——“管理费率0.5%,托管费率0.1%”的三分之一,拉长时间看省到就是赚到! 芯片50ETF紧密跟踪中证芯片产业指数,中证芯片产业指数选取业务涉及芯片设计、制造、封装与测试等领域,以及为芯片提供半导体材料、晶圆生产设备、封装测试设备等物料或设备的上市公司证券作为指数样本,以反映芯片产业上市公司证券的整体表现。 数据显示,截至2024年3月29日,中证芯片产业指数(H30007)前十大权重股分别为中芯国际(688981)、北方华创(002371)、海光信息(688041)、韦尔股份(603501)、中微公司(688012)、兆易创新(603986)、紫光国微(002049)、三安光电(600703)、澜起科技(688008)、长电科技(600584),前十大权重股合计占比50.97%。 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
04-09 14:08
AI+DePIN大爆发:OpenPower全球启幕,预期回报拉满!
go
lg
...
驱动力量,正随着 OpenAI 推出
ChatGPT
走入千家万户。将 AI 发展类比汽车,AI 快速发展离不开三个核心要素:数据就像是汽车燃料;算法就像是汽车的中控系统;算力则相当于汽车引擎。然而,在目前还是中心化主导的互联网世界中,AI 的发展面临各种难题:首先,AI 通常需要大量数据进行训练提高性能,但数据收集过程中的隐私泄露问题却多次发生,去年 OpenAI 曾公开表示付费版用户的个人支付信息可能被泄露从而引发舆论哗然。其次,数据处理和计算资源的高成本带来的垄断问题也不容小觑,根据富国银行统计,英伟达目前在数据中心 AI 市场拥有 98% 的市场份额。此外,出于商业竞争等方面考虑,AI 企业们总是无法做到资源共享、协同发展,这也不可避免的带来算法偏见和不公平、技术倫理和规范以及重复造车轮等问题。 目前 AI 的发展困境或许也是 AI + DePIN 赛道热度高企的重要原因: 一方面,DePIN 能够很大程度上缓解 AI 目前的发展困境:DePIN 主张的去中心化价值体系具有公开、透明、不可篡改、可验证等特性,这不仅有利于帮助更多人理解 AI 的决策过程及思考逻辑,让 AI 不再是黑匣子,融合加密经济模型的激励手段,也可以吸引全球范围内的用户通过贡献自己的数据、闲置算力来获得奖励,从而大大降低 AI 成本。隐私方面,配合 ZK 等隐私技术,用户数据做到可用而不可见。 另一方面,AI 是为 DePIN 引入传统资本、点燃加密资本的绝佳切入点:说白了,DePIN 还是属于加密概念寻求现实世界落地的一个新的尝试,但对于 AI,无论是传统科技巨头还是加密 VC 都十分青睐的存在,因此 AI + DePIN 成为联动传统和加密资金的热门叙事。不少加密 KOL 也公开预测:AI+DePIN 将会承接上一轮 DeFi Summer 的角色,成为这一轮牛市的价值叙事主升浪。根据 Messari 估算,2028 年 DePIN 市值将达到 3.5 万亿美元,而到了 2023 年,AI 在 Web3 领域的市值将超过 2.8 万亿美元,随着两者市值存在部分重叠,但这也充分展现了 AI+DePIN 的巨大上升潜力。 顶级投研机构的认可加上多个项目开年来的亮眼表现,AI+DePIN 绝对是目前最炙手可热的赛道之一。然而,身处这样一个充满机遇与挑战的赛道,OpenPower 缘何能够脱颖而出? 核心逻辑:OpenPower 如何实现去中心化 AI (DeAI)? OpenPower正在重塑去中心化AI(DeAI)的未来,立志于构建一个全球性的、去中心化的AI算力网络。我们的愿景与Delphi Digital联合创始人Tommy的看法不谋而合,即未来将充斥着数十亿个AI模型,每个人都可以下载、个性化开源模型,或为特定用例构建自己的模型集。 简言之,OpenPower集成了数据收集、存储、预处理、计算以及AI模型的设计、训练、微调和部署,提供一站式去中心化AI解决方案。我们的目标是融合AI与DePIN技术,通过完善的激励模型吸引广泛用户参与,同时为用户提供低门槛、低成本、高隐私保护的AI服务,构建基于信任的全球AI生态系统。 要实现人人可贡献、人人可设计、人人可受益的AI算力世界,OpenPower首先构建了一个去中心化的基础设施层,通过我们的原生代币OPCT实现激励闭环,保证网络的稳定运行。我们设计了一套独特的节点结构来维持网络的稳定性和高效运转,包括智算锚点、智算节点、智算集群和智算中心,这些不同级别的计算单元共同工作,为AI应用提供必要的计算支持,并确保AI技术的快速发展及其广泛应用。 通过整合全球的闲置算力,OpenPower不仅优化了算力资源的分配和利用,也降低了获取高质量算力的门槛。我们鼓励全球用户将自己的硬件设备作为节点加入OpenPower网络,共同贡献算力资源,享受经济回报。 如此,OpenPower不只是建立了一个去中心化算力网络的基础设施层,更为基于OpenPower智算网络构建的应用提供了支撑。无论是dApp、定制AI还是未来可能爆发的更多创新应用,都将依托这一去中心化智算网络实现更高效的响应、更广泛的数据分析、更可靠的数据安全及更透明的运作流程。 随着OpenPower高性能分布式智算网络的框架搭建完成,我们正积极推进产品的具体化,涵盖数据存储、计算、AI部署和训练等多个维度,展现出初步的产品矩阵。这一切都为实现一站式去中心化算力解决方案铺平了道路,开启了AI与DePIN融合的新篇章。OpenPower 计算:整合全球长尾市场算力 OpenPower致力于挖掘和整合全球范围内的闲置算力资源,为AI模型运行提供强大而经济的计算支持。我们深知,在数字化时代,每一台个人电脑、智能手机和平板电脑中都蕴藏着巨大的未利用算力,而这些设备遍布全球每一个角落。OpenPower通过创新的技术手段和智能算法,精准匹配AI项目的计算需求和全球用户的闲置算力,实现资源的最优配置。 我们的目标是打破传统计算资源获取的限制和高昂成本,通过利用现有的闲置算力,降低AI技术的门槛,使其更加民主化和普及化。通过OpenPower平台,全球用户可以轻松参与到AI革命中来,不仅为AI研究和应用提供必要的算力支持,还能从中获得实际的经济回报,共享AI技术发展的成果。 在实现这一目标的过程中,OpenPower已建立了一套完善的技术体系和运营模式,包括但不限于智能合约、区块链技术和加密算法等,确保闲置算力的安全、透明和公平交易。此外,我们还为算力提供者提供了简易的接入方式和友好的用户界面,让每一个人都能轻松成为全球AI计算网络的一份子。 OpenPower不仅仅是一个算力交易平台,它更是一个连接全球算力资源与AI需求的桥梁,促进全球技术资源的有效利用和科技创新的快速发展。通过不断探索和创新,OpenPower期待在AI和DePIN赛道上实现更多突破,推动全球科技进步与经济增长。 AI+DePIN 炙手可热:OpenPower 的生态布局 在AI技术与DePIN结合的新赛道上,OpenPower正迅速成为引领全球科技创新的重要力量。我们正在构建一个全方位的AI解决方案生态,这不仅包括数据的存储、计算资源的供给,还涵盖了AI模型的设计、训练及应用部署等关键环节。OpenPower的目标是通过智算节点的广泛部署,大幅降低技术门槛,吸引全球用户的广泛参与,共同释放闲置的计算资源,提供值得信赖、去中心化、高度定制化的一站式AI服务。 OpenPower背后是一个由顶尖科学家、工程师和行业专家组成的强大团队。自项目启动以来,我们凭借着深厚的技术积累和丰富的实践经验,成功地将OpenPower推向全球市场。尤其值得一提的是,OpenPower的首席执行官,曾在全球顶尖学府担任计算机科学教授,不仅在深度学习和人工智能领域做出了开创性的贡献,而且还是多项创新技术和算法的发明者,拥有众多国际专利和学术成就。 在行业合作方面,OpenPower已与包括腾讯云、戴尔科技、联想等在内的全球顶尖企业建立了密切的合作关系,共同探索去中心化技术的创新应用。此外,我们还与OpenAI、Binance等行业领导者建立了战略伙伴关系,为BNB Chain生态下的AI项目提供强有力的算力支持,加速推动行业的整体进步和发展。 OpenPower正以其独特的价值主张和技术优势,为全球AI+DePIN赛道注入新的动力,推动科技与经济的共同发展。我们相信,在不久的将来,OpenPower将成为连接Web2与Web3、推动全球算力共享与AI技术普及的关键桥梁,为世界带来更加智能、高效和公平的数字未来。 面向未来:为世界文明跃升贡献力量 随着OpenPower全球上线的成功,我们正站在一个AI与DePIN技术融合发展的新起点。在未来,OpenPower将持续拓展其在全球算力网络中的影响力,通过不断优化我们的技术平台,以及扩大与全球科技巨头和创新企业的合作,加速推进AI技术的民主化和普及化。 前瞻性的技术研发 我们将不断深化对AI与DePIN技术的研究,推出更为高效、安全、透明的算力解决方案。未来,OpenPower致力于成为全球AI算力网络的核心枢纽,支持从个人开发者到大型企业的广泛需求,从而加速AI技术在各行各业的创新应用。 拓展全球算力网络 OpenPower的全球算力网络将持续扩张,我们计划在未来几年内覆盖更多国家和地区,建立更多的智算中心。通过提供接近用户的算力服务,我们能够有效降低延迟,提高算力的可访问性和经济性,促进全球数字经济的均衡发展。 构建全球AI生态系统 OpenPower不仅是一个算力提供平台,更是一个全球AI生态系统的构建者。我们将携手全球开发者、科研机构、企业及其他合作伙伴,共同推动AI技术的革新,探索AI与DePIN结合的新模式,促进AI技术的应用落地和产业化发展。 强化社区和平台治理 社区是OpenPower成功的关键。我们将持续加强与全球社区的互动与合作,鼓励社区参与到OpenPower的发展和治理中来。通过完善的激励机制和透明的治理模型,我们致力于构建一个开放、公平、共赢的AI算力生态。 未来展望 展望未来,OpenPower将以其创新的AI+DePIN模式,引领全球算力和AI技术的新浪潮。我们相信,通过OpenPower的努力,可以实现更广泛的技术普及,推动全球经济的高质量发展,并最终实现人类社会的智能化升级和可持续发展的美好愿景。随着OpenPower生态的不断壮大和完善,我们期待着与全球合作伙伴和用户一同创造更加繁荣的AI未来。 来源:金色财经
lg
...
金色财经
04-08 20:51
V神谈区块链+AI的四大方向:用3EX AI交易探索智能化交易新模式
go
lg
...
自助创建和定制策略:3EX平台利用基于
ChatGPT
的人工智能技术,允许用户通过自然语言处理技术轻松创建和执行量化交易策略。这种智能化的策略创建不仅简化了交易流程,也让个性化交易成为可能。 2. 实时模拟与自动执行:3EX平台提供的即时模拟功能使用户能够在真实投入市场前,实时查看交易策略的可能盈亏情况,从而优化和调整自己的策略。这种即时反馈机制极大地提高了交易的透明度和用户的信心。一旦策略优化完成,平台还能自动执行交易,极大减少操作复杂性和时间延迟,提高交易效率。 3. 跟单交易功能:为了满足不同用户的需求,3EX还提供了跟单交易功能,用户可以选择并跟随其他成功交易者的策略,享受AI智能交易的便利。这不仅为用户提供了一种相对被动的收入机会,还通过分润机制为策略提供者创造了额外的收益来源,促进了社区内的互助和共赢。 3EX AI交易平台的这些创新特性,为用户提供了强大的工具,以智能、高效的方式参与市场,最大化地利用了AI技术在加密交易中的应用潜力。 3EX相关链接: Twitter(EN): https://twitter.com/3exglobal Twitter(CN): https://twitter.com/3EX_ZH Telegram(EN):https://t.me/global_3ex Telegram(CN):https://t.me/chinese_3ex Discord:https://discord.gg/KHVVnPgpeT Facebook: https://www.facebook.com/profile.php?id=100092234370403 Instagram: https://www.instagram.com/3EX.Exchange/ Medium: https://medium.com/@3ex Reddit: https://www.reddit.com/r/3EX_AITrading/ Youtube: https://youtube.com/@3EXGLOBAL?feature=shared Linkedin:https://www.linkedin.com/company/3ex-com/about/ TikTok: https://www.tiktok.com/@3ex_exchange?_t=8klgxCKAz8A&_r=1 来源:金色财经
lg
...
金色财经
04-08 18:07
热点解读-龙头加速AI产业研发,大模型及应用端快速发展
go
lg
...
司0penAl宣布,将允许用户直接使用
ChatGPT
,而无需注册该项服务,这将让人们更加容易体验人工智能的潜力。OpenAl表示,它将从周一开始逐步推出这一功能,让185个国家和地区的超1亿用户使用
ChatGPT
来学习新事物、寻找创意灵感,并获得问题的答案。 近期,海外龙头持续加码AI产业研发,大模型、机器人等赛道加速变革。华夏基金认为,长期看AI产业加速发展,逻辑持续加强,Kimi、阶跃星辰等大模型的出圈加强市场对国产大模型及产品能力的信心,从而持续提升市场对于AI应用产业的信心。相关产品人工智能AIETF(515070)、云计算50 ETF(516630)、机器人 ETF(562500)、游戏ETF(159869)。 二、AI板块介绍 (1)产业链情况 根据Wind,人工智能产业链主要由基础层、技术层和应用端三大板块构成。基础层包含AI处理器、传感器、服务器、云计算和数据等领域,为人工智能提供硬件基础;技术层包括计算机视觉、语义识别、智能语音、机器学习等,基础的生成算法模型是驱动AI的关键;应用层包括无人驾驶等众多领域,是人工智能作用于生产生活的具体体现。 图1人工智能产业链 来源:Wind (2)市场规模 随着人工智能技术的不断发展,其应用场景日益丰富,各行各业所汇聚的庞大数据资源为技术的实际应用和持续完善提供了坚实基础。根据第三方咨询机构格物致胜的统计数据,2022年中国人工智能市场规模达到2058亿元,预计2023-2027年市场规模将保持28.2%的复合增长率,2027年中国人工智能市场规模将达到7119亿元。根据statista的统计数据,2023年全球人工智能市场规模达2079亿美元,预计2030年将增至18475亿美元。 图2中国人工智能市场规模及预测(单位:亿元人民币) 来源:Wind,格物致胜公众号,国元证券研究所 图3全球人工智能市场规模及预测(单位:亿美元) 来源:Wind,Statista官网,国元证券研究所 (3)发展历程 基础的生成算法模型是驱动AI的关键:2014年,伊恩·古德费洛(lan Goodfellow)提出的生成对抗网络(Generative Adversarial Network, GAN)成为早期最为著名的生成模型。GAN使用合作的零和博弈框架来学习,被广泛用于生成图像、视频、语音和三维物体模型。随后,Transformer、基于流的生成模型(Flow-based models)、扩散模型(Diffusion Model)等深度学习的生成算法相继涌现。Transformer模型是一种采用自注意力机制的深度学习模型,这一机制可按输入数据各部分的重要性分配权重,可用于自然语言处理(NLP)、计算机视觉(CV)领域应用,后来出现的BERT、GPT-3、laMDA等预训练模型都是基于Transformer模型建立的。 图4主流生成模型一览表 来源:Wind、腾讯研究院《AIGC发展趋势报告》,经纬创投公众号,国元证券研究所 预训练模型引发了AI技术能力的质变:预训练模型是为了完成特定任务基于大型数据集训练的深度学习模型,让AI模型的开发从手工作坊走向工厂模式,加速AI技术落地。2017年,Google颠覆性地提出了基于自注意力机制的神经网络结构——Transformer架构,奠定了大模型预训练算法架构的基础。2018年,OpenAI和Google分别发布了GPT-1与BERT大模型,意味着预训练大模型成为自然语言处理领域的主流。 图5预训练相当于“通识教育” 来源:Wind、IDC《2022中国大模型发展白皮书》,国元证券研究所 预训练数据直接决定AI大模型性能:预训练数据从数据来源多样性、数据规模、数据质量三方面影响模型性能。以GPT模型为例,其架构从第1代到第4代均较为相似,而用来训练数据的数据规模和质量却有很大的提升,进而引发模型性能的飞跃。以吴恩达(AndrewNg)为代表的学者观点认为,人工智能是以数据为中心的,而不是以模型为中心。为了追求更好的模型性能,模型参数规模也与训练数据量同步快速增长,模型参数量大约每18个月时间就会增长40倍。例如2016年最好的大模型ResNet-50参数量约为2000万,2020年的GPT-3模型参数量达1750亿,2023年的GPT-4参数规模则更加庞大。 三、近期行业变化 多模理解和生成的统一是通往AGI的必经之路:模型的演化必然会经历单模到多模到世界模型三个阶段。当下理解模型和生成模型是分开发展的,未来随着理解和生成实现统一,就可以进一步结合具身智能,形成世界模型。再进一步,加入复杂任务的规划能力和抽象概念的归纳能力,就真正演化到了AGI的阶段。 多模态技术成为大模型主战场:多模态较单一模态更进一步,已经成为大模型主战场。人类通过图片、文字、语言等多种途径来学习和理解,多模态技术也是通过整合多种模态、对齐不同模态之间的关系,使信息在模态之间传递。2023年以来,OpenAI发布的GPT-4V、Google发布的Gemini、Anthropic发布的Claude3均为多模态模型,展现出了出色的多模态理解及生成能力。未来,多模态有望实现any to any模态的输入和输出,包括文本、图像、音频、视频、3D模型等多种模态。 智能涌现从虚拟世界走向物理世界:当大模型迁移到机器人身上,大模型的智能和泛化能力有望点亮通用机器人的曙光。2023年7月,谷歌推出机器人模型Robotics Transformer2(RT-2),这是一个全新的视觉-语言-动作(VLA)模型,从网络和机器人数据中学习,并将这些知识转化为机器人控制的通用指令。2024年3月,机器人初创企业Figure展示了基于OpenAI模型的全尺寸人形机器人Figure 01,机器人动作流畅,所有行为都是学到的(不是远程操作),并以正常速度(1.0x)运行。 AI算力应用持续深化,大模型赛道日益更新:英伟达GTC2024大会上公布了关于NVIDIA Blackwell、NIM微服务、Omniverse CloudAPI等一系列AI引领各领域变革的显著成就。同时,全球AI大模型市场迭代进程加快,3月4日,美国初创公司Anthropic推出Claude3模型系列;3月17日,马斯克旗下的初创企业xAI宣布对Grok-1的基本模型权重及网络架构进行开源。 云厂商加速生成式AI发展,致力打通生态系统建设:微软、谷歌、亚马逊作为云业务头部厂商,拥有包含Office、Microsoft、LinkedIn、手机PC在内的搜索引擎、广告、云计算等多项软硬件产品及平台。头部云厂商在推进大模型升级迭代的同时,或根据品牌内现有的软件平台和终端硬件产品特性进行模型调整及适配;同时,多家厂商对未来即将发布的新产品也会进行全生态构造,将大模型与手机、电脑、机器人、汽车等多领域结合,搭建全面的系统生态,助力“AI+”应用持续变革。 四、投资展望 (1)量子计算机 量子计算有望成为解决AI算力瓶颈的颠覆性力量:与传统计算相比,量子计算能够带来更强的并行计算能力和更低的能耗,同时量子计算的运算能力根据量子比特数量指数级增长,在AI领域具有较大潜力。海外科技巨头带动量子计算产业发展,IBM、微软、谷歌等公司先后发布量子计算路线图,与此同时,国内量子计算产业与海外科技巨头差距不断缩小,2024年1月16日我国第三代自主超导量子计算机“本源悟空”上线运行可以一次性下发、执行200个量子线路的计算任务,比国际同类量子计算机具有更大的速度优势。 量子计算有望赋能千行百业,开启8000亿美元蓝海市场。据ICV数据,2023年全球量子计算市场规模约47亿美元,预计2035年有望超过8000亿美元;其中,金融、化工、生命科学领域有望更加受益量子计算产业发展。 (2)AI服务器 在云厂商采购需求下滑、计算机行业去库较慢的背景下,2023年全球服务器市场遇冷,但细分领域AI服务器市场火热,在众多大模型的算力需求支撑下,国内外AI服务器出货量逆势提升。展望AI服务器产业链未来业绩释放,华夏基金认为三个方向值得关注。第一,技术创新驱动产业链迭代,目前海外AI服务器呈现英伟达产品技术线路创新不断涌现,以及某细分环节产品效率倒逼其他环节创新,带来新的主题投资机会。第二,国产化趋势下国产芯片规模应用落地,在政策支持和先进制程突破下,华为AI芯片已应用于国内众多大模型训练,未来业绩可期,关注华为AI服务器产业链。第三,海外AI服务器大量订单叠加降本下的出海机会。 (3)机器人 AI时代快速发展,机器人赛道或将迎来放量空间。人工智能技术加速多行业领域升级发展,机器人作为主要的下游应用场景,在AI变革及大模型发展的阶段将不断赋能制造业等行业向自动化、智能化转型。除英伟达、特斯拉之外,Agility Robotics、波士顿动力公司以及谷歌DeepMind等公司也纷纷入局机器人赛道。据华尔街见闻,英伟达、OpenAI、亚马逊等科技巨头纷纷入局投资了机器人初创科技企业Figure AI,其中该公司在新一轮融资中募集约6.75亿美元,投前公司估值已有约20亿美元。华夏基金认为,机器人作为具身智能的载体,英伟达对具身智能的正式入局,将稳步推动机器人智能化的提升;同时伴随龙头企业持续加码AI及机器人领域投资,并积极进行多行业资源调配及整合,未来机器人行业将进入加速发展阶段。 相关产品: 人工智能 AIETF(515070)及其联接基金(008585/008586):中证人工智能主题指数(指数代码: 930713.CSI,指数简称: CS 人工智)选取为人工智能提供基础资源、技术以及应用支持的公司中选取代表性公司作为样本股,反映人工智能主题公司的整体表现。该指数已纳入截至 2018 年 9月 30 日的 IOSCO 金融基准原则鉴证报告范围。 云计算50 ETF(516630)及其联接基金(019868/019869):中证云计算与大数据主题指数(指数代码: 930851.CSI,指数简称: 云计算指数) 选取 50 只业务涉及提供云计算服务、大数据服务以及上述服务相关硬件设备的上市公司 A 股作为样本股,以反映云计算与大数据主题股票的整体表现。 机器人 ETF(562500) 及其联接基金(018344/018345):中证机器人指数(指数代码: H30590.CSI)选取系统方案商、数字化车间与生产线系统集成商、自动化设备制造商、自动化零部件商以及其他相关公司作为样本股,以反映机器人产业相关股票的走势。 游戏 ETF(159869) 及其联接基金(012768/012769):中证动漫游戏指数(指数代码: 930901.CSI,指数简称:动漫游戏)选取主营业务涉及动画、漫画、游戏等相关细分娱乐产业的上市公司股票作为样本股,反映动漫游戏产业 A 股上市公司股票的整体表现。 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
04-08 09:14
谷歌与 Reddit 达成人工智能培训协议
go
lg
...
开数据进行人工智能训练。这一更新是在
ChatGPT
开发商 OpenAI 因涉嫌通过互联网窃取用户隐私信息而在加州被提起集体诉讼后不久进行的。 不过,根据克劳德开发者商业服务条款的更新,生成式人工智能初创公司Anthropic承诺从2024年1月起不再将客户数据用于大型语言模型(LLM)训练。 尽管达成了协议,谷歌和 Reddit 并不总是对立的。Reddit 此前曾威胁要阻止谷歌在其网站上使用谷歌的爬虫,因为担心谷歌公司会免费使用其数据来训练人工智能模型。 经过长达数年的努力,Reddit 于 2 月 22 日提交了首次公开募股申请,以提高其 2021 年超过 100 亿美元的估值。此次提交的首次公开募股申请预计将于 3 月份上市,这将是自 Pinterest 于 2019 年上市以来的首次大型社交媒体首次公开募股。 近几个月来,人工智能模型的制造商们一直在积极与内容所有者达成协议,以扩大其训练数据的范围,而不仅仅是广泛的网络搜刮,因为许多内容所有者声称他们的材料未经许可就被利用了。 来源:金色财经
lg
...
金色财经
04-07 20:36
过往减半行情历史规律启示:用3EX AI交易更轻松洞悉规律
go
lg
...
了宝贵的参考。3EX AI交易平台基于
ChatGPT
技术,允许用户通过自然语言处理技术轻松创建和执行量化交易策略,让个性化交易成为可能。用户可以通过3EX AI交易平台分析历次减半行情的历史数据,鉴往知来,利用AI的力量更好地揭示未来规律,制定高效适用的交易策略。3EX AI交易平台还能自动执行交易,极大减少操作复杂性和时间延迟,提高交易效率。 对于没有时间研究交易策略的用户,3EX还提供了跟单交易功能,用户可以选择并跟随其他成功交易者的策略,享受AI智能交易的便利。3EX AI交易跟单爆仓险的推出更是为用户提供了额外的安全保障。通过最高达50USDT的保险金为用户首次爆仓提供保障,降低试错成本,增强了交易的安全性 。 为了迎接BTC第四次减半这一历史性事件,3EX AI交易平台近日将推出形式多样、奖励丰厚的交易大赛和系列活动,鼓励用户借助AI交易的力量把握本轮减半行情,敬请期待! 3EX相关链接: Twitter(EN): https://twitter.com/3exglobal Twitter(CN): https://twitter.com/3EX_ZH Telegram(EN):https://t.me/global_3ex Telegram(CN):https://t.me/chinese_3ex Discord:https://discord.gg/KHVVnPgpeT Facebook: https://www.facebook.com/profile.php?id=100092234370403 Instagram: https://www.instagram.com/3EX.Exchange/ Medium: https://medium.com/@3ex Reddit: https://www.reddit.com/r/3EX_AITrading/ Youtube: https://youtube.com/@3EXGLOBAL?feature=shared Linkedin:https://www.linkedin.com/company/3ex-com/about/ TikTok: https://www.tiktok.com/@3ex_exchange?_t=8klgxCKAz8A&_r=1 来源:金色财经
lg
...
金色财经
04-07 17:08
上一页
1
•••
94
95
96
97
98
•••
676
下一页
24小时热点
中国军方突发重磅消息!英国金融时报独家:中国国防部长因腐败被调查
lg
...
特朗普突然给市场“下马威”!全球疯狂巨震:美元急拉、这一货币惨跌
lg
...
特朗普、中东停火与俄乌都有大消息!金价重挫后大幅反弹 如何交易金价?
lg
...
特朗普突传重磅!彭博独家爆料:特朗普团队准备宣布TA为美国贸易代表
lg
...
FX168日报:特朗普语出惊人、这一货币暴跌!黄金变脸的原因在这 特朗普刚刚做重要宣布
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1329讨论
#VIP会员尊享#
lg
...
1511讨论
#比特币最新消息#
lg
...
625讨论