全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
公平开放的密码世界:深度详解BERC20协议与FairBERC20
go
lg
...
方式,以及 ERC20 的智能合约的可
编
程
性,设计了一套全新的代币标准协议,以在以太坊(及其他EVM链)上来实现公平发射的理念,允许任何人都可以通过BERC20协议公平发行代币,增强了透明度和社群参与度,实现了技术普惠和去中心化。同时,BERC20协议创新地设计了Mint即自动添加LP和丢弃Owner权限的机制,进一步杜绝了恶意合约、阻塞攻击和市场操纵等Rug行为,为投资者提供了更安全、透明的投资环境。 在谈论FairBERC20协议之前,先简单了解一下Fair Launch理念的来源——BRC20。 BRC20是比特币网络上发行同质化代币的实验性格式标准,由推特用户@domodata于2023年3月8日基于Ordinal协议创建。类似于以太坊的ERC20标准,它规定了以太坊上发行代币的名称、发行量、转账等功能,所有基于以太坊开发的代币合约都遵守这个标准。 BRC20与ERC20的主要区别在于比特币网络不支持智能合约,它是通过利用Ordinal协议将铭文(inscriptions)设置为JSON数据格式来部署代币合约、铸造和转移代币,即开发人员可以通过Ordinal协议创建和发行同质化代币。 在巅峰时期,BRC20的总市值突破了10亿美元,引得各大CEX纷纷竞相上架其龙头项目$ORDI,掀起了一场流量大战。BRC20之所以火爆,不仅仅只是因为部署在BTC链上,而是由于其公平的代币发行机制,使包括部署者在内的所有人只能通过Mint获得代币,这才是BRC20最本质、最核心的东西。 然而,历经风光无限后,BRC20的走势开始显示疲态,其中几个重要原因就是其流动性问题、双重消费攻击以及功能过于简单,这些都导致其难以形成持续发展的生态。 反观ERC20协议,是以太坊区块链较早的、比较流行的代币规格协议。ERC20代币天然具备极高的流动性,若以太坊生态上两种代币都基于ERC20协议发行,则两者之间可以进行自由置换。但是,ERC20协议一直存在着一个弊端,智能合约的自定义性可能导致某些项目在代币发行过程中存在着不公平的现象,比如恶意合约、阻塞攻击和交易所操纵,都会扰乱代币发行的公平性。 如果将BRC20协议公平发射的理念引入以太坊生态,与ERC20协议相结合会是什么情况?于是BERC20协议出现了!BERC20协议不仅改变了ERC20协议原有的代币分发模式,使任何人都可以公平的参与代币分配,其自动添加LP和放弃合约所属权的创新机制,也从根本上杜绝了代币发行初期无人添加流动性、流动性池过小无法承载大资金、项目方抽底池、貔貅池以及合约漏洞等各类Rug行为。 BERC20协议运行机制 BERC20协议不仅仅只是将BRC20协议的玩法照搬到了以太坊生态上,除了以Fair Launch为核心理念外,BERC20协议更与众不同的优势在于,它可以解决业内普遍存在的项目作恶问题。 公平发射 公平公正发行代币,人人平等的铸币权,完全去中心化,代币无Owner权限; 自动添加LP Mint基于BERC20协议发行的代币时,Mint出来的代币和Mint费用将自动添加至流动性池中,解决了无人添加流动性池以及流动性池初期筹码极少,很难有大资金进入的问题; 黑洞合约 所有添加至流动性池中的LP合约都将被发送到黑洞销毁,这意味着没有人拥有LP合约所属权,任何人都无法操控或撤出池中的资金,杜绝Rug风险; 持仓条件Mint 部署者可以自定义设置Mint代币的持仓条件,如ERC721、ERC1155、ERC20,防范女巫攻击的同时,也为所有NFT发行方带来了新的叙事方式; 合约开源 基于BERC20协议发行的代币,部署的同时合约自动开源。在开源的情况下,任何人都可以访问和研究代码,从而确保代码的透明度和安全性,并允许社区共同参与合约的开发和改进。 BERC20协议机制落地呈现 1、杜绝“庄家”控盘、Dev跑路撤池、合约漏洞、大筹码血洗小筹码,从公平出发 2、公平发射、共创共建、无预挖、无私募、无owner权限、人人平等 3、智能合约执行,Mint即添加流动性,筹码科学分布 4、LP合约进入黑洞销毁,无权限撤池,从根本杜绝项目Rug 5、多链部署,将公平理念植入加密世界的每一个角落,让天下没有Rug的MEME币 6、低门槛、易操作,任何人都可以轻松一键部署 7、社区自发自愿自主治理,成员主动参与项目建设,极强的共识和凝聚力 $BERC生态闭环 1、FariBERC20平台,轻松实现一键发币 FairBERC20是基于BERC20协议创建的去中心化多链资产平权发行平台,专为MEME领域用户量身打造,其目的是“让天下没有Rug的MEME币”。 FairBERC20平台为部署者提供了一种可视化的界面,部署者只需要持有平台代币$BERC,填写相关参数,即可快速创建和部署加密货币,无需自行编写代码,也无需担心建池成本、合约漏洞等问题。此外,FairBERC20平台还提供了多种附加功能,如限制Mint持仓条件、设置代币分配和销毁比例、自定义Mint时间等,为部署者提供了更加完整的资产发行解决方案。 2、$BERC应用场景赋能 $BERC是基于BERC20协议发行的首个代币,总供应量为2100万枚,其主要用途是作为FariBERC20平台的功能代币,部署者在平台上发行代币,至少需持有1枚$BERC。除此之外,$BERC将赋能更多应用场景: a. Token基础功能性销毁策略 ● FariBERC20网站添加项目Logo销毁$BERC ● FariBERC20网站添加项目官网、Twitter、Discord、Telegram销毁$BERC b. 广告位销毁$BERC ● 通过$BERC对部署页面的广告位竞价 ● 竞价成功,按一定比例销毁$BERC c. 多链前3个Tick竞拍 ● BERC20协议多链部署后,各条链上前3个Tick需通过$BERC进行拍卖 ● 拍卖成功后,前3个Tick只能由拍卖所得者发行 ● 拍卖的$BERC按一定比例进行销毁 3、BERC20多链部署,$BERC独一无二 多链部署是当下所有MEME币发展的必经之路,也是其长久战略中必不可少的一环。BERC20协议目前正在进行多链部署,据可靠消息称,其部署的第一条多链为ETHW。并且,BERC20 Dev团队坚称,无论未来部署多少条公链,$BERC将不会在其他链上发行,并且会在其他链上限制该Tick,保证了$BERC的唯一性。从市场宏观角度来看,这对BERC20 Dve团队并不是明智的选择,如果每条链上都对应一个$BERC,无疑Dev团队分到的蛋糕相对较多,但从$BERC持有者的角度来看,多链生态中有且只有一个$BERC,这对$BERC是一个长久的利好。 4,具备完整生态闭环的$BERC将不再局限于价格 MEME币由于缺乏实际的应用场景,使其价值难以被具体量化。对于没有商业闭环的MEME币来说,只有价格的涨跌才能够体现其价值。涨,证明该MEME币在市场情绪的驱使下体现出较高的FOMO价值;跌,则证明该MEME币风头已逝,泡沫风险随之而来。曾经的以太坊网络和当前的比特币网络足以证明生态闭环的必要性。 BERC20协议同时解决了B端(Token发行者)和C端的各类问题,如:一健公平发行、合约安全、自动开源、Mint加池、放弃权限等,从根本上解决了合约留门、庄家控盘、项目rug等问题,配合其$BERC应用场景、代币销毁、保证唯一性等机制,使$BERC的价值体现不再局限于价格,而是通过让$BERC在实际应用场景中发挥更大的作用,来构建完整的生态闭环,引导参与者关注$BERC最本质的价值问题。 BERC20协议真正延续了去中心化的精髓,更加符合加密市场的每个人对于生态系统内平等参与者的理念。BERC20协议公平发射、Mint即增池、放弃合约所属权等创新机制,为加密市场开拓了一个新的敞口,为具有高度共识和高度价值的币种带来了长期发展空间,同时也为加密世界的资金安全构建了坚不可摧的保护罩,从根本上杜绝各类Rug Pull行为。 对于当前早期的BERC20可持续关注,毕竟BERC20协议精神在当前的市场环境中是为“足够去中心化、足够公开透明”,或许可以随着发展的趋势可以捕获最大化的财富效应。 来源:金色财经
lg
...
金色财经
2023-06-19
英伟达的护城河
go
lg
...
设计能够最佳地利用不同硬件组件的功耗的
编
程
框架。 然后,他同时将其称为全栈挑战,他在此处指的是在整个计算栈的每个层面上高效协同工作以最大化加速计算性能所面临的复杂性。所有这些单独的硬件组件及其相应的软件组件需要被有效地整合在一起,以实现整个数据中心的最佳性能。 网络解决方案在整合加速计算栈的各个层面中起着至关重要的作用,实现数据中心基础设施内部各个组件之间的高效数据传输和通信。根据英伟达最新的10-K文件(重点强调): 网络解决方案包括InfiniBand和以太网网络适配器、交换机、相关软件和电缆。这使我们能够构建端到端的数据中心规模计算平台,可以通过高性能网络连接数千个计算节点。虽然在历史上服务器是计算的单位,但随着人工智能和高性能计算工作负载变得非常庞大,跨越数千个计算节点,数据中心已成为新的计算单位,其中网络是一个不可或缺的部分。 在生成式人工智能革命中,InfiniBand网络技术(通过2020年的Mellanox收购获得)将以超高需求存在,因为数据中心运营商正在重新设计其数据中心以适应人工智能时代。正如黄仁勋在电话会议中宣布的那样: 在网络方面,我们看到云服务提供商和企业客户对生成式人工智能和加速计算的强烈需求,这需要像英伟达的Mellanox网络平台这样的高性能网络。...随着生成式人工智能应用程序的规模和复杂性的增长,高性能网络成为在数据中心规模上提供加速计算以满足训练和推理的巨大需求的关键。我们的400G Quantum-2 InfiniBand平台是专为人工智能的基础设施而设计的黄金标准,在主要云和消费者互联网平台(如Microsoft Azure)得到广泛采用。 ····· InfiniBand在上个季度取得了创纪录的业绩。我们将迎来一个巨大的创纪录年度。而且InfiniBand有一个非常出色的路线图,英伟达的Quantum InfiniBand将会是非常令人难以置信的。但是这两种网络是非常不同的。如果可以这样说,InfiniBand是为人工智能工厂而设计的。 ... InfiniBand和以太网之间的差异可能在整体吞吐量上达到15%至20%。如果你花费5亿美元在基础设施上,而差异为10%至20%,而且是1亿美元,那么InfiniBand基本上是免费的。这就是人们使用它的原因。InfiniBand实际上是免费的。数据中心吞吐量的差异实在是太大,无法忽视。 因此,暂时将其AI芯片的优越性放在一边,像InfiniBand这样的网络技术也在维持英伟达的数据中心壁垒方面发挥着重要作用。实际上,英伟达的InfiniBand能够高效地整合数据中心的各个组件,实现快速数据传输和低延迟连接,使数据中心吞吐量(在给定时间内可以在数据中心之间传输或处理的数据量)提高了20%。这一提升远远超过了InfiniBand的成本。 这带来了两个优势。首先,英伟达的数据中心解决方案的令人难以置信的成本效益使竞争对手越来越难以渗透英伟达的市场份额。其次,随着InfiniBand在数据中心吞吐量方面的成本效益越来越好,它为英伟达带来了更强的定价能力,因为只要这些解决方案的成本效益可以轻松覆盖,数据中心客户就不介意为此支付更高的价格。 深入研究网络领域,英伟达提供了各种网络解决方案来优化数据中心的性能。其中包括智能网络接口卡(SmartNICs),它们可以从CPU中卸载某些与网络相关的任务,释放出处理能力用于其他任务。智能网络接口卡旨在提高网络性能,降低延迟,并增强整体数据中心的效率。这些智能网络接口卡配备了英伟达 Mellanox软件开发工具包(SDK)和Mellanox Messaging Accelerator(MMA)软件。开发人员可以在MMA的基础上构建应用程序,以在数据中心环境中优化和提升其性能。MMA为高效的消息传递和网络通信提供了基础,开发人员可以利用其功能根据特定需求进一步定制和调整其应用程序。 网络解决方案还包括网络交换机,它们是将网络流量连接和定向传输到数据中心内的设备、服务器、存储系统和其他组件的中心节点。这些交换机配备了英伟达 Cumulus Linux软件。英伟达 Cumulus Linux是一种专为在开放式网络交换机上运行而设计的网络操作系统。它为开发人员提供了一个灵活可定制的平台,以优化和增强数据中心环境中网络交换机的功能。 在其他数据中心硬件解决方案方面,英伟达还提供英伟达 Bluefield数据处理单元(DPUs),它们旨在加速广泛范围的数据处理任务,超越传统的CPU和GPU的能力,包括网络、存储和安全功能。在其最新的年度报告中,英伟达指出(重点强调): 英伟达的Bluefield DPU得到了基于芯片的数据中心基础架构软件(DOCA)的支持,使开发人员能够为BlueField DPU构建软件定义、硬件加速的网络、安全、存储和管理应用程序。支持Bluefield的合作伙伴包括许多顶级安全、存储和网络公司。我们可以在整个计算、网络和存储堆栈上进行优化,提供数据中心规模的计算解决方案。 BlueField DPU及其配套软件增强了英伟达在市场上的综合数据中心解决方案,增强了其竞争力。 因此,尽管投资者关注的是针对英伟达 GPU进行优化的成熟的CUDA软件包,但英伟达也从同时发生的其他网络效应中获益,这得益于其他软件(如DOCA和MMA),它们优化了构建数据中心所涉及的其他组件。黄仁勋在电话会议上强调: 所以,几乎每个关注人工智能的人都会考虑到那个芯片,加速器芯片,事实上,几乎完全错过了整个关键点。我之前提到过,加速计算涉及到整个堆栈,包括软件和网络,记住,我们早期就宣布了一个名为DOCA的网络堆栈,还有加速库Magnum IO。这两个软件是我们公司的宝贵资产之一。很少有人谈论它,因为很难理解,但它使我们能够连接成千上万的GPU。 将所有数据中心组件集成在一起以实现最佳整体性能是英伟达数据中心成功的关键特点。对英伟达领先行业的AI芯片感兴趣的数据中心客户随后也会购买英伟达的其他数据中心解决方案,以通过深度集成获得优化的性能。这就是为什么英伟达可以提出令人瞠目结舌的销售预测,即2023年第二季度销售额达到110亿美元,因为这不仅是对AI芯片的需求,还有对所有其他数据中心解决方案的强劲需求。随着集成的不断深化,英伟达越来越有能力将相邻的数据中心解决方案进行跨销售。 对英伟达的看涨情况的风险 AMD也提供了一套全面的数据中心解决方案,并努力迎头赶上英伟达在人工智能领域的竞争。在2023年第一季度,AMD的数据中心收入接近13亿美元,占总收入的24%。相比之下,英伟达在2024年第一季度的最新财报显示,该公司的数据中心收入接近43亿美元,贡献了公司总收入的60%。 AMD最近宣布的AI芯片MI300X并未给出令人期待的性能规格。AMD还未能宣布其新芯片的重大客户合作伙伴关系,这正是证明了英伟达在这个市场上的强势地位。 尽管如此,鉴于英伟达朝着更大的"以数据中心为产品"的机遇不断前进,AMD也通过收购Pensando Systems, Inc.(于2022年5月完成收购)加强了自己的数据中心解决方案,该公司专注于网络芯片的生产。 "Pensando的分布式服务平台将通过高性能数据处理单元(DPU)和软件堆栈,为AMD的数据中心产品组合提供扩展。这些产品已经在云计算和企业客户中得到广泛部署,包括高盛、IBM Cloud、微软Azure和甲骨文云等。" AMD确实可以通过积极加强并购策略来迎头赶上英伟达。毕竟,英伟达通过收购Mellanox和Cumulus Networks等公司来构建了自己的数据中心网络解决方案。 鉴于英伟达在该领域的主导地位,AMD可能会尝试通过价格竞争来吸引数据中心客户使用其不断扩大的解决方案套件。然而,对于AMD来说,通过价格竞争挑战英伟达的主导地位将是困难的,因为英伟达通过在数据中心基础设施中推动深度集成,已经非常精通数据中心的架构。正是这些复杂的集成优势和由此产生的成本节省,最终支撑起英伟达的数据中心优势,这与黄仁勋长期以来将加速计算视为全栈问题和全栈挑战的方法密切相关。因此,英伟达在应对竞争威胁方面处于强势地位,正如黄仁勋所确认的: 我们时刻关注竞争,并且一直面临竞争。但英伟达的核心价值主张是,我们是最低成本的解决方案。我们是最低TCO的解决方案。而这是因为加速计算是我经常谈论的两个问题,它是一个全栈问题,一个全栈挑战,您必须将所有软件、库和算法进行工程化,将它们集成并优化到不仅仅是一颗芯片的架构中,而是整个数据中心的架构,一直到框架、模型的优化。 AMD必然也会努力通过其解决方案套件的深度集成来降低数据中心客户的TCO,但这将是一场艰苦的斗争。尽管如此,AMD对英伟达领域的不断侵入可能会逐渐削弱其定价能力,对英伟达的股价产生影响,而市场已经对其具有强大的定价能力进行了定价。 话虽如此,在AMD努力迎头赶上的同时,英伟达肯定不会原地踏步。英伟达将继续全面提升自身解决方案的成本效益和性能,以保持领先地位。除了为其AI芯片提供的CUDA之外,英伟达的关键数据中心解决方案同时产生了多重网络效应,为其产品构建了强大的生态系统,使AMD面临更加艰巨的竞争。 总结 英伟达的数据中心优势不仅仅体现在其卓越的AI芯片和CUDA软件包上。虽然竞争对手正在努力构建竞争性的AI芯片和相应的软件包,但CEO 黄仁勋将目光聚焦在更大的机遇上,即将数据中心作为一种产品。公司对数据中心组件(如SmartNIC、DPU和网络交换机)的深度整合增强了其竞争力和交叉销售机会。 尽管AMD正在扩大其数据中心解决方案,并可能进行价格竞争,但英伟达专注于全栈问题解决和成本效益,使竞争对手难以挑战其主导地位。 $英伟达(NVDA)$ $美国超微公司(AMD)$
lg
...
老虎证券
2023-06-19
AI行业投资泡沫还有多远
go
lg
...
备多数据源兼容性(例如多种数据库),多
编
程
语言兼容性(例如TensorFlow、Python),并能够在各种硬件设备上无缝运行,实现跨平台AI的梦想。 然而,当前AI行业面临一个共同的难题,即缺乏统一的标准。各个公司属于各自为王的发展阶段。没有统一的标准,也就无法实现大规模的生产和制造,对于产品的技术形态展示、商业模式运营等仍任重道远。 成本昂贵,无法大众化普及 随着人工智能技术的进步,越来越多的新兴公司发布了他们自家研发的智能大脑,并通过云服务的方式提供给用户使用。这些公司在吸引了大量用户后,却面临一个麻烦:服务器的运行成本太高,有些公司由于缺乏资金和技术实力,没有考虑到这个问题。 人工智能模型的训练可谓是一项巨大的挑战,需要投入大量资源、时间和金钱。有些云服务提供商提供了自动化的模型训练和使用服务,但这些服务的成本相当昂贵,特别是在智能大脑的运行费用方面。如果初创公司提供的服务费用无法覆盖服务器的运行成本,那么这些公司的生存和盈利能力都将受到极大的影响,自然也无法大规模的商业化。 AI商业落地集中,企业亏损严重 根据艾媒咨询发布的《2019年中国人工智能产业研究报告》,安防和金融行业是人工智能在实体经济中应用最广泛的领域,占据了市场份额的绝大部分,约达到70%。然而,这也意味着在其他行业中,人工智能的深度融合和落地还有很大的发展空间。 即使一些独角兽企业在应用落地方面取得了一定的进展,但它们大多仍然面临着亏损的局面。例如,依图科技在2019年扣除非经常性损益后仍然亏损近10亿元,云知声和寒武纪也面临巨额亏损。今年上半年,依旧出现了较大的亏损额,表现如下:依图科技约亏损4.5亿元,云知声约亏损1.1亿元,而AI芯片龙头企业寒武纪的亏损超过2亿元,同比增长幅度高达550%。 AI前景虽好,但不是每个企业都能够在这个赛道中活下来。 AI面临的法律和道德问题 随着人工智能的广泛应用,存在一些道德和法律风险,比如:隐私和数据滥用、偏见和歧视、自主决策的透明度、AI的沉迷和滥用以及责任和法律纠纷。 为了应对新技术出现的道德和法律问题,各国也在相继出台法律法规,据不完全统计,自2016年以来,各国通过了123项与AI相关的法案,其中大多数是近年来通过的。 法律法律的出台为AI的场景化落地提供制度上的保障,但从法律到落地也需要一定时间的过渡期,在此期间许多商业化的AI场景仍然面临着制度的缺陷问题。这也导致了短期内无法大规模商业化的原因之一。 泡沫之后理性发展 AI无疑是未来的一大趋势,但正如行业周期变动规律显示,一个行业的发展必然要经过 快速发展期、泡沫期、理性发展期、成熟期等几个阶段。在这个过程中,众多企业纷纷登上AI的舞台,但在行业竞争和技术迭代的过程中,泡沫过后,当真正比拼技术实力和整体综合能力下,一大批企业又会慢慢死去,企业生产成本降低、各项制度法律成熟,AI回归到行业的正常发展状态,才能真正实现商业化场景落地。 来源:金色财经
lg
...
金色财经
2023-06-19
到了2030年 GPT会发展成什么样?
go
lg
...
节)。在滥用方面,GPT 2030 的
编
程
能力、并行化与速度将让它成为强大的网络攻击威胁。此外,它的快速并行学习能力可以用来研究人类行为,进而利用数千“年”的实践来操纵和误导。 在加速方面,主要瓶颈之一会是自主性。在像数学研究这样可以自动检查工作的领域,我预测 GPT 2030 的表现将胜过大多数专业数学家。在机器学习方面,我预测 GPT 2030 可独立执行实验并生成图表和文章,但研究生和研究科学家将提供指导并评估结果。在这两种情况下,GPT 2030 都将成为研究过程不可或缺的一部分。 如果用今天的系统作为参照,我对 GPT 2030 具备哪些属性的预测没那么直观,而且也可能是错误的,因为机器学习到 2030 年会发展成什么样子仍存在很大的不确定性。但是,上面的特性 (第 1 点到第 5 点) 是我的预测中值,不管 GPT 2030 会发展成什么样,我都不会相信它“只是比 GPT-4 好一点而已”。 如果我是对的,那么无论人工智能会产生什么样的影响,影响都不会小。我们现在应该为这些影响做好准备,问问在最大范围内会发生什么(大约在价值 1 万亿美元、影响 1000 万人的生命,或对社会进程造成重大破坏的程度上)。最好是现在就被吓到,而不是在系统已经推出的 7 年后才感到惊讶。 1. 特殊能力 我预计 GPT 2030 会具备超人的编码、黑客攻击与数学能力。我还预期,在阅读和处理大型语料库,找到模式和洞察,以及回忆事实方面,它将具备超人的能力。最后,由于 AlphaFold 和 AlphaZero 在蛋白质结构预测与玩游戏方面具有超人的能力,GPT 2030 也可以做到这些,比方说,如果它用的是跟训练 AlphaFold/AlphaZero 模型相似的数据上进行多模态训练的话。
编
程
。在训练中断后 GPT-4 在 LeetCode 问题上的表现优于人类基线,它还通过了几家主要科技公司的模拟面试(图 1.5)。改进的速度仍然很快,从 GPT-3 到 4 一下子就到提升了 19%。在更具挑战性的 CodeForces 竞赛上,GPT-4 表现不佳,但 AlphaCode 与 CodeForces 竞争对手的中位数持平。在更具挑战性的 APPS 数据集上,Parsel 又比 AlphaCode 更胜一筹 (7.8%->25.5%)。展望未来,预测平台 Metaculus 给出了到中位数年份 2027 年时人工智能在 80% APPS 上都将胜出,也就是说,除最优秀的人类以外,人工智能已经超过人类了。 黑客攻击。我预期在一般编码能力加持下黑客攻击能力也会得到改善,而且机器学习模型用于搜索大型代码库漏洞,其扩展性和细致程度都要超过人类。事实上,ChatGPT 已经被用来帮助生成漏洞。 数学。Minerva 在一项竞赛数学基准测试 (MATH) 上已经达到了 50% 的准确率,这比大多数人类竞争对手都要好。进展速度很快(1 年内 >30%),并且通过自动形式化、减少算术错误、改进思维链与更好的数据,可以获得唾手可得的显著成果。Metaculus 预测到 2025年,AI 对 MATH 测试的准确率将达到 92%,并且到了 2028 年(中位数),人工智能将能赢得国际数学奥林匹克竞赛金牌,与全球最好的高中生不相上下。我个人预计, GPT 2030 在证明“良定义定理”方面会比大多数专业数学家都要好。 信息处理。事实回忆和处理大型语料库是语言模型的记忆能力以及大型上下文窗口的自然结果。根据经验,GPT-4 在 MMLU (MMLU 是一项范围很广的标准化考试,包括律师考试、MCAT 以及大学数学、物理、生物化学和哲学)上达到了 86% 的准确率;即便考虑到可能会出现 train-test contamination(训练集和测试集的交叉污染),这大概也已经超出任何活人的知识范畴。关于大型语料库,Zhong 等人(2023) 曾用 GPT-3 开发过一个系统,后来这个系统在大型文本数据集里面发现了几个之前不知道的模式,并且描述了出来,后来 Bills 等人的相关工作(2023)又扩展了这种趋势,这表明模型将很快成具备超级智能。这两项工作都利用了大型语言模型的大型上下文窗口,现在这个规模已经超过 100000 token 并且还在增长。 更一般而言,机器学习模型的技能情况跟人类不一样,因为人类与机器学习适应的是非常不同的数据源(人类通过进化,机器学习通过海量互联网数据)。当模型在视频识别等任务上达到人类水平时,它们很可能就能在许多其他任务(如数学、
编
程
以及黑客攻击)中表现出超人水平。此外,由于模型变得更大数据变得更好,随着时间的推移可能会出现其他的强大功能,预期模型功能“维持”或低于人类水平没有充分的理由。虽然当前的深度学习方法有可能在某些领域达不到人类水平,但它们也有可能会超越人类,甚至显著超越人类水平也说不定,尤其是在人类在进化上不擅长的数学等领域。 2. 推理速度 (感谢 Lev McKinney 为本节运行性能基准测试。) 为了研究机器学习模型的速度,我们测量了机器学习模型生成文本的速度,以每分钟 380 个单词的人类思维速度为基准。使用 OpenAI 的chat completions API,我们估计 gpt-3.5-turbo 每分钟可以生成 1200 个单词 (words per minute,wpm),而 gpt-4 是 370 wpm(截至 2023 年 4 月初)。规模较小的开源模型,如 pythia-12b ,用 A100 GPU 跑用开箱即用的工具,至少可达到 1350 wpm,通过进一步优化似乎可以再翻一番。 因此,如果以截至 4 月份的 OpenAI 模型为参照,人工智能的速度要么大约是人类速度的 3 倍,要么等于人类速度。我预测模型在未来的推理速度会更快,因为在加速推理方面存在很大的商业与实践压力。事实上,根据 Fabien Roger 的跟踪数据,在这篇文章发表之前的一周,GPT-4 的速度已经增加到约 540wpm(12 个token/秒);这表明存在持续的改进空间与意愿。 我的预测中值是模型的 wpm 将是人类的 5 倍(范围:[0.5x, 20x]),因为这之后会出现边际收益递减的情况,尽管有一些考虑会指向更高或较低的数字。 重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以以吞吐量减少 k 倍为代价将速度提高 k 平方倍(换句话说,一个模型 k 立方倍的并行副本可以替换为速度快 k 平方倍的一个模型)。这可以通过并行平铺法来实现,理论上甚至适用于比 k 平方还要大的情况,可能至少是 100 甚至更多。因此,通过把 k 设为 5 的话,可以将 5 倍于人类速度的模型加速到 125 倍于人类速度。 重要提醒,速度与质量未必匹配:如第 1 节所述,GPT 2030 的技能组合跟人类不一样,机器在某些我们认为很容易的任务上会失败,而在某些我们感觉困难的任务却很精通。因此,我们不应把 GPT 2030 看作是“高速版人类”,而应将其看作是具有违反直觉的技能的,“高速版员工”。 尽管如此,把加速因素纳入考虑仍然很有参考意义,尤其是当加速值很大时。如果语言模型获得了 125 倍的加速,假设其处于 GPT 2030 的技能范围内,需要我们一天时间的认知动作,GPT 就可以在几分钟内完成。以前面的黑客攻击为例,机器学习系统可以快速建立起对我们来说生成速度较慢的漏洞利用或攻击。 3. 吞吐量与并行副本 模型可以根据可用的计算和内存情况任意复制。这样任何可以并行化的工作都可以快速完成。此外,一旦一个模型被微调到特别有效,改变就可以立即传播到其他实例。模型也可以针对专门的任务进行提炼,从而跑得更快、成本更低。 一旦模型经过训练,可能就会有足够的资源来跑模型的多个副本。这是因为训练一个模型需要运跑它的很多个并行副本,而训练这个模型的组织在部署的时候仍将拥有这些资源。因此,我们可以通过估算训练成本来降低副本数量。 举个例子说明一下这种逻辑,训练 GPT-3 的成本足以让它执行 9 x 10^11 次前向传播。换句话说,人类每分钟的思考量是 380 个单词,一个单词平均为 1.33 个 token,因此 9 x 10^11 次前向传播相当于以人类速度工作约 3400 年。因此,用人类的工作速度该组织可以跑 3400 个模型的并行副本一整年,或者以 5 倍于人类的速度跑相数量的副本 2.4 个月。 我们接下来为未来的模型设计同样的“训练悬垂”(训练与推理成本的比率)。这个比率应该会更大:主要原因是训练悬垂与数据集大小大致成正比,而数据集会随着时间的推移而增加。随着自然产生的语言数据被我们用完,这种趋势将会放缓,但新的模式以及合成或自生成的数据仍将推动它向前发展。我预测 2030 年的模型可使用足够的资源进行训练,去执行相当于人类速度 1800000 年的工作[范围:400k-10M]。 请注意,Cotra (2020) 与 Davidson (2023) 估计的数量相似,得出的数字比我得预测更大;我想主要区别在于我对自然语言数据耗尽所产生影响得建模方式不一样。 上面的预测有些保守,因为如果组织购买额外的计算资源的话,模型可使用得资源可能会多于训练时所用资源。粗略估计表明,GPT-4 使用了全球计算资源的约 0.01% 进行训练,不过我预计未来的训练占用全球计算总量的份额会更大,因此在训练后进一步扩展的空间会更小。尽管如此,如果组织有充分理由去扩展资源的话,仍然可以将所运行的副本数量提高到另一个数量级。 4. 知识分享 (感谢 Geoff Hinton 首先向我提出了这个观点。) 模型的不同副本可以共享参数更新。比方说,ChatGPT 可以部署到数百万用户那里,从每次交互中学到一些东西,然后将梯度更新(gradient updates)传播到中央服务器,在做过平均处理后再应用到模型的所有副本上。通过这种方式,ChatGPT 在一个小时内观察到的人性比人类一辈子(100 万小时 = 114 年)看过的东西还要多。并行学习也许是模型最重要的优势之一,因为这意味着它们可以快速学习任何自己缺失的技能。 并行学习的速率取决于一次跑多少个模型副本,它们获取数据的速度有多快,以及数据是否可以高效地并行利用。最后这一点,即使是极端的并行化也不会对学习效率造成太大影响,因为数百万的批量大小在实践中很常见,并且梯度噪声尺度(McCandlish 等人,2018 年)预测学习性能在某个“临界批量大小”以下劣化程度最小。因此,我们将聚焦在并行副本和数据采集上。 我会提供两个估计,这两个估计都表明以人类的速度并行学习至少约 100 万份模型是可行的。也即是说,机器一天的学习量相当于人类学 2500 年,因为 100 万天 = 2500 年。 第一个估计用到了第 3 节中的数字,得出的结论是训练模型的成本足以模拟模型 180 万年的工作(根据人类速度进行调整)。假设训练运行本身持续了不到 1.2 年(Sevilla 等人,2022 年),这意味着训练模型的组织有足够的 GPU 以人类速度运行 150 万个副本。 第二个估计考虑了部署该模型的组织所占市场份额。比方说,如果一次有 100 万用户向模型发起查询,则组织必然有资源来服务 100 万个模型副本。大致而言,截至 2023 年 5 月,ChatGPT 拥有 1 亿用户(并非同时全部活跃),截至 2023 年 1 月,其每天有 1300 万活跃用户。我假设典型用户的请求量相当于模型几分钟的生成文本,因此 1 月份的数字可能意味着每天大概只有 5 万人日的文本。不过,未来的 ChatGPT 式的模型似乎很可能会达到其 20 倍之多,日活用户可以达到 2.5 亿更多,因此每天将会有 100 万人日的数据。相比之下,Facebook 的日活用户数是 20 亿。 5. 多模态、工具与执行器 从历史上看,GPT 风格的模型主要是基于文本和代码进行训练,除了通过聊天对话之外,与外界互动的能力有限。然而,这种情况正在迅速改变,因为模型正在接受图像等其他模态的训练,正在接受使用工具的训练,并开始与物理执行器交互。此外,模型不会局限于文本、自然图像、视频和语音等以人类为中心的模态——它们也可能会接受网络流量、天文图像或其他海量数据源等人类不熟悉的模态的训练。 工具。最近发布的模型开始利用了外部工具,如 ChatGPT 插件等。文本与工具使用相结合足以编写出可执行的代码,说服人类让机器替他们采取行动,进行 API 调用,交易,甚至执行网络攻击都有可能。工具的使用具备经济用途,因此会有进一步发展这种能力的强烈动机。 ChatGPT 是被动的:用户说 X,ChatGPT 回应 Y。风险存在但有限。很快就会有主动系统 - 一个助手会替你回复电子邮件,代表你采取行动等。这样风险会更高。 - Percy Liang (@percyliang) 2023 年 2 月 27 日 新模态。现在有大型开源视觉语言模型,如 OpenFlamingo,在商业方面,GPT-4 和 Flamingo 都接受了视觉和文本数据的训练。研究人员还在试验更多奇异的模态对,例如蛋白质和语言(Guo 等人,2023 年)。 我们应该期望大型预训练模型的模式会继续扩展,原因有二。首先,在经济上,将语言与不太熟悉的模态(如蛋白质)配对有它的用处,这样用户就可以从解释并有效地进行编辑中受益。预测会用蛋白质、生物医学数据、CAD 模型以及与主要经济部门相关的任何其他模态进行多模态训练。 其次,我们将开始用完语言数据,因此模型开发人员得搜索新类型的数据,从而可以继续受益于规模。除了传统的文本和视频之外,现有数据源当中天文数据(很快将达到每天艾字节得规模)和基因组数据(大约 0.1 艾字节/天)是规模最大之一。这些以及其他得海量数据源可能会被用于训练 GPT 2030。 使用外来模态意味着 GPT 2030 可能会具备非直觉的能力。它可能比我们更了解恒星和基因,即尽管它现在处理基本的物理任务都比较困难。这可能会带来惊喜,比方说设计出新的蛋白质,这是我们基于 GPT 2030 那种“一般”智能水平预料不到的。在思考 GPT 2030 的影响时,重要的是要思考由于这些奇异的数据源而可能形成的超人能力。 执行器。模型也开始使用物理的执行器:ChatGPT 已经用于机器人控制,OpenAI 正在投资一家人形机器人公司。不过,在物理域收集数据要比在数字域收集数据昂贵得多,而且人类在进化上也更适应物理域(因此机器学习模型与我们竞争的门槛更高)。因此,与数字工具相比,我预计人工智能掌握物理执行器的速度会更慢,而且我不确定我们是否该在 2030 年之前做到这一点。量化而言,我认为在 2030 年实现自主组装一辆按比例复制的法拉利的概率是 40%。 6. GPT-2030 的影响 接下来我们将分析像 GPT 2030 这样的系统对社会意味着什么。具备 GPT 2030 特征的系统至少会显著加速某些领域的研究,同时被滥用的规模也大得很。 我会从分析 GPT 2030 的一些一般优势和局限性开始,然后用来作为分析加速和滥用的视角。 优势。GPT 2030 代表的是一支庞大、适应性强、高产出的劳动力队伍。回忆一下吧,多个 GPT 2030 副本并行工作,按照 5 倍于人类的运行速度,可以完成 180 万年的工作。这意味着我们可以(受到并行性的限制)模拟 180 万个代理,每个代理在 2.4 个月内即可完成一年的工作。如上所述,对于 FLOP (浮点运算),我们可以开出 5 倍的费用,从而换取额外 25 倍的加速(这将达到人类速度的 125 倍),因此我们还可以模拟出 14000 个代理,这些代理每个都能在 3 天内完成一年的工作。 限制。利用这种数字劳动力存在三个障碍:技能情况、实验成本以及自主性。首先,GPT 2030 将拥有与人类不同的技能组合,导致它在某些任务上表现更差(但在其他任务上表现更好)。其次,模拟人工仍然需要与物理世界对接,以便收集数据,这个本身需要时间和计算成本。最后,在自主性方面,如今的模型在被“卡住”之前只能通过思维链生成几千个 token,进入到没法生成高质量输出的状态。在将复杂任务委托给模型之前,我们需要显著提高其可靠性。我预计可靠性会提高,但并非没有限制:我(非常粗略)的猜测是 GPT 2030 可以稳定运行数天(与人类等效的时间),然后就得重新设置或交给外部反馈控制。如果模型以 5 倍的速度运行的话,这意味着它们每隔几个小时就需要人工监督的介入。 因此,GPT 2030 影响最大的任务应该具备以下特性: 利用了 GPT 2030 相对于人类具备优势的技能。 只需要外部经验数据(收集应该很轻松快速,与昂贵的物理实验相反)的任务。 可以先验分解为可靠执行的子任务,或者具有清晰且可自动化的反馈指标来帮助引导模型的任务。 加速。有项任务这三条标准都很容易满足,那就是数学研究。首先,GPT 2030 可能具备超人的数学能力(第 1 节)。这第二条和第三条,数学可以纯粹通过思考和写作来完成,而且什么时候定理得到证明我们是知道。此外,全球的数学家总共也没多少(比方说美国就只有 3000 人左右),因此 GPT 2030 也许每隔几天模拟一次产出就能超过所有数学家的年产。 机器学习研究的一些重要部分也符合上述标准。GPT 2030 在
编
程
方面能力超人,其中包括实施和运行实验。鉴于 GPT-4 擅长以通俗易懂的方式解释复杂的主题(并且市场对此也有很大需求),我猜它也能很好地呈现和解释实验结果。因此,届时机器学习研究可能会简化成构思出好的实验来运行,并与高质量(但可能不可靠)的结果报告进行交互。因此,到 2030 年时,研究生拥有的资源堪比今天带领几名优秀学生的教授手上的资源。 部分社会科学也可以得到显著加速。很多论文大部分的工作是对具备科学有趣性的数据源进行追查、分类和标记,并从中析取出重要模式。这满足了第 3 条要求,因为分类和标记可以分解为简单的子任务,并且也满足第 2 条要求,只要数据在互联网上能找到,或者可以通过在线调查收集到即可。 滥用。加速只是一方面,另一方面也会存在严重的滥用风险。最直接的案例是表现出网络攻击性的黑客能力。检查特定目标是否存在特定类型的漏洞可能会得到可靠执行,并且很容易就能检查漏洞利用是否成功(前提是能够与代码交互),因此第 3 条要求是都可以满足的。在第 2 条要求上,GPT 2030 需要与目标系统交互去了解漏洞利用是否有效,这会带来一些成本,但不足以构成重大瓶颈。此外,该模型可以在本地设计好,以开源代码作为训练数据源,去测试漏洞利用,因此它可以提前练好黑客攻击技能,然后再与外部系统进行交互。也就是说,GPT 2030 可以针对大量并行目标快速执行复杂的网络攻击。 滥用的第二个来源是操纵。如果 GPT 2030 同时与数百万用户进行交互的话,那么它在一个小时内获得的人机交互体验比人一生(100 万小时 = 114 年)获得的交互体验都要多。如果它利用这些交互来学习如何操纵,那么它就可以获得远超人类的操纵技能——打个比方,骗子擅长欺骗受害者,因为他们之前已经在数百人身上练习过,而 GPT 2030 可以将这项技能提高几个数量级。因此,它可能非常擅长在一对一对话中操纵用户,或者擅长撰写新闻文章来影响公众舆论。 因此,总而言之,GPT 2030 可以将几乎所有的数学研究以及其他研究领域的重要组成部分自动化,并且可能成为网络攻击和说服/操纵等滥用行为的强大载体。其大部分影响将受到“监督瓶颈”的限制,因此如果人工智能可以长时间自主运行的话,那么它的影响可能会更大。 来源:金色财经
lg
...
金色财经
2023-06-19
BFMeta打破了传统区块链技术必须在x86PC上运行的约束,并将区块链的应用扩展到移动终端
go
lg
...
演化)等。 2)核心应用程序组件:可
编
程
合同、可
编
程
资产、应用程序框架核心协议、链上服务、api和可视化开发工具等。 3)平台基础设施:用于承载区块链系统运行过程的基本要求,包括安卓、Windows 、Linux、UNIX、macOS等操作系统。 4)开发人员社区: BFMeta治理、工具包下载、教程服务等。 关注我们 BFMeta官网:https://www.bfmeta.org BFMeta区块链浏览器:https://tracker.bfmeta.org/#/ 推特:@BFMeta_CN discord:http://discord.gg/7Y4yjShx4t 来源:金色财经
lg
...
金色财经
2023-06-18
ChatGPT“真香”?!调查发现:美国高达92%程序员在工作中使用AI
go
lg
...
hatGPT甚至GitHub自己的AI
编
程
助手Copilot这样的工具已经迅速成为开发人员日常生活中不可或缺的一部分,而且由于编码人员往往精通技术,这可能是一个有趣的迹象。 受访者还表示,他们相信这些人工智能工具将提高他们代码的质量。尽管学术界发现ChatGPT生成的代码存在严重缺陷,正如The Register报道的那样,有些甚至不符合安全标准。 调查发现:“开发人员表示,人工智能编码工具可以帮助他们满足现有的性能标准,提高代码质量、加快输出速度并减少生产级事件。” GitHub的首席产品官Inbal Shani认为,AI技术确实取得了相当大的进步,现在它让开发人员更有效率,并缩短了生产时间。 不仅仅是GitHub发现程序员涌向ChatGPT等人工智能工具。正如Gizmodo指出的那样,已成为编码人员重要资源的流行论坛Stack Overflow表示,最近流量下降可能是由于开发人员转向了这些相同的工具。 但是有一些原因我们应该对GitHub的结果持保留态度。该公司依靠其Copilot
编
程
工具在生成AI上取得成功,这意味着该公司对其成功和广泛使用有着既得利益,而这还没有考虑到其母公司微软与OpenAI的深度纠缠。 开发人员的职业生涯最终是否会被生成式AI削弱(或增强)还有待观察。毕竟,我们已经看到工作被人工智能取代 ,程序员可能也无法幸免。
lg
...
Elva
2023-06-18
Waterdrip Capital:分布式存储赋能下的DApp 我们距离信息互联还有多远?
go
lg
...
VM 以来,区块链变成了去中心化的、可
编
程
的分布式账本。智能合约的发明推动了 NFT、Defi 等场景和应用的萌芽。 作为图灵完备的
编
程
语言,智能合约可以让不同的区块链节点执行相同功能的代码,并让他们对代码执行的结果产生共识。但是智能合约无法储存大量的数据。这是 Ethereum 等区块链本身的设计决定的。 Ethereum 数据存储设计图 在 Ethereum 中,各个账户的余额、Nonce 值等信息并不会直接存储在区块里,而是由各个节点计算整个世界状态树(包含各个账户的信息),并将状态树根的哈希值存储在区块中。而各个账户的信息,以及各个智能合约(智能合约是一种特殊的账户)存储的信息,就保存在状态树中。在 Ethereum 客户端的设计中,这些数据实际上是由各个节点保存在链下的 LevelDB 或者 RocksDB 中,由状态树根进行共识。因此,直接向区块链上的智能合约中存储数据是较为昂贵的。 实际应用中,我们需要安全可靠地保存一些关键数据。例如,在 NFT 应用中,我们可以在链上记录每个 NFT 的 ID 及其拥有者的对应关系,但是对于 NFT 本身的关键数据(metaData),却不能在链上进行持久化的存储,否则会带来大量的 Gas 开销。我们需要额外的方式对这些数据进行存储。 2.3 去中心化存储的基础技术 去中心化存储基础设施运用了多项密码学、分布式系统的关键技术来使得整个系统具有较高的可用性,同时保障存储的数据具有较高的机密性和完整性。 从整体上看,去中心化存储基础设施的核心思路是,将用户的一份文件,分成多个碎片,并对每个碎片进行多次重复,然后将结果分别存储在不同的节点或分区中。当用户需要获取原来的数据时,可以以一定的逻辑向全网的各个节点发起请求,恢复自己原来的数据。这其中可能用到的技术包括: 分布式哈希表(Distributed Hash Table,DHT):DHT 是一种分布式的键值存储系统,它可以在不同的节点之间高效地存储和检索数据。通过使用 DHT,去中心化存储可以在网络中找到数据的位置,实现快速访问。 数据分片(SharDing):为了提高存储效率和数据安全性,去中心化存储系统通常将数据分成多个碎片,并将这些碎片分布在不同的节点上。这可以降低单个节点的存储压力,提高数据的冗余性和可靠性。 数据加密:为了保护用户数据的隐私和安全,去中心化存储系统通常使用加密技术对数据进行加密。这样,即使数据在传输过程中被截获,攻击者也无法获取到原始的数据内容。 纠错码:它通过添加冗余信息来提高数据的容错能力。在去中心化存储中,纠删码可以帮助在数据丢失或损坏的情况下恢复数据,提高系统的可靠性。 此外,为了保证网络中数据的可用性,一般还需要对各个节点进行共识。而为了保证网络的去中心化,需要更多的节点参与数据的存储和共识,这又涉及以下的一些关键技术: 共识算法:去中心化存储通常使用区块链技术来实现自治和透明化。共识算法是区块链系统中的核心技术,它可以确保网络中的所有节点就数据的状态达成一致。 激励和惩罚机制:为了吸引更多的参与者加入去中心化存储网络,激励机制是至关重要的。通过设置合适的奖励和惩罚措施,激励机制可以鼓励参与者为网络提供更多的存储资源和带宽。例如,为了激励矿工进行稳定服务,Filecoin 网络要求矿工投入一部分区块奖励作为抵押品。如果矿工提前终止合约或下线,矿工将受到惩罚,抵押品将被烧毁,这个过程被称为 “惩罚”。而诚实的矿工则会因为工作而受到较里。这样一来,整个系统不仅可以激励矿工在第一时间存储数据,而且能激励矿工持久且正确地存储数据,并维护他们对用户和网络的承诺。 网络路由和数据传输:为了实现高效的数据存储和检索,去中心化存储系统需要一个优化的网络路由和数据传输机制。这可以降低网络延迟,提高数据访问速度。 第三章 去中心化存储基础设施 3.1 去中心化存储“三巨头” 去中心化存储本质上服务于Web3生态的应用层,因此在解决方案上更加倾向于满足终端用户的需求,也就是用更高效、更低成本的方式执行数据存储、计算与调用的需求。Arweave、Filecoin 和 Storj 已经形成了独立的三个头部去中心化存储网络。 3.1.1 Filecoin 作为一种去中心化存储系统,Filecoin 旨在为人类最重要的信息提供安全和可靠的存储。它采用了一种创新的激励机制,使网络参与者能够提供存储空间并获得相应的奖励。Filecoin 可以与各种 DApp 开发平台结合使用,为开发者提供高度可靠的存储解决方案,确保数据的安全性和可访问性。 Filecoin 和 IPFS 是两个独立的互补协议,均由 Protocol Labs 创建。 IPFS 允许对等点相互存储、请求和传输可验证的数据。Filecoin 旨在提供一个持久数据存储系统。它遵循时空证明和复制证明来保证矿工正确存储了他们承诺存储的数据。 Filecoin 上的去中心化存储已证明比 Web2 存储解决方案便宜 95% 以上。 Filecoin 的大型 Web3 用例之一是 NFT 数据的存储,超过 9000 万个 NFT 存储在 Filecoin 上,这主要是由于 Filecoin 与 IPFS 的交互,IPFS 通常是 NFT 数据存储的首选。 优点: 去中心化—Filecoin 不是将信息存储在一个地方的集中式网络,而是创建一个分散式网络,其中数据在多个位置复制并可从任何地方访问。 极低成本—Filecoin 正试图通过临时存储的极低成本替代方案来扰乱当前的存储市场。 可扩展性—将全球数百万台计算机聚集在一起,创建一个巨大的存储网络,并激励它们存储数据。 缺点: 付费方式—不支持一次性付费存储数据,而是仅支持基于月租合同的系统存储数据。 Filecoin 想租用世界各地服务器上多余的数据存储。 这些服务器的所有者可以将空间出租给你我,以便按月保存我们的数据。类似于 Airbnb 如何成为(有时)入住酒店的更便宜的选择,Filecoin 的目标是成为比云存储行业的大玩家更便宜的选择。 主要是 Filecoin 的经济模型:基于合约的存储可以更简单地认为是按需付费的模型。 用户支付一个节点网络来永久存储数据,并且它还可以不信任地保证有人在那里实际存储他们所说的数据,并在商定的时间内存储。 事实上,每个企业都有自己的替代用例,在那种情况下如果他们需要永久存储,并且只需要支付一次费用就可以永久存储数据,而不是像 filecoin 那样按月支付合同费用和固定时间来存储数据,那么 Arweave 就会派上用场。 3.1.2 Arweave Arweave 是一个基于区块链的去中心化存储平台,采用创新的可持续和永久的捐赠机制来支持数据存储。 它于 2018 年发布。他们创建了 Arweave 来为人们和企业提供永久、低成本和去中心化的存储。 为了激励矿工并为存储服务提供支付方式,Arweave 采用了一种名为 AR 的原生代币。 Arweave 向市场引入了一种全新的经济模型,这是在无许可加密网络出现之前从未有过的:永久存储。与 Arweave 交互的简单方法是使用 BunDlr,因为它是永久数据存储的,所以 Arweave(以及 BunDlr)不支持可变数据。 但是可以上传更新版本,因此可以构建一个系统来促进可变数据的出现,但具有永久的编辑历史记录。 Arweave 的一个很酷的特性是它强调数据持久性。 该平台旨在无限期地存储数据。确保它在未来几年内可供用户使用。 通过采用独一无二的数据存储系统,Arweave 通过网络复制每条存储的数据,几乎不可能丢失。通过 Arweave,开发者可以实现大规模、永久性的数据存储,无需担心数据丢失或篡改。它为开发者提供了一种可靠且长期存储数据的解决方案,为 DApp 的数据管理提供了持久性保障。 优点: Arweave 使用永久存储,用户只需支付一次性预付费用即可永久存储数据。该协议通过利用加密经济博弈论并创建捐赠基金来补偿矿工确保数据可用性、可靠性和持久性来实现这一点。 Arweave 首次使用经济学来激励人们长期存储数据。 这种组合使公共或私人数据永久化。 Arweave 区块链每秒能够处理超过 5, 000 笔交易。 缺点: Arweave 特性能应用于以 HTML 5 网页为主的数据保全,建立去中心化 H 5-APP,但在实际使用中,我们发行该存证的应用场景较窄,目前可以看到目前在 Arweave 上存储的最多的是推特的一些反政府言论的截图,明确的反政府应用增多是令人担忧的。 Arweave 的特性是永不可篡改,这在程序开发上显得尤为困难,因为开发者上传到 Arweave 的程序必须任何错误都不能有,如果有错误,哪怕是一个标点,之前上传的内容都要作废,需要重新上传,势必造成大量无用垃圾堆积。另外,由于区块链的开放性,Arweave 上传的内容都是面向全社会开放的,不适合上传个人内容。 Arweave 主打主打一次性付费并获得永久文件存储,该模式较为简单,有一定风险会引发同质化项目出现利用相同的存储概念并打响价格战。 3.1.3 Stroj Stroj 是一个去中心化的内容存储和分发网络,旨在提供快速、安全、低成本的 P2P 云存储服务, 主要针对企业级客户,对标 Amazon Web Services (AWS) S 3 。Storj 于 2014 年成立, 2017 年上线,Storj 目前运行的版本名为 Storj Next,于 2023 年 2 月启动,该版本引入了永久存储功能和代币存储奖励。Stroj 提供的去中心化存储服务,简单来说就是用户将需要存储的文件上传到网络,文件被分散存储到世界各地愿意贡献出存储空间的电脑中(存储节点),当用户需要使用文件时,再从网络中检索文件的位置,然后下载到本地电脑中。 然而不同于其他的去中心化存储网络,Storj 网络中不仅有用户和存储节点,还加入了卫星作为第三种角色,三者间形成了一种独立运作,又相互依存的关系。 用户:使用 Uplink 客户端进行内容传输,Uplink 负责数据加 / 解密及分片。 卫星:连接用户与存储节点,网络中的协调者。负责存储节点地址信息,元数据、维护节点声誉、支付及管理节点费用、审计节点、管理用户账户授权。卫星便会帮助用户寻找上传速度最快的节点,同时记录用户端和节点的支出和收益。 存储节点:为用户提供存储空间和网络带宽。 截至 2023 年 5 月,Storj 有 6 个稳定运行的卫星, 23600 个活跃节点,共储存 24.2 PB。Storj 是一个着重 SLAs 级服务的去中心化存储服务,相 Filecoin 的去中心化、Arweave 具备 Smartweave 智能合约系统,Storj 没有利用区块链技术,且在中心化上有妥协,但这也让它在商用落地上领先于其他同类项目。 优点: 高级别加密 快速数据检索 实惠的价格 易于使用的用户体验 缺点: Storj 自诩为去中心处存储中的 Uber , 在中心化上有所妥协 3.2 存储设施分类 首先对现有的去中心化存储基础设施进行调研,主要从其架构和特点,目前的使用量,以及使用的成本三个方面入手,分析哪些设施更适合让 DApp”栖息“在其中。根据基础设施本身是否依托于一条完整的区块链设计,我们将其分为 Off-chain 存储设施和 On-chain 存储设施两类: Off-chain 去中心化存储设施中,各个节点之间并非以组成一条区块链的形式存在,而是一个P2P的去中心化网络,数据直接被分散和存储在各个节点中。 On-chain 去中心化存储设施中,确实存在着一条区块链,存储着各个文件的证明。在区块链外,存在着诸多的存储服务提供商,来真正地存储文件和数据。 3.3 新的“挑战者们” 3.3.1 BNB Greenfield 三月份,Binance 发布了 BNB Greenfield。Greenfield 是一个区块链和存储平台,专注于促进分散的数据管理和访问,旨在通过简化数据的存储和管理,将数据所有权与 BNB SmartChain(BSC)上下文联系起来,从而改变数据经济。 作为 BNB 世界中“一币三链”的一环,Greenfield 与现有的中心化和去中心化存储基础设施的区别在于: 允许以以太坊兼容的地址形式创建和管理数据和资产。 允许以 BNB 作为基本资产,和 BSC 进行原生跨链,为 BSC 上的应用提供云存储。 为开发人员提供了与流行的现有Web2云存储类似的 API 原语和性能。 Greenfield 本质上是一条区块链,由区块链本身和存储服务提供商(Storage ProviDer)两层组成。 在链上,Greenfield 区块链维护用户账本,并将存储元数据作为通用区块链状态数据进行记录。其原生代币用于支付手续费和治理的是 BNB,从 BNB 智能链转移而来。用户向 Greenfield 发起的存储或提取文件请求,实际上会被包裹在区块中。 在链下,存储提供商(SP)是由使用 Greenfield 作为账本和唯一真实数据来源的组织或个人提供的存储服务基础设施。每个 SP 负责响应用户上传和下载数据的请求,同时还充当用户权限和身份验证的守门员。 BNB Greenfield 区块链和 SP 一起构成了一个去中心化的对象存储系统。值得一提的是,以 Greenfield 为存储基础设施的应用,可以很方便的和 BSC、BNB Beacon Chain 进行跨链。 由于,Greenfield 测试网刚刚发布不久,主网将在今年第三季度发布,所以暂时还没有较多的生态入驻。 在笔者看来,BNB Greenfield 存储设施主要是 BNB 相关社区的一环,肯定会对 BNB 的价值产生积极影响。Greenfield 使得 BSC 有着更好的使用体验,得到更高的认可。随着越来越多的项目和用户选择使用 BSC,BNB 和 Greenfield 的整体需求和价值将得到提高。通过跨链切换和整个生态系统的互联互通,BNB 可以在生态系统中的各种应用中得到更广泛的应用,构建一个互利共赢的生态系统。 3.3.2 Filswan 今年 1 月,Binance Labs 宣布启动第 4 季孵化计划,被选中的项目有机会获得 Binance Labs 提供的初始资金投资以及项目发展的多方面支持,其中 Filswan 成功入围第 4 季孵化,共获得了 300 万美元的融资。 FilSwan 近日宣布首款跨链产品 multichain.storage 成功上线 Polygon 主网。该产品使用户能够通过 Polygon 稳定币支付 IPFS/Filecoin 存储,成功地降低了操作门槛并简化了 Web3 存储中的 dApps 开发过程。 FilSwan 是一支来自加拿大的团队。从 2017 年起就深耕云计算和区块链行业,合作院校有加拿大的 Mcgill 大学,Concordia 大学等。多次获得加拿大政府,加拿大自然科学基金会关于区块链云计算方向的研发拨款,也是加拿大下一代网络卓越项目。FilSwan 致力于打造去中心化的存储和计算的方案。FilSwan 的产品服务通过边缘计算技术,IPFS/Filecoin 存储技术和去中心化账本技术得以大幅度增强。FilSwan 产品被广泛应用于大学院校,VR/AR 以及高性能计算公司等。FilSwan 的用户可以在距离自己最近的节点上以最低的成本执行计算任务。 3.3.3 OORT OORT:去中心化云服务+公链、Web3和元宇宙的基础设施、为用户提供企业级性能去中心化的底层基础设施云服务。OORT 可提供整套具有互联网规模的Web3数据解决方案,旨在为终端用户和开发者带来Web2原生般的用户体验。 优势:安全、开放、抗审查,抵御单点故障、抵抗数据泄露(全部数据都在边缘节点加密)网络攻击,互联网规模的可延展性、 99.99% +可用性 、超低延迟 、 99.99% +耐用性。 核心技术,优化闲置算力,增加 IDC 和各类矿工收益,多元物理机聚合器+多币种(比如:Storj、Filecoin、Chia、Crust、Swarm、Arweave、Ethereum、Helium 等各类去中心化存储、去中心化计算、去中心化节点网络矿币的存量和增量矿工)双挖兼容+(web2和web3)大规模商用订单利润收入、同赛道差异化竞争,同赛道赋能兼容、深挖Web2和Web3的需求端。 第四章 分布式存储赋能下的 DApp 现状 4.1 分布式存储对 DApp 的优势及作用 在 DApp 应用程序中,分布式存储通常用于存储智能合约代码、用户数据、交易数据、身份验证数据等等。对于开发人员来说,合理地应用分布式存储技术,除了具有安全性和可靠性,还可以带来一些其他的优势,例如: 1 )高可用性和安全性 由于数据存储在多个节点上,因此即使某个节点出现故障,数据仍然可以从其他节点中访问到。在分布式存储中,数据通常被分散存储在多个节点上,每个节点只存储数据的一部分,这样一旦有节点出现故障,其它节点也能够正常提供服务,确保了数据的可靠性。 2 )高性能和响应性 在传统的应用程序中,服务器需要处理大量的数据请求,容易导致性能瓶颈。而在 DApp 中,由于数据被分散存储在多个节点上,每个节点只需要处理自己所存储的数据请求,从而减轻了服务器的负载,提高了应用程序的性能。此外,由于分布式存储能够无限扩展,DApp 也能够无限扩展,从而提高了应用程序的扩展性。 4.2 DApp 开发框架及技术选型 Ethereum + IPFS:以太坊是当今最受欢迎的 DApp 开发平台,其具备高度可
编
程
性和智能合约功能,成为构建去中心化应用程序的首选平台。IPFS(InterPlanetary File System)则是一种备受欢迎的去中心化存储系统,通过分布式协议解决了传统中心化存储的挑战。结合以太坊和 IPFS,开发者得以在强大的环境中构建可靠、安全且高度可扩展的去中心化应用。 Truffle Suite:Truffle Suite 是专为以太坊生态系统而设计的一整套开发工具。其中的 Truffle 是一种开发环境、测试框架和资产流水线,被广泛选择用于构建 DApp。通过与 IPFS 的集成,Truffle Suite 能够实现去中心化存储,为开发者提供全面的功能和便利。 Embark:Embark 是一个简化 DApp 开发和部署过程的框架。借助 Embark,开发者可以轻松创建和管理各个方面的 DApp,包括智能合约、前端界面以及存储和 Whisper 通信等功能。Embark 与 IPFS 等去中心化技术集成,为开发者提供便捷的存储和通信能力,进一步加强了 DApp 的去中心化特性。 HarDhat:HarDhat 是一个强大的开发环境,用于编译、部署、测试和调试以太坊软件。它提供全面的支持,使开发者能够高效地进行智能合约开发和调试工作。HarDhat 可以与 IPFS 或其他去中心化存储解决方案集成,满足 DApp 对可靠存储的需求。 Ganache:作为 Truffle Suite 的一部分,Ganache 是一个功能强大的工具,可用于创建私有的以太坊区块链。通过使用 Ganache,开发者可以在安全且确定性的环境中进行 DApp 的测试和调试工作。它提供了一种快速而可靠的方法,使开发者能够模拟不同的区块链场景,并确保 DApp 在各种情况下的稳定性和一致性。 Web3.js / Ethers.js:Web3.js 和 Ethers.js 是两个流行的 JavaScript 库,用于实现应用程序与以太坊区块链的交互。这些库提供了丰富的功能,包括与智能合约的交互、账户管理、数据查询等。无论是与 IPFS 还是其他去中心化存储系统结合使用,Web3.js 和 Ethers.js 都为开发者提供了强大的工具,使其能够轻松地构建基于以太坊的应用程序。 Moralis:Moralis 是一个全托管的后端服务,专为 DApp 开发而设计。它提供了强大的功能,使开发者能够将精力集中在前端开发上,而无需担心复杂的后端架构。Moralis 支持 IPFS 作为去中心化存储方案,为开发者提供了可靠的存储解决方案,使其能够轻松地将数据存储在 IPFS 网络中。 Arweave:Arweave 是一个去中心化存储网络,采用创新的可持续和永久的捐赠机制来支持数据存储。通过 Arweave,开发者可以实现大规模、永久性的数据存储,无需担心数据丢失或篡改。它为开发者提供了一种可靠且长期存储数据的解决方案,为 DApp 的数据管理提供了持久性保障。 Filecoin:作为一种去中心化存储系统,Filecoin 旨在为人类最重要的信息提供安全和可靠的存储。它采用了一种创新的激励机制,使网络参与者能够提供存储空间并获得相应的奖励。Filecoin 可以与各种 DApp 开发平台结合使用,为开发者提供高度可靠的存储解决方案,确保数据的安全性和可访问性。 Textile 是一个强大的工具集,旨在简化在 IPFS 上构建应用程序的过程,为开发人员提供更加简单和便捷的开发体验。Textile 的工具集包含了各种功能,帮助开发者克服在使用 IPFS 进行应用程序开发时可能遇到的复杂性和挑战。 4.3 分布式社交媒体平台 去中心化社交媒体平台的对web3的发展非常有意义,如果想要一个开放和免费的互联网,就需要开放和免费的社交媒体网络。大多数互联网用户将大部分时间花在主要社交媒体平台上。传统的交媒体平台决定了用户能看到什么和不能看到什么,有权审查他们不喜欢的内容/个人资料,并控制所有用户数据。web2 社交平台没有可移植性。每个人的个人资料、朋友关系和内容被锁定到特定网络并归网络运营商所有。并且随时可能发生封号等行为,正基于此,web3生态里催生了分布式社交媒体平台,可以为开发者解锁网络效应。对于主要的中心化平台来说,这是一条巨大的护城河。 Mask Network、RSS3、Lens Protocols 和 CyberConnect 是当前具有代表性的四个分布式社交媒体协议。它们都致力于为用户提供更安全、去中心化、高效的数据存储和访问服务。下面将从数据存储、数据访问、数据安全性、奖励机制四个角度对它们进行比较。 数据存储: Mask Network 运行在 Ethereum、Binance Smart Chain 和 Polygon 之上,并具有社区治理和去中心化数据存储功能。 RSS3使用了一种名为RSS3 Core 的数据格式,它基于 JSON-LD 语言,可以轻松地进行数据交换和共享,同时也支持其他数据格式。RSS3的数据存储则是采用去中心化的 IPFS 协议。 Lens Protocols 基于以太坊和波卡两个主要区块链平台,通过跨链桥将它们连接在一起。用户可以在两个平台之间自由地转移数字资产,实现跨链互操作性。 CyberConnect 使用了类似于 IPFS 和 Filecoin 的分布式存储协议来存储数据,同时还结合了智能合约和加密算法来确保数据的安全性。 数据访问: Mask Network 通过用户友好的 Chrome 扩展程序和社交媒体平台接口,可以方便地进行数据访问、共享和交换。 RSS3除了已接入以太坊、Polygon、BSC、Arbitrum、Flow 和 xDAI 等,还为 Mask Network、Polygon、Arweave、Misskey、ShowMe 等生态项目提供了数据索引与分发。 Lens Protocol 利用跨链桥连接以太坊和波卡,实现资产跨链转移。该跨链桥采用了多签名机制,确保了资产的安全性和可靠性。 CyberConnect 提供了一个名为 CyberConnect Gateway 的接口,用户可以通过这个接口来查找和访问存储在网络上的数据。 数据安全性: Mask Network 使用了加密算法和智能合约来保护用户数据的安全性,同时也支持多重签名等技术,以确保交易和存储的安全性。允许用户通过公钥密码学在社交媒体上加密和解密内容。 RSS3使用了分布式存储和加密算法来保护用户数据的安全性,同时还支持身份验证等技术,防止未经授权的访问。 Lens Protocol 为用户提供流动性池,使得用户可以进行资产交易和流动性提供。该协议支持 AMM 和定价模型两种流动性池。 CyberConnect 使用了类似于 IPFS 和 Filecoin 的分布式存储协议来确保数据的安全性,同时还使用了加密算法、智能合约和身份验证等技术。 奖励机制: Mask Network 用户可以在 Twitter 和 Facebook 上执行以下活动(无需离开网站或安装其他应用程序):通过 Uniswap DEX 交易代币;捐赠资金并通过红包发送加密货币;利用 Initial Twitter Offering (ITO) 筹集加密项目资金;借由去中心化文件存储服务上传和附加(可选加密)文件到你的贴文。 RSS3的奖励机制是基于RSS3代币的。RSS3代币主要用于激励用户分享和访问数据,还可以用于支持应用程序和社区的发展。用户可以通过分享自己的数据和参与社区治理等方式获得RSS3代币。 在奖励机制方面,这四个项目都采用了类似的方式,即通过代币激励用户参与社区建设和贡献,从而促进社区的发展和增强其稳定性。不同之处在于代币的名称、用途和获取方式不同,这反映了这些项目在设计奖励机制时的不同考虑和定位。例如,Mask Network 注重社区治理和决策,因此其奖励机制强调 MASK 代币的参与价值;RSS3注重数据分享和访问,因此其奖励机制主要围绕RSS3代币的获得和使用展开;Lens Protocol 注重数据存储和访问,因此其奖励机制重点放在提供存储和计算资源上;CyberConnect 同样注重数据存储和访问,但它强调了代币在社区治理中的作用。 4.4 分布式信息管理平台 4.4.1 Genaro Network Genaro Network 是一个基于区块链的存储网络,它提供了一个去中心化的平台,用户可以在上面存储和分享数据。 数据存储:Genaro Network 使用了一种名为 Genaro EDen 的分布式存储解决方案。这个解决方案类似于 IPFS 和 Swarm,但是它更加注重数据的安全性和可靠性。Genaro EDen 支持各种类型和结构的数据,包括文件、图片、视频等。 数据访问:Genaro Network 提供了一个用户友好的接口,用户可以通过这个接口方便地查找、检索和访问存储在网络上的数据。此外,Genaro Network 还提供了一种名为 Genaro Sharer 的应用,用户可以通过这个应用分享他们的数据。 数据安全性:Genaro Network 非常重视数据的安全性。它采用了一种名为 SPoR(Sentinel Proof of Retrievability)的技术,这种技术可以确保数据在存储和传输过程中的安全性。此外,Genaro Network 还采用了加密和身份验证技术来保护用户数据,防止未经授权的访问。 奖励机制:Genaro Network 有一个独特的奖励机制,通过这个机制激励用户共享数据、提供存储和访问服务。用户可以通过分享数据和提供存储空间来获得 GNX(Genaro Network Tokens)作为奖励。这个奖励机制有助于维护分布式网络的稳定性和安全性。 4.4.2 Mirror Mirror 是一个基于区块链的发布平台,它允许创作者创建、拥有和货币化他们的作品。 数据存储:Mirror 通过 Arweave 实现了数据的永久存储,包括创作者发布的内容及其所有相关更改、验证作者身份真实性所需的所有信息。Arweave 不仅提供永久性的数据存储功能,而且只需在第一次上传时支付一次费用。 数据访问:Mirror 提供了一个用户友好的网页界面,用户可以通过这个界面方便地查找、检索和访问存储在平台上的内容。此外,因为所有的内容都存储在区块链上,所以任何人都可以使用以太坊的工具来直接访问这些数据。 数据安全性:Mirror 使用了区块链的加密技术来保护用户数据的安全性。每个用户都有一个与其以太坊钱包关联的账户,只有通过这个钱包,用户才能发布或修改他们的内容。这确保了只有内容的真正所有者才能控制这些内容。 奖励机制:Mirror 有一个独特的奖励机制,通过这个机制激励用户创建和分享内容。用户可以通过发布内容和参与投票来获得 MIRROR 代币作为奖励。这个奖励机制有助于维护平台的活跃性和多样性。 4.5 总结讨论:我们距离信息互联还有多远? 信息互联是指通过网络实现各种设备、系统、软件、服务等的相互连接和通讯,是数字化时代的基础设施之一。在过去几十年的发展中,信息互联技术不断地进步和普及,促进了社会、经济、文化等领域的快速发展。但是,当前信息互联技术也存在一些不足之处。其中,数据中心集中化存储和云计算主导的服务模式是两个最明显的问题。 传统的“云端存储”,是指所有用户数据都被集中存储在少数的数据中心中。这样的存储方式存在单点故障风险,如果其中一个数据中心出现故障,将会对大量用户造成影响。此外,集中化存储还存在着数据隐私泄露和滥用等问题,用户的数据完全由中心化的服务提供商控制和管理。 云计算主导的服务模式则是指绝大多数的在线服务都是通过云计算来实现的,这些服务通常由少数几家大型互联网公司垄断。这种情况导致了数据的流通和处理主要由少数大公司掌控,造成了数据的垄断和掌握权集中化的问题。 随着区块链技术的发展和应用,分布式存储技术的应用也得到了更广泛的推广。以太坊和 IPFS 之间的集成让 DApp 的开发和使用变得更加简单和有效,也为信息互联的发展提供了新的思路和可能性。传统的中心化应用程序存在诸如隐私泄露、数据依赖、系统崩溃等问题,而 DApp 在去中心化的基础上,通过区块链技术和智能合约,使应用程序更加透明、安全、可靠和具有更高的去中心化程度。随着技术的不断进步和应用场景的不断扩展,DApp 在未来的发展中将会发挥更加重要的作用。 分布式存储在区块链应用层的创新通过内置的商业、推荐以及存储等机制,将重构以往Web2.0 时代下的企业商业模式和生产关系,从根本上解决的数据垄断、隐私安全和利润榨取等问题,或成为未来社交、内容和电子商务应用程序的支柱。 来源:金色财经
lg
...
金色财经
2023-06-17
如何利用MBK公链构建智能合约和分布式应用?
go
lg
...
、应用程序、框架和支持库。它还支持高级
编
程
语言、跨平台运行、私有链、智能合约集成等功能。 二、智能合约 智能合约是一套代码规则,它们被封装在区块链中,以自动执行合约条款和条件,无需人为干预。MBK公链支持智能合约的编写,采用 Solidity
编
程
语言,该语言为以太坊开发。智能合约是由行为逻辑和触发条件两部分组成的。行为逻辑描述了智能合约要执行的事情,触发条件则表示在什么条件下智能合约会被触发执行。例如,当某个采购订单被确认时,智能合约可以自动将其转换为付款订单,从而实现自动结算货款,杜绝因人为原因而导致的支付错误。 三、MBK公链应用 MBK公链可以用于构建各种分布式应用,比如数字货币、自动化投资、商品追溯、数字身份、金融等等。 1.数字货币:MBK公链可以用于建立数字货币,使其具备安全、去中心化的特点,保证数字资产的安全和可信性。MBK公链可以实现币的发行、交易等操作,并且支持多种加密货币存储和交易。 2.自动化投资:利用MBK公链,可以创建高速和高效的机器人交易系统,帮助自动调整各种资产组合,以便达到最大化的回报。 3.商品追溯: MBK公链可以打造具有追溯性能的物流系统,通过区块链技术记录每个生产环节的信息,实现对于商品从生产、加工到销售等全过程的跟踪和管理。 4.数字身份:MBK公链可以用来解决数字身份管理的问题,利用区块链技术,实现身份验证、授权、登记等相关功能。 5.金融:MBK公链可以用于构建高效便捷的金融系统,包括支付系统、交易系统、证券交易系统等。 四、总结 MBK公链是一个支持智能合约的区块链平台,它具有高性能、去中心化、安全等特点,可以建立各种分布式应用。利用MBK公链,可以创建数字货币、自动化投资、商品追溯、数字身份等应用,为传统行业和金融行业提供更安全、更高效、更便捷的解决方案。虽然MBK公链需要更深入的技术支持和更复杂的应用场景,但是它已经成为了区块链应用中的有力竞争者。 1. MBK公链发行MBK代币:为用户提供更好的价值转移和价值存储方式 随着区块链技术的不断发展,数字货币成为了人们关注的焦点。数字货币不再只是一种投资手段,更成为了一种社会生活中不可或缺的支付方式。MBK公链是一条全新的公链,它基于分布式账本技术,旨在为用户提供更好的价值转移和价值存储方式。MBK公链在2021年正式发行了MBK代币,本文将探讨MBK代币的价值与意义。 I. MBK公链介绍 MBK公链于2021年正式发行,它是一个基于分布式账本技术的公链。MBK公链采用“共识机制+侧链”模式,旨在提供高效、可扩展的分布式服务和数字货币交易。MBK公链的优势在于采用先进的技术架构,既具备高性能和安全性,又易于开发和操作。 II. MBK代币的发行 MBK代币是MBK公链的本地通证,它是一种基于ERC20标准的数字货币。MBK代币的发行量为10亿枚,全部通过公链网络发放。MBK代币的发放策略如下: 1.20%用于运营和生态建设 2.30%用于社区和推广 3.50%用于公开销售 MBK代币的价格采用市场化定价,首次公开销售价格为0.1美元/MBK。 III. MBK代币的功能 MBK代币是MBK公链的通证,它具有以下功能: 1.价值转移 MBK代币可以在MBK公链上进行交易,用户可以用它来进行价值转移,比如转账或支付。MBK代币使用分布式账本技术,保障了交易的安全性和公正性。 2.价值存储 MBK代币是一种存储价值的方式,用户可以将MBK代币存储在MBK公链上,并享受MBK公链提供的安全保障和便利性。 3.生态支持 MBK代币作为MBK公链的本地通证,可以在MBK公链的生态系统中扮演重要角色。MBK代币可以用来激励节点运营、支持公链社区建设、以及提供更好的服务模式。 IV. MBK代币的意义 MBK代币的发行,为用户提供了更好的价值转移和价值存储方式。MBK代币不仅具有交易和存储的功能,还为MBK公链的生态系统提供了重要的支持和桥梁。MBK代币也为数字货币的应用场景提供了更广泛的发展空间。 V. 总结 MBK公链的发行和MBK代币的发行,标志着数字货币和区块链技术正式进入到实践阶段。MBK公链将为用户提供更好的价值转移和价值存储方式,MBK代币则成为了MBK公链生态系统的重要组成部分。随着社会生活和经济发展的不断变化,MBK公链和MBK代币必将为人们的数字生活带来更多可能性和发展机会。 来源:金色财经
lg
...
金色财经
2023-06-17
加密世界的潜力股:Web3游戏赛道项目盘点
go
lg
...
,半链游戏解决了验证资产所有权和资产可
编
程
性的问题,重点关注在游戏中的物品和财产方面;全链游戏是真正的去中心化游戏,通过使用区块链代替传统的集中式游戏服务器,将所有玩家的数据存储在链上,并进行索引和写入,这种方式赋予游戏持久性、抗审查性和社区可自主开发的特点。 本文veDAO研究院将从不同的游戏分类中筛选出3个极具特点的类别对Web3游戏进行归类,盘点9个优质的Web3游戏项目。 传统Web3游戏 传统Web3游戏指的是大多数常见的P2E(Play-to-Earn)游戏,通常有着可交互性一般、画面简单、P2E效应为核心、社区驱动性强等特点,是Web3游戏常见的形式之一,从去中心化的角度上划分属于半链游戏。这类Web3游戏相较于Web2游戏而言,可玩性不高,因此其吸引的用户主要为Web3群体。就像是虚幻5引擎出现后,8bit像素风游戏依然有着大量玩家一样,游戏的可玩性包括的不仅是交互、画面,还有叙事和社区参与;在Web3领域更是如此:游戏玩家甚至可以参与游戏的构建。 AI Rein 详细信息:https://app.vedao.com/projects/1e5934ca90af2076a3c8ddfcc2c9d0172fde2199df2f3896980a64d1ed14610a AI Rein是一个以A.I.未来世界为主题的日本全球NFT项目,它拥有独特的AI Motion技术,让NFT持有者可以通过电脑前置摄像头控制他们在元宇宙中的化身。AI Rein的第一个NFT系列是未来A.I.世界公民的PFP。AI Rein还计划推出一款基于区块链的2D像素风格的游戏,让玩家可以在一个充满冒险和挑战的虚拟世界中体验A.I.技术。玩家可以通过质押他们的AI Rein NFT来赚取奖励,这些奖励可以在游戏中使用。 Chainers 详细信息:https://app.vedao.com/projects/626575bee4711fe1e2a9f73905cda8a79445fea9e218bdff97c3df7a7c9c797b Chainers 是一个元宇宙游戏,专注于NFT和社区驱动的开发,玩家可以在其中免费访问游戏,同时也鼓励玩家创作贡献力量,构建更多的内容。Chainers 定位是“Play, trade, and create”,玩家在游戏中体验,社交,互动;并在其中创造获得收益,游戏的趣味性和经济性同步实现。 Degen Zoo 详细信息:https://app.vedao.com/projects/234d57693297726641da10821ee0faf36f17e4117fb78c09d67f5ae3665813d5 这款游戏由 DAOMaker 创始人 Chris Zaknun 和前 MakerDAO 开发工程师等构建,将在只有 20,000 美元的超低预算下开发,并计划在短短 30 天内开发完成。游戏灵感来自 CryptoZoo NFT 的骗局,Degen Zoo 项目方希望通过少量资金以及少量时间完成游戏建设,证明 CryptoZoo 的创始人 Logan Paul 的无能以及讽刺诸如此类欺骗投资者的元宇宙游戏骗局。此外,作为慈善游戏 NFT 项目,该项目的所有利润都将捐给濒危动物慈善机构,该项目成立目的之一就是让人们意识到关爱动物和自然,通过游戏教给玩家当动物被杀死或物种灭绝时会发生什么。 3A 级游戏 3A游戏简单来说就是开发成本高,开发周期长,消耗的资源多的游戏。这个赛道和公链非常类似,需要相对较长的时间才能看到真正的成果,对于一般投资者来说,只要搭上3A游戏早期的船,在未来一般都会有相对不错的收益。同时3A级Web3游戏将是极具破圈潜力的区块链项目,只要这类游戏的团队认真做成本管控和产品开发,最终交付出一个真正有可玩性、有质量,且满足 Web3 特征的 3A 游戏,Web3或将迎来大量的Web2用户。 Delysium 详细信息:https://app.vedao.com/projects/731af694a0386db564e9d94af53ab62e7d30f4c6e7c234663f12666f053855ef Delysium是世界上第一个可玩的 AAA 区块链游戏。一个真正的开放世界、生动的 AI 驱动和完全玩家拥有的 MMO 游戏,支持玩家创建各种个性化的物理资产、叙事资产以及原生 AI MetaBeings。通过在玩家创建和拥有的体验中分布大量由人工智能驱动的 MetaBeings,Delysium 正在为全球所有 web3 先锋构建身临其境、至高无上且动态生成的开放世界体验。 Wildcard Alliance 详细信息:https://app.vedao.com/projects/2c454dcb5465f2dd058cb36dd1316ec6bb097094bdf512b24fd76ce39a51c668 Wildcard Alliance 是一款基于 Polygon 链搭建的 3A 类结合即时战略、多人在线竞技、卡牌三种类型的 PVP 游戏。其计划打造一个去中心化、自治的 Web3 竞技社交平台。为玩家带来竞技的快感,突破视频游戏的精彩程度,以及玩和观看的界限。打造一款「易于学习,但需要一生才能掌握」的常青竞技游戏。同时为玩家提供收藏的乐趣,将 Wildcard 打造成一个人们真正关心的 IP、一个人们想要加入的社群。 Citizen Conflict 详细信息:https://app.vedao.com/projects/653d962198135f16eb556d9125cdceca291023ed032eeff4e27faae324e4d0c7 Citizen Conflict 是一款免费的 Web3 MMO 射击游戏,由虚幻引擎5构建,QORPO Game Studio开发(曾经名为Crypto Citizen),部署在BSC链上。Citizen Conflict背景设定在以太群岛的反乌托邦世界中,每场比赛都是为了生存和宝贵的战利品而战,同时包含开往世界和大逃杀类的玩法。该游戏本身将完全免费,为了增强游戏体验,玩家将能够以数字收藏品 NFT 的形式购买或赢得游戏内资产,这种方式是可选的不是必须的。 全链游戏(Fully On-chain Game) 相比于可选上链游戏、半链游戏而言,全链游戏的可玩性更低,前期冷启动和生态正循环难度要大很多。但是在中期发展上,社区治理资产通胀等方面就会顺畅很多,甚至会爆发出更强的生态护城河与网络效应。 全链游戏在真正去中心化的环境下,经济系统由玩家的行动和决策驱动,而非由游戏开发者或中央机构控制。玩家通过交易、合作或竞争来获取和管理游戏内的资产和资源。同时,玩家也能够自主参与游戏的治理和制定规则,实现游戏世界的自治性。这种玩家驱动的经济体系和自治游戏世界为玩家带来更丰富、更自由的游戏体验。 PandaFarm 详细信息:https://app.vedao.com/projects/172a302a606f04bf42c8f4fc374ce060de878939e2632312cef856f4e7a9dd02 Panda Farm 旨在构建一个完全链上、以熊猫为主题的游戏元宇宙。用户可以在参与每场比赛和比赛的同时从奖池中获利。Panda Farm是一个围绕熊猫为主题打造的熊猫游戏平台,所有以熊猫为主题的游戏都建立在区块链上。Panda Farm旨在通过提供熊猫的真实世界模拟,结合数字建设和加密货币的优势,将区块链带入主流游戏,以吸引加密和非加密游戏爱好者以及熊猫爱好者。未来,玩家可以在PandaFarm中打造属于自己的乐园,召唤更多的外星生物陪熊猫玩耍,将不同的IP融入同一个世界观,建设属于自己的农田,通过去中心化管理农夫的方式选择,农夫可以通过自定义小动物NFT可以锁定BAMBOO代币。 MetaLine 详细信息:https://app.vedao.com/projects/4953ed7734a9db6263eb67401993953ceb8654c4cb7a8abf570af69dde7b9284 MetaLine 是一个开放、透明和包容的世界。游戏中的所有信息、资产和游戏内容都已经去中心化。MetaLine是一款基于Web3的大型航海经营、冒险、策略的联机游戏,其中拥有六大系统模块,包括生产与交易系统、升级系统、港口系统、战斗系统、NFT系统、以及 一个生态系统。通过不同任务系统之间的合作与关联,获得丰富的玩法,建立自己的海上帝国。随着任务的逐步发布,内置的端口系统也为更多用户打开了进入元宇宙的大门。 Arcadeum 详细信息:https://app.vedao.com/projects/a2cafe55584d647e71aa26c0adfa242da1a693370188e69bcf23c95beb88e7f7 Arcadeum 是一个去中心化的赌场,完全在链上和自我监管,具有可证明的、虽然低但竞争激烈的赌场优势。流动性池促进了投注,储户通过流动性池接收损失并支付胜利。通过定制的 API3 QRNG 集成,随机数生成是可验证的公平性。 写在最后 Web3游戏具有巨大潜力,为游戏世界带来新的可能性。游戏创作者永远不应忘记游戏的核心优先级:娱乐。同样地,在 Web3 游戏项目中获得资产是游戏过程的一部分,而不应该成为用户参与游戏的唯一目的。因此对于 Web3 游戏而言,仅关注P2E远远不够。同时,为了实现真正的Web3游戏,游戏需要建立在自下而上的协议之上,并将代币模型作为辅助手段,以确保游戏经济的可持续性。在这样的游戏中,玩家可以真正拥有资产,并在自由交易中脱离中心化机构或平台的操控和限制。 Web3游戏很可能是未来Web2用户进入Web3的主要途径之一,正如本文提到的Web3游戏一样,通过专注于打造具有出色图像、角色和引人入胜的故事的游戏,以游戏本身可玩性而非激励吸引用户,打造一个能够长期吸引玩家、具有活力和创造力的Web3游戏生态,才能释放Web3游戏更多的价值,让Web3迎来新一轮用户迁移。 来源:金色财经
lg
...
金色财经
2023-06-16
在下一次 L1 之战中 哪些项目将脱颖而出?
go
lg
...
此外,增加对 Rust 和许多其他著名
编
程
语言的支持,可以帮助 Aptos 生态系统变得更强大。 尽管 Aptos 生态系统中的优质项目数量不多,但从长远来看,Aptos 有一个相对积极的开端,并给人们留下了比 Sui 更强的印象,这对生态系统来说是一个积极的迹象。 团队和投资者 不可否认 Aptos 开发团队的才华,该团队曾在 Facebook 辛勤工作并构建了 Diem。 即使在主网上线之后,该项目也筹集了数亿美元,估值达到 40 亿美元。 评价 Aptos 从技术角度解决了以太坊在执行阶段的可扩展性问题。 Aptos 的生态系统处于早期阶段,优质项目不多,但未来仍然充满希望。 2、Sui 与 Aptos 不同,在主网上线时,Sui 引发了争议,因为它没有为测试网用户提供代币空投。相反,测试网用户只获得了以 0.03 美元的价格购买 SUI 代币的白名单,这相当于 3 亿美元的估值。 Sui 的解决方案 Sui 是一个单片区块链,类似于 Solana、Fantom 或 Near Protocol。然而,Sui 和 Aptos 非常相似的地方在于,与 Solana 不同的是,它们选择水平扩展而不是垂直扩展。 不过,Aptos 使用并行执行来一次结算多个交易,而 Sui 朝不同的方向发展。Narwhal-Tusk 共识算法是 Sui 解决可扩展性问题的一个关键组成部分,最大限度地减少了验证者之间处理交易所需的通信,以实现更低的延迟。 因此,Sui 的 TPS 可以与 Aptos 相媲美甚至更高,而无需 Solana 标准的节点。也可以说,Sui 部分解决了区块链的可扩展性、安全性和去中心化之间的权衡。 Sui 生态系统的发展状况 Sui 的生态系统仍处于基础设施开发的早期阶段,因此很少受到关注。通常,一个新的 L1 都需要一年的时间来建立钱包、跨链桥、预言机和 API 等基础设施组件,然后生态系统才能进入可持续增长阶段。 团队和投资者 与 Aptos 开发团队类似,负责构建 Sui 区块链的 Mysten Lab 开发团队的大部分成员都来自 Diem 项目。然而,与 Aptos 团队相比,Sui Blockchain 开发团队中 Diem 开发人员的数量要多得多。 评价 在当下还无法对 Sui 的未来进行准确预测,因为最重要的因素还是 L1 自身的发展战略。但是相对于它的对手 Aptos,Sui 的开发团队在解决交易问题上有更大的创造力。关于可扩展性问题,Sui 的解决方案更安全、更实用。 3、Monad Monad 是一个新的 L1,最近由于准备推出测试网引发的“空投猜测”而引起关注。 Monad 的解决方案 与 Sui 和 Aptos 不同,Monad 是一个 EVM 区块链,具有权益证明(PoS)共识机制和高达 10,000 的 TPS。那么,是什么促成了 Monad 的交易速度如此之快呢? 与 Aptos 类似,Monad 采用了并行执行交易。 Monad 生态系统的发展状况 Monad 目前还在研发阶段,准备在不久的将来推出测试网版本,因此,Monad 的生态系统目前没有任何参与者。 团队和投资者 Monad 的开发团队曾在 TradFi 巨头 Jump Trading 工作超过 7 年。此外,Monad 还成功从 Dragonfly Capital、Lemniscap、Shima Capital、Palceholder 等多家 VC 筹集了 1900 万美元。 评价 目前很难对 Monad 进行评估,但根据目前掌握的有限信息,至少可以通过从众多大型 VC 筹集资金来验证开发团队的潜力。 4、Aleo Aleo 是一个新的 L1,旨在通过零知识证明(ZKP)技术为所有 Web3 用户提供去中心化和完全私有的应用程序。 Aleo 的解决方案 根据 Aleo 文档,该平台并不十分强调可扩展性,但 Aleo 希望通过 ZKP 技术功能为所有平台用户提供隐私。 Aleo 生态系统的发展状况 Aleo 生态系统处于发展的早期阶段,一些生态项目例如 Leo Wallet、VolcaniX、Nucleo、Demox Labs ……我们仍然需要很多时间来跟进未来的 Aleo 生态系统。目前,Aleo 还在测试网中,主网上线时间尚未公布。 团队和投资者 Aleo 已成功从 a16z、Coinbase Ventures、Placeholder、Polychain Capital 等 VC 筹集了总计高达 2.98 亿美元的资金……尽管 Aleo 的开发团队并不是特别令人印象深刻。显然,VC 们掌握着我们尚未发现的信息。 评价 我们目前缺乏足够的信息来评估 Aleo,需要额外的观察时间。一个隐私项目获得如此多的资金和关注度,也许美国政府可能会阻止 Aleo,那么,如果真的遇到这种情况时,Aleo 是否会调整目标呢? 5、Celestia Celestia 是加密行业第一个全面的模块化区块链,因此尽管它没有像 Aptos 或 Sui 那样筹集到那么多资金,但 Celestia 仍然引起了加密社区的极大兴趣。 Celestia 的解决方案 传统的区块链通常将共识、结算、数据可用性和执行等功能集成在一个单一的架构中。然而,随着区块链应用的复杂性和需求的增加,单一架构可能无法满足不同场景的要求。而 Celestia 作为模块化区块链,将执行、共识与数据可用性分开。 Celestia 的模型类似于以太坊+Rollup L2。在以太坊 2.0 路线图完成后,以太坊也将成为一个功能齐全的模块化区块链。显然,模块化区块链将是未来加密市场一种重要的趋势。 Celestia 生态系统的发展状况 Celestia 目前还处于研发阶段,生态系统未形成。 团队和投资者 该项目的联合创始人同时也是 Cosmos 的高级开发人员,而其他团队成员也有着良好的“血统”。 评价 与 Aptos 和 Sui 相比,Celestia 的增长速度要慢得多,因为他们试图开发的技术非常复杂。 来源:金色财经
lg
...
金色财经
2023-06-16
上一页
1
•••
216
217
218
219
220
•••
334
下一页
24小时热点
特朗普阵营突传重大消息!彭博社:推动美联储“出售”黄金储备 购买100枚比特币
lg
...
突然语出惊人!索罗斯战友:美联储“过早”宣布通胀胜利 决议降息犯下致命错误
lg
...
中美突发重大消息!中国国家主席习近平会见拜登 双边释出哪些关键信号?
lg
...
特朗普将大量印钞!传奇交易员罕见信号:新政府将抛弃美元 这“走势图“胜于雄辩
lg
...
突发重磅爆料!英媒:马斯克可能被美国调查 曾与普京、俄罗斯官员多次通话……
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1304讨论
#VIP会员尊享#
lg
...
1477讨论
#比特币最新消息#
lg
...
578讨论