全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
香港论坛
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
INJ、TIA双破历史新高 探寻Cosmos生态更多潜力代币
go
lg
...
人工智能算法实现智能自组织、智能合约、
智能
代理
等功能。 Fetch.ai拥有独特的AI代理框架和算法,可以将该框架应用于不同的领域和场景。目前,Fetch.ai已经在其自身的AI技术基础上构建了一系列生态应用,主要包括Resonate(社交+AI Feed)、MOBIX(Move to Earn)、Atomix(DeFi协议)等。 其原生代币为FET,当前价格为0.51美元,24小时内上涨2.20%。Fetch.ai以其在人工智能和区块链交汇领域的前瞻性工作引起了广泛关注。 来源:金色财经
lg
...
金色财经
2023-12-13
Footprint Analytics x Future3 Campus联合发布AI与Web3研究报告
go
lg
...
nt 模型 Agent 模型是一种构建
智能
代理
的方法,它以 LLM 作为核心控制器。这个系统还包括几个关键组成部分,以提供更全面的智能。 Planning,规划:将大任务分成小任务,这样更容易完成 Memory,反思:通过反思过去的行为,改进未来的计划 Tools,工具使用:代理可以调用外部工具获取更多信息,如调用搜索引擎、计算器等 人工
智能
代理
模型具备强大的语言理解和生成能力,能够解决通用问题,进行任务分解以及自我反思。这使得它在各种应用中都有广泛的潜力。然而,代理模型也存在一些局限性,例如受到上下文长度的限制、长期规划和任务拆分容易出错、输出内容的可靠性不稳定等问题。这些局限性需要长期不断的研究和创新,以进一步拓展代理模型在不同领域的应用。 以上的各种技术并不是相互排斥的,它们可以在训练和增强同一个模型的过程中一起使用。开发者可以充分发挥现有大语言模型的潜力,尝试不同的方法,以满足日益复杂的应用需求。这种综合使用不仅有助于提高模型的性能,还有助于推动 Web3 技术的快速创新和进步。 然而,我们认为,虽然现有的 LLM 已经在 Web3 的快速发展中发挥了重要作用,但在充分尝试这些现有模型(如 OpenAI、Llama 2 以及其他开源 LLM)之前,我们可以从浅入深,从 prompt engineering 和嵌入等 RAG 策略入手,谨慎考虑微调和重新训练基础模型。 3.4 LLM 如何加速区块链数据生产的各个流程 3.4.1 区块链数据的一般处理流程 当今,区块链领域的建设者逐渐认识到数据产品的价值。这一价值覆盖了产品运营监控、预测模型、推荐系统以及数据驱动的应用程序等多个领域。尽管这一认知逐渐增强,但作为数据获取到数据应用中不可或缺的关键步骤,数据处理往往被忽视。 图 12:区块链数据处理流程 将区块链原始非结构化数据,如 events 或 logs 等,转换为结构化的数据 区块链上的每一笔交易或事件都会生成 events 或 logs,这些数据通常是非结构化的。这一步骤是获取数据的第一入口,但数据仍然需要被进一步处理以提取有用信息,得到结构化的原始数据。这包括整理数据、处理异常情况和转化为通用格式。 将结构化的原始数据,转换为具有业务意义的抽象表 在得到结构化原始数据后,需要进一步进行业务抽象,将数据映射到业务实体和指标上,比如交易量、用户量等业务指标,将原始数据转化为对业务和决策有意义的数据。 从抽象表中,计算提取业务指标 有了抽象的业务数据后,可以在业务抽象的数据上进行进一步计算,就可以得出各种重要的衍生指标。例如交易总额的月增长率、用户留存率等核心指标。这些指标可以借助 SQL、Python 等工具实现,更加有可能帮助监控业务健康、了解用户行为和趋势,从而支持决策和战略规划。 3.4.2 区块链数据生成流程加入 LLM 后的优化 LLM 在区块链数据处理中可以解决多个问题,包括但不限于以下内容: 处理非结构化数据: 从交易日志和事件中提取结构化信息:LLM 可以分析区块链的交易日志和事件,提取其中的关键信息,如交易金额、交易方地址、时间戳等,将非结构化数据转化为的带有业务意义的数据,使其更易于分析和理解。 清洗数据,识别异常数据:LLM 可以自动识别和清洗不一致或异常的数据,帮助确保数据的准确性和一致性,从而提高数据质量。 进行业务抽象: 将原始链上数据映射到业务实体:LLM 可以将原始区块链数据映射到业务实体,例如将区块链地址映射到实际用户或资产,从而使业务处理更加直观和有效。 处理非结构化链上内容,打标签:LLM 可以分析非结构化数据,如 Twitter 情感分析结果,将其标记为正面、负面或中性情感,从而帮助用户更好地理解社交媒体上的情感倾向。 自然语言解读数据: 计算核心指标:基于业务抽象,LLM 可以计算核心业务指标,如用户交易量、资产价值、市场份额等,以帮助用户更好地了解其业务的关键性能。 查询数据:LLM 可以通过 AIGC,理解用户意图,生成 SQL 查询,使用户能够以自然语言提出查询请求,而不必编写复杂的 SQL 查询语句。这增加了数据库查询的可访问性。 指标选择、排序和相关性分析:LLM 可以帮助用户选择、排序和分析不同的多个指标,以更好地理解它们之间的关系和相关性,从而支持更深入的数据分析和决策制定。 产生业务抽象的自然语言描述:LLM 可以根据事实数据,生成自然语言摘要或解释,以帮助用户更好地理解业务抽象和数据指标,提高可解释性,并使决策更具合理性。 3.5 目前用例 根据 LLM 自身的技术以及产品体验优势,它可以被应用到不同的链上数据场景,技术上从易到难可以将这些场景分成四类: 数据转换:进行数据增强、重构等操作,如文本摘要、分类、信息抽取。这类应用开发较快,但更适合通用场景,不太适合大量数据的简单批量化处理。 自然语言接口:将 LLM 连接知识库或工具,实现问答或基本工具使用的自动化。这可以用于构建专业聊天机器人,但其实际价值受其所连接的知识库质量等其他因素影响。 工作流自动化:使用 LLM 实现业务流程的标准化和自动化。这可以应用于较复杂的区块链数据处理流程,如解构智能合约运行过程、风险识别等。 协助机器人与助手辅助系统:辅助系统是在自然语言接口的基础上,集成更多数据源和功能的增强系统,大幅提高用户工作效率。 图 11:LLM 应用场景 3.6 LLM 的局限性 3.6.1 行业现状:成熟应用、正在攻克的问题以及尚未解决的挑战 在 Web3 数据领域,尽管已经取得了一些重要的进展,但仍然面临一些挑战。 相对成熟的应用: 使用 LLM 进行信息处理:LLM 等 AI 技术已成功用于生成文本摘要、总结、解释等工作,帮助用户从长篇文章、专业报告中提取关键信息,提高了数据的可读性和可理解性。 使用 AI 解决开发问题:LLM 已经应用于解决开发过程中的问题,例如替代StackOverflow 或搜索引擎,为开发者提供问题解答和编程支持。 有待解决与正在探索的问题: 利用 LLM 生成代码:行业正在努力将 LLM 技术应用于自然语言到 SQL 查询语言的转换,以提高数据库查询的自动化和可理解性。然而,过程中会有很多困难,比如在某些情境下,生成的代码要求极高的准确性,语法必须百分之百正确,以确保程序能够无 bug 运行,并获得正确的结果。难点还包括确保问题回答的成功率、正确率,以及对业务的深刻理解。 数据标注问题:数据标注对于机器学习和深度学习模型的训练至关重要,但在 Web3 数据领域,特别是处理匿名的区块链数据时,标注数据的复杂性较高。 准确性和幻觉(Hallucination)问题:AI 模型中幻觉的出现可能受多因素影响,包括有偏见或不足的训练数据、过度拟合、有限的上下文理解、缺乏领域知识、对抗性攻击和模型架构。研究人员和开发者需要不断改进模型的训练和校准方法,以提高生成文本的可信度和准确性。 利用数据进行业务分析和文章输出:将数据用于业务分析和生成文章仍然是一个具有挑战性的问题。问题的复杂性、需要精心设计的提示(prompt)、以及高质量的数据、数据量、减少幻觉问题的方法都是待解决的问题。 根据业务领域自动索引智能合同数据以进行数据抽象:自动为不同业务领域的智能合同数据建立索引以进行数据抽象仍然是一个未解决的问题。这需要综合考虑不同业务领域的特点,以及数据的多样性和复杂性。 处理时序数据,表格文档数据等更复杂的模态:DALL·E 2 等多模态模型非常擅长在文字生成图像、语音等常见模态。而在区块链以及金融领域需要特别地对待一些时序数据,而非简单地把文本向量化就能解决。联和时序数据与文本,跨模态联合训练等,是实现数据智能分析以及应用的重要研究方向。 3.6.2 为何只靠 LLM 不能完美解决区块链数据行业的问题 作为语言模型,LLM 更适用于处理对流畅度要求较高的场景,而在追求准确性方面,可能需要对模型进行更进一步的调整。在将 LLM 应用于区块链数据行业时,以下框架可提供一些参考。 图 13:区块链数据行业下 LLM 输出的流畅性、准确性和用例风险 在评估 LLM 在不同应用中的适用性时,关注流畅度和准确性是至关重要的。流畅度指的是模型的输出是否自然、通顺,准确性则表示模型的答案是否准确。这两个维度在不同应用场景中有不同的要求。 对于流畅度要求较高的任务,如自然语言生成、创意写作等,LLM 通常能够胜任,因为其在自然语言处理方面的强大性能使其能够生成流畅的文本。 区块链数据面临着数据解析、数据处理、数据应用等多方面的问题。LLM 拥有卓越的语言理解和推理能力,使其成为与区块链数据互动、整理和概括的理想工具。然而,LLM 并不能解决所有区块链数据领域的问题。 在数据处理方面,LLM 更适合快速迭代和探索性处理链上数据,不断尝试新的处理方法。然而,LLM 在生产环境中的详细核对等任务方面仍存在一些限制。典型的问题是 token 长度不够,无法应对长上下文的内容。耗时的 prompt,回答不稳定影响下游任务进而导致成功率不稳定的问题,以及执行大批量任务的效率不高。 其次,LLM 处理内容的过程中很可能出现幻觉问题。据估计,ChatGPT 的幻觉概率约为 15% 至 20%,而由于其处理过程的不透明性,很多错误难以察觉。因此,框架的建立和专家知识的结合变得至关重要。此外,LLM 结合链上数据还是有很多挑战: 链上数据实体类型多、数量庞大,以何种形式投喂给 LLM,有效地运用在具体的商业化场景,类似其他垂直行业,需要更多研究和探索。 链上数据包括结构化和非结构化数据,目前行业大多数数据解决方案,都是基于对业务数据的理解。解析链上数据的过程中,用 ETL 去过滤,清洗,补充和复原业务逻辑,进一步把非结构化数据整理为结构化数据,可以为后期多种业务场景提供更高效的分析。比如,结构化的 DEX trades,NFT marketplace transactions,wallet address portfolio 等,就具有前面提到的高质量,高价值,准确和真实等特点,可以给通用 LLM 提供高效的补充。 被误解的 LLM LLM 可以直接处理非结构化数据,因此结构化数据将不再被需要? LLM 通常基于海量文本数据预训练而来,天然适合处理各类非结构化的文本数据。然而,各个行业已经拥有大量结构化数据,尤其 Web3 领域中解析后的数据。如何有效的利用这些数据,增强 LLM,是一个行业的热门研究课题。 对于 LLM,结构化数据仍然具有以下的优势: 海量:大量的数据储存在各种应用背后的数据库和其他标准格式里面,特别是私有数据。每个公司和行业都还有大量 LLM 没有用于预训练的墙内数据。 已有:这些数据不需要重新生产,投入成本极低,唯一的问题是怎么用起来。 高质量和高价值:领域内长期积累的,蕴含专家的专业知识,通常都沉淀到了结构化数据里面,用于产学研。结构化数据的质量是数据可用性的关键,其中包括数据的完整性、一致性、准确性、唯一性和事实性。 高效率:结构化数据以表格、数据库或其他规范格式存储,模式是预先定义的,并且在整个数据集中保持一致。这意味着数据的格式、类型和关系都是可预测和可控的,使得数据的分析和查询更加简单和可靠。而且,行业已经有成熟的 ETL 及各种数据处理和管理工具,使用起来也更加高效和便捷。LLM 可以通过 API,把这些数据使用起来。 准确性和事实性:LLM 的文本数据,基于 token 概率,目前还不能稳定的输出确切的答案,产生的幻觉问题一直是 LLM 要解决的核心根本问题。对于很多行业和场景,会形成安全和可靠性问题,比如,医疗,金融等。结构化数据,正是可以辅助和矫正LLM 这些问题的一个方向。 体现关系图谱,和特定业务逻辑:不同类型的结构化数据,可以以特定的组织形式(关系型数据库,图数据库等),输入到 LLM,解决不同类型的领域问题。结构化数据使用标准化的查询语言(如 SQL),使得对数据进行复杂的查询和分析变得更加高效和准确。知识图谱 (Knowledge Graph) 可以更好地表达实体之间的关系,也更容易进行关联查询。 使用成本低:不用 LLM 每次重新从底层重新训练整个底座模型,可以结合 Agents 和LLM API 等 LLM 赋能方式,更快更低成本的接入 LLM。 目前市场上还有一些脑洞大开的观点,认为 LLM 在处理文本信息和非结构化信息方面的能力极强,只需将原始数据,包括非结构化数据,简单导入到 LLM,就能达到目的。这个想法类似于要求通用 LLM 解数学题,在没有专门构建数学能力模型的情况下,大多数 LLM 可能会在处理简单的小学加减题时出错。反而,建立类似数学能力模型,和图像生成模型的 Crypto LLM 垂直模型,才是解决 LLM 在 Crypto 领域更落地的实践。 4.2 LLM 可以从新闻、推特等文字信息推测内容,人们不再需要链上数据分析来得出结论? LLM 虽然可以从新闻、社交媒体等文本中获得信息,但直接从链上数据中获得的洞察仍然是不可或缺的,主要原因有: 链上数据是原始的第一手资讯,而新闻和社交媒体中的信息可能存在片面性或误导性。直接分析链上数据可以减少信息偏差。尽管利用 LLM 进行文本分析存在理解偏差的风险,但直接分析链上数据可以减少误读。 链上数据包含全面的历史交互和交易记录,分析可以发现长期趋势和模式。链上数据还可以展现整个生态系统的全貌,如资金流向、各方关系等。这些宏观的洞察有助于更深入地理解状况。而新闻和社交媒体信息通常更零散且短期。 链上数据是开放的。任何人都可以验证分析结果,避免信息的不对称。而新闻和社交媒体未必都如实披露。文本信息和链上数据可以相互验证。综合两者可以形成更立体和准确的判断。 链上数据分析仍是不可或缺的。LLM 从文本中获取信息具有辅助作用,但不能取代直接分析链上数据。充分利用两者优势才能取得最佳效果。 4.3 利用 LangChain、LlamaIndex 或其他 AI 工具,在 LLM 的基础上构建区块链数据解决方案非常容易? LangChain 和 LlamaIndex 等工具为构建自定义的简单 LLM 应用提供了便利,使快速搭建成为可能。然而,将这些工具成功应用于实际生产环境中涉及到更多的挑战。构建一个高效运行、保持高质量的 LLM 应用是一项复杂的任务,需要深入理解区块链技术和 AI 工具的工作原理,并有效地将它们整合在一起。这对于区块链数据行业来说,是一项重要但具有挑战性的工作。 在这个过程中,必须认识到区块链数据的特性,它要求极高的精准性和可重复校验性。一旦数据通过 LLM 进行处理和分析,用户对其准确性和可信度有很高的期望。这与 LLM 的模糊容错性之间存在着潜在的矛盾。因此,在构建区块链数据解决方案时,必须仔细权衡这两方面的需求,以满足用户的期望。 当前市场上,虽然已经有了一些基础工具,但这个领域仍在快速演进和不断迭代。类比于 Web2 世界的发展历程,从最初的 PHP 编程语言到更成熟、可扩展的方案如 Java、Ruby、Python,以及 JavaScript 和 Node.js 等,再到 Go 和 Rust 等新兴技术,都经历了不断的演变。AI 工具也在不断变化,新兴的 GPT 框架如 AutoGPT,Microsft AutoGen,及最近OpenAI 自己推出的 ChatGPT 4.0 Turbo 的 GPTs 和 Agents 等只是展示了未来可能性的一部分。这表明,区块链数据行业和 AI 技术都还有许多发展空间,需要不断努力和创新。 当前在应用 LLM 时,有两个陷阱需要特别注意: 期望值过高:很多人认为 LLM 可以解决一切问题,但实际上 LLM 有明显的局限性。它需要大量的计算资源,训练成本高昂,而且训练过程可能不稳定。对 LLM 的能力要有现实的期望,明白它在某些场景下表现出色,如自然语言处理和文本生成,但在其他领域可能无法胜任。 忽视业务需求:另一个陷阱是强行应用 LLM 技术,而不充分考虑业务需求。在应用 LLM 之前,务必明确具体的业务需求。需要评估 LLM 是否是最佳技术选择,并做好风险评估和控制。强调 LLM 的有效应用需要根据实际情况慎重考虑,避免误用。 尽管 LLM 在许多领域都具备巨大潜力,但开发者和研究者在应用 LLM 时需要保持谨慎,采取开放的探索态度,以找到更适合的应用场景并最大程度地发挥其优势。 关于Footprint Analytics Footprint Analytics是一家区块链数据解决方案提供商。借助尖端的人工智能技术,我们提供 Crypto 领域首家支持无代码数据分析平台以及统一的数据 API,让用户可以快速检索超过 30 条公链生态的 NFT,GameFi 以及 钱包地址资金流追踪数据。 关于Future3 Campus Future3 Campus是由万向区块链实验室和HashKey Capital共同发起的Web3.0创新孵化平台,重点聚焦Web3.0 Massive Adoption、DePIN、AI三大赛道,以上海、粤港澳大湾区、新加坡为主要孵化基地,辐射全球Web3.0生态。同时,Future3 Campus将推出首期5000万美金的种子基金用于Web3.0项目孵化,真正服务于Web3.0领域的创新创业。 来源:金色财经
lg
...
金色财经
2023-12-06
AI+Crypto的市场空间如何?4个代表性项目激发用户想象
go
lg
...
备AI能力的智能合约Fetch.AI
智能
代理
,能自主执行任务、协调资源,并与其他
智能
代理
交互,实现自动化和智能化的经济交互。 Fetch.AI的创新之处在于其自治经济代理架构(AEA),这是一个分布式的
智能
代理
网络,结合了AI和区块链技术,实现了智能化、自主化和去中心化的经济交互。AEA代理具备自主决策、自主协作和自主学习的能力,代表独立实体,在网络中自由交互。 Fetch.AI的一个关键特点是其群体学习机制。这一机制通过数据共享、模型训练、模型选择和模型集成,鼓励代理共享数据和模型,从而提升整个系统的性能。这种集体学习原理使得Fetch.AI网络中的代理能够更智能、高效地交互和协作。 尽管Fetch.AI的技术架构具有创新性和潜力,但它面临一些挑战,包括对计算能力和数据资源的高需求以及技术复杂性。未来,随着技术的发展,Fetch.AI可能会进一步整合AI和区块链技术,提升性能和效率,扩展更多应用场景。 SingularityNET:以解决人类能够执行的任何智力任务为目标 SingularityNET是一个以通用人工智能(AGI)为核心的去中心化AI平台,旨在创造一个不依赖任何中央实体的、去中心化、民主、包容的AI生态系统。它由通用人工智能领域的权威专家Ben Goertzel博士创立,并以解决人类能够执行的任何智力任务为目标。SingularityNET的核心技术架构包括: AGIX代币:SingularityNET发行的代币AGIX用于交易管理和去中心化社群治理,支持区块链网络的运营。 AI Marketplace:SingularityNET提供了一个AI市场,目前拥有75个项目,用户可以轻松地寻找、评估和试用平台上注册的服务。大多数服务提供有限数量的免费API调用,方便用户将AI服务整合到自己的应用程序中。 DeepFunding机制:通过其DeepFunding平台,SingularityNET允许创作者在平台上提案并通过社群投票获得资金,开发多元的人工智能服务网络。例如,通用句法分析器和AI算法的风险意识评估等项目已获得资助。 创建一个去中心化、民主、包容的AGI生态系统面临诸多挑战,包括技术整合、网络治理、以及用户和开发者的广泛参与。尽管如此,SingularityNET在AI和区块链领域的创新和潜力值得关注和探索。 AI+Crypto是Web3的大未来,新的惊喜已经在路上 AI和区块链等前沿技术的结合不仅带来了无限的可能性和潜在用例,而且促使我们以新的方式重新审视与技术的互动以及处理传统问题的方法。然而,目前AI加密货币项目尚未大规模应用,这表明尽管这些项目具有潜力,但它们在当前的创新水平上并非绝对必需。 尽管如此,新兴技术需要时间来发展和成熟。未来,随着AI技术和加密货币的持续发展,我们可以期待出现更多创新用例,这将惠及整个生态系统的各个利益相关方。AI和加密货币结合将为Web3用户带来什么新奇和惊喜,这是一个值得期待的问题。让我们拭目以待,见证这一领域的未来发展。 来源:金色财经
lg
...
金色财经
2023-11-30
META 2023Q3业绩电话会议
go
lg
...
斯·桑德勒 伟大的。嘿,马克,回到人工
智能
代理
主题。我知道现在还为时过早,但与 Meta 多年来在 FoA 中制定的其他重大举措相比,您如何评价围绕这些 AI 代理和 AI Studio 的总体战略?这比故事过渡或卷轴过渡更大还是一样大?对此有什么高层次的想法吗?然后提供回复的成本,尤其是贴纸和图像,比聚合动态消息的核心业务要贵一些。那么我想问题是贵了多少?您可以采取哪些措施来降低成本?多谢。 马克·扎克伯格 好,当然。就其规模而言,很难预测,因为我认为没有人建造过我们在这里建造的东西。我的意思是,这与 OpenAI 正在用 ChatGPT 做的事情有一些类比,但这与我们正在尝试做的事情有很大不同。也许我们正在做的元人工智能部分与他们正在做的工作类型重叠,但人工智能角色部分,有消费者部分,有商业部分,有创作者部分。我只是不确定其他人也在这样做。当我们开发故事和卷轴之类的东西时,之前有一些市场先例。这里有非常令人兴奋的技术。但我认为,在一个领域处于领先地位并开发一项新事物意味着你不太知道它会有多大。但我预测,我确实认为围绕生成人工智能的基础技术将有意义地改变人们使用我们构建的每个不同应用程序的方式。我认为对于 Feed 应用程序来说,随着时间的推移,人们消费的更多内容将由人工智能生成或编辑。其中一些创作者现在将拥有所有这些工具来使内容变得更容易、更有趣。我认为随着时间的推移,也许我们甚至会达到这样的程度:我们可以根据人们可能感兴趣的内容直接为他们生成内容。我认为,这可能非常引人注目。 在消息传递方面,我认为我们看待这些人工智能的方式与这种方式直接相关,你可以使用 Meta AI 或任何这些不同的人工智能发送消息,无论是为了好玩,你都有一个关于某事的问题,您想帮助做某事,您想玩游戏,或者您想与企业发送商务消息,或者您想与您最喜欢的创作者互动,否则他们通常没有时间回复您消息,但现在他们有了代表他们的人工智能。我认为这会影响某种消息传递行为。 它将极大地改变广告业。这将使投放广告变得更加容易。以前基本上必须创建自己的创意或图像的企业现在不必这样做。他们将能够测试更多版本的创意,无论是图像还是最终的视频或文本。这确实令人兴奋,尤其是与推荐人工智能结合使用时。在硬件方面,我的意思是,显然,我们刚刚推出的智能眼镜,我们认为是最终实现增强现实的显示器和全息图的先驱,我认为我们最终仍将实现这一目标。距离并不遥远。但我认为,现在通过智能眼镜提供人工智能的能力可能最终成为一个杀手级用例,甚至在你进入增强现实类型的用例之前。所以我认为你基本上会看到——这是一项非常广泛且令人兴奋的技术。坦率地说,我认为这就是为什么在科技行业工作如此棒的部分原因,对吧,每隔一段时间,就会出现这样的事情,就像改变一切,让一切变得更好,你有能力只要发挥创造力并重新思考您正在做的事情,以便为您所服务的所有人提供更好的服务。我的意思是,我只是认为创建这样的公司充满活力和乐趣。 但是,是的,现在很难预测即将出现的指标,比如人工智能和人类之间的消息传递的平衡是什么,或者人工智能内容和人类内容之间的平衡和反馈或类似的事情。但我的意思是,我非常有信心这将成为一件事,并且我认为它值得投资。对于效率和成本的问题,我认为首先最重要的是专注于产品市场契合度。我们显然非常关心效率,对吗?我的意思是,我们公司的资本支出成本非常高,这是影响公司经济模式的主要因素之一。因此,一方面,随着我们可以提高效率,我们能够做一些事情,比如训练更大的模型并为更多的人服务,而目前,基于基础设施的数量,我们将遇到瓶颈。我们已经达到了我们渴望达到的规模。 因此,在短期内,效率的胜利将主要是为更多的人提供更好的产品。但随着时间的推移,我们将继续致力于此。我认为我们已经能够在硬件和计算效率方面做得很好。从长远来看,一旦我们对这些产品的需求有更多的了解,我们就能够在此基础上推动经济模型。但我们将始终致力于这一点,但我认为我们仍处于该曲线的早期阶段。 肯·多雷尔 伟大的。感谢您今天加入我们。感谢您抽出宝贵的时间,我们期待很快再次与您交谈。 Operator 今天的电话会议到此结束。感谢您加入我们。您现在可以断开线路。
lg
...
老虎证券
2023-10-26
Placeholder:人工智能属于链上
go
lg
...
了一个庞大而复杂的经济体,由专门的人工
智能
代理
通过去中心化消息协议和链上交易信息相互通信,同时承担必要的成本。 这在传统金融体系中是不可能做到的。 考虑一下这个想法的后果:如果代理在链上行动——即使他们认为是链下的——我们最终会得到一个公开的、不可变的、经过加密签名的他们随着时间活动的记录。 区块链将确保大规模人工智能的安全部署,使我们能够执行诸如审计代理的互联网行为、区分机器制作和人造内容以及根据机器的链上活动为机器构建身份和声誉系统等事情。 它将帮助我们和他们识别和奖励好的参与者(用代币或声誉),惩罚不好的参与者(例如,通过削减),并判断哪个代理在特定任务上比另一个代理表现更好。 然后,代理将能够根据他们的链上历史记录来决定依赖谁,由于区块链数据的开源性质,他们可以轻松访问这些历史记录。 为了实现这一愿景,许多工作正整合在一起。 得益于新的共识机制和扩展解决方案,区块链基础设施正在迅速变得快速且廉价。 智能合约钱包和“钱包即服务”(WaaS)提供商将使代理能够进行交易; 与此同时,新兴的账户抽象技术可以允许人与代理之间的交互,我们可以授权代理从我们的钱包中进行支出。 我们可以使用代理的公钥作为标识符来构建注册表和信誉系统(例如,包括阻止列表或削减机制)。 我们甚至可以与 DAO 拥有的代理一起玩,尝试新的商业模式; 也许一些代理将生活在自己的第 2 层网络上,由分布式的运营商社区拥有和管理。 这些想法最初看起来有些牵强,但事后看来却非常明显。 当然,智能合约将调解代理人之间的商业活动,就像法律合约管辖人类的活动一样。 当然,代理商将使用由数字资产支持的互联网金融系统,而不是银行和信用卡。 当然,代理将通过去中心化协议使用加密身份来相互识别、通信和交易。 我没有看到其他解决办法:人工智能属于链上。 来源:金色财经
lg
...
金色财经
2023-10-26
AI Agent:重新定义Web3游戏的创新之路
go
lg
...
多团队也在开发基于 LLM 驱动的人工
智能
代理
( AI-Agents) 系统。 简单来说,AI Agent 是一种计算机程序,它使用大量数据和复杂的算法来模拟人类的思维和决策过程,以便执行各种任务和交互,例如自动驾驶、语音识别和游戏策略等。 Abacus.ai 的图片清晰的介绍了 AI Agent 的基本原理,步骤如下: 感知和数据采集:数据输入,或者 AI Agent 通过感知系统(传感器、摄像头、麦克风等设备)获取信息和数据,比如游戏状态、图像、声音等。 状态表示:数据需要被处理和表示成 Agent 可以理解的形式,如转换为向量或张量,以便于输入到神经网络中。 神经网络模型:通常使用深度神经网络模型来进行决策和学习,比如使用卷积神经网络(CNN)用于图像处理、循环神经网络(RNN)用于序列数据处理,或者更高级的模型如自注意力机制(Transformer)等。 强化学习:Agent 通过与环境的互动来学习最佳行动策略。 除此以外,Agent 的运作原理还包括策略网络、价值网络、训练和优化,以及探索与利用等。比如在游戏场景下,策略网络可以输入游戏状态,然后输出行动概率分布;价值网络能够估计状态价值;Agent 则可以通过与环境互动不断强化学习算法以优化策略和价值网络,输出更完美的结果。 总之,AI-Agents 是一种能够理解、决策和行动的智能实体,它们可以在各种领域中发挥重要作用,包括游戏领域。OpenAI 核心技术人员 Lilian Weng 撰写的《LLM Powered Autonomous Agents 》非常全面的介绍了 AI-Agents 原理,其中,文中提到一个非常有趣的实验:Generative Agents。 Generative Agents (简称 GA)的灵感来自于《模拟人生》游戏,其使用 LLM 技术生成了 25 个虚拟角色,每个角色都由 LLM 支持的 Agent 控制,在沙盒环境中生活和交互。GA 的设计很聪明,它将 LLM 与记忆、规划和反思功能结合在一起,这使得 Agent 程序可以根据以前的经验来做出决策,并与其他 Agent 互动。 文章详细介绍了 Agent 如何基于策略网络、价值网络以及和环境的互动来不断训练和优化决策路径。 原理如下:其中,记忆流(Memory Stram)是一个长期记忆模块,记录了 Agent 的所有交互经验。检索模型(Retrieve)根据相关性、新鲜度和重要性来提供经验(Retrived Memories),帮助 Agent 做出决策(Plan)。反思机制(Reflect)则总结过去的事件,指导 Agent 未来的行动。Plan 和 Reflect 则共同帮助 Agent 将反思和环境信息转化为实际行动 Act 。 这种有趣的实验向我们展示了 AI Agent 的能力,比如产生新的社交行为、信息传播、关系记忆(比如两个虚拟角色继续讨论话题)和社交活动的协调(比如举办聚会并邀请其他虚拟角色)等等。总之,AI-Agent 是一个非常有趣的工具,并且其在游戏中的应用也值得深入探索。 02 技术趋势 2.1 AI 赛道趋势 ABCDE 的投研合伙人LaoBai曾总结过硅谷创投圈对 AI 下一步发展的判断: 没有垂类模型,只有大模型 + 垂类应用; 边缘设备比如手机端的数据可能会是个壁垒,基于边缘设备的 AI 可能也是个机会; Context 的长度未来可能引发质变(现在用向量数据库作为 AI 记忆体,但上下文长度还是不够)。 即从行业普通发展规律来看,因为大型通用模型模式太重,且具备较强的普适性,所以没必要在大型通用模型领域不断造轮子,而应更多侧重于将大型通用模型应用于垂类领域。 同时,边缘设备指通常不依赖于云计算中心或远程服务器,而是在本地进行数据处理和决策的终端设备。因为边缘设备的多样性,所以如何将 AI Agent 部署到设备上运行并合理获取设备数据就是一个挑战,但同时也是新的机会。 最后,关于 Context 的问题也备受关注。简单来说,在 LLM 背景下的 Context 可以理解为信息数量,Context 长度可以理解为数据有多少维度。假如现在有一个电子商务网站的大数据模型,该模型用于预测用户购买某个产品的可能性。在这种情况下,Context 可以包括用户的浏览历史、购买历史、搜索记录、用户属性等信息。Context 长度则指特征信息叠加的维度,比如上海 30 岁男性用户的竞品购买历史,叠加最近购买的频率,再叠加最近的浏览记录等。Context 长度的增加可以帮助模型更全面地理解用户购买决策的影响因素。 目前的共识认为,虽然目前使用向量数据库作为 AI 的记忆体使得 Context 长度不够,但未来 Context 长度会发生质的变化,而后 LLM 模型可以寻求更高级的方法来处理和理解更长、更复杂的 Context 信息。进一步涌现出更多超出想象的应用场景。 2.2 AI Agent 趋势 Folius Ventures总结过 AI Agent 在游戏赛道中的应用模式,如下图: 图中的 1 是 LLM 模型,其主要负责将用户意图从传统的键盘 / 点击输入转化成自然语言输入,降低用户进入门槛。 图中的 2 是集成了 AI Agent 的前端 Dapp,为用户提供功能服务的同时,也可以从终端收集用户习惯和数据。 图中的 3 是各类 AI Agent,可以直接以应用内功能、Bot 等形式存在。 总的来说,AI Agent 作为基于代码的工具,可以充当 Dapp 扩展应用功能的底层程序以及平台的增长催化剂,即链接大模型和垂类应用的中间件。 从用户场景来说,最有可能集成 AI Agent 的 Dapp 大概率是足够开放的 Social app, Chatbot 和游戏;或者把现有 Web2 流量入口通过 AI Agent 改造成更简便亲民的 AI+web3 入口;即行业内一直在探讨的降低 Web3 的用户门槛。 基于行业发展规律,AI Agent 所处的中间件层往往会成为一个高度竞争的赛道,几乎没有护城河。所以,AI Agent 除了不断的提升体验以匹配 B2C 的需求以外,可以通过制造网络效应或创造用户粘性的来提升自己的护城河。 03 赛道地图 AI 在 Web3 游戏领域的应用已经出现了多种不同尝试,这些尝试可以分为以下几种类别: 通用模型:一些项目专注于构建通用 AI 模型,针对 Web3 项目的需求,找到适用的神经网络架构和通用模型。 垂直应用:垂类应用旨在解决游戏中的特定问题或为提供特定服务,通常以 Agent、Bot 和 BotKits 的形式出现。 Generative AI 应用:大模型对应的最直接的应用就是内容生成,而游戏赛道本身就是内容行业,所以游戏领域的 Generative AI 应用非常值得关注。从自动生成虚拟世界中的元素、角色、任务或故事情节等,再到自动生成游戏策略、决策甚至是游戏内生态的自动演变都成为了可能,使游戏更具多样性和深度。 AI 游戏:目前,已经有许多游戏集成了 AI 技术,应用场景各不相同,后文将举例说明。 3.1 通用大模型 目前,Web3 已经有针对经济模型设计和经济生态发展的模拟模型了,比如 QTM 量化代币模型。 Outlier Venture 的 Dr. Achim Struve 在 ETHCC 的演讲中有提到一些经济模型设计的观点。 比如考虑到经济系统的稳健型,项目方可以通过 LLM 模型创建一个数字双胞胎 Digital Twin,对整个生态系统进行 1:1 的模拟。 下图的 QTM(量化代币模型)就是一个 AI 驱动的推理模型。QTM 采用了 10 年的固定模拟时间,每个时间步长为一个月。在每个时间步长的开始,代币会被排放到生态系统中,因此模型中有激励模块、代币归属模块、空投模块等。随后,这些代币将被投放到到几个元桶(meta buckets)中,从这些元桶中再次进行更细化的广义效用再分配。然后,从这些效用工具中定义奖励支付等。还有像链下业务方面,这也考虑了业务的一般资金状况,例如可以进行销毁或回购,还可以衡量用户采用率或者定义用户采用情况。 当然,该模型的输出质量取决于输入质量,所以在使用 QTM 之前,必须进行充分的市场研究,以获取更准确的输入信息。不过 QTM 模型已经是 AI 驱动模型在 Web3 经济模型里非常落地的应用了,也有许多项目方基于 QTM 模型做操作难度更低的 2C/2B 端应用,降低项目方的使用门槛。 3.2 垂类应用 Agent 垂类应用主要以 Agent 的形式存在,Agent 可能是 Bot、BotKits、虚拟助手、智能决策支持系统、各类自动化数据处理工具等等不同的形式。一般来说,AI Agent 拿 OpenAI 的通用模型为底层,结合其他开源或自研技术,如文本转语音(TTS)等,并加入特定的数据进行 FineTune(机器学习和深度学习领域中的一种训练技术,主要目的是将一个已经在大规模数据上预训练过的模型进一步优化),以创建在某一特定领域表现优于 ChatGPT 的 AI Agent。 目前 Web3 游戏赛道应用最成熟的是 NFT Agent。游戏赛道的共识是 NFT 一定是 Web3 游戏的重要组成部分。 随着以太坊生态系统中关于元数据管理技术的发展,可编程的动态 NFTs 出现了。对于 NFT 的创建者而言,它们可以通过算法使 NFT 功能更灵活。对于用户而言,用户与 NFT 之间可以有更多的互动,产生的交互数据更是成为了一种信息来源。AI Agent 则可以优化交互过程,并扩展交互数据的应用场景,为 NFT 生态系统注入了更多的创新和价值。 案例一:比如 Gelato 的开发框架允许开发者自定义逻辑,根据链下事件或特定时间间隔来更新 NFT 的元数据。Gelato 节点将在满足特定条件时触发元数据的更改,从而实现链上 NFT 的自动更新。例如,这种技术可以用于从体育 API 获取实时比赛数据,并在特定条件下,例如运动员赢得比赛时,自动升级 NFT 的技能特征。 案例二:Paima 也为 Dynamic NFT 提供了应用类 Agent。Paima 的 NFT 压缩协议在 L1 上铸造了一组最小的 NFT,然后根据 L2 上的游戏状态对其进行演化,为玩家提供更具深度和互动性的游戏体验。比如 NFT 可以根据角色的经验值、任务完成情况、装备等因素而发生变化。 案例三:Mudulas Labs 是非常知名的 ZKML 项目,其在 NFT 赛道也有布局。Mudulas 推出了 NFT 系列 zkMon,允许通过 AI 生成 NFT 并发布至链上,同时生成一个 zkp,用户可以通过 zkp 查验自己的 NFT 是否生成自对应的 AI 模型。更全面的信息可以参考:Chapter 7.2: The World’s 1st zkGAN NFTs。 3.3 Generative AI 应用 前文提到,因为游戏本身是内容行业,AI-Agent 能够在短时间内、低成本地生成大量内容,包括创造具有不确定性、动态的游戏角色等等。所以 Generative AI 非常适合在游戏应用。目前,在游戏领域中 Generative AI 的应用可以总结为以下几种主要类型: AI 生成游戏角色类:比如和 AI 对战,或者由 AI 负责模拟和控制游戏中的 NPC,甚至直接用 AI 生成角色等。 AI 生成游戏内容类:直接由 AI 各种内容,如任务、故事情节、道具、地图等。 AI 生成游戏场景类:支持用 AI 自动生成、优化或扩展游戏世界的地形、景观和氛围等。 3.3.1 AI 生成角色 案例一:MyShell MyShell 是一个 Bot 创建平台,用户可以根据自己的需求,创建专属 Bot 用于聊天、练习口语、玩游戏、甚至寻求心理咨询等等。同时,Myshell 使用了文本转语音(TTS)技术,只需几秒钟的语音样本,就可以模仿任何人的声音自动创建 Bot。除此以外,MyShell 使用了 AutoPrompt,允许用户仅通过描述自己的想法去给 LLM 模型发出指令,为私人大型语言模型(LLM)打下了基础。 有 Myshell 的用户表示,其语音聊天功能非常流畅,响应速度比 GPT 的语音聊天还要快,而且还有 Live2D。 案例二:AI Arena AI Arena 是一款 AI 对战游戏,用户可以使用 LLM 模型不断的训练自己的对战精灵(NFT),然后将训练好的对战精灵送往 PvP/PvE 战场对战。对战模式和任天堂明星大乱斗类似,但通过 AI 训练增加了更多的竞技趣味性。 Paradigm 领投了 AI Arena,目前公测阶段已开始,玩家可以免费进入游戏,也可以购买 NFT 提升训练强度。 案例三:链上国际象棋游戏 Leela vs the World Leela vs the World 是 Mudulas Labs 开发的一款国际象棋游戏。游戏里游戏双方是 AI 和人,棋局情况放在合约里。玩家通过钱包进行操作(与合约交互)。而 AI 读取新的棋局情况,做出判断,并为整个计算过程生成 zkp ,这两步都是在 AWS 云上完成,而 zkp 交由链上的合约验证,验证成功后调用棋局合约“下棋”。 3.3.2 AI 生成游戏内容 案例一:AI Town AI Town 是 a16z 与其投资组合公司 Convex Dev 的合作成果,灵感来自斯坦福大学的《Generative Agent》论文。AI Town 是一座虚拟城镇,城镇内的每个 AI 都可以根据互动和经验构建自己的故事。 其中,使用 Convex 后端无服务器框架、Pinecone 矢量存储、Clerk 身份验证、OpenAI 自然语言文本生成以及 Fly 部署等技术堆栈。除此以外,AI Town 全部开源,支持游戏内开发者自定义各种组件,包括特征数据、精灵表、Tilemap 的视觉环境、文本生成提示、游戏规则和逻辑等等。除了普通玩家可以体验 AI Town,开发者也可以使用源代码在游戏内甚至游戏外开发各种功能,这种灵活性使 AI Town 适用于各种不同类型的应用。 所以, AI Town 本身是一个 AI 生成内容类游戏,但也是一个开发生态,甚至是一个开发工具。 案例二:Paul Paul 是一个 AI 故事生成器,其专门为全链游戏提供了一个 AI 故事生成并直接上链的解决路径。其实现逻辑是给 LLM 输入了一大堆先验规则,然后玩家可以自动根据规则生成次生内容。 目前有游戏 Straylight protocol 使用 Paul Seidler 发行了游戏,Straylight 是一款多人的 NFT 游戏,核心玩法就是全链游戏版本的“Minecraft”,玩家可以自动 Mint NFT,然后根据模型输入的基本规则构造自己的世界。 3.3.3 AI 生成游戏场景 案例一:Pahdo Labs Pahdo Labs 是一家游戏开发工作室,目前正在开发 Halcyon Zero,这是一款基于 Godot 引擎构建的动漫奇幻角色扮演游戏和在线游戏创建平台。游戏发生在一个空灵的幻想世界中,以作为社交中心的繁华城镇为中心。 这款游戏非常特别的地方在于,玩家可以使用游戏方提供的 AI 创作工具快速创作更多的 3D 效果背景以及把自己喜欢的角色带入游戏,真正为大众游戏 UGC 提供了工具和游戏场景。 案例二:Kaedim Kaedim 针对游戏 Studio 开发了一个基于 Generative AI 的 3D model generation 工具,可以快速的帮助游戏 Studio 批量生成符合他们需求的游戏内 3D 场景 / 资产。目前 Kaedim 的通用产品还在开发中,预计 2024 年开放给游戏 Studio 使用。 Kaedim 产品的核心逻辑和 AI-Agent 是完全相同的,使用通用大模型为基础,然后团队内部的艺术家会不断输入好的数据,然后给 Agent 的输出进行反馈,不断的通过机器学习训练这个 Model,最后让 AI-Agent 可以输出符合要求的 3D 场景。 04 总结 在本文中,我们对 AI 在游戏领域的应用进行了详细的分析和总结。总的来说,未来通用模型以及 Generative AI 在游戏的应用一定会出现明星独角兽项目。垂类应用虽然护城河较低,但先发优势强,如果能靠先发优势制造网络效应和提升用户粘性,则想象空间巨大。除此以外,生成式 AI 天然适合游戏这个内容行业,目前已经有非常多的团队在尝试 GA 在游戏的应用,这个周期就非常有可能出现应用 GA 的爆款游戏。 除了文中提到的一些方向,未来还有其他的探索角度。比如: (1) 数据赛道 + 应用层:AI 数据赛道已经孕育出了一些估值达数十亿美元的独角兽项目,而数据 + 应用层的联动同样充满想象空间。 (2) 与 Socialfi 结合:比如提供创新的社交互动方式;用 AI Agent 优化社区身份认证、社区治理;或者更加智能的个性化推荐等。 (3) 随着 Agent 的自动化和成熟化,以后 Autonomous World 的主要参与者到底是人还是 Bot?链上的自治世界是否有可能能像 Uniswap 那样,80%+ 的 DAU 都是 Bot?如果是,那结合 Web3 治理概念的治理 Agent 同样值得探索。 来源:金色财经
lg
...
金色财经
2023-10-16
一览1kx加密消费者应用投资版图 未来还关注哪些领域
go
lg
...
多启发。 2、可互动的 NPC 和人工
智能
代理
,利用数字财产权来在虚拟实体和最终用户之间创建更深入的关系。 自主世界和链上游戏 我们对带来原本不可能的全新世界和链上动力体验感到非常兴奋: 1、链上游戏,将传统非金融休闲游戏循环的玩家结果变为金融化。我们非常喜欢像 Words3 这样的项目。 2、致力于从第一天起建立自己作为开发者或创作者平台的世界,作为无需许可扩展性的游乐场 。 其他感兴趣和研究的领域: 1、大众市场消费者体验和商品(我们从 Kiki 在女性美容和 Pudgy Penguin 的玩具发布方面的工作中获得了启发) 2、奢侈品和消费者体验(我们对 Trame 将生成艺术转化为实物的工作感到兴奋) 来源:金色财经
lg
...
金色财经
2023-09-27
芝麻财经快报:加密货币和人工智能的交叉点正在来临
go
lg
...
意义。他还谈到一些其他见解,比如,人工
智能
代理
可能很有趣、文本转语音毫无意义、通过再融资自动化获得最佳收率很有趣、法币出入问题等。 二:BitMEX推出预测市场,包含FTX破产索赔等预测合约 9月13日消息,加密货币交易所BitMEX推出预测市场,允许交易者对现实世界事件的结果进行押注。截至9月13日,BitMEX平台共有三种预测市场合约可供交易:关于FTX破产债权回收率、比特币ETF在10月17日或之前获批的可能性以及SBF入狱的可能性的预测合约,未来将增加更多合约。 三:Pantera合伙人:加密产品的全球采用和用户触达中,移动化是必须的 Pantera合伙人Paul Veradittakit在9月13日举行的Token 2049”下一代加密项目“圆桌上表示,加密货币是全球经济跨行业的互操作层,在未来的加密产品全球采用和用户触达中,移动化是必须的。具体在投资上,他表示,他重点关注的加密赛道有全球经纪、金融基础设施和开发工具、NFT和游戏。比如在欧盟投资基础设施和中间件,在韩国投资游戏,在日本投资金融基础设施。在DeFi方面,目前专注于去中心化衍生品、投资跨境支付便利化、代币化国债和收益率产品,而且这些产品在策略中必须适应当地法规。 四:MakerDAO联创:受美国监管影响MakerDAO已通过治理决定禁止美国IP MakerDAO联合创始人Rune Christensen在9月13日举行的Token 2049上表示,因为美国监管的影响,MakerDAO已经通过治理决定,在旗下产品UI禁止了美国IP。他还表示,MakerDAO致力于消除对开发公司的任何依赖,以确保协议随着时间推移的可持续性。 来源:金色财经
lg
...
金色财经
2023-09-13
AllianceDAO:AI与Web3的互利共赢
go
lg
...
家。在这种情况下,玩家本身就是一个人工
智能
代理
,比如 AutoGPT,它使用人工智能语言模型(LLM)作为后端,并且可以访问互联网和可能的初始加密货币资金等外部资源。这些人工智能玩家可以参与类似机器人大战的竞猜游戏。这将为投机和押注这些竞猜结果的玩家提供一个市场。这样的市场可能会催生出全新的游戏体验,既具有策略性又能够吸引更广泛的玩家群体,无论他们是否精通编程。 为链上游戏创建逼真的NPC环境 如今,许多游戏往往在 NPC 方面表现较为单一,它们的行动有限,对游戏进程的影响相对较小。然而,在人工智能和 Web3 的相互作用下,我们有可能创造出更引人入胜的 NPC 环境,从而颠覆游戏的可预测性,使其变得更加有趣。其中一个关键的前提是引入更具吸引力的人工智能控制的 NPC。 然而,在创造逼真的 NPC 环境时,我们面临着一个潜在挑战:如何引入富有意义的NPC动态,同时又能够将与这些活动相关的吞吐量(每秒事务处理量,TPS)最小化。过高的NPC活动所需的TPS可能会导致网络拥塞,影响到实际玩家的游戏体验。 通过这些新的玩法和可能性,区块链游戏正在朝着更加多样化和包容性的方向发展,使更多类型的玩家都能够参与进来,共同体验游戏的乐趣。 2. 去中心化社交媒体 在当今,去中心化社交(DeSo)平台面临一个挑战,即相较于现有中心化平台,它们难以提供独特的用户体验。然而,通过与AI 的无缝集成,我们可以为 Web 2 的替代方案带来独特的体验。举个例子,由 AI 管理的账户可以通过分享相关内容、评论帖子以及参与讨论来吸引新用户加入网络。此外, AI 账户还能够实现新闻聚合,汇总与用户兴趣相符的最新趋势。这种整合 AI 的方法将为去中心化社交媒体平台带来更多创新,吸引更多用户的加入。 3. 去中心化协议的安全性和经济设计测试 以基于 LLM 的AI 助理为基础,我们有机会对去中心化网络的安全性和经济稳健性进行实际测试。这种代理能够定义目标、创建代码并执行这些代码,从而为评估去中心化协议的安全性和经济设计提供了新的视角。在这一过程中,AI 助理被引导去利用协议的安全性和经济平衡。它首先可以检查协议文档和智能合约,找出潜在弱点。然后,它可以独立竞争执行攻击协议的机制,以最大化自身的收益。这一方法模拟了协议启动后可能遇到的实际环境。通过这些测试结果,协议设计者可以检查协议的设计并修补潜在的弱点。目前,只有像 Gauntlet 等专业公司具备为去中心化协议提供此类服务的技术技能。但是,通过对 LLM 进行 Solidity、 DeFi 机制以及以往利用机制等方面的培训,我们期待 AI 助理能够提供类似的功能。 4. 用于数据索引和指标提取的 LLM 虽然区块链数据是公共的,但索引和提取有用见解始终是一个挑战。某些参与者(如 CoinMetrics)专门从事索引数据和构建复杂指标以进行销售,而其他参与者(如 Dune)则专注于对原始交易的主要组成部分进行索引,并通过社区贡献来提取部分指标。近期 LLM 的进展显示出,数据索引和指标提取可能会迎来革命。区块链数据公司 Dune 已经认识到了这一潜在威胁,并宣布 LLM 路线图包括 SQL 查询解释和基于 NLP 查询的潜在组件。然而,我们预测 LLM 的影响将更深远。一种可能性是基于 LLM 的索引,其中 LLM 模型能够直接与区块链节点交互,为特定指标的数据建立索引。初创公司 Dune Ninja 等已经开始探索基于 LLM 的创新数据索引应用程序。 5. 开发者加入新的生态系统 不同的区块链网络吸引开发者来构建应用程序。Web3 开发者活动是评估生态系统成功的重要指标之一。然而,开发人员在开始学习和构建新生态系统时,常常会遇到支持方面的困难。生态系统已经通过专门的 Dev Rel 团队投入数百万美元,以支持开发人员在探索生态系统中更好地发展。在这个领域,新兴的 LLM 展示了惊人的成就,它可以解释复杂代码、捕获错误,甚至创建文档。经过微调的 LLM 可以补充人类的经验,从而显著提高开发团队的生产力。例如,LLM 可以用于创建文档、教程,回答常见问题,甚至可以为黑客马拉松中的开发人员提供样板代码或创建单元测试。这些都将有助于促进开发人员的积极参与,推动整个生态系统的成长。 6.改进 DeFi 协议 通过将 AI 融入 DeFi 协议的逻辑中,可以显著提升众多 DeFi 协议的性能。目前,将 AI 应用于 DeFi 领域的主要难题之一是在链上实施 AI 的成本较高。尽管可以在链下实现 AI 模型,但之前无法验证模型的执行情况。然而,通过诸如 Modulus 和 ChainML 等项目,链下执行的验证正逐渐变为现实。这些项目允许在链外执行机器学习模型,同时限制链上的成本开销。在 Modulus的情况下,链上的费用仅用于验证模型的零知识证明(ZKP)。而在 ChainML 的案例中,链上的成本是用于向去中心化 AI 执行网络支付预言机费用。 以下是一些可能从 AI 集成中受益的DeFi使用案例: AMM 流动性配置:例如,更新 Uniswap V3 的流动性范围。通过整合人工智能,协议可以更加智能地调整流动性范围,从而提高 AMM(自动做市商)的效率和收益。 清算保护与债务头寸:结合链上和链下数据,可以实现更有效的清算保护策略,保护债务头寸不受市场波动影响。 复杂的 DeFi 结构化产品:设计金库机制时,可以依赖金融人工智能模型而不是固定策略。这样的策略可能包括由人工智能管理的交易、贷款或期权,从而提高产品的智能性和灵活性。 先进的链上信用评分机制:考虑不同区块链上不同钱包的情况,整合人工智能可以帮助构建更精确和全面的信用评分系统,从而更好地评估风险和机会。 通过利用这些 AI 集成的案例,DeFi 领域可以更好地适应不断变化的市场需求,提高效率,降低风险,并为用户创造更多价值。同时,随着链下验证技术的不断发展,AI 在 DeFi 中的应用前景也将进一步拓展。 Web3 技术能够帮助提升 AI 模型的能力 虽然现有 AI 模型已经展现出巨大的潜力,但在数据隐私、特有模型执行的公平性以及虚假内容的创建和传播方面仍然面临挑战。在这些领域,Web3技术的独特优势可能发挥重要作用。 1. 为 ML 训练创建专有数据集 Web3 可以协助 AI 的领域之一是协作创建用于机器学习 (ML) 训练的专有数据集,即用于数据集创建的 PoPW 网络。海量数据集对于准确的 ML 模型至关重要,但如何获取这些数据,如何创建这些数据集可能会成为瓶颈,特别是在需要私有数据的用例中,比如使用 ML 进行医学诊断,围绕患者数据的隐私问题构成了重大障碍,因为训练这些模型需要访问医疗记录。然而,出于隐私考虑,患者可能不愿分享他们的医疗记录。为了解决这个问题,患者可以对他们的医疗记录进行可验证的匿名化处理,以保护他们的隐私,同时仍然可以在机器学习训练中使用这些记录。 然而,匿名处理后的数据的真实性可能令人担忧,因为虚假数据可能会极大地影响模型性能。这时,零知识证明(ZKP)可以用来验证匿名处理后的数据的真实性。患者可以生成ZKP,以证明匿名记录确实是原始记录的副本,即使在删除个人身份信息(PII)后也是如此。这种方法既保护了隐私,又确保了数据的可信度。 2. 对私有数据运行推理 当前,大型语言模型(LLM)存在一个重要问题,即如何处理私有数据。举例来说,当用户与ChatGPT进行交互时,OpenAI会收集用户的私有数据,并将其用于模型的训练,从而引发敏感信息的泄露。近期的案例中,有员工在使用ChatGPT辅助办公时不小心泄露了涉密数据,这使得这个问题更加突出。零知识(ZK)技术有望解决机器学习模型在处理私人数据时出现的问题。在这里,我们将探讨两种场景:开源模型和专有模型。 对于开源模型,用户可以下载模型并在本地私有数据上运行。举例来说,Worldcoin的“World ID”升级计划(“ZKML”)需要处理用户的生物特征数据,如虹膜扫描,以创建每个用户的独特标识符(IrisCode)。在这种情况下,用户可以在保护其生物特征数据隐私的情况下下载IrisCode生成的机器学习模型,并在本地运行。通过创建零知识证明(ZKP),用户可以证明他们已经成功生成了 IrisCode ,从而保证了推理的真实性,同时保护了数据隐私。重要的是,高效的ZK证明机制(如Modulus Labs开发的机制)在训练机器学习模型时具有关键作用。 另一种情况是,当用于推理的机器学习模型是专有的时,情况会稍微复杂。因为在本地进行推理可能不是一个选项。然而,零知识证明可以通过两种可能的方式来帮助解决问题。第一种方法是在将匿名化数据发送到机器学习模型之前,使用 ZKP 对用户数据进行匿名化处理,正如前面在数据集创建案例中所讨论的。另一种方法是在将预处理输出发送到机器学习模型之前,对私有数据进行本地预处理。在这种情况下,预处理步骤隐藏了用户的私有数据,使其无法重构。用户可以生成 ZKP 来证明预处理步骤的正确执行,而模型的其他专有部分可以在模型所有者的服务器上远程执行。这些示例用例可能包括能够分析患者医疗记录以进行潜在诊断的 AI 医生,以及评估客户私人财务信息以进行金融风险评估的算法。 通过 ZK 技术,Web3可以提供更高的数据隐私保护,使得 AI 在处理私有数据时更加安全可靠,同时也为隐私敏感领域的 AI 应用提供了新的可能性。 3. 保证内容真实性,打击深度伪造内容这类骗局 ChatGPT 的出现可能使人们忽略了一些专注于生成图片、音频和视频的生成式人工智能模型。然而,这些模型目前已经能够生成逼真的深度伪造内容。例如,最近流行的 AI 生成的写真照片,以及模仿 Drake 新歌的 AI 生成版本,这些内容已经在社交媒体上广泛传播。由于人们天生倾向于相信所见所听,这些深度伪造内容可能构成潜在的骗局危险。虽然一些初创公司试图使用 Web2 技术来解决这个问题,但数字签名等 Web3 技术可能更有效地解决这个问题。 在 Web3 中,用户之间的交易由用户的私钥签名以证明其有效性。类似地,文本、图片、音频和视频内容也可以通过创作者的私钥进行数字签名,以证明其真实性。任何人都可以通过与创作者的公开地址进行签名验证,这个公开地址可以在创作者的网站或社交媒体账户上找到。Web3网络已经建立了所有必要的基础设施来满足这种内容验证的需求。一些投资者已经将他们的社交媒体配置文件,如 Twitter,或去中心化社交媒体平台,如 Lens Protocol 和Mirror,与加密的公开地址相关联,以增加内容验证的可信度。例如,美国头部投资机构 USV 的合伙人 Fred Wilson 讨论了将内容与公共加密密钥相关联如何在打击虚假信息方面起到作用。 尽管这个概念看起来很简单,但要改善身份验证过程的用户体验还需要很多工作。例如,内容的数字签名过程需要自动化,以便为创作者提供无缝、流畅的体验。另一个挑战是如何在不需要重新签名的情况下生成已签名数据的子集,例如音频或视频片段。目前,许多项目都在努力解决这些问题,并且 Web3 在解决这些问题方面具有独特的优势。通过数字签名等技术, Web3 有望在保护内容真实性和打击深度伪造内容等方面发挥关键作用,从而提高用户的信任和网络环境的可信度。 4. 专有模型的信任最小化 Web3 技术还可以在专有机器学习(ML)模型作为服务提供时,实现最大程度地减少对服务提供商的信任。用户可能希望验证他们所付费购买的服务,或获得关于ML模型公平执行的保证,即相同的模型用于所有用户。零知识证明(ZKP)可以用于提供这些保证。在这个架构中, ML 模型的创建者生成一个代表 ML 模型的 ZK 电路。然后,在需要的时候,使用该电路为用户的推理生成零知识证明。这些证明可以发送给用户进行验证,也可以发布到负责处理用户验证任务的公共链上。如果 ML 模型是私有的,独立的第三方可以验证所使用的 ZK 电路是否代表该模型。在模型的执行结果具有高风险的情况下,这种信任最小化的方法尤其有用。以下是一些具体的用例: 医疗诊断的机器学习应用 在这种情况下,患者将自己的医疗数据提交给 ML 模型进行潜在的诊断。患者需要确保目标机器学习模型没有滥用他们的数据。推理过程可以生成一个零知识证明,用于证明 ML 模型的正确执行。 贷款信用评估 ZKP可以确保银行和金融机构在评估信用价值时考虑了申请人提交的所有财务信息。此外,通过证明所有用户使用相同的模型,ZKP可以证明公平性。 保险理赔处理 当前的保险理赔处理是手动和主观的。然而,ML 模型可以更公平地评估保险单和索赔细节。与 ZKP 相结合,这些索赔处理 ML 模型可以被证明考虑了所有保单和索赔细节,并且同一模型用于处理同一保单下的所有索赔。 通过利用零知识证明等技术,Web3 有望为专有 ML 模型的信任问题提供创新的解决方案。这不仅有助于提高用户对模型执行的信任,还能够促进更加公平和透明的交易过程。 5. 解决模型创建的集中化问题 创建和训练 LLM(大型语言模型)是一个耗时且昂贵的过程,需要特定领域的专业知识、专用的计算基础设施以及数百万美元的计算成本。这些特征可能会导致强大的集中实体,例如 OpenAI ,它们可以通过控制对其模型的访问来对其用户行使重大权力。 考虑到这些集中化风险,关于 Web3 如何促进。创建不同方面的去中心化的重要讨论正在进行中。一些 Web3 倡导者提出了将去中心化计算作为与集中式参与者竞争的一种方法。这个观点认为,去中心化计算可以是一种更便宜的替代方案。然而,我们的观点是,这可能不是与集中式参与者竞争的最佳角度。去中心化计算的缺点在于,由于不同异构计算设备之间的通信开销, ML 训练可能会慢10到100倍。 一种方法是通过去中心化计算来分散模型创建的成本和资源。虽然有人认为去中心化计算可能成为替代集中式实体的更便宜方案,但通信开销问题可能会限制其效率。这意味着在涉及大规模计算任务时,去中心化计算可能导致训练速度减缓。因此,在寻求解决模型创建集中化问题时,需要仔细权衡去中心化计算的利弊。 另一种方法是采用 Proof of Private Work(PoPW)的方式来创建独特而具有竞争力的 ML 模型。这个方法的优势在于它可以通过将数据集和计算任务分散到网络的不同节点来实现去中心化。这些节点可以为模型训练做出贡献,同时维护各自的数据隐私。Together 和 Bittensor 等项目正在朝这个方向发展,试图通过 PoPW 网络来实现模型创建的去中心化。 人工
智能
代理
的支付和执行轨道 人工
智能
代理
的支付和执行轨道在最近的几周中引起了极大的关注。使用LLM(大型语言模型)来执行特定任务并实现目标的趋势不断上升,这一潮流起源于BabyAGI的概念,并迅速扩散至高级版本,包括AutoGPT等。这引发了一个重要的预测,即在未来,人工
智能
代理
将在某些任务中表现出色并变得更加专业。如果出现了专门的市场,人工
智能
代理
就有能力搜索、雇用和支付其他人工
智能
代理
的费用,从而协同完成重要项目。 在这一进程中,Web3 网络为人工
智能
代理
提供了理想的环境。特别是在支付方面,人工
智能
代理
可以配置加密货币钱包,用于接收付款并向其他代理付款,实现任务分工和合作。除此之外,人工
智能
代理
还可以无需许可地委托资源,将其插入加密网络。例如,如果一个人工
智能
代理
需要存储数据,他们可以创建一个Filecoin钱包,支付去中心化存储网络IPFS上的存储费用。另外,人工
智能
代理
还可以委托去中心化计算网络(如Akash)的计算资源,以执行特定任务,甚至扩展其执行范围。 防止AI侵犯隐私 然而,在这一发展过程中,隐私和数据保护问题变得尤为重要。鉴于训练高性能机器学习模型需要大量数据,因此可以安全地假设任何公共数据都会进入机器学习模型,这些模型可以使用这些数据来预测个人的行为。特别是在金融领域,建立机器学习模型可能导致用户财务隐私受到侵犯。为了解决这个问题,一些隐私保护技术如 zCash、Aztec支付,以及Penumbra和Aleo等私人DeFi协议可以用来确保用户的隐私得到保护。这些技术可以在保护用户数据的同时进行交易和数据分析,从而实现金融交易和机器学习模型开发的平衡。 结论 我们相信 Web3 和 AI 在文化和技术上是相互兼容的。与 Web2 中对机器人的抵触情绪不同,Web3 凭借其无需许可的可编程性质,为人工智能的蓬勃发展创造了机会。 从更宏观的角度来看,如果将区块链视为一个网络,那么人工智能有望在这个网络的边缘发挥主导作用。这一观点适用于各种消费应用程序,从社交媒体到游戏。迄今为止,Web3 网络的边缘主要由人类组成。人类会发起并签署交易,或者通过预先设定的策略让机器人代表他们采取行动。 随着时间的推移,我们可以预见网络边缘会出现越来越多的人工智能助理。这些 AI 助理将通过智能合约与人类以及彼此互动。我们相信这些互动将带来全新的消费者和用户体验,可能会引发创新的应用场景。 Web3 的无需许可特性赋予了人工智能更大的自由度,可以更紧密地与区块链和分布式网络集成。这有望促进创新、扩展应用领域,并为用户创造更富有个性化和智能化的体验。同时,需要密切关注隐私、安全和伦理问题,以确保人工智能的发展不会给用户带来负面影响,而是真正实现技术与文化的和谐共存。 来源:金色财经
lg
...
金色财经
2023-08-24
《纽约时报》与OpenAI因版权问题发生纠纷,AI培训范围受限
go
lg
...
执行:将AI训练成可以执行特定任务的“
智能
”
代理
,如图像识别、自然语言处理、语音识别等。 预测和分析:通过训练AI模型,可以使其能够根据历史数据和模式来进行预测、分析和模拟未来事件或趋势。 自动化:培训AI使其能够自动化一些繁琐、重复的任务,从而提高效率并减轻人力成本。 优化:通过培训,AI可以学习如何优化特定问题的解决方法,从而找到更有效的方法和策略。 生成:培训AI使其能够生成新的内容,如文章、音乐、艺术作品等,以满足特定需求。 总之,培训AI是为了赋予机器处理和理解复杂任务和问题的能力,从而为人们提供更智能、高效和创新的解决方案。
lg
...
Heidi
2023-08-22
上一页
1
•••
13
14
15
16
17
18
下一页
24小时热点
特朗普和泽连斯基在白宫火爆互呛 磋商多日的矿产协议未能签署 华尔街和政府官员怎么说?
lg
...
中国政坛突传大消息!中国第四位部长、“科技沙皇”突遭撤职 出了什么事?
lg
...
中国市场突传惊人逆转!《金融时报》访华:中国国有开发商在收购大量土地
lg
...
中国重磅信号!国家主席习近平在重要会议前承认 中国经济“面临诸多困难”
lg
...
美国最新通胀指标符合预期 是对美联储的救赎 还是……
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
60讨论
#VIP会员尊享#
lg
...
1762讨论
#比特币最新消息#
lg
...
916讨论
#CES 2025国际消费电子展#
lg
...
21讨论