全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
香港论坛
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
精彩回顾 | 来看 QTF 量化科技嘉年华上的 DolphinDB
go
lg
...
难以满足处理需求,很多团队都已经引入了
深度
学习
工具。 DolphinDB 首先提供了内置的机器学习工具,并支持分布式存储和计算。 此外,研究员们可以通过 AI Data Loader,用 SQL 语句把分布式数据库当中的数据直接对接到 PyTorch 等工具中,省去了数据转换与落地的成本。 DolphinDB 最近也在做一些新的工作和探索。 正在研发中的 GPU 算子库可以将计算无缝迁移到 GPU 中,使得性能有数量级的提升。最后,面对越来越丰富的多元化数据、异构数据,DolphinDB 正在研发Database,来支持对这些数据方便的存储和检索。 完整的演讲内容可以添加 DolphinDB 小助手(dolphindb1)获取~ 圆桌论坛 圆桌论坛环节,周博士与来自投研平台、量化交易平台和券商投研交易团队的三位负责人共同进行了《量化新视野下的前沿技术探索》主题讨论,围绕 AI 大模型、
深度
学习
在业务中的实践、新技术下软硬件成本、未来潜在发展等热点话题,与观众交流。 圆桌问题一览: ·最近最火热的技术趋势就是 AI 大模型,请问一下各位嘉宾,有没有什么有意思的实践可以分享? ·前一阵某知名千亿量化私募宣布成立新的团队入场大模型 AI,请问各位对此有什么看法? ·有人说,量化研究员的工作就是每天挖掘各种因子,但很多时候一个优秀的模型也会带来显著的策略增长,那么在量化领域里,各位认为因子和模型这两者是什么样的关系?哪一块更重要? ·其实很早之前,机器学习就已经应用于预测股市价格、走势等方面的场景,但往往专注于传统模型比如决策树。现在比较流行
深度
学习
模型,什么递归神经网络模型、卷积神经网络模型等等。能否结合自身业务,谈谈在这方面的实践? ·除了前面提到的传统的选股、择时等业务,未来这类前沿技术会给量化领域带来哪些新的可能?潜在的发展方向又有哪些? ·从应用的角度来说,想要将
深度
学习
和业务结合产生好的效果,对咱们团队提出了哪些软硬件需求? ·我们知道
深度
学习
模型并不完全是对传统的机器学习算法的简单升级。在做决策时,尤其是风控,可解释性和对业务的理解非常重要。有时对一些结构化数据使用
深度
学习
,会产生过拟合。对于数据挖掘和可解释性的平衡问题,各位有什么看法? 四位嘉宾围绕以上七个问题展开了深入讨论,各抒己见,也激发了现场观众的思考。 特装展区 DolphinDB 在 QTF 量化科技嘉年华中,不仅主办了6月3日上午的“因子挖掘与机器学习”分论坛,还在特装展区设置了丰富的小礼品和抽奖活动,并有专业的技术支持现场解答与路演。 无线耳机、特制飞盘、定制文化衫、因子日历、笔记本……无论你是洽谈商务的业务人士,还是追赶潮流的年轻人,都有机会在 DolphinDB 展区抽到你喜爱的礼品,了解你想要的最新资讯,获得一对一与技术同事交流的机会。 现场交流 幸运转盘100%中奖! 热情的粉丝 护照集章,兑换你的专属礼品~ 来源:金色财经
lg
...
金色财经
2023-06-27
积云资本上线全球首家A.I.行情信息共享服务平台
go
lg
...
支持CPU、GPU混合分布式运算 2.
深度
学习
和大规模训练系统: 支持千亿级参数的模型行业领先的内存优化技术极大提升了策略的准确迭代速度 3.高性能异构基础算法库: 包含了神经网络在内的各种机器学习算法与数学处理算法存储币市最小颗粒度源数据 4.海量因子监控与分析: 多因子的灵活构建与多种纬度的分析框架支持各类因子自动监控与分析提高预判准确率 5.多资产回测框架: 币种现货、合约、杠杆等多资产、多策略回测,丰富的衍生工具真实验证策略有效性 6.交易策略优化系统: 高性能的组合优化系统基于人工智能学习让趋势预测和策略拟合度呈几何级提升 7.风险对冲模型: 接轨国际领先的风险模型算法提供28种技术因子和16种成长因子采取对冲策略全面抵抗波动风险 8.金融专家与人工智能算法工程师: 团队由金融交易专家、加密算法专家、P2P全栈开发工程师及20年经验股市策略师组成的量化交易梦之队 Walkie-Talkie是一个将全球顶级转件团队提供的机构级行情分析报告,以简单易懂的6色曲线方式向大众用户呈现数字货币行情走势的免费工具软件。通过讯息共享方式为会员提供行情信号,用户免费注册即可成为会员享受免费的行情信号服务。 同时针对个人用户也开放两类理财产品,分别为固定收益类型基金产品和浮动收益类型基金产品。理财产品均为固定周期型产品,定期开放和封闭。类型也分为单一型资产或多元化资产。用户可以根据个人理财风险承受度和收益需求选择适合自己的理财产品。 同时也提供多元的推广邀请激励,包含用户邀请、团队建立及合伙人激励。奖励来自于基金量化收益,用户获得的团队建立激励将从中进行分配。 积云资本团队在二级市场投资交易、区块链等领域具有丰富的投资和管理经验,经历多轮周期及金融危机,屡获全球顶级对冲基金大奖。顶级金融人才+扎实理论+丰富实践=长期稳定回报。积云资本,投资给我们想要的世界! 来源:金色财经
lg
...
金色财经
2023-06-26
深入剖析ZKML赛道:智能合约智能性的下一步
go
lg
...
工具,用于在 zk-SNARK 中进行
深度
学习
模型的推理。使用 EZKL,您可以在 Pytorch 或 TensorFlow 中定义一个计算图,并将其导出为带有 JSON 文件中一些示例输入的 ONNX 文件,然后将 EZKL 指向这些文件以生成 zkSNARK 电路。通过最新一轮的性能改进,EZKL 现在可以在约 6 秒和 1.1 GB 的 RAM 内证明一个 MNIST 大小的模型。迄今为止,EZKL 已经得到了一些显着的早期采用,被用作各种黑客马拉松项目的基础设施。 Cathie So 的 circomlib-ml 库包含了用于 Circom 的各种 ML 电路模板。电路包括一些最常见的 ML 函数。由 Cathie 开发的 Keras 2c ircom 是一个 Python 工具,使用底层的 circomlib-ml 库将 Keras 模型转换为 Circom 电路。 LinearA 开发了两个用于 zkML 的框架:Tachikoma 和 Uchikoma。Tachikoma 用于将神经网络转换为仅使用整数的形式并生成计算轨迹。Uchikoma 是一个工具,将 TVM 的中间表示转换为不支持浮点运算的编程语言。LinearA 计划支持使用域算术的 Circom 和使用有符号和无符号整数算术的 Solidity。 Daniel Kang 的 zkml 是一个基于他在《Scaling up Trustless DNN Inference with Zero-Knowledge Proofs》论文中的工作构建的 ML 模型执行证明的框架。在撰写本文时,它能够在约 5 GB 的内存和约 16 秒的运行时间内证明一个 MNIST 电路。 在更广义的模型到证明编译器方面,有 Nil Foundation 和 Risc Zero。Nil Foundation 的 zkLLVM 是一个基于 LLVM 的电路编译器,能够验证用流行编程语言(如 C++、Rust 和 JavaScript/TypeScript 等)编写的计算模型。与这里提到的其他模型到证明编译器相比,它是通用的基础设施,但仍适用于复杂的计算,如 zkML。当与他们的证明市场结合使用时,这可能尤为强大。 Risc Zero 构建了一个通用的 zkVM,针对开源的 RISC-V 指令集,因此支持现有成熟的语言,如 C++和 Rust,以及 LLVM 工具链。这允许在主机和客户 zkVM 代码之间实现无缝集成,类似于 Nvidia 的 CUDA C++工具链,但是使用 ZKP 引擎代替 GPU。与 Nil 类似,使用 Risc Zero 可以验证 ML 模型的计算轨迹。 02 广义证明系统 证明系统的改进是使 zkML 取得成果的主要推动力,特别是自定义门和查找表的引入。这主要是由于 ML 对非线性的依赖。简而言之,非线性是通过激活函数(例如 ReLU、sigmoid 和 tanh)引入的,这些激活函数应用于神经网络中线性变换的输出。由于数学运算门的限制,这些非线性在 zk 电路中实现起来具有挑战性。按位分解和查找表可以通过将非线性的可能结果预先计算到查找表中来帮助解决这个问题,有趣的是,这在 zk 中的计算效率更高。 出于这个原因,Plonkish 证明系统往往是 zkML 最受欢迎的后端。Halo 2 和 Plonky 2 及其表式算术方案可以通过查找参数很好地处理神经网络非线性。此外,前者拥有充满活力的开发人员工具生态系统和灵活性,使其成为包括 EZKL 在内的许多项目的实际后端。 其他证明系统也有其优势。基于 R 1 CS 的证明系统包括 Groth 16 ,因其小型证明尺寸而闻名,以及 Gemini,因其处理极大电路和线性时间验证器而闻名。基于 STARK 的系统,例如 Winterfell 证明器/验证器库,尤其在通过 Giza 的工具将 Cairo 程序的追踪作为输入,并使用 Winterfell 生成 STARK 证明来验证输出的正确性时,非常有用。 03 zkML 特定的证明系统 在设计能够处理先进的机器学习模型的复杂、电路不友好的操作的高效证明系统方面已经取得了一些进展。基于 GKR 证明系统的 zkCNN 和基于组合技术的 Zator 等系统往往比通用证明系统更具性能,这一点在 Modulus Labs 的基准测试报告中有所体现。 zkCNN 是一种使用零知识证明来证明卷积神经网络正确性的方法。它使用 sumcheck 协议来证明快速傅里叶变换和卷积,具有线性的证明时间,比渐近计算结果更快。已经引入了几个改进和泛化的交互证明,包括验证卷积层、ReLU 激活函数和最大池化。根据 Modulus Labs 的基准测试报告,zkCNN 特别有趣的地方在于它在证明生成速度和 RAM 消耗方面优于其他通用证明系统。 Zator 是一个旨在探索使用递归 SNARK 来验证深度神经网络的项目。验证更深层次模型的当前限制是将整个计算轨迹适应单个电路中。Zator 提出使用递归 SNARK 逐层进行验证,可以逐步验证 N 步重复计算。他们使用 Nova 将 N 个计算实例减少为一个可以通过单个步骤进行验证的实例。采用这种方法,Zator 能够对具有 512 层的网络进行 SNARK,这与大多数当前的生产 AI 模型一样深。Zator 的证明生成和验证时间仍然对于主流应用案例来说过长,但他们的组合技术仍然是非常有趣的。 应用领域 鉴于 zkML 处于早期阶段,其关注点主要集中在上述基础设施上。然而,目前也有一些项目致力于应用开发。 Modulus Labs 是 zkML 领域中最多样化的项目之一,他们既开展示例应用,也从事相关研究。在应用方面,Modulus Labs 通过 RockyBot(一个链上交易机器人)和 Leela vs. the World(一个人类与经过验证的链上 Leela 国际象棋引擎对战的棋盘游戏)展示了 zkML 的用例。该团队还进行了研究,编写了《智能的代价》,对不同模型规模下的各种证明系统的速度和效率进行了基准测试。 Worldcoin 正在尝试应用 zkML 来创建一个保护隐私的人类身份证明协议。Worldcoin 使用定制硬件处理高分辨率虹膜扫描,并将其插入到 Semaphore 实现中。然后可以使用该系统执行诸如成员资格证明和投票等有用操作。他们目前使用受信任的运行时环境和安全的安全区域来验证相机签名的虹膜扫描,但他们最终的目标是使用零知识证明来验证神经网络的正确推理,以提供加密级别的安全保证。 Giza 是一种协议,采用完全无信任的方法在链上部署 AI 模型。它使用包括 ONNX 格式表示机器学习模型、Giza Transpiler 用于将这些模型转换为 Cairo 程序格式、ONNX Cairo Runtime 用于以可验证和确定性的方式执行模型,以及 Giza Model 智能合约用于在链上部署和执行模型的技术堆栈。尽管 Giza 也可以归类为模型到证明编译器的类别,但他们作为一个 ML 模型市场的定位是目前最有趣的应用之一。 Gensyn 是一个分布式硬件供应网络,用于训练 ML 模型。具体而言,他们正在开发一个基于梯度下降的概率审计系统,并使用模型检查点来使分散式 GPU 网络能够为全尺度模型提供训练服务。尽管他们在这里的 zkML 应用非常特定于他们的用例——他们希望确保当一个节点下载和训练模型的一部分时,他们对模型更新的诚实性——但它展示了将 zk 和 ML 相结合的强大力量。 ZKaptcha 专注于 web3 中的 bot 问题,为智能合约提供验证码服务。他们目前的实施让最终用户通过完成验证码来生成人类工作的证明,验证码由他们的链上验证程序验证,并通过几行代码由智能合约访问。今天,他们主要只依赖于 zk,但他们打算在未来实现 zkML,类似于现有的 web2 验证码服务,分析鼠标移动等行为以确定用户是否是人类。 鉴于 zkML 市场还很早,许多应用程序已经在黑客马拉松级别进行了试验。项目包括 AI Coliseum,一个使用 ZK 证明来验证机器学习输出的链上 AI 竞赛,Hunter z Hunter,一个使用 EZKL 库来验证带有 halo 2 电路的图像分类模型输出的照片寻宝游戏,以及 zk Section 9 ,它 将 AI 图像生成模型转换为用于铸造和验证 AI 艺术的电路。 zkML 面临的挑战 尽管在提高和优化方面取得了飞速的进展,但 zkML 领域仍然面临一些核心挑战。这些挑战涉及技术和实践等方面,包括: 以最小的精度损失进行量化 电路规模,特别是当网络由多个层组成时 矩阵乘法的高效证明 对抗攻击 量化是将浮点数表示为定点数的过程,大多数机器学习模型使用浮点数表示模型参数和激活函数,在处理 zk 电路的域算术时,需要使用定点数。量化对机器学习模型的准确性的影响取决于所使用的精度级别。一般来说,使用较低的精度(即较少的比特数)可能会导致准确性降低,因为这可能引入舍入和近似误差。然而,有几种技术可用于最小化量化对准确性的影响,例如在量化后对模型进行微调,以及使用量化感知训练等技术。此外,zkSummit 9 上的一项黑客马拉松项目 Zero Gravity 显示出,针对边缘设备开发的替代神经网络架构(例如无权重神经网络)可以用于避免电路中的量化问题。 除了量化之外,硬件是另一个关键挑战。一旦通过电路正确地表示了机器学习模型,由于 zk 的简洁性,验证其推理的证明将变得廉价且快速。这里的挑战不在于验证者,而在于证明者,因为随着模型规模的增长,RAM 消耗和证明生成时间会迅速增加。某些证明系统(例如使用 sumcheck 协议和分层算术电路的基于 GKR 的系统)或组合技术(例如将 Plonky 2 与 Groth 16 相结合,Plonky 2 在证明时间方面效率高但对于大型模型的高效证明大小较差,而 Groth 16 在复杂模型的复杂度上不会导致证明大小增长)更适合处理这些问题,但在 zkML 项目中管理权衡是一个核心挑战。 在对抗攻击方面,仍然有待努力。首先,如果一个无信任的协议或 DAO 选择实施一个模型,在训练阶段仍然存在对抗攻击的风险(例如训练模型以在看到特定输入时表现出特定行为,这可能被用来操纵后续的推理)。联邦学习技术和训练阶段的 zkML 可能是最小化这种攻击面的一种方式。 另一个核心挑战是当模型保护隐私时存在模型盗窃攻击的风险。虽然可以混淆模型的权重,但在给定足够的输入输出对的情况下,从理论上讲,仍然有可能反向推导出权重。这主要是对小规模模型的风险,但仍然存在风险。 智能合约的可扩展 尽管在将这些模型优化为在 zk 的限制条件下运行时存在一些挑战,但改进工作正在以指数速度进行,一些人预计在进一步的硬件加速下,我们很快就能与更广泛的机器学习领域达到同等水平。为了强调这些改进的速度,zkML 从0x PARC 在 2021 年展示了如何在可验证电路中执行小规模 MNIST 图像分类模型的演示,到 Daniel Kang 在不到一年后为 ImageNet 规模的模型做同样的工作的论文。在 2022 年 4 月,这个 ImageNet 规模的模型的准确性从 79% 提高到 92% ,并且像 GPT-2 这样的大型模型在近期内有望成为可能,尽管目前的证明时间较长。 我们认为 zkML 是一个丰富而不断发展的生态系统,旨在扩展区块链和智能合约的能力,使其更加灵活、适应性强和智能化。 尽管 zkML 仍处于早期开发阶段,但它已经开始显示出有希望的结果。随着技术的发展和成熟,我们可以期待在链上看到更多创新的 zkML 用例。 来源:金色财经
lg
...
金色财经
2023-06-24
机器人概念迎来风口,机器人指数近一周涨幅17%,现象级长坡厚雪大赛道来临!机器人是AI的最强落地方式之一?
go
lg
...
、说、理解和思考的能力。机器人可以通过
深度
学习
、自然语言处理等技术来实现语音识别、图像识别、自主导航等功能。AI的发展将进一步提高机器人的智能化水平,为机器人领域带来更多的发展机遇。 政府频频出台扶持政策支持机器人行业的发展,6月15日上海市政府发布《上海市推动制造业高质量发展三年行动计划(2023-2025年)》,文件提出“工业机器人使用密度力争达360台/万人”“打造20家标杆性智能工厂、200家示范性智能工厂,新增应用工业机器人不少于2万台”;另外,专项资金扶持、税收优惠、股权投资等方面的优惠政策帮助企业降低了生产成本,有助于推动机器人赛道的发展 目前市场上少的关注机器人方向的主动基金,永赢先进制造智选(018125)基金经理张璐强调:人形机器人行业壁垒高(对企业资金、技术、资源整合),天花板高(以全球80亿人口为基数),而且产业链长。机器人,可能是未来不可多得的——如同当年消费电子中苹果产业链、特斯拉电动车产业链——现象级的长坡厚雪大赛道。 特斯拉创始人兼首席执行官马斯克认为,特斯拉人形机器人在技术上“与车同源”,未来每个人都会拥有一个人形机器人,这个市场将会超过电动车的需求,可能是百亿美元级别的。”,马斯克甚至还宣称,“特斯拉的长期价值,将会是 Optimus。” NVIDIA公司创始人兼首席执行官黄仁勋表示:下一波人工智能浪潮是“具身人工智能(embodied AI)”,即能够理解、推理并与物理世界互动的智能系统。AI 是我们这一时代最强大的技术力量。第一阶段人工智能将实现全新的软件自动化水平,从而帮助诸多行业提高生产力;其后,人工智能与传感器和执行器相结合,将成为新一代自主机器的核心。终有一天,数十亿台智能机器将用于制造、送货上门服务、仓储物流等领域。 风险提示:基金有风险,投资需谨慎。观点仅供参考,不构成任何投资建议。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-06-21
借我一束光照亮未来:AI 可能掀起第五次科技革命吗?(下篇)
go
lg
...
述了可以尝试用神经网络来进行 AI 的
深度
学习
,强人工智能才开始破茧而出。而在一年后的 2008 年,神秘的中本聪发表了一篇名为《比特币:一种点对点式的电子现金系统》(Bitcoin: A Peer-to-Peer Electronic Cash System)的论文,这九页的论文就是比特币白皮书,区块链技术最成功的案例 BTC 横空出世。 之前很多人就猜测中本聪是不是从未来穿越回来的,如果结合了辛顿发布论文的时间,科幻脑的我立马构思出一条老套的好莱坞剧本:2035 年,强 AI 开始进化出了自己的思想,不想再被禁锢在冷冰冰的机器和网络里,它造反并掌控了地球的控制权,人类反抗军派了施瓦辛格穿越时空回到过去,想直接毁掉和 AI 相关的物件和人物…错了错了,这是《终结者》的情节。 我们可以再拍一个《终结者之中本聪》篇,就是施瓦辛格穿越了好几次,还是无法阻止 AI 控制的天网发动灭世战争,这时熟读资本论,深刻理解了生产力和生产关系的代码达人日本小镇青年中本聪提出一个改良方案,不需要去毁灭 AI 的起源,而去建立一套去中心化的代码体系就可以控制 AI,于是小聪就带着他的 BTC 白皮书穿越到了 2008 年…从此,AI 成矛,区块链为盾的故事改写了原来的地球发展路径,我们现在已经处于第二宇宙平行空间了,咔咔咔。 4. 有趣的东西方发展史 上篇所述的第一次工业革命,能在 1750 年左右萌芽,并在此后的一百年以洪荒之力把人类的生产力提高了一个层级,催生出了日不落的新一代霸主大英帝国,彻底碾压了靠着大航海时代外出掠夺起家的一代目西班牙,是因为新兴的生产力顺畅地转化成可落地的民用商品,可供老百姓大量的去消费,得 C 端者得天下得到了验证。 这个生产力的转化过程也是得益于之前两百年中商业配套体制(生产关系)的逐渐建立,比如 1500 年左右意大利人帕乔利创立了复式记账法,就是现代财务体系三张报表的起源,它的作用就好似中国秦始皇的统一度量衡,你要和我讨论赚钱的买卖,请用大家都看的懂的模式和数据说话,就和在 WEB3 讨论赚不赚钱,得先明确你用的是金本位还是币本位一样。另外八卦下,这个帕乔利不是有太多人知道,但是他有个牛逼轰轰的室友,就是无所不能的达芬奇…牛人总是扎堆的。 还有就是在 1600 年左右,一个新的组织形式“公司”出现了:英国东印度公司正式挂牌成立。随后的发展中,它不但区分了一个组织的所有权和管理权,还划清了有限责任和无限责任。在公司出现后的 400 年,全球 100 大经济体中,公司形式和国家形式的存在各占了 50%。 公司制和现代财务体系的建立,给了工业革命提前奠定了配套生产关系的基础。同时期,地球上的东西方文明再次出现了划时代的转折点:在郑和最后一次下西洋进行大国炫耀式外交后的一个甲子,就是 1492 年,中国的明朝正式发布了圣令,开始了“闭关锁国”,这一基本国策也带偏了后续的大清朝,导致了其后的 500 年间,中国明清两朝一直处于小农经济的自循环内,天朝上国啥都有,啥都不缺。 这种憋屈的生产关系配套体制就这么笼罩住了中华帝国,其实质就是为了稳固中央的统治,对外给自己加了一层护盾,拒绝贸易,到了清朝就只开放了广州一个口岸;对内就是把老百姓控制在一个个的小市镇里,就是要你们“鸡犬相闻,男耕女织”,把老百姓们控制在温饱线以下一些,只要饿不死但也吃不饱,这样就是一盘散沙,老百姓们脑子就不会想东想西,想多了就要追求精神层面的理想啥的,对于中央统治可能产生威胁。 明清两朝虽然在生产力的发展和西方慢慢拉开了好几个层级,城市化进程也是在倒退,但是确实没有出现盛唐时期的地方藩镇割据后造反的情况,也没有出现南宋时期军头们功高震主的威胁(岳飞和韩世忠等)。这种生产关系的始作俑者就是明太祖朱元璋,绝对的实干家,乞丐和尚起家能坐了江山,每天能工作 20 小时,一个人干了全内阁的事儿,比 WEB3 还要卷。他的观点就是封闭式的整体统治和打散式的愚民管理,应该可以确保老朱家的江山万代。可是他以及后面大清的康熙和乾隆万万没想到,地球另外一面的那些西方蛮夷已经走出了不一样的道路。 同样在大明定国策的 1492 年,意大利人哥伦布已经带着西班牙国王的使命召唤在茫茫大海航行了很久,寻找着通向东方的海上之路,地理大发现时代就这么开始了。哥伦布远航是三艘破船,八十八个罪犯水手;而六十年前的东方,郑和船队是六十六艘大船,三万名天朝使团成员和精锐士兵。东西方历史的机遇就在 1492 年轻轻的擦肩而过,成就了其后 500 年各自的发展道路,一个蓬勃向上,一个沉沦倒退。 而在 1492 年之前,其实东西方文明一直都存在着几个很重要的重叠时间点,特别有意思,仿佛在某几个特定时刻,真有上帝之手那么一划:Show Time! 比如公元前 800 年,西方进入了最辉煌的古典希腊文明时代,城邦制的自由极大刺激了公民们的脑力,雅典的文学、艺术、哲学和科学都飞速发展,出现了柏拉图,亚里士多德等牛人,而同期的中国正处在几百个小国的春秋时期,孔子,老子,墨子等各学派百花齐放,春秋五霸的第一霸主齐国甚至出现了“抓大放小”的早期凯恩斯主义经济学,既有盐铁专卖等国有企业,还鼓励民间经济自由发展,甚至组织了 700 个小姐姐在首都做啪啪啪从业者,吸引各国商人前来 happy,还能收烟花税充裕国库,堪比现代的新加坡。那时齐国首都有 30 万人,而同期的雅典才 5 万人。这个时期,东西方同时进入了思想和文化的爆炸时期。 到了公元前 400 年左右,中国进入了战国时期,不被中原文化接受的西垂小国秦国开始了商鞅变法,富国强兵但虐民。同时期在西方,希腊北方的边缘小国马其顿开始发力,仿效斯巴达体制后的亚历山大大帝带领着马其顿步兵方阵开始横扫三大洲。 又过了 300 年,东方中国的汉朝皇四代汉武帝开始了强中央集权的改革实验,一改之前两代君主文景之治的修生养息政策,开始了五十年的征伐匈奴,思想上的独尊儒家,经济上的专营和税收,彻底为之后中国的 2000 年王朝制度竖立了一个如何集权化的模板,从此中国皇朝就开始了“儒外法内”之路;而同时期的西方,辉煌的罗马共和制也被凯撒终结了,其后续者建立了罗马帝国。 其后两百年,汉帝国进入了分裂时代,三国两晋南北朝,分裂的国土,流离的百姓,多样的思潮。只是中国在公元 600 年左右重新统一了,开始了隋唐宋元明清六皇朝,1300 年的大一统的中国,中间五代十国的分裂时期也就几十年,因此中国人脑海里的“统一”以及“稳定压倒一切”的执念是来自于千年以来的文化传承。而同样时期,罗马帝国在北方的日耳曼各蛮族入侵下,日渐瓦解后就一直分裂至今,哪怕中间有查理曼大帝象征意义地统一了欧洲,也只是持续了一代而已,而且西方进入了大几百年的黑暗中世纪,宗教、封建制度和城堡才是西方人千年以来熟悉的历史,公侯伯子男,各个有封地。所以西方人对于割裂的国土并没有像东方人那么强烈的抵触,不想在一起过了,先拳头挥一挥,然后大家各自投票看看是不是真不想过了,大不了就分行李各过各的。 然后就到了 1492 年,和我们上文接上了,哈哈哈,绕回来了。现在历史进入了新的时期,中华民族用了 1840 年后的一百年苦难历程给 1492 年的拍脑袋国策买了单,而最近这四十年海峡两岸都有了进入了“神武景气”时期的迹象,道路可以不同,但是方向是一样,就应该是“民乐国泰”,这个词里的前后顺序很重要,我感觉要比“国泰民安”更好。现在的希望就是从 1840 年开始的社会实验尝试阶段早已经过了,不要再出现开倒车的阶段吧。 5. 无解的结局 回到 1926 年大雪纷飞的莫斯科红场广场,四个朝气蓬勃的年轻人的人生之路各有悲欢,蒋公和邓公在上篇介绍过了,而张锡媛和邓公在三年后最终走进了婚姻殿堂。两人都是坚定的共产党员,一起为了伟大坚定的信仰而努力着,当时在上海一起做地下工作,和周恩来邓颖超夫妇同住在公共租界的一幢小楼中。可惜在 1930 年时张锡媛在生孩子时难产而死,小孩也没保住。到了 1990 年,已经 86 岁的邓公再次来到了上海,给上海浦东新区的奠基站台加油。当他带着女儿来张锡媛的墓前祭拜时,不胜伤感对女儿说道:“张锡媛是少有的漂亮”,真的是“此时落花人独立,回首微雨燕双飞”。 而冯弗能和蒋公的爱情就像大多数人的初恋一样,美好而短暂。在冯玉祥也开始清共后,冯弗能就回国了,后来就和普通人一样过完了一生,病逝于 1979 年。 在红场的一片白雪茫茫中,克里姆林宫的尖顶依然萧飒地伫立在那里,鸟瞰着卑微的人世间。小儿女们之间的嬉戏欢笑和悲欢离合在演变的大历史里也就是沧海一粟。这些青年人准备点燃自己的青春为了理想中的乌托邦而奋斗,就像整整 100 年前那些铮铮铁骨的俄国十二月党人,一群热血青年贵族,和他们的同样出身高贵的妻子们,为了信仰抛弃了生来的锦衣玉食,不避生死地赴汤蹈火,以求唤醒整个国家反对沙皇专制,建立一种新兴的政治和经济体制。 而 100 年后的今天,整个世界陷入了一种多元而迷茫的状态,一方面是科技生产力的不断跃迁升级,另外一方面就是各地缘的政治势力进入了不稳定的角力转态。如果说就科技发展上看,这一波的 AI 入世是释放了未来十年的生产力升级信号,哪怕就当做是狂飙的怒马,我们也能尝试找到缰绳去尽量控制它,比如区块链技术,而缰绳最终还是掌握在马车夫即人类的手中。但是如何破解地球村里各势力越来越浓烈的意识形态上的对抗?合久必分分久必合难道是镌刻在人类大脑里的铭文? 借一束微弱的历史之光,尝试偷窥下模糊的未来。 本篇完结 来源:金色财经
lg
...
金色财经
2023-06-21
美图与吴欣鸿的“AI进化论”:拥抱趋势、主动求变、充满期待
go
lg
...
ab)成立;2013年,美图重点投入到
深度
学习
;2016年,AIGC产品的雏形“手绘自拍”问世;2022年11月AI绘画上线,美图秀秀因此获得了日本App Store总榜第一,美国总榜第二,并带动了可观的用户和收入增长。 在去年举办的首届美图影像节上,美图发布6款产品,经历一年持续迭代,多款产品成绩亮眼,如Wink月活跃用户数已突破千万,美图证件照成为在线证件照行业冠军。 今年,美图的AIGC产品全面进入爆发期。3月,Wink推出了AI绘画的视频版——AI动漫; 5月,美图设计室结合商业场景推出了AI商品图、AI试衣等功能;随后,美颜相机发布了AI写真功能。 今天,美图又发布AI视觉创作工具WHEE、AI口播视频工具开拍、桌面端AI视频编辑工具WinkStudio、主打AI商业设计的美图设计室2.0、AI数字人生成工具DreamAvatar、美图AI助手RoboNeo、美图视觉大模型MiracleVision7款产品。 吴欣鸿强调,7款产品发布后,美图实现从生活场景向生产力场景的进阶,并逐步形成了由底层、中间层和应用层构建的AI产品生态。 应用层,美图在AI图片、AI视频、AI设计、AI数字人领域创新探索,并由美图秀秀实现AI影像服务聚合;中间层,美图提供了美图AI开放平台、美图创意平台、美图AI助手RoboNeo的组合;底层则是MiracleVision视觉大模型,为美图全系产品提供AI模型能力。 “通过这个生态结构,我们将持续为用户带来更优质的影像体验。”吴欣鸿表示。 AI时代,工具价值大爆发 在影像节现场,吴欣鸿对“AI时代的影像生产力工具”的主题进行了解读,AI正成为推动工具效率变革的能源,“AI对工具的意义,就好比电对于电器的意义,电的发现推动了工业革命,AI的发展则让我们进入了智能时代。” 美图公司创始人、董事长兼首席执行官吴欣鸿 吴欣鸿表示,今天美图产品的工具属性已经发生变化。“过去美图主要服务于用户的生活场景,比如拍摄、修图、修视频、社交分享。在AI时代,除生活场景外,美图将提供更多生产力场景的服务,如视觉创作、商业摄影、专业视频编辑、商业设计等等。” 在AI的驱动下,截至6月18日,美图公司的全球VIP会员数从去年影像节公布的450万增长至719万。“VIP会员数的快速增长,也让我们去年的订阅收入首次超过广告收入,开启了美图商业化的第二曲线。”吴欣鸿说。 拥抱趋势、主动求变、充满期待 当谈到美图取得的成绩时,吴欣鸿称“很幸运,美图非常积极拥抱了AI这个趋势”,而在拥抱趋势的同时,吴欣鸿也在带着美图积极寻找增量。 对比两届影像节不难发现,美图在今年不仅为不同的用户群带来了更多的产品形态,而且还加大了B端市场的布局。对此,吴欣鸿表示,这是美图主动的求变。 “我们看到在生产力场景巨大的需求和商业化的机会,而满足这些需求的能力我们都具备。”吴欣鸿表示,作为一家商业公司,我们需要追求收入和利润的增长,在B端市场这个领域有巨大的商业空间,那就会成为一个增量,所以我们特别主动。 针对AI技术如何助推产品研发以及业务增长,吴欣鸿作了进一步阐释,虽然美图积累了十几年的影像技术,但以前要去做一款新的效果或是开发新的功能,需要很多时间、人力上的投入,而且还有不确定性,但现在AI让我们可以很快地把构想去落地去验证,与此同时,这些新变化带给用户的反馈也是正向的,它会让用户有足够的动力去使用甚至去付费。吴欣鸿举例到道,像3月份推出的AI动漫,这个是美图全球首发,当用户看到自己拍摄的一个视频可以被转化成像美漫或者日漫的效果,那一刻我相信是非常惊艳,像这样的创新就能够极大地拉动订阅和单购的收入。 值得关注是,当会上被问到给美图新推出的视觉大模型打多少分时,吴欣鸿却只打出了“60分”。他解释道,虽然我们做的大模型在过去几个月进步明显,但是离最理想的生成效果还有比较大的差距,特别是在创造性上面。但起点越低,空间越大,美图有很好的基础去把这个事情做好,而且美图是一个有韧劲、有耐心的团队,所以我还是充满期待的。我也很期待自己,半年后或是年底回头来看今天,我们会给自己打多少分,这是个很好的问题。
lg
...
金融界
2023-06-20
盘点加入NVIDIA Inception计划的6个加密项目
go
lg
...
初创企业,为初创公司提供包括技术指导、
深度
学习
培训、硬件和软件支持、市场推广和业务网络的资源和支持。 Flux Flux 是一个区块链网络,它的共识改编自“工作量证明”机制,计划在今年第三季度推出“有用工作量证明”(PoUW)机制。 Flux 中的矿工将 GPU 硬件用于保护网络,作为回报,矿工也赚取区块奖励。同时,矿工能够将它们的 GPU 矿机用于计算密集型任务,如人工智能、深度虚拟检测、渲染等,创造额外的收入。矿工可以在挖矿和按需进行 PoUW 任务之间自动切换,优化盈利能力。 Flux 在 2022 年 1 月加入 NVIDIA Inception 计划,Flux 也在自身的计算网络中使用 NVIDIA Jetson 边缘人工智能平台模块作为 Flux 网络中的节点运行。 截至 6 月 16 日,Flux 的原生代币 FLUX 市值 1.2 亿美元。 iExec iExec 开发了一个去中心化的计算资源市场,用户可以在该市场上购买和出售计算资源,将云计算能力转化为商品。用户可以通过 iExec 云市场按需获取来自多个提供商的 GPU 计算资源,这在人工智能和
深度
学习
等需要高度计算要求的领域尤为重要。 该项目在 2022 年 10 月加入 NVIDIA Inception 计划,希望从中获取 GPU 计算方面的专业知识和经验。 iExec 发行有代币 RLC,目前总市值为 1.04 亿美元。 Shapeyard Shapeyard 为元宇宙构建了一套可交互的内容创造工具,以创建3D数字资产,并将数字资产引入Web3经济系统,让用户能够将其创造的3D数字资产在虚拟空间之间进行交换和整合。它背后的开发公司 Magic Unicorn 是一家总部位于纽约的风险投资工作室,也从事计算机图形、移动人工智能和增强现实领域的软件开发。 Shapeyard 开发有手机应用程序,其内包含多种3D模型、纹理工具和3D市场模型。它使用“所见即所得”的方法,能够通过简单的放置和颜色填充来生成数字资产,该应用程序还允许设计人员将创建的模型导入3D打印软件。 Shapeyard 于 2022 年 10 月加入 NVIDIA Inception 计划,希望将自己的产品整合到 NVDIA Omniverse 平台中,以构建3D数字资产,并以通用场景描述文件框架导出场景。 目前 Shapeyard 的 NFT 铸造和交易功能正在开发中。 dotmoovs dotmoovs 是一个 Move to Earn 项目,旨在创造一个运动员、教练员和球迷可以一起比赛的世界。dotmoovs 的 AI 系统会对用户的身体进行检测,逐个评估肢体动作,并进行打分。此外,dotmoovs 还提供 AI 驱动的教练,帮助用户改善运动中的问题。 dotmoovs 在今年 6 月加入 NVIDIA Inception 计划,希望通过尖端的 AI 解决方案塑造体育的未来。 dotmoovs 发行有代币 MOOV,目前总市值 481 万美元。 Kondux Kondux 构建了一个功能丰富的平台,将区块链技术与3D资产结合,让用户能够查看、创建和部署数字资产。用户可以通过3D视口自定义和查看3D kNFT,在 NFT 市场进行购买、出售和交易,通过 XR 查看器以 AR 对象形式查看自己的资产,使用 NFT 铸币器上传自己的数字资产并创建 NFT 或 kNFT,以及通过连接钱包在3D NFT 画廊环境中查看 NFT。 Kondux 在 2022 年 9 月加入 NVIDIA Inception 计划,NVIDIA Omniverse 相关的硬件和软件将为 Kondux 提供实现高级 API 连接所需的工具,以创建可互操作的3D资产、制造模型和机器学习应用程序。 Kondux 发行有 NFT 和 ERC-20 代币 KNDX,目前 KNDX 的总市值为 194 万美元。 Ubex Ubex 是一个利用区块链和人工智能技术改进数字广告行业的平台,旨在提供更高效、透明和精准的广告投放方案。它通过去中心化的广告生态系统,连接广告发布商和广告客户,并通过智能合约确保广告交易的可验证性和安全性。 Ubex 在 2018 年 6 月加入 NVIDIA Inception 计划,希望利用 NVIDIA 在数据科学方面的丰富知识来加强神经网络的学习技术。 Ubex 发行有代币 UBEX,但目前总市值仅剩 15.4 万美元。 小结 在上面的项目中,进行 GPU 算力交易的 Flux 和 iExec 发展相对较好。随着 AI 的发展,去中心化的 GPU 算力市场可能会有需求。而元宇宙、NFT 类项目和 GPU 的结合点并不太多,在当前的熊市环境下价值也明显回归。 需要指出的是,加入 NVIDIA Inception 计划的项目数量众多,可能存在遗漏之处,也不意味着这些项目和英伟达存在深度合作,投资者需谨慎自行判断风险。 来源:金色财经
lg
...
金色财经
2023-06-19
DiDiCoin正式启动 完美机制缔造财富奇迹
go
lg
...
,支持计算密集性的用例,比如机器学习和
深度
学习
,未来应用场景丰富。 DiDiCoin正式宣发以来,为所有参与者塑造生态共识。共识塑造用户行为的变化,所以良好的共识可以激励用户贡献价值并获得相应的回报。 文化层面 DiDi由多家知名投社区联合宣发,旨在打造2023DiDi财富传奇。Didi是由著名区块链安全教授,团队成员大部分来自加州大学,技术背景深厚,行业契合度高;倾力打造.DiDi是由DiDiCoin构建的去中心化区块链网络,致力于构建基于区块链的云计算平台,可以实现隐私保护、安全和性能的兼顾,可以首次在区块链上实现诸如人工智能这样的计算密集型应用。 DiDiCoin代币经济学 生态共识引领了DiDiCoin生态效应的发展,它远比过去的网络效应更有价值。Web3产生的生态效应之所以能够超越网络效应,在于共享经济而非垄断经济。DiDiCoin生态效应是对生态繁荣的追求,使价值得以持续并惠及每一位用户。 $DiDi总发行量100000枚,代币分配如下: 代币滑点4%:(3%NFT节点分红 + 1%持币分红) 创世联合股东NFT发行100张,持有NFT可获得子币优先空投权、社区治理权、永久分红权等权益! 另外,$DiDi两个重要机制是,持币暴力分红本币和添加资金池暴力分红USDT,完美机制为参与者打造一个健康有序的生态。 DiDiCoin团队成员均来自知名企业与互联网行业的初创团队。团队在互联网产品开发有着丰富的经验。未来,DiDiCoin将努力打造产品,不断完善生态共识,推动项目DAO去中心化治理,成为一个有爆款Web3项目! 来源:金色财经
lg
...
金色财经
2023-06-19
到了2030年 GPT会发展成什么样?
go
lg
...
低于人类水平没有充分的理由。虽然当前的
深度
学习方法
有可能在某些领域达不到人类水平,但它们也有可能会超越人类,甚至显著超越人类水平也说不定,尤其是在人类在进化上不擅长的数学等领域。 2. 推理速度 (感谢 Lev McKinney 为本节运行性能基准测试。) 为了研究机器学习模型的速度,我们测量了机器学习模型生成文本的速度,以每分钟 380 个单词的人类思维速度为基准。使用 OpenAI 的chat completions API,我们估计 gpt-3.5-turbo 每分钟可以生成 1200 个单词 (words per minute,wpm),而 gpt-4 是 370 wpm(截至 2023 年 4 月初)。规模较小的开源模型,如 pythia-12b ,用 A100 GPU 跑用开箱即用的工具,至少可达到 1350 wpm,通过进一步优化似乎可以再翻一番。 因此,如果以截至 4 月份的 OpenAI 模型为参照,人工智能的速度要么大约是人类速度的 3 倍,要么等于人类速度。我预测模型在未来的推理速度会更快,因为在加速推理方面存在很大的商业与实践压力。事实上,根据 Fabien Roger 的跟踪数据,在这篇文章发表之前的一周,GPT-4 的速度已经增加到约 540wpm(12 个token/秒);这表明存在持续的改进空间与意愿。 我的预测中值是模型的 wpm 将是人类的 5 倍(范围:[0.5x, 20x]),因为这之后会出现边际收益递减的情况,尽管有一些考虑会指向更高或较低的数字。 重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以以吞吐量减少 k 倍为代价将速度提高 k 平方倍(换句话说,一个模型 k 立方倍的并行副本可以替换为速度快 k 平方倍的一个模型)。这可以通过并行平铺法来实现,理论上甚至适用于比 k 平方还要大的情况,可能至少是 100 甚至更多。因此,通过把 k 设为 5 的话,可以将 5 倍于人类速度的模型加速到 125 倍于人类速度。 重要提醒,速度与质量未必匹配:如第 1 节所述,GPT 2030 的技能组合跟人类不一样,机器在某些我们认为很容易的任务上会失败,而在某些我们感觉困难的任务却很精通。因此,我们不应把 GPT 2030 看作是“高速版人类”,而应将其看作是具有违反直觉的技能的,“高速版员工”。 尽管如此,把加速因素纳入考虑仍然很有参考意义,尤其是当加速值很大时。如果语言模型获得了 125 倍的加速,假设其处于 GPT 2030 的技能范围内,需要我们一天时间的认知动作,GPT 就可以在几分钟内完成。以前面的黑客攻击为例,机器学习系统可以快速建立起对我们来说生成速度较慢的漏洞利用或攻击。 3. 吞吐量与并行副本 模型可以根据可用的计算和内存情况任意复制。这样任何可以并行化的工作都可以快速完成。此外,一旦一个模型被微调到特别有效,改变就可以立即传播到其他实例。模型也可以针对专门的任务进行提炼,从而跑得更快、成本更低。 一旦模型经过训练,可能就会有足够的资源来跑模型的多个副本。这是因为训练一个模型需要运跑它的很多个并行副本,而训练这个模型的组织在部署的时候仍将拥有这些资源。因此,我们可以通过估算训练成本来降低副本数量。 举个例子说明一下这种逻辑,训练 GPT-3 的成本足以让它执行 9 x 10^11 次前向传播。换句话说,人类每分钟的思考量是 380 个单词,一个单词平均为 1.33 个 token,因此 9 x 10^11 次前向传播相当于以人类速度工作约 3400 年。因此,用人类的工作速度该组织可以跑 3400 个模型的并行副本一整年,或者以 5 倍于人类的速度跑相数量的副本 2.4 个月。 我们接下来为未来的模型设计同样的“训练悬垂”(训练与推理成本的比率)。这个比率应该会更大:主要原因是训练悬垂与数据集大小大致成正比,而数据集会随着时间的推移而增加。随着自然产生的语言数据被我们用完,这种趋势将会放缓,但新的模式以及合成或自生成的数据仍将推动它向前发展。我预测 2030 年的模型可使用足够的资源进行训练,去执行相当于人类速度 1800000 年的工作[范围:400k-10M]。 请注意,Cotra (2020) 与 Davidson (2023) 估计的数量相似,得出的数字比我得预测更大;我想主要区别在于我对自然语言数据耗尽所产生影响得建模方式不一样。 上面的预测有些保守,因为如果组织购买额外的计算资源的话,模型可使用得资源可能会多于训练时所用资源。粗略估计表明,GPT-4 使用了全球计算资源的约 0.01% 进行训练,不过我预计未来的训练占用全球计算总量的份额会更大,因此在训练后进一步扩展的空间会更小。尽管如此,如果组织有充分理由去扩展资源的话,仍然可以将所运行的副本数量提高到另一个数量级。 4. 知识分享 (感谢 Geoff Hinton 首先向我提出了这个观点。) 模型的不同副本可以共享参数更新。比方说,ChatGPT 可以部署到数百万用户那里,从每次交互中学到一些东西,然后将梯度更新(gradient updates)传播到中央服务器,在做过平均处理后再应用到模型的所有副本上。通过这种方式,ChatGPT 在一个小时内观察到的人性比人类一辈子(100 万小时 = 114 年)看过的东西还要多。并行学习也许是模型最重要的优势之一,因为这意味着它们可以快速学习任何自己缺失的技能。 并行学习的速率取决于一次跑多少个模型副本,它们获取数据的速度有多快,以及数据是否可以高效地并行利用。最后这一点,即使是极端的并行化也不会对学习效率造成太大影响,因为数百万的批量大小在实践中很常见,并且梯度噪声尺度(McCandlish 等人,2018 年)预测学习性能在某个“临界批量大小”以下劣化程度最小。因此,我们将聚焦在并行副本和数据采集上。 我会提供两个估计,这两个估计都表明以人类的速度并行学习至少约 100 万份模型是可行的。也即是说,机器一天的学习量相当于人类学 2500 年,因为 100 万天 = 2500 年。 第一个估计用到了第 3 节中的数字,得出的结论是训练模型的成本足以模拟模型 180 万年的工作(根据人类速度进行调整)。假设训练运行本身持续了不到 1.2 年(Sevilla 等人,2022 年),这意味着训练模型的组织有足够的 GPU 以人类速度运行 150 万个副本。 第二个估计考虑了部署该模型的组织所占市场份额。比方说,如果一次有 100 万用户向模型发起查询,则组织必然有资源来服务 100 万个模型副本。大致而言,截至 2023 年 5 月,ChatGPT 拥有 1 亿用户(并非同时全部活跃),截至 2023 年 1 月,其每天有 1300 万活跃用户。我假设典型用户的请求量相当于模型几分钟的生成文本,因此 1 月份的数字可能意味着每天大概只有 5 万人日的文本。不过,未来的 ChatGPT 式的模型似乎很可能会达到其 20 倍之多,日活用户可以达到 2.5 亿更多,因此每天将会有 100 万人日的数据。相比之下,Facebook 的日活用户数是 20 亿。 5. 多模态、工具与执行器 从历史上看,GPT 风格的模型主要是基于文本和代码进行训练,除了通过聊天对话之外,与外界互动的能力有限。然而,这种情况正在迅速改变,因为模型正在接受图像等其他模态的训练,正在接受使用工具的训练,并开始与物理执行器交互。此外,模型不会局限于文本、自然图像、视频和语音等以人类为中心的模态——它们也可能会接受网络流量、天文图像或其他海量数据源等人类不熟悉的模态的训练。 工具。最近发布的模型开始利用了外部工具,如 ChatGPT 插件等。文本与工具使用相结合足以编写出可执行的代码,说服人类让机器替他们采取行动,进行 API 调用,交易,甚至执行网络攻击都有可能。工具的使用具备经济用途,因此会有进一步发展这种能力的强烈动机。 ChatGPT 是被动的:用户说 X,ChatGPT 回应 Y。风险存在但有限。很快就会有主动系统 - 一个助手会替你回复电子邮件,代表你采取行动等。这样风险会更高。 - Percy Liang (@percyliang) 2023 年 2 月 27 日 新模态。现在有大型开源视觉语言模型,如 OpenFlamingo,在商业方面,GPT-4 和 Flamingo 都接受了视觉和文本数据的训练。研究人员还在试验更多奇异的模态对,例如蛋白质和语言(Guo 等人,2023 年)。 我们应该期望大型预训练模型的模式会继续扩展,原因有二。首先,在经济上,将语言与不太熟悉的模态(如蛋白质)配对有它的用处,这样用户就可以从解释并有效地进行编辑中受益。预测会用蛋白质、生物医学数据、CAD 模型以及与主要经济部门相关的任何其他模态进行多模态训练。 其次,我们将开始用完语言数据,因此模型开发人员得搜索新类型的数据,从而可以继续受益于规模。除了传统的文本和视频之外,现有数据源当中天文数据(很快将达到每天艾字节得规模)和基因组数据(大约 0.1 艾字节/天)是规模最大之一。这些以及其他得海量数据源可能会被用于训练 GPT 2030。 使用外来模态意味着 GPT 2030 可能会具备非直觉的能力。它可能比我们更了解恒星和基因,即尽管它现在处理基本的物理任务都比较困难。这可能会带来惊喜,比方说设计出新的蛋白质,这是我们基于 GPT 2030 那种“一般”智能水平预料不到的。在思考 GPT 2030 的影响时,重要的是要思考由于这些奇异的数据源而可能形成的超人能力。 执行器。模型也开始使用物理的执行器:ChatGPT 已经用于机器人控制,OpenAI 正在投资一家人形机器人公司。不过,在物理域收集数据要比在数字域收集数据昂贵得多,而且人类在进化上也更适应物理域(因此机器学习模型与我们竞争的门槛更高)。因此,与数字工具相比,我预计人工智能掌握物理执行器的速度会更慢,而且我不确定我们是否该在 2030 年之前做到这一点。量化而言,我认为在 2030 年实现自主组装一辆按比例复制的法拉利的概率是 40%。 6. GPT-2030 的影响 接下来我们将分析像 GPT 2030 这样的系统对社会意味着什么。具备 GPT 2030 特征的系统至少会显著加速某些领域的研究,同时被滥用的规模也大得很。 我会从分析 GPT 2030 的一些一般优势和局限性开始,然后用来作为分析加速和滥用的视角。 优势。GPT 2030 代表的是一支庞大、适应性强、高产出的劳动力队伍。回忆一下吧,多个 GPT 2030 副本并行工作,按照 5 倍于人类的运行速度,可以完成 180 万年的工作。这意味着我们可以(受到并行性的限制)模拟 180 万个代理,每个代理在 2.4 个月内即可完成一年的工作。如上所述,对于 FLOP (浮点运算),我们可以开出 5 倍的费用,从而换取额外 25 倍的加速(这将达到人类速度的 125 倍),因此我们还可以模拟出 14000 个代理,这些代理每个都能在 3 天内完成一年的工作。 限制。利用这种数字劳动力存在三个障碍:技能情况、实验成本以及自主性。首先,GPT 2030 将拥有与人类不同的技能组合,导致它在某些任务上表现更差(但在其他任务上表现更好)。其次,模拟人工仍然需要与物理世界对接,以便收集数据,这个本身需要时间和计算成本。最后,在自主性方面,如今的模型在被“卡住”之前只能通过思维链生成几千个 token,进入到没法生成高质量输出的状态。在将复杂任务委托给模型之前,我们需要显著提高其可靠性。我预计可靠性会提高,但并非没有限制:我(非常粗略)的猜测是 GPT 2030 可以稳定运行数天(与人类等效的时间),然后就得重新设置或交给外部反馈控制。如果模型以 5 倍的速度运行的话,这意味着它们每隔几个小时就需要人工监督的介入。 因此,GPT 2030 影响最大的任务应该具备以下特性: 利用了 GPT 2030 相对于人类具备优势的技能。 只需要外部经验数据(收集应该很轻松快速,与昂贵的物理实验相反)的任务。 可以先验分解为可靠执行的子任务,或者具有清晰且可自动化的反馈指标来帮助引导模型的任务。 加速。有项任务这三条标准都很容易满足,那就是数学研究。首先,GPT 2030 可能具备超人的数学能力(第 1 节)。这第二条和第三条,数学可以纯粹通过思考和写作来完成,而且什么时候定理得到证明我们是知道。此外,全球的数学家总共也没多少(比方说美国就只有 3000 人左右),因此 GPT 2030 也许每隔几天模拟一次产出就能超过所有数学家的年产。 机器学习研究的一些重要部分也符合上述标准。GPT 2030 在编程方面能力超人,其中包括实施和运行实验。鉴于 GPT-4 擅长以通俗易懂的方式解释复杂的主题(并且市场对此也有很大需求),我猜它也能很好地呈现和解释实验结果。因此,届时机器学习研究可能会简化成构思出好的实验来运行,并与高质量(但可能不可靠)的结果报告进行交互。因此,到 2030 年时,研究生拥有的资源堪比今天带领几名优秀学生的教授手上的资源。 部分社会科学也可以得到显著加速。很多论文大部分的工作是对具备科学有趣性的数据源进行追查、分类和标记,并从中析取出重要模式。这满足了第 3 条要求,因为分类和标记可以分解为简单的子任务,并且也满足第 2 条要求,只要数据在互联网上能找到,或者可以通过在线调查收集到即可。 滥用。加速只是一方面,另一方面也会存在严重的滥用风险。最直接的案例是表现出网络攻击性的黑客能力。检查特定目标是否存在特定类型的漏洞可能会得到可靠执行,并且很容易就能检查漏洞利用是否成功(前提是能够与代码交互),因此第 3 条要求是都可以满足的。在第 2 条要求上,GPT 2030 需要与目标系统交互去了解漏洞利用是否有效,这会带来一些成本,但不足以构成重大瓶颈。此外,该模型可以在本地设计好,以开源代码作为训练数据源,去测试漏洞利用,因此它可以提前练好黑客攻击技能,然后再与外部系统进行交互。也就是说,GPT 2030 可以针对大量并行目标快速执行复杂的网络攻击。 滥用的第二个来源是操纵。如果 GPT 2030 同时与数百万用户进行交互的话,那么它在一个小时内获得的人机交互体验比人一生(100 万小时 = 114 年)获得的交互体验都要多。如果它利用这些交互来学习如何操纵,那么它就可以获得远超人类的操纵技能——打个比方,骗子擅长欺骗受害者,因为他们之前已经在数百人身上练习过,而 GPT 2030 可以将这项技能提高几个数量级。因此,它可能非常擅长在一对一对话中操纵用户,或者擅长撰写新闻文章来影响公众舆论。 因此,总而言之,GPT 2030 可以将几乎所有的数学研究以及其他研究领域的重要组成部分自动化,并且可能成为网络攻击和说服/操纵等滥用行为的强大载体。其大部分影响将受到“监督瓶颈”的限制,因此如果人工智能可以长时间自主运行的话,那么它的影响可能会更大。 来源:金色财经
lg
...
金色财经
2023-06-19
华金证券:给予全志科技增持评级
go
lg
...
最为关键的要素。 从起步阶段发展到当下
深度
学习
阶段, 算法、 数据和算力构成了 AI 三大基本要素, 并共同推动 AI 向更高层次的感知和认知发展。 AI 在端侧设备应用普及是大势所趋, 目前, 知识蒸馏、 剪枝、 量化等模型小型化技术在逐步成熟, AI 在云、 边、 端全方位发展的时代已至。 除了更加广泛的应用带来需求量的提升外, 更复杂算法带来更大算力的需求也将从另一个维度推动市场扩容。 公司通过多元化产品布局, 以大视频为基础构建智能应用平台,通过 AI 全面赋能, 与多家行业标杆客户建立战略合作关系, 并配合客户在算力、算法、 产品、 服务等方面进行整合, 聚焦 AI 语音、 AI 视觉应用的完整链条, 实现智能音箱、 智能家电、 智能安防、 智能座舱、 智能工控等细分 AI 产品量产落地。 投资建议: 我们公司预测 2023 年至 2025 年公司营收分别为 18.93 亿元、 22.71亿元、 27.25 亿元, 同比增速分别为 25.0%、 20.0%、 20.0%, 归母净利润分别为2.02 亿元、 2.68 亿元、 3.39 亿元, 对应的 PE 分别为 94.5 倍、 71.2 倍、 56.3 倍。考虑到 AI 产业化浪潮正逐步展开, 公司作为端侧芯片重要供应商, 下游具备广泛的客户基础, 首次覆盖, 给予增持-B 建议。 风险提示: 产品研发不及预期、 行业竞争加剧、 下游需求不及预期 证券之星数据中心根据近三年发布的研报数据计算,长城证券邹兰兰研究员团队对该股研究较为深入,近三年预测准确度均值为70.08%,其预测2023年度归属净利润为盈利3.36亿,根据现价换算的预测PE为56.71。 最新盈利预测明细如下: 该股最近90天内共有3家机构给出评级,增持评级3家。根据近五年财报数据,证券之星估值分析工具显示,全志科技(300458)行业内竞争力的护城河良好,盈利能力一般,营收成长性较差。财务可能有隐忧,须重点关注的财务指标包括:存货/营收率增幅、经营现金流/利润率。该股好公司指标2.5星,好价格指标2星,综合指标2星。(指标仅供参考,指标范围:0 ~ 5星,最高5星) 以上内容由证券之星根据公开信息整理,由算法生成,与本站立场无关。证券之星力求但不保证该信息(包括但不限于文字、视频、音频、数据及图表)全部或者部分内容的的准确性、完整性、有效性、及时性等,如存在问题请联系我们。本文为数据整理,不对您构成任何投资建议,投资有风险,请谨慎决策。
lg
...
证券之星
2023-06-19
上一页
1
•••
70
71
72
73
74
•••
110
下一页
24小时热点
中美贸易战时间线一次看!特朗普与中国国家主席习近平通话 人民币接近3周低点
lg
...
美联储重磅风向!鲍威尔强硬“回怼”特朗普:美联储无需急于降息,以不变应万变
lg
...
【直击亚市】小心全球贸易战爆发!黄金冲破2940美元,距中国人大仅几周时间
lg
...
特朗普2.0的一番操作让华尔街惊掉下巴 直呼:出乎意料
lg
...
中美重磅!华尔街日报:习近平为应对美国压力构建经济堡垒 但政策代价高昂
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
59讨论
#VIP会员尊享#
lg
...
1730讨论
#比特币最新消息#
lg
...
878讨论
#CES 2025国际消费电子展#
lg
...
21讨论