全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
音乐听赚是下一个跑鞋市场? 新的风口已经来临
go
lg
...
0月,随着英国文体部(DCMS)宣布对
Apple
Music、Spotify等流媒体展开调查,音乐创作者在流媒体时代所面临的公平报酬问题终于得到正视。 当时,DCMS委员会主席Julian Knight MP直言,流媒体市场的增长“不能以牺牲才华横溢和鲜为人知的艺术家为代价”。 在流媒体时代,唱片公司与音乐创作者的收入处于严重不对等状态,多数音乐创作者收到的报酬微乎其微。根据2019年的数据,主流唱片公司仅通过流媒体每小时就可以赚取近100万美元,而与此相比80%艺术家每年从流媒体中获得的收入甚至不足300美元。2020年5月,英国小提琴家Tasmin Little透露,其音乐作品在6个月的时间内播放数百万次,但这为她带来的收入却不足20英镑。 谈及音乐家的报酬问题,我们不得不提及版税。在音乐行业,版税本质上是音乐作品被出售、分发、用于其他媒体或以任何方式货币化时支付给版权持有人的费用。在美国市场,每首音乐作品的版权通常被分成两部分: 1、作曲版权:由词曲作者和出版公司所有。 2、录音版权:由唱片公司和录音艺术家所有。 在实际操作过程中,流媒体服务商为获取歌曲的播放权会与唱片公司达成协议,并以播放量支付费用,而这部分费用将按一定比例分发给上述版权持有人。据悉,流媒体平台为每次播放量支付的费用通常不足0.01美元,(Spotify为0.003美元至0.005美元,
Apple
Music为0.008201美元)。 那音乐创作者的收入实际占比是多少? 依据行业惯例,唱片公司会将其收入的一部分支付给创作者,但这是在他们偿还完唱片公司对其投资之后才会产生的收入。 对那些知名、登上音乐榜榜首的艺术家来说,或许可通过流媒体赚得不俗的收入,但能为大众所熟知的艺术家终究还是凤毛麟角,多数艺术家在流媒体时代都面临收入困局。 非营利性音乐产业研究协会(连同普林斯顿大学和MusiCares)对1277名美国音乐家进行的调查结果显示,2017年音乐家的收入中位数约为35000美元(与音乐相关的来源仅为21300美元),61%音乐家表示他们与音乐相关的收入不足以支付生活费用。 那么,音乐家出路在哪? Web3时代的机遇 面对沉重的现实问题,大部分音乐家还处于一筹莫展的境地,但部分市场敏锐度较高的音乐家却已经发现另一扇通往新世界的大门——NFT。这些音乐家不仅看到NFT市场价值所在,还通过NFT的销售赚取了相当可观的收入。2021年,格莱美奖获得者Andre Anjos通过销售新专辑NFT《YOU》获得高达70.7万美元的收入,这超过他过去10年专辑销量总和。 而Andre Anjos的成功也并非个例。2021年,NFT音乐这一细分领域迎来爆发式增长,2月其销售额达到2200万美元,较1月增长24倍,同年3月上涨态势得到延续,销售额涨至2600万美元。与此同时,资本也在加码押注NFT音乐赛道。21年5月,Nima Capital 、Sangha Capital及Tezos Foundation宣布投资NFT音乐平台One Of,注资金额高达6300万美元,仅次于明星团队Dapper Labs同年3月所获的融资额,且接近上半年所有游戏类NFT项目所获融资之和。 音乐NFT的这种发展态势并不令人意外,当艺术品市场及游戏市场在链上有了井喷式爆发和增长,NFT和Web3这把火烧到音乐行业也是种必然。 而我们今天将要介绍的就是Web3音乐生态系统——FANSI 作为基于区块链的协议,FANSI旨在帮助音乐家探索新的商业模式,并通过NFT和分布式音乐流媒体机制在Web3时代蓬勃发展,从而将音乐流媒体的权力还给那些欣赏音乐的人,而不是那些只基于自身利益运作的中心化平台。 为了实现这一愿景,FANSI在其Web3音乐生态系统中引入了三个主要组成部分: FANSI:音乐NFT启动服务平台 FANSI是音乐NFT启动服务平台,其旨在通过NFT发行技术和顾问服务套件,帮助世界各地的音乐艺术家成功启动音乐NFT活动。 作为一个音乐NFT发行平台,FANSI最大的愿景是为众多的音乐创作者提供一个无极限的创作空间。其致力于通过利用NFT技术,将音乐作品转化为NFT收藏品,从而颠覆传统音乐产业模式。 通过FANSI,音乐创作者可以将自己的音乐以NFT的形式在一级与二级市场销售。同时,FANSI还将为音乐创作者提供完整的行销与销售方案以支持其音乐商业化。通过此举,FANSI希望创作者与支持者能一起打造音乐Web3新社群影响力,从而引领产业新趋势。 而作为一个全新形态的音乐串流播放器,FANSI也已经有一些较为成功的案例,例如,其曾替张雨生、动力火车、宋岳庭、马念生、美秀集团、大嘻哈时代新生代饶舌歌手以及其他知名音乐人发行音乐NFT。 MetaBoom:Web3音乐播放器 MetaBoom是一款采用了Listen to Earn代币经济学设计的Web3音乐播放器。通过使用MetaBoom,当用户拥有音乐NFT时,其可通过分享或播放获得代币奖励。 同时,MetaBoom Web3音乐播放器还是一款生成性NFT收藏品。其主要作为一个Web3音乐播放器来展示一个人的音乐品味,并为每一个音乐NFT持有者提供最好的聆听体验。我们可以将把MetaBoom看作是一个加密版的Winamp。 此外,MetaBooms将以NFT的形式成为独特的L2E tokenomics代币门槛证书。每个MetaBoom的持有者都会成为音乐NFT的分发节点,共同组成一个社区驱动的去中心化音乐流媒体服务。 L2E经济模型 作为一款底层协议,L2E经济模型旨在连接所有的组件和创作者,以实现一个新的音频流媒体生态系统,该系统以Web3为重点,由世界各地的每个人而不是一个巨大的平台提供动力。L2E模式将是该协议代币经济学设计的一个关键,它允许所有行为者共同支持音乐艺术家,改善音乐发现,广泛传播音乐,并增加音乐NFT的流动性。 1、FAITH点数 FAITH是MetaBoom世界的奖励点和平台内的货币,用户可以在MetaBoom平台上的活动中花费FAITH。 FAITH本质上是无限供应的平台内积分,其可以通过转换器转换为MetaBoom平台的官方ERC20代币MMU。FAITH的使用场景具体包括以下几种: 1)MetaBoom的非盈利相关配件 每个MetaBoom播放器都有其独特的外观,以及用于装饰MetaBoom播放器的不同种类的配件。同时,有些配件还可以提高MetaBoom的实用性,例如,可以将更多的原声音乐纳入播放列表。 2)FAITH-MMU转换 除了转换为MMU之外,用户还可以用FAITH来购买高级的FAITH-MMU转换器,以减少兑换的冷却时间。 3)支持艺术家 用户可以通过发送FAITH来支持他们喜欢的艺术家。 4)给Meta DJ的“小费” Meta DJ是指购买音乐NFT的人,其与音乐的传播息息相关,所以用户可以通过向Meta DJ发送FAITH,以支持Meta DJ。 5)神秘盒子 神秘盒子将定期空投给MetaBoom生态系统的持久参与者,其中包含各种礼物。获得盒子的用户需要花费一些FAITH来开盒。 音乐NFT:或许未来可期 音乐NFT作为一种全新的范式,其所涉及的核心问题就是对艺术价值和创作收益的重新分配以及艺术稀缺性的唤醒。 从乐谱到黑胶、再到流媒体时代,90%的流量被前1%的音乐家垄断的“播放量经济”的荒诞现象已经司空见惯,即使是知名音乐人的专辑在数百万次点击之后,收入也难说可观,而音乐成为大众消费品后,被迫“免费”的音乐也丧失了稀缺性。 NFT的出现,某种意义上改变了流媒体时代多数音乐人面临的艰难状况。音乐人或企业需要的是黏性用户,即真正属于自己的流量。把粉丝的控制权重新掌握在自己手里可能是当下最正确的方向。“Fan-Power”的模式与NFT有着天然的契合性,这也正是头部音乐人纷纷入坑NFT这个可以发现自我价值平台的原因。 但纵观近年来加密音乐市场的发展,我们需要认识到,虽然以NFT形式出售的音乐在市场上大获成功,但这并不意味着NFT音乐已经深入到普通消费者心中。相反,NFT音乐购买者大多都是加密市场的重度参与者。即便是Audius、Royal这样的行业龙头对于大多数人来说仍显得过于小众。音乐NFT需要一个出圈的爆点,走进大众视野。 除此之外,NFT目前似乎仍无法解决音乐版权问题,虽然智能合约具备提供公开协议和条款,并以程序化方式分配版税的能力,但音乐版权仍是极为复杂的问题,即便上链也并不一定能从根本解决。合规问题也许在不久的将来会成为赛道发展的桎梏。 不过,尽管音乐作品的加密化面临艰巨的挑战,从业人员也没有停止对音乐Token化的探索。主流的唱片公司和艺术家已经在各种链和平台上进行音乐试验。 未来,如果更多普通的消费者可以参与到NFT音乐市场中,NFT对音乐业的影响将更加深刻,从而倒逼音乐产业更迭。艺术家们有了新的盈利方法,粉丝们也有能力成为真正的投资者。在新的、不断改进的音乐产业中,我们也许将看到艺术家重新控制他们的作品和收入流,并与他们的消费者、粉丝分享。 JP.crypto Web3前沿动态社区,专注于项目投研与价值投资。加入我们获取更多项目信息。 推特:https://twitter.com/Crytpojp_JP 来源:金色财经
lg
...
金色财经
2023-03-06
详解基于 Celestia、Eclipse 构建的首个Layer3 链 Nautilus Chain
go
lg
...
链层级架构。通过rollmint(⼀种
application
blockchain Interfaceimplementation),dapp可以搭建⾃⼰的Rollup并部署到Celestia,数据在DA layer存储, ⽽state root和proof上传到L1进⾏验证,以进一步保证交易数据的,进一步保证交易的安全性。 Celestia 正在以DA层为基础构建模块化区块链,并为Eclipse等Layer0开发工具提供支持,所以Nautilus Chain 本身能够具备模块化区块链的特点,而不是像其他链一样是一条主链的设计。 Celestia 由 Cosmos IBC 保证链间通信,这也意味着任何通过 Celestia 获得支持的系统,也都将具备与Cosmos 高度的可互操作特性,Nautilus Chain 的高度可互操作特性也来源于此(包括数据、资产、信息、通信等的互操作)。 虽然这种模块化链目前市场上并不多见,但 Nautilus Chain 作为首个模块化链,存储、计算、共识等都在不同的模块中,意味着其能够获得更高的可拓展性与扩容能力,Nautilus Chain有望成为有史以来第一个并行化且运行速度最快的 EVM Rollup。 最重要的是,这种模块化的设计,有望为 Nautilus Chain 带来在功能上的拓展,为在 Nautilus Chain 上部署应用的开发者提供可定制化特性,并构建早期 Layer3 赛道的轮廓。 虽然Celestia以及以其为基础的Layer0开发工具 Eclipse,已经面向市场,但 Nautilus Chain 才是这些基于这些基建构建的首个应用链,而 Nautilus Chain 在市场的实践,对于 Eclipse、Celestia 等的发展才是最重要的。 Nautilus Chain 在 Optimistic Rollup 与Zk Rollup 的抉择? Rollup将⾼成本的transaction execution放到L2执⾏,并将交易打包到L1进⾏验证,同时确保完整的交易内容可以被验证。在继承以太坊安全性的前提下,具备更强的综合性能。 而模块化的 Nautilus Chain 通过定制化Rollup的⽅式,实现了Dapp对定制化功能、⾼性能、低成本的追求,并让项⽬的交互更快捷,对⽣态布局产⽣正向影响。 实际上,Rollup 也分为Optimistic Rollup 与ZK Rollup两个阵营,虽然ZK Rollup理论上拥有更强的性能、远快于Optimistic Rollup的最终性效率以及更⾼的安全性,但Optimistic Rollup具备更好的兼容性和更低的门槛。 从 Nautilus Chain 的规划上看,其并没有在二者间进行取舍,而是兼顾,即前期以 Optimistic Rollup为基础,在后期向 ZK Rollup发展。 在 Nautilus Chain 生态发展初期, 基于 Optimistic 技术方案具备更好的兼容性,极⼤地降低了项⽬⽅迁移/开发门槛,可以让更多项⽬⽅快速部署,迅速构建更繁荣的⽣态,占据先发优势。 并能够快速验证交易的有效性,因此在算⼒上对机器性能和储备的要求更低。此外,Optimistic Rollup的开发门槛更低,毕竟早期的 ZK RaaS也很难像 Optimistic RaaS⼀样⼤规模部署。 而在生态发展具备一定规模后, Nautilus Chain 将进一步转向 Zk Rollup,ZK能真正的为 Nautilus Chain 带来定制化,带来更好的性能和更低的成本,作为一个以流支付(支付)为主要定位生态,安全性、交易效率以及成本是最重要的考量。 在Rollup的定制设计上,基于ZK的Layer3方案能在功能和性能上给 Nautilus Chain 生态带来更⼤的增益。ZK的RaaS可以做到低信任,⽽基于OP的服务需要信任challenger正常⼯作,防⽌sequencer作恶。 此外更好的互操作性和最终性,也为 Nautilus Chain 在未来的生态发展中赋予更好的优势,并与市场需求进一步的匹配。 所以 Nautilus Chain 本身在前期发展生态,降低开发者门槛以推动生态规模化发展,以促进生态早期的繁荣。而在生态发展至一定繁荣度后, Nautilus Chain 采用 Zk Rollup 将获得更高的安全性、效率,更符合Web2开发者的更高要求的定制化功能(进一步的合规与隐私)。 Nautilus Chain 作为 Celestia、Eclipse 上开发的首个Layer3链,对于行业具备相当的意义,毕竟目前RaaS赛道仍旧处于早期的理论阶段,但 Nautilus Chain 能够成为该领域发展的早期验证生态,对于 RaaS 领域的发展具备相当的参照作用。此外, Nautilus Chain 链的上线也正在推动流支付以新的姿态呈现,并推动加密支付的大规模采用。 来源:金色财经
lg
...
金色财经
2023-03-06
半导体观察:芯片行业光“砸钱”不行!封锁与孤立下 中国芯片出路在哪里?
go
lg
...
am Research Corp 和
Applied
Materials Inc 等美国公司提供能够生产高级芯片的设备。 一旦日本和荷兰同意美国也限制向中国出口芯片制造设备,中国公司的情况可能会恶化。
lg
...
林沐
2023-03-06
详解基于 Celestia、Eclipse 构建的首个Layer3 链 Nautilus Chain
go
lg
...
链层级架构。通过rollmint(?种
application
blockchain Interfaceimplementation),dapp可以搭建??的Rollup并部署到Celestia,数据在DA layer存储, ?state root和proof上传到L1进?验证,以进一步保证交易数据的,进一步保证交易的安全性。 Celestia 正在以DA层为基础构建模块化区块链,并为Eclipse等Layer0开发工具提供支持,所以Nautilus Chain 本身能够具备模块化区块链的特点,而不是像其他链一样是一条主链的设计。 Celestia 由 Cosmos IBC 保证链间通信,这也意味着任何通过 Celestia 获得支持的系统,也都将具备与Cosmos 高度的可互操作特性,Nautilus Chain 的高度可互操作特性也来源于此(包括数据、资产、信息、通信等的互操作)。虽然这种模块化链目前市场上并不多见,但 Nautilus Chain 作为首个模块化链,存储、计算、共识等都在不同的模块中,意味着其能够获得更高的可拓展性与扩容能力,Nautilus Chain有望成为有史以来第一个并行化且运行速度最快的 EVM Rollup。最重要的是,这种模块化的设计,有望为 Nautilus Chain 带来在功能上的拓展,为在 Nautilus Chain 上部署应用的开发者提供可定制化特性,并构建早期 Layer3 赛道的轮廓。虽然Celestia以及以其为基础的Layer0开发工具 Eclipse,已经面向市场,但 Nautilus Chain 才是这些基于这些基建构建的首个应用链,而 Nautilus Chain 在市场的实践,对于 Eclipse、Celestia 等的发展才是最重要的。Nautilus Chain 在 Optimistic Rollup 与Zk Rollup 的抉择?Rollup将?成本的transaction execution放到L2执?,并将交易打包到L1进?验证,同时确保完整的交易内容可以被验证。在继承以太坊安全性的前提下,具备更强的综合性能。而模块化的 Nautilus Chain 通过定制化Rollup的?式,实现了Dapp对定制化功能、?性能、低成本的追求,并让项?的交互更快捷,对?态布局产?正向影响。实际上,Rollup 也分为Optimistic Rollup 与ZK Rollup两个阵营,虽然ZK Rollup理论上拥有更强的性能、远快于Optimistic Rollup的最终性效率以及更?的安全性,但Optimistic Rollup具备更好的兼容性和更低的门槛。从 Nautilus Chain 的规划上看,其并没有在二者间进行取舍,而是兼顾,即前期以 Optimistic Rollup为基础,在后期向 ZK Rollup发展。在 Nautilus Chain 生态发展初期, 基于 Optimistic 技术方案具备更好的兼容性,极?地降低了项??迁移/开发门槛,可以让更多项??快速部署,迅速构建更繁荣的?态,占据先发优势。并能够快速验证交易的有效性,因此在算?上对机器性能和储备的要求更低。此外,Optimistic Rollup的开发门槛更低,毕竟早期的 ZK RaaS也很难像 Optimistic RaaS?样?规模部署。而在生态发展具备一定规模后, Nautilus Chain 将进一步转向 Zk Rollup,ZK能真正的为 Nautilus Chain 带来定制化,带来更好的性能和更低的成本,作为一个以流支付(支付)为主要定位生态,安全性、交易效率以及成本是最重要的考量。在Rollup的定制设计上,基于ZK的Layer3方案能在功能和性能上给 Nautilus Chain 生态带来更?的增益。ZK的RaaS可以做到低信任,?基于OP的服务需要信任challenger正常?作,防?sequencer作恶。此外更好的互操作性和最终性,也为 Nautilus Chain 在未来的生态发展中赋予更好的优势,并与市场需求进一步的匹配。所以 Nautilus Chain 本身在前期发展生态,降低开发者门槛以推动生态规模化发展,以促进生态早期的繁荣。而在生态发展至一定繁荣度后, Nautilus Chain 采用 Zk Rollup 将获得更高的安全性、效率,更符合Web2开发者的更高要求的定制化功能(进一步的合规与隐私)。Nautilus Chain 作为 Celestia、Eclipse 上开发的首个Layer3链,对于行业具备相当的意义,毕竟目前RaaS赛道仍旧处于早期的理论阶段,但 Nautilus Chain 能够成为该领域发展的早期验证生态,对于 RaaS 领域的发展具备相当的参照作用。此外, Nautilus Chain 链的上线也正在推动流支付以新的姿态呈现,并推动加密支付的大规模采用。 来源:金色财经
lg
...
金色财经
2023-03-06
人工智能:中国式ChatGPT的“大跃进”
go
lg
...
t、Dropbox、DeepMind、
Apple
、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models,
Applied
ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 出品|虎嗅科技组 作者|齐健 编辑|陈伊凡 来源:DeFi之道 来源:金色财经
lg
...
金色财经
2023-03-05
富士康计划耗资7亿美元在印度兴建苹果制作工厂,制造业加速离开中国?
go
lg
...
报社(北美)讯 知情人士说,苹果公司(
Apple
Inc.)合作伙伴富士康科技集团(Foxconn Technology Group)计划在印度投资约7亿美元兴建一家新工厂,从而提高当地产量。随着美国与中国的紧张关系加剧,制造业正在加速从中国转移。 富士康计划在印度南部卡纳塔克邦首府班加罗尔机场附近的一块300英亩土地上建造iPhone零部件工厂。由于信息尚未公开,这些不愿具名的人士要求匿名。一些知情人士表示,这家工厂可能组装苹果的手机,富士康还可能利用该工厂为其新兴的电动汽车业务生产一些零部件。 这笔投资是富士康迄今为止在印度最大的单笔投资之一,中国正面临失去全球最大消费电子产品生产国地位的风险。苹果和其他美国品牌正在依靠中国供应商探索印度和越南等替代市场,在新冠疫情和乌克兰战争期间全球供应链加速发展,可能重塑全球电子产品的制造方式。 知情人士说,富士康的印度新生产基地预计将创造约10万个就业岗位。富士康位于中国郑州的庞大iPhone组装厂目前雇佣了约20万名员工,在生产旺季这一数字会激增。 由于新冠疫情导致中断,郑州工厂的产量在年底假期前大幅下降,促使苹果重新审视其依赖中国的供应链,供应商将产能转移出中国的速度可能远远快于预期。 分析师Steven Tseng和Sean Chen表示:“富士康的建厂计划这一计划可能预示着鸿海精密工业有限公司(Hon Hai Precision Industry Co.)将加速从中国大陆转移。一旦工厂建成,我们估计这家工厂将大大改善印度的零部件供应,有可能将印度在iPhone组装市场的份额从目前的不到5%提高到10- 15%。” 周五(3月3日)包括印度技术部副部长在内的几位政府官员在推特上证实了即将建成的工厂的细节,他们表示工厂将很快建成,并创造10万个就业岗位。 知情人士说,富士康正在敲定投资和项目细节,计划仍有可能发生变化。目前也不清楚这家工厂是否代表着新的产能,还是富士康从中国工厂等其他地方转移的产能。 鸿海精密董事长刘扬伟(Young Liu)本周会见了印度总理莫迪,承诺在邻近的泰伦加纳邦开展另一个制造业项目。印度向富士康等苹果供应商提供了经济激励。富士康去年开始在泰米尔纳德邦(Tamil Nadu)的一个工厂生产最新一代iPhone。规模较小的竞争对手纬创(Wistron Corp.)与和硕(Pegatron Corp.)也在印度扩大业务,而捷普公司(Jabil Inc.)等供应商已开始在当地为AirPods生产零部件。
lg
...
迪星妮
2023-03-03
Web3中文|值得了解:Web3的成功离不开什么?
go
lg
...
lefonica:5 Web 3.0
applications
and examples you should know about 链圈子《什么是代币经济学(Tokenomics)?代币经济模型有哪些?》 编译:Dali@Web3CN.Pro 声明:web3中文编译作品,内容仅代表作者立场,且不构成投资建议,请谨慎对待,如文章/素材有侵权,请联系官方客服处理。 来源:金色财经
lg
...
金色财经
2023-03-03
中国129亿元资本涌入“长江存储”!比尔·盖茨:美国“不会成功阻止中国半导体芯片”
go
lg
...
进展。 芯片制造机械仍由荷兰ASML和
Applied
Materials Inc.,以及Tokyo Electron Ltd.等公司主导,尽管国家机构和Naura Technology Group Co.等公司努力设计竞争对手的机器。日本公司控制着光刻胶的供应,这是一种关键化学品。尽管华为技术有限公司等科技巨头推动了对美国硬件的本地替代品的深入研究,但该国仍然依赖进口来满足其大约1500亿美元年度芯片需求中的大部分。 根据长江存储在天眼查数据库中的最新公开注册信息,其业务范围已扩大到“技术转化”,为公司向其他实体转让技术打开了大门。 文章提到:“新资金将支持长江存储抵御美国制裁的最坏影响,以及打击内存价格的全行业低迷。” 比尔·盖茨:美国永远不会成功阻止中国拥有半导体芯片 过去一段时间,美中关系出现了一定的紧张关系,包括击落热气球或华盛顿对北京施加的半导体限制令。在此背景下,比尔·盖茨对这两个世界领先国家之间的关系做出了预测。这位微软创始人辩称,美国无法通过贸易限制实现遏制中国的愿望,包括最近试图将芯片行业重新置于美国控制之下。 “限制向北京销售芯片没有多大意义。中国可以很快赶上美国,”比尔·盖茨提到说,“我认为,美国不会成功阻止中国拥有半导体芯片。” (来源:美联社) 他还争辩说,限制中国的出口和芯片生产只会警告中国有意升级军事力量。盖茨说:“我认为美中在大约十年内不会发生军事对抗,”并表示希望华盛顿和北京更密切地合作。
lg
...
秉哥说市
2023-03-03
中国式ChatGPT“大跃进”
go
lg
...
t、Dropbox、DeepMind、
Apple
、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models,
Applied
ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 来源:金色财经
lg
...
金色财经
2023-03-03
3小时多次呼救无人管!UBC学生被“拖死”,母亲痛诉学校警方接线员踢皮球!
go
lg
...
14日早,Sohn在宿舍中突感不适。其
Apple
智能手表显示,他曾在7时33分拨打过911,半小时后又拨打了一次。然而不幸的是,两次电话都没有接通。 早上8时30分到9时,头晕恶心非但没有缓解,反而愈演愈烈。室友回忆,他在此时听到了Sohn在房间内的呕吐声。 室友Prince Fox担心他的身体状况,敲了敲Sohn的门,询问他是否需要帮助,但却没有得到任何回复。此时,Sohn恐怕已然失去了意识。 上午9时30分,室友们坐不住了,他们打电话给宿舍的管理员反映了情况,得到的回复却相当让人沮丧。Fox说,管理员拒绝开门,因为这不符合UBC的政策。 “他(管理员)回答让我们报警,”Fox回忆,“我当时担心极了,再次请求他帮我们开门,但他只是让我们报警。” 另一位室友Simon补充了报警后的情况。“Sohn拨打911后警察一直没出现,是我们后来报警了警察才来的。而且,校方也一直没有采取行动,警察费了好半天劲才说服他们拿钥匙开门。” (图片来源:City News) 警察到现场时,已经是上午10时10分,据Sohn第一次身体不适拨打急救电话已经过去了2个半小时。 警察在拿钥匙时也出现了进一步的延误,他们起初拿错了钥匙,不得不再次返回前台更换。这再一次耽误了Sohn的抢救时机。 据Sohn的家人称,等到急救人员进门时,Sohn早已没有了脉搏。 尽管在送往医院急救后,Sohn一度恢复了呼吸,但奇迹并没有发生。一周后,也就是11月22日,Sohn被医生宣布了脑死亡,离开了人世。 失去Sohn的家人们们尽管处于极度的悲痛之中,但还是希望儿子能为这个世界做出最后一丝贡献,他们捐赠了儿子的器官。 然而,接下来发生的一系列事件却超出了Sohn家人的理解范围。 Sohn的母亲称,首先是UBC大学,校方既没有对他们的关于儿子死亡的一些问题做出回应,也没有对他们表示任何的哀悼。 “我请他们必须回答我,为什么他们一再地错过、耽误,他们也必须向我保证不会再出现类似的情况了。”Sohn的母亲说。 “我也不想去责怪UBC或其他人……”这位母亲表示,“但是如果我儿子的死亡的确有什么问题,那他们必须要做出改变。”她不想其他家庭再经历一遍他们如今的痛苦。 接通紧急电话的机构ECOMM称,他们的确是接到了两通来自Sohn的电话。然而,接线员并没有在电话中听到任何声音,再次回拨也没有打通,因此最终并没有派出救援。他们表示,不可能对每个被挂断或听不到声音的电话都派遣急救人员。 至于UBC RCMP,他们只表示注意到Sohn曾拨打了两通电话。在今年2月的调查中,有关部门断定警方的不作为与Sohn的死亡无关。ECOMM并不隶属于皇家骑警,只是他们合作负责接听紧急电话的承包商。 (Sohn的童年照 图片来源:City News) 如果接线员能警惕一些,如果校方能在紧急情况下配合开门,如果警察能及时出警,如果他们没有拿错钥匙……那么Sohn的悲剧或许不会上演,可惜这个世界上没有如果。 如果说Sohn在意识模糊前拨出的两通电话是他用尽全力敲响的求生之门,那么接线员、校方和警方的一次次延误,无疑是为这道好不容易推开一点缝隙的门加了一把巨锁,还顺手把门给焊死了。 Sohn这两通电话本可以打给绝不会置其不顾的朋友父母,但他选择了人们普遍认为最快、最有效的方法:向911求救,而他信赖的救命稻草——急救车却在事发后近3小时后才到达。 Sohn的悲剧不是第一次发生。据@大温家长会,2022年12月31日,一名37岁的女性在新斯科舍省阿默斯特的坎伯兰地区医疗保健中心等待治疗数小时后死亡。 据其丈夫称,女子被送往医院时非常痛苦,疼痛难忍,甚至时而尖叫着说她快死了。但她等了几个小时才见到医生。 当女子被带到一个房间并进行 CT 扫描时,医生发现她有严重的内出血——但是一切已经太晚了。 (图片来源:CTV News) 在她到达医院大约 12 小时后,这位三个孩子的母亲就去世了。 无独有偶,1月29日,BC省西库特尼地区的一名男子突发心脏病,却迟迟等不来救护车,最终不幸罹难。他的家离最近的医院只有几个街区的距离。 类似的悲剧还有很多,2022年8月,BC省一名年仅8个月的婴儿突发心脏骤停。当晚救护车人手紧缺,该名婴儿去世。 Sohn的悲剧不是第一次发生,而在岌岌可危的加拿大医疗系统下,或许也不会是最后一次。
lg
...
加拿大乐活网
2023-03-03
上一页
1
•••
408
409
410
411
412
•••
457
下一页
24小时热点
特朗普重大决定冲击全球!美元跌了、比特币歇了 黄金惊现过山车行情
lg
...
PCE数据或“大爆表”?!金价暴跌、一度失守2660
lg
...
突发大行情!金价日内暴跌近100美元!中东欲停火“叠加”特朗普财政部长人选、令多头一蹶不振
lg
...
【直击亚市】黄金今日暴跌60美元!特朗普重大决定打击美元,全球股债涨声欢迎
lg
...
特朗普重要决定引发美元大跌、金价仍惊人暴跌近50美元 原因在这里!
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1329讨论
#VIP会员尊享#
lg
...
1503讨论
#比特币最新消息#
lg
...
607讨论