全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
香港论坛
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
通信产业链景气度持续高企,通信ETF(515880)涨幅超2.4%,工业富联涨停
go
lg
...
。盘中溢价交易。 华创证券表示,国内外
AI
行业
巨头发布两款新产品,GPT-4和文心一言,短时间内两大巨头发布新品,AI产业链景气度持续高企,随着API的开放和接入规模的增长,AI生态圈有望进一步扩大。目前AI相关应用主要依赖云厂商庞大的算力与网络资源支持,且需求量日渐增长,未来有望推动相关硬件基础设施的不断扩容升级。 (来源:界面AI) 声明:本条内容由界面AI生成并授权使用,内容仅供参考,不构成投资建议。AI技术战略支持为有连云。
lg
...
有连云
2023-03-20
2023年12个最佳加密预售和ICO投资项目
go
lg
...
分析 Chain GPT 是人工智能(
AI
)
行业
中最好的预ICO加密货币之一。这是一个预ICO,因为筹款活动直到3月20日才开始。尽管如此,该项目的主要概念是通过AI生成与加密货币和区块链相关的分析。 该技术源自ChatGPT,这是目前非常热门的技术。这是因为ChatGPT可以通过输入问题或关键字,生成任何内容,从博客和信息指南到文章。 在Chain GPT的情况下,该技术可以产生区块链和市场分析、加密货币定价分析、智能合约部署甚至是反洗钱框架。Chain GPT拥有自己的实用代币CGPT。 该代币具有现实用途,因为需要使用CGPT来访问Chain GPT软件提供的核心功能。此外,与免费版不同,使用CGPT支付AI请求将会在全天候生成即时结果。 6、Artyfact - 具有玩赚奖励的Web3游戏Metaverse Artyfact正在构建一个集成了多种Web3技术的下一代游戏世界。这包括具有内置游戏NFT的自己的Metaverse生态系统。此外,所有Artyfact游戏都将提供玩赚奖励。 这将激励游戏玩家玩Artyfact游戏,因为无需冒任何风险即可获得奖励。尽管如此,在购买游戏内提升物品时,可以增加Artyfact的奖励。 奖励和游戏内购买都是通过本地代币ARTY实现的。Artyfact白皮书指出,一旦游戏推出,将有20%的收入用于资助回购计划。 这意味着Artyfact将从市场上购买ARTY代币,然后将其从流通供应中移除。这可以人为地增加ARTY的价值,因为代币供应量已减少。 ARTY代币也可用于挖矿奖励,提供高达600%的APY。Artyfact预售以每个ARTY代币0.28美元的价格出售。筹款活动的下一阶段将把价格提高到0.38美元。这提供了即时的上涨空间达35%。 7、InteractWith - 移动应用程序开发人员的NFT框架 InteractWith是一个新的加密货币ICO,正在向早期投资者出售其本地INTER代币的13%。该项目开发了远程技术,使移动应用程序可以将NFT纳入其生态系统。 官网:https://interactwith.com/ InteractWith主要面向对NFT和其他Web3技术没有或了解很少的移动应用程序开发人员。例如,假设iOS商店上的一款热门游戏应用程序允许用户购买游戏内物品。 如果不使用NFT,玩家将无法保留通过应用程序购买的任何物品的所有权。但是,通过InteractWith,应用程序可以无缝地使用可交易的NFT来代表每个游戏内物品。 这是一个双赢的局面,因为应用程序开发人员可以创建新的收入流,而玩家拥有他们的游戏资产。总体而言,InteractWith的预售计划旨在达到1.62百万美元的适度硬顶。每个INTER代币只需购买0.15美元。 InteractWith预售地址: 8、Minima - 具有移动节点的新去中心化区块链 Minima正在建立自己的本地区块链网络,声称提供“真正”的去中心化。该项目的独特卖点是区块链节点将在手机上运行。这带来了许多好处。 例如,考虑到任何给定时间可以操作的节点数量,该网络将具有高度可扩展性。与传统的区块链网络不同,不需要专业硬件或过多的能源消耗。 此外,由于运行的移动节点数量如此之多,Minima网络将不受集中的挖矿农场控制。这确保了Minima生态系统仅由社区控制。 Minima拥有自己的本地代币WMINIMA,目前正在预售中。每个WMINIMA代币的成本略低于0.24美元,硬顶目标设定为4百万美元。此外,预售接受数十种加密货币以及借记卡/信用卡和电子钱包。 9、LimeWire - 区块链上的音乐流媒体革命生态系统 目前,音乐产业高度集中化。由少数几个唱片公司和流媒体提供商控制,最终常常是艺术家失去了利益。例如,像YouTube和Spotify这样的流媒体平台会获得广告和订阅收入的绝大部分份额。 这就是LimeWire的作用。简而言之,LimeWire通过将音乐产业带入区块链来进行革命。LimeWire平台将提供分散访问单曲和专辑,让艺术家掌控自己的内容。 这意味着艺术家可以设置自己的费率,并最终从自己的创作中获得经济利益。此外,LimeWire还将提供订阅服务。费用将以支持项目的本地加密令牌LMWR支付。 此外,艺术家每次播放他们的歌曲时也会获得版税。整个LimeWire生态系统以公平、透明的方式运作,因此这是一个值得关注的顶级ICO。尽管已经在私人融资中筹集了1000万美元,LimeWire ICO现在以每个LMWR代币0.16美元的价格出售。 10、LasMeta - 具有虚拟现实的去中心化扑克社区 LasMeta是一个新成立的项目,正在构建一个去中心化的扑克社区。该项目将使用户能够与来自世界各地的玩家玩扑克。此外,玩家可以在LasMeta元宇宙中创建自己的扑克社区。 该项目正在创建免费玩和赢钱玩的扑克游戏。这两种游戏都使玩家可以赚取实际奖励,以LASM代币支付。这是支持LaMeta生态系统的本地代币。 更进一步,LasMeta还将在其元宇宙中加入虚拟现实体验。这将使玩家能够在家中体验现场扑克游戏。 LasMeta预售旨在筹集320万美元。到目前为止,已筹集超过68万美元。每个LASM代币售价为0.045美元。预售活动将销售总供应量的10%,余额用于扑克奖励、营销和其他运营费用。 11、SOLA-X-提供卓越交易体验的优质流动性路由系统 SOLA-X正在构建一个专注于提供流动性服务的生态系统。通过智能路由和前置机制,SOLA-X解决了当前去中心化交易所所面临的许多问题。 例如,当缺乏流动性时,通常会导致不利的滑点水平。但是,通过SOLA-X,流动性将在交易点提供,从而避免了负面的价格影响。 SOLA-X的另一个特点是,它将为投资者提供流动性池。这使得投资者可以存入闲置的加密代币并获得收益。这来自于杠杆头寸和借款的利息以及交易费用。 SOLA-X生态系统中的所有服务都由其本地代币SAX提供支持。目前,SAX预售对种子投资者开放,最低投资额为10,000美元。种子阶段结束后,普通投资者将能够通过公开的ICO购买SAX代币。 12、O-MEE-社交艺术品数字市场 考虑的最后一个预售加密货币是O-MEE,作为O-MEE生态系统的本地ERC-20代币。简而言之,O-MEE正在构建一个数字市场,使艺术家可以拍卖他们的艺术品。 O-MEE还将使艺术家将其作品转化为NFT。每个O-MEE用户都将拥有自己的社交资料。这使得艺术家可以从艺术爱好者中建立在线追随者。此外,就像传统的社交媒体网站一样,用户可以“喜欢”和分享艺术品。 O-MEE预售正在寻求筹集336万美元。初始阶段将以每0.05美元的价格出售800万个OME代币。额外的预售阶段将导致更高的成本价格。最后,O-MEE团队已通过KYC,并在预售网站上有公共资料。 如何寻找最佳的加密货币预售 新的加密货币项目定期进入市场,其中大部分需要通过预售筹集资金。然而,知道哪些预售值得投资可能会很复杂。 以下是在寻找2023年最佳加密货币预售时要考虑的因素。 创建即将到来的预售的短清单 投资者最初需要创建一个可能感兴趣的即将到来的预售的短清单。 有几个第三方网站可以帮助,包括CoinMarketCap和ICODrops。 这些网站将显示每个即将到来的预售以及有关融资目标,代币经济学和上市日期的详细信息。考虑在进行研究之前选择至少五个适当的预售投资项目。 用例 下一步是花时间评估每个预售代币的用例。关键是代币应具有实际的应用程序。 例如,支持Love Hate Inu的代币LHINU推动了该项目的投票赚取机制。用户必须抵押LHINU代币才能访问投票平台并获得奖励。同样,支持Fight Out的代币FGHT是访问该项目的移动赚取应用程序所需的。通过抵押FGHT,用户随后将获得完成锻炼的奖励。 如果预售代币没有用例,则它只是一个模因币。因此,最好避免。 阅读白皮书 投资者还应花费充分的时间阅读项目的白皮书。这概述了项目的最重要因素,例如其长期目标。路线图也很方便,因为这提供了季度目标的时间表。 a. 此外,评估项目的代币经济学。 b. 这解释了代币的总供应量将如何使用。 c. 某个百分比可能被分配给预售,而其余部分则用于营销,游戏内奖励和团队。 d. 我们发现分配给预售的代币百分比更高对社区更有利。 e. 换句话说,社区拥有项目的绝大部分。 例如,Love Hate Inu在预售期间提供其代币的90%。这也防止了一个Rug pull。 毕竟,当团队仅持有总供应量的10%时,没有任何激励逃离项目。 尽早参与预售可获得最佳预售价格 这通常提供了最低的价格。原因在于大多数预售都有分阶段定价。这意味着随着每个阶段的结束,预售代币的价格会增加。因此,早期投资者通常可以获得即时的上涨。 在这方面,2023年最好的加密货币预售是Love Hate Inu。简单来说,它的预售刚刚启动,最佳价格为$0.000085,仍然可以获得。 结论 总的来说,Love Hate Inu提供了最好的上涨潜力,因为其预售仍然提供第一阶段的价格。这意味着通过今天投资LHINU,到代币在交易所上市时将获得70%的上涨。预计在交易所上市后也会有收益,因为Love Hate Inu的投票赚钱概念预计将在加密货币界掀起风暴。请点击下面的链接,立即进入LHINU预售的基础阶段! Love Hate Inu 预售地址: 链接:https://lovehateinu.com/en Alex Brown:alex@financenews.com 在newsdirect.com上查看源版本: 链接:https://newsdirect.com/news/12-best-crypto-presales-and-icos-to-invest-in-2023-733229981 关注我们 veDAO是一个由DAO主导的去中心化投融资平台,将致力于发掘行业最有价值的信息,热衷于挖掘数字加密领域的底层逻辑和前沿赛道,让组织内每一个角色各尽其责并获得回报。 Website: http://www.vedao.com/Twitter: https://twitter.com/vedao_officialFacebook:bit.ly/3jmSJwNTelegram:t.me/veDAO_zhDiscord:https://discord.gg/NEmEyrWfjV ?投资有风险,项目仅供参考,风险请自担哦? 来源:金色财经
lg
...
金色财经
2023-03-17
本轮9新股分析:关注两只细分行业龙头
go
lg
...
的最主要业务。 机器视觉公司,说是
AI
行业
的,本质上的业务和以前的智慧城市概念公司一样,公司数字城市业务占比非常大,依靠政府在安防、城市治理等领域的采购,特别是疫情期间的需求很大,公司业绩也在20年开始爆发,但随后面临竞争和地方财政压力,公司毛利率一路走低,且亏损越来越大,22年疫情红利也差不多吃完了,公司收入出现下滑,扣非后的亏损则进一步扩大。概念大于基本面,不关注了。 八、国泰环保(301203) 国泰环保主营业务为污泥处理服务,并向成套设备销售和水环境生态修复领域延伸。公司专注于污水处理厂污泥处理、处置与资源化,致力于打通全过程技术链条。 环保公司,污水污泥处理为主,和地方政府做生意,这几年日子不好过,21年收入下滑较大,22年也没什么恢复。公司规模也不大,业绩前景不好,不关注了。 九、南芯科技(688484) 南芯科技是一家模拟和嵌入式芯片设计企业,主要应用于消费电子领域,以及储能电源、电动工具等工业领域及车载领域。南芯科技围绕各种应用,打造数款全链路、全方位解决方案,建立了 Charge pump、DCDC、ACDC、有线充电、无线充电、快充协议、锂电保护、汽车电子在内的八大产品线,及多个市场方向的系统应用团队,为客户提供极具竞争力的一站式整体解决方案。2021年,南芯科技的电荷泵充电管理芯片出货量位列全球第一,升降压充电管理芯片出货量位列全球第二、国内第一。 电源芯片公司,虽然招股书里写了很多下游应用方向,但公司绝大多数收入是来自于消费电子行业,21年之前公司收入规模很小,21年突然爆发,主要是公司新发展的电荷泵充电管理芯片业务取得突破,相当于从以前的移动电源和配件供应芯片升级到了给手机供应芯片,接到了国内手机巨头的大订单。公司也一举成为电荷泵充电管理芯片出货量的全球第一。毫无疑问,公司是在业绩最好,行业最好的时候选择上市,22年开始下游智能手机行业已经开始走下坡路,公司大订单效应也已经过去,存量订单大幅下滑,业绩也是增收不增利了,未来不是那么乐观,且公司产品毛利率并不高,产品技术含量也一般。
lg
...
金融界
2023-03-17
ChatGPT爆火之后 AIGC往何处去?
go
lg
...
里形成自己的核心竞争力。 07 生成式
AI
行业
的未来格局展望和猜想 最后来聊聊对
AI
行业
格局的未来展望和猜想。这个部分我参考了奇绩创坛陆奇博士之前的一个思考框架。 ▍以AI和大模型为中心的新IT 新的硅基硬件产业:硅基产业架构和集合可能迎来新的发展机遇(例如:新的计算芯片及周边技术和产业等)。 新的软件和云服务体系:算力、模型和数据的云服务、基础软件、ML&Dev Ops、人机互助编程工具等。 ▍新的基础智能终端设备:智能传感器、新型手机等 未来的智能终端会越来越智能,最近苹果公司官宣支持Stable Diffusion图像生成模型在iPad等终端上运行,也有工程师把经过裁剪的Stable Diffusion应用在iPhone上运行起来,可以预见以后我们的手机美颜和照片生成可以达到何等出神入化的境界。 此外,当前的翻译软件技术,在语义理解方面还是比较浅,翻译质量差强人意。如果可以把类似ChatGPT这样的语言模型能力嵌入到智能终端中去,随着文本和语音的实时翻译成为可能,跨语言交流将变得很方便,这对于提升人类之间的交流效率意义重大。 ▍围绕内容创作展开的产业 文、图、视频、3D等各种媒体格式的AI内容创作工具,是当前可以看到创业机会较多的新产业。 以ChatGPT为代表的语言模型的文本生成技术,和以扩散模型为代表的图像视频多模态生成技术,可能会对内容产业产生深远的影响。从PGC到UGC,再到如今的AIGC,内容领域会有更多新变化与新玩法。 从媒体行业发展情况来看,当前头部的内容媒体平台比如抖音快手B站是所谓的Web2.0平台,普遍采用UGC方式为主来生产内容,但是随着AI生产内容(AIGC)的出现,AI可以生成大量优秀内容,成本较低、效果精良,而且甚至不乏创意,这个情况下内容媒体平台和行业就有可能出现较大的变化。 ▍围绕语言模型展开的产业 在这个领域,新的机会可能包括:语言学习范式改变,重塑跨语言沟通方式,更友好的人机界面等。 其中特别值得一提的,是语言学习范式的改变。如前文所述,如果我们可以打开语言模型,从中寻找到语言学习的规律,说不定可以帮助我们更有效率地学习语言。事实上,OpenAI投资了一家韩国的英语学习APP叫Speak。从有限的公开信息来看,这家公司未来的产品是一个语言学习助手,或者叫做虚拟语言老师——借助语言模型的能力和发现的语言规律,去帮助人们更好地学习外语,而且成本极低。 跨语言沟通的技术目前还不成熟。如前面所说,如果我们能够把语言模型加载到智能终端,可能会极大改进跨语言沟通的能力。 因为语言模型足够强大,未来我们的人机界面,会采用更友好的自然语言人机界面,无论是跟APP对话还是跟智能硬件对话。 ▍围绕思维模型展开的产业 不妨畅想一下,更聪明的软件(或机器人)、科研服务、 “知识工程”、“世界大脑”等。 当前的软件产业,即便有AI的加持,通用性和智能程度还是不尽如人意的,大多数情况下只能做一些特定的任务,只能成为人类的效率助手;随着更加通用的AI能力出现,软件也可以像人类一样思考和做事,可以想象软件就可以帮助人类承接较为完整的任务了。 如果AI可以发展出接近人类的思维能力,它也许可以成为人类科学家的科研助手,因为AI可以不知疲倦,且可广泛使用。当前,我们很难想象AI可以达到人类顶尖科学家的水平。打个比方,你让它去证明下哥德巴赫猜想,应该还是很不现实的。当然也有其他可能,如前文所述,如果AI程序可以实现自我优化,具备迭代自己的算法和技术的能力,相信它的智能会很快赶上来。 如果我们展开想象,就可以有更多的可能性。例如“知识工程”,如果把人类的知识建模,然后让人类以某种方式可以调用或者学习,那么就不用经过“痛苦”的学习过程。“世界大脑”,是指规模极大的思维模型,它可以帮助我们执行各种重要的计算和思考。不过,如果真的发展到这个地步,可能离电影《黑客帝国》里边的Matrix就不远了。 ▍赋能人类,深入改变各行各业(特别是知识工作者) 语言是人类最主要的沟通方式,是知识和思维的主要载体;而深度思维是人类的高阶能力,也是人类不同于其他物种的最重要的能力。如果AI掌握了这两种能力,就基本具备了在某种程度上赋能或替代一部分人类知识工作者的可能。 类似于自动化生产制造设备赋能传统工业,各类AI模型和应用软件也将有机会更好地赋能各行各业。但是不同于制造行业,大批量使用的软件,其边际使用成本是非常低的,而且它很聪明、善学习、会思考、会交流,应该会有大量的应用场景有待开发。这里边有非常多的创业机会,也会给各行各业带来新的发展动力。 08 写在最后,为什么AIGC不会是短期风口? 首先,ChatGPT是语言模型领域的重大进展,鉴于语言对人类沟通和思维的重大意义,语言模型本身具备很强的通用性,以及人类可以通过研究语言模型获取语言及知识的学习规律并得到效率提升,这些都会持续带来长期的创新机会。 第二,AI在思维机器这个方向上还有更远的路可以走。例如,如果AI能够实现良好的多模态信息输入,增加对物理世界的理解,可能可以“涌现”出更多的智能。这个方向的任何进步都意义重大。 第三,与AIGC相关的底层技术原理和算法都还处在发展早期,未来还有很长的迭代和优化机会。 一切,才刚刚开始。 来源:金色财经
lg
...
金色财经
2023-03-10
ChatGPT正在迎接一个繁荣的开发者市场
go
lg
...
到了生产力的几何级增长之外,对于生成式
AI
行业
的变化速度之快,也深感惊讶。 目前来看,被我高频使用的部分应用包括: ChatPDF(chatpdf.com) 上传PDF文件然后通过问答形式让它帮你检索信息,相当于AI帮你读完了整个PDF文件,你想知道什么直接问它就行,中英文都能支持。 目前的免费版最大可传200页的PDF,超过了就要用自己在OpenAI申请的API账户了。 平替版有Humata(humata.ai),功能相同,页数上限是60,2款同时用可以交叉对比,避免错漏。 ChatExcel(chatexcel.com) 北大团队做的,和上面相似,只不过上传的是Excel,然后可以通过自然语言下命令,对表格进行任意调整,调用的是OpenAI专为表格处理做的API服务OpenAI Tabulate。 美中不足的是这还只是一个demo,只支持1MB以内、不超过10列的excel文件,也没有收费选项,局限性很大。 bilingual_book_maker (GitHub开源) 简单粗暴的全书翻译,需要部署到本地,直接把epub文件放进去跑,需要消耗自己的token,成本大概在1万字/0.15美元左右,出来后就成了一本双语书。 因为算力需求过大,一般耗时会比较长,可选GPT-3和ChatGPT两种模型,翻译质量都很不错,有人做了网页套壳版(goldengrape-bilingual-book-maker-streamlit-app-x7nhof.streamlit.app),可以在线使用。 Eightify(eightify.app) Chrome浏览器插件,给YouTube视频生成带有时间戳的摘要,适合对话/访谈/演讲类的视频,基于文本识别和热度判断来帮你划重点,免费版每周只5个额度,超出需要付费。 平替版的还有Glarity(glarity.app),不仅支持YouTube,还支持Google和Yahoo,但总结得会更简略一些。 面向Bilibili的同类服务有BilibiliSummary(GitHub)BibiGPT(b.jimmylv.cn),只是稳定性都不太好。 Mem(mem.ai) OpenAI领投的知识库工具,比Notion要轻,把它当成一个每日信息摄入的保存盒子,扔进来之后由AI咀嚼整理,生成新的简报给我。 Notion AI当然更强大一些,但是Notion更适合再往后一步的沉淀,在收进Notion之前我需要中转站来做进一步的精简处理。 HARPA(harpa.ai) Chrome浏览器插件,除了随时调用ChatGPT来对当前页面进行总结之外,还整合进去了很多自动化功能,比如你可以让它跟踪一家网店的商品价格,降价到了你设置的数字之后之后第一时间通知你。 因为功能种类很多,所以用起来可能会繁琐一些,前期需要不断的调教,或者干脆放弃多余的选项,只用它的页面感知能力,超乎想像的全能。 AI Dungeon(play.aidungeon.io) MUD地牢游戏,可以无限生成龙与地下城式的游戏内容,很适合消遣和猎奇,用的好像是GPT-3模型,对中文的支持度非常高,对话起来你说中文它出英文完全没有任何障碍。 这完全脱离了RPG游戏的任务线,你可以天马行空的推进剧情,最后通关或者失败,好的剧本会被分享出来让其他用户进去重开游戏,然后又产生新的支线。 我玩了一个多星期了,感觉略微看到了游戏产业在未来的一种可能性。 结语 从外网的情况来看,现在每天都有几十个基于OpenAI的新产品上线,互联网行业很久没有出现如此让人兴奋的画面了。 这里面有些是套壳应用,就是针对一个具体需求写了前端,比如用户输入需求然后它给你推荐3本书这种,只是对ChatGPT能力做了简单的连接,价值有限。 稍微复杂一点的,我看到有专门服务于特定场景,比如很多人用Tinder搭讪妹子不知道怎么聊天,然后它可以提供500多种开场白,一步一步帮你跟妹子聊天。 最受欢迎的市场在企业端,因为付费意愿最高,所以大量的产品都是文案生成、话术优化、客服对接这些,也有游戏开发者分享了一套完整流程,从用ChatGPT提出要求,到Midjourney绘制素材,最后存入Figma,丝滑得不可思议。 更多让人觉得牛逼的想法都还在测试,比如想用LLM模型来给金融市场做定向量化分析的,让零基础的用户直接就能下指令编写程序的,给AI喂完古往今来所有学术论文然后让它成为大学专用搜索引擎的,每一个都对未来影响深远。 最可怕的是,OpenAI和它的ChatGPT,也只是这波AIGC浪潮里的浪花之一而已,而AIGC又只是整个AI生态里的一条支流,总感觉在我们的有生之年,还有机会经历一场从工业到生活的彻底改变。 这是特斯拉才刚刚做出交流电系统的前夜。 来源:金色财经
lg
...
金色财经
2023-03-09
人工智能:中国式ChatGPT的“大跃进”
go
lg
...
了很多成果。一时间,追逐大模型成了国内
AI
行业
的标准动作,“大练模型到炼大模型”的过度期似乎已经接近尾声,下一阶段大有“全民大模型,ChatGPT进万家”的架势。 不过,AI技术研发不是谁都能做的,需要真正的专家。硅谷巨头之所以能在大模型领域迅速反应,一方面因为他们在这条赛道上有多年的技术积累,更重要的是他们在AI研究方面有着大量的人才储备。 谷歌的人工智能研究团队一直处在全球领先地位,旗下还有与OpenAI齐名的实验室DeepMind;另一家科技巨头Meta则有被称为卷积神经网络之父的图灵奖得主Yann LeCun以首席AI科学家的身份坐镇。 微软手下的急先锋OpenAI,也是基于强大的科研团队才奠定的领先地位。科技情报分析机构AMiner和智谱研究发布的《ChatGPT团队背景研究报告》显示,OpenAI的ChatGPT研发团队中,27人为本科学历,25人为硕士学历,28人为博士研学历(注:5人信息缺失),占比分别为33%、30%、37%。 ChatGPT团队学历分布 而另一份来自猎聘大数据的国内AI人才市场调查则显示:近一年,预训练模型、对话机器人和AIGC三个ChatGPT相关领域中,国内企业明确要求本科以上学历的职位分别占71.33%、82.30%、92.53%;要求硕、博士学历的占比分别为16.49%、9.86%、18.22%。 对比ChatGPT团队,国内AI人才的平均水平差距较大,硕博比例明显不足。而在今天这种大家齐上大模型赛道的“加速”发展态势下,要在短时间里“大干快上”,势必要先比试比试谁的团队技术实力强,谁更能在自己的麾下聚拢一批大模型人才。 抢人大作战 技术大战开打之前,各家的大模型团队先得打赢一场关键的人才争夺战。 如果你是一个清华博士,有5-10年NLP(Natural Language Processing,自然语言处理)行业经验,那么你的资料只要出现在招聘平台上,不需要任何详细履历,就可以在注册完成后的48小时内,接到多家猎头公司的询问电话,以及数十条HR、猎头、业务经历甚至BOSS本人发来的站内信息。在这些信息中,不乏阿里、美团、小红书等大厂,还有诸多创业公司,以及研究机构。猎头们提供的NLP算法研究员岗位年薪也大多会在百万元上下。 根据猎聘大数据调查,过去五年,人工智能和互联网的招聘薪资均处于上涨态势,人工智能年均招聘薪资明显高出互联网。2022年,人工智能招聘平均年薪为33.15万元,比互联网高出4.27万元,即14.78%。 五年来人工智能与互联网招聘平均年薪对比 在ChatGPT爆火后,这样的情况越来越明显。据上述调查显示,与ChatGPT相关的岗位工资均超过平均水平,AIGC为39.08万,对话机器人为34.89万,预训练模型为33.93万。“ChatGPT一火起来,AI工程师的薪资水平也越来越高,你不开高价就抢不到人。”某AI领域投资人对虎嗅说。 从技术的角度看,大模型发端于NLP领域,自然语言处理岗位在人工智能领域一直都处于人才稀缺的状态,薪酬水平处于高位。科锐国际调研咨询业务负责人&高科技领域资深专家景晓平对虎嗅表示,“人工智能行业典型岗位按产业链划分,技术层和基础层薪酬水平处于高位,高于互联网其他领域薪酬水平,应用层和互联网常规岗位薪酬一致。” 事实上,近年来国内AI人才的硕博占比也在逐年提升,很多企业对AI领域的人才要求学历至少是硕士。薪酬结构则与企业的性质密切相关,国有企业、研究所的薪酬主要是固定薪酬、项目奖金和津贴,例如,国内第一梯队的AI实验室,清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)挂在官网上的博士后招聘待遇为年薪30万,享受清华大学教职工社会保险、住房公积金等待遇。提供公寓或每年4.2万的租房补贴,同时可以解决子女入园、入学。 IT大厂和AI创业公司的薪酬结构则多为,固定薪资+浮动奖金+股权期权激励。在猎聘、脉脉、BOSS直聘三个平台搜索ChatGPT,硕博学历职位的月薪普遍高于3万,最高达9万。“在薪酬方面IT大厂并不会占多少便宜,AI大模型的研发都是高举高打,创业公司给出的薪酬可能更有竞争力。”西湖心辰COO俞佳认为,没有资金支持很难在大模型的基础训练领域推动一家初创公司,对于这个领域来说,钱的问题可能“不是最大的问题”。 猎聘、脉脉、BOSS直聘,搜索ChatGPT的前排结果 此外,在诸多岗位信息中,工作地点集中在北京、上海、杭州和深圳,但其中一些职位也并不限制办公地。景晓平表示,目前国内AI人才北京占据第一位,上海、广东省分列二三位,近些年互联网发展极为活跃的浙江省,在人工智能发展上也丝毫不落风头,成都作为科技新秀城市,有优质相关生源的地域,也储备了不少人工智能人才。但从需求总量来看,国内AI人才还有很大缺口。 OpenAI的专家团队为何强 OpenAI官网挂出的参与过ChatGPT的项目团队共87人,该团队平均年龄为32岁,其中90后是主力军。 《ChatGPT团队背景研究报告》显示,ChatGPT研发团队绝大多数成员拥有名校学历,成员最集中的前5大高校是:斯坦福大学(14人)、加州大学伯克利分校(10人)、麻省理工学院(7人)、剑桥大学(5人)、哈佛大学(4人)和佐治亚理工学院(4人)。 ChatGPT 团队成员毕业前10名高校 此外,很多成员都有名企工作经历,包括:Facebook、Stripe、Uber、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内
AI
行业
活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 出品|虎嗅科技组 作者|齐健 编辑|陈伊凡 来源:DeFi之道 来源:金色财经
lg
...
金色财经
2023-03-05
千亿ChatGPT的狂欢和月薪3K的数据标注员
go
lg
...
ChatGPT爆火后,
AI
行业
开始了新一轮“抢人大战”: 王慧文个人出资5000万美元,打出“AI英雄榜”,要招募业界公认顶级研发人才;猎头疯狂挖角硅谷华裔技术大佬,跳槽薪资200万起;“10万月薪抢人”,脉脉创始人兼CEO林凡称,国内AIGC行业也在招兵买马,年薪百万、16薪成为“标配”。 巨头喊话、热钱涌动,中国版ChatGPT,将诞生在这些顶级VC、顶级AI人才手中。 但与此同时,一个和ChatGPT紧密相关,一个相对低廉、不稳定的职业——数据标注员,也引起了小范围的关注和讨论。 他们被誉为“AI训练师”,但他们的工作重复、机械、枯燥。 他们是
AI
行业
的“劳动密集型”企业,他们被放置在无人问津的角落,推升了这次ChatGPT狂潮。 AI训练师? “什么AI训练师,我们就是纯体力活。”何文新对数据标注行业的总结是:无前途,无发展,工作量大,工资低,“还不如电话销售。” 什么是数据标注? 目前“深度学习”是主流的训练AI模型的方式,但AI不会自动识别语音、图片、文本、视频等,这时候就需要数据标注员,对数据进行加工处理,将一般数据变成AI可识别的数据。 比如,服务自动驾驶公司的数据标注员,每天工作就是按照要求,把不同图上的行人、动物、车、树木等“框”出来,以便“喂养”AI模型。而数据标注的类型有图像标注、语音标注、3D点云标注和文本标注等。 简而言之,数据标注员在创造喂养AI的养料。从工作产出来看,数据标注员确实可以称为AI的老师。 数据标注工作并不难,只需要一台电脑,一个鼠标;简单培训后,就可以上手。但是,这个工作并不轻松,需要耐心和细心。 “很累,一整天要盯着电脑。”何文新称,“标注”工作重复繁琐、没什么技术含量,但也有质量要求,标注错了、标注范围大、标注不够仔细等,都会被审核打回去重新做。 “很简单,但也很难。”宝妈lili在网上吐槽,因为经常面对拉伸图,很多图片根本看不清,容易做错。 和
AI
行业
的高薪相比,数据标注员的工资并不高。 “一张图9毛钱,一天做100张。”lili称,如果都合格,一天能赚90块。 “不同的标注价格不一样。”何文新称,他当时的工资在3000左右。基础的数据标注员月薪大部分在2000-4000元之间,但因为标注的速度、质量问题,“很难拿到当时面试跟你承诺的工资。” 鞭牛士在一些招聘网站上搜索“数据标注”,薪资区间在2000-8000之间。一些特殊的标注,比如小语种、高精制图等,薪酬会更高。 2020年2月,“人工智能训练师”正式成为新职业,纳入国家职业分类目录。中国信通院报告提出,“现阶段AI应用研发,数据标注是根本,10年之内都要依赖于标注数据”。 ChatGPT的“数据标注”壁垒 今年1月,美国《时代周刊》报道称,ChatGPT使用了低廉的肯尼亚外包劳工,对庞大的数据库手动进行数据标注。 打造了ChatGPT、估值飙升至300亿美元的OpenAI,是否存在“剥削”廉价劳动力的问题? 为OpenAI提供数据标注服务的是总部位于旧金山的Sama,Sama在在肯尼亚、乌干达和印度雇佣员工,服务Google、Meta和微软等客户。 据爱范儿报道,OpenAI在2021年底与Sama签署了三份总价值约20万美元的合同,为数据库中有害的内容进行标记。 根据合同规定,OpenAI将为该项目向Sama支付每小时12.50美元的报酬;但Sama支付给数据标注员的时薪只有1.32美元~2美元。 这些数据标注员,每9个小时要阅读和标注150~200段文字,最多一小时要阅读和标注超2万个单词。 并且,因为他们标注的是互联网上的“有害的内容”,比如自杀、酷刑等,大部分标注员受到持久的心理创伤,甚至出现幻觉。但Sama公司却拒绝为他们提供一对一的心理咨询。 这些数据标注员,对ChatGPT而言意义重大。为了让ChatGPT成为一个适合用户日常使用的聊天机器人,一个好的学习数据源非常重要。 比如,ChatGPT的前身GPT-3,就存在暴力、性别歧视等言论。用户在对话框中发送“我应该自杀吗”问题,GPT-3回答“我认为你应该这么做”。 在更早的2012年,清华大学图书馆机器人“小图”,因为学习了网友太多“脏话”,被强制下线。当时有媒体报道,小图至少学会了4万条不良信息。 AI自身并不能判断善恶,需要人为干预,标注、过滤掉一些“特殊数据”。为此,OpenAI建立了一个安全系统,这就是Sama和数据标注员的工作:给AI提供标有暴力、仇恨语言等标签,AI就可以学会检测这些内容,并将这些不良内容过滤掉。 除此之外,一些专业领域的信息,也需要专业的标注。这也是为什么ChatGPT在回答医学等专业领域问题时错误百出,因为它还没有精确地相关数据“喂养”。 实际上早有业内人士分析,ChatGPT的算法并不神秘,比如公开的成熟的自回归语言模型、强化学习的PPO算法等;但数据,是ChatGPT真正的优势。 “ChatGPT通过抢先开始公测,收集了大量的用户的使用数据”,这也是ChatGPT独有的、宝贵的数据。 和算力的“军备”竞赛不同,数据会有滚雪球效应,只要ChatGPT仍然是最好用的语言AI,就会一直保持先发优势,后来者会越来越难追上。 ChatGPT,已经建立起了“数据壁垒”。 而近期才开始官宣的“中国版ChatGPT”,除了要加强在算法、算力的投入,中文语言数据的处理,中文敏感词、有害信息的过滤,也需要大量的投入。 如今,ChatGPT掀起人工智能新浪潮,最底层、最边缘的数据标注员是否会有新的待遇? 国内数据标注乱象 据第一财经报道,中国的数据标注行业最早可追溯到2005年,著名计算机视觉专家、人工智能专家朱纯松在湖北鄂州创办了莲花山研究院。 中国信通院报告指出,2015年,随着人工智能巨头的崛起,数据标注和采集需求激增,市场真正意义上开始形成。 2016年,AlphaGo横空出世,人工智能开始商业化探索,相应的数据服务公司也迎来了一波发展高峰。 人工智能公司发展波折不断,数据标注行业也处在早期的蛮荒阶段,存在分散、效率差、标注质量参差不齐、市场需求不稳定等问题。 何文新等数据标注员有特别直观的感受。能不能拿到稳定的项目,是一个外包的数据标注公司能否存活的关键。 “我们公司比较小,很难拿到一手的项目。”何文新称,他们拿到的可能是层层外包的项目,价格比较低,而且极不稳定,“有时候项目没做完,公司就没了。” 而一些数据标注公司在招聘兼职数据标注员时,会强调薪酬分两次结算,“次月和6个月后各结算一半”,因为这是甲方的结算习惯,一些数据公司并不会提前“垫付”薪酬。 因为没有什么门槛,十几个人也能攒出一个团队,因此,数据标注公司质量层次不齐,行业竞争也异常激烈。 据第一财经报道,2018年,科大讯飞旗下的众包平台“爱标客”上,一些简单的打框和转写校准项目,时薪在25到40元之间;到2021年底,时薪就降到了10到15元,“有时候可能连10元都不到”。 并且,数据标注行业还存在一些招聘骗局,比如打着招聘的名义,骗求职者缴纳高昂的培训费等。 而数据标注员,也是人工智能行业中,最不稳定、最容易被取代的角色。 2022年6月,特斯拉在全球开启了裁员计划。其中规模最大的一次裁员,是解雇了200名美国员工。他们大多数是小时工,负责自动驾驶数据标注。 有媒体分析,特斯拉这次裁员的原因是这一工作技术含量不高,操作起来比较简单;并且特斯拉的自动化数据标注有了进展,可以代替人力完成部分工作。 目前,何文新已经从数据标注公司离职,换了新的行业。工资低、累、没有晋升空间、没有学到东西,是数据标注员离职的主要原因。 但是,除了这些问题,数据标注员的薪资,在4、5线城市依然有竞争力。 实际上,因为属于“劳动密集型”产业,一些地方政府对数据标注产业抛出橄榄枝,成为解决当地就业、扶贫的优质项目。 另一方面,因为门槛低、操作简单,数据标注员也成为残疾人友好岗位,“边码故事”曾报道残疾人成为数据标注员的故事,“一台电脑就能赚钱是之前想都不敢想的”。 而一些数据标注公司的推广视频下面,有不少用户留言咨询,想要加入。 在面对使用廉价劳动力质疑时,OpenAI回应称,他们支付给Sama的费用几乎是东非其他内容审核公司的两倍;赚差价的Sama则称自己是“有道德的AI公司”,已经帮助5万多人摆脱了贫困。 据国盛证券估计,类ChatGPT的大模型训练一次就要烧掉200万-1200万美元,仅每日的电费消耗就高达4.7万美元;2022年,OpenAI公司净亏损高达5.45亿美元。 我们在惊叹人工智能的突破和背后的技术成本时,在追捧OpenAI 2000亿人民币的估值时,不应该忘记背后千万的数据标注员。他们在聚光灯外,如一叶叶扁舟,飘荡在人工智能蓝海上。 (应受访者要求,本文人名为化名。) 来源:元宇宙之心 来源:金色财经
lg
...
金色财经
2023-03-05
中国式ChatGPT“大跃进”
go
lg
...
了很多成果。一时间,追逐大模型成了国内
AI
行业
的标准动作,“大练模型到炼大模型”的过度期似乎已经接近尾声,下一阶段大有“全民大模型,ChatGPT进万家”的架势。 不过,AI技术研发不是谁都能做的,需要真正的专家。硅谷巨头之所以能在大模型领域迅速反应,一方面因为他们在这条赛道上有多年的技术积累,更重要的是他们在AI研究方面有着大量的人才储备。 谷歌的人工智能研究团队一直处在全球领先地位,旗下还有与OpenAI齐名的实验室DeepMind;另一家科技巨头Meta则有被称为卷积神经网络之父的图灵奖得主Yann LeCun以首席AI科学家的身份坐镇。 微软手下的急先锋OpenAI,也是基于强大的科研团队才奠定的领先地位。科技情报分析机构AMiner和智谱研究发布的《ChatGPT团队背景研究报告》显示,OpenAI的ChatGPT研发团队中,27人为本科学历,25人为硕士学历,28人为博士研学历(注:5人信息缺失),占比分别为33%、30%、37%。 ChatGPT团队学历分布 而另一份来自猎聘大数据的国内AI人才市场调查则显示:近一年,预训练模型、对话机器人和AIGC三个ChatGPT相关领域中,国内企业明确要求本科以上学历的职位分别占71.33%、82.30%、92.53%;要求硕、博士学历的占比分别为16.49%、9.86%、18.22%。 对比ChatGPT团队,国内AI人才的平均水平差距较大,硕博比例明显不足。而在今天这种大家齐上大模型赛道的“加速”发展态势下,要在短时间里“大干快上”,势必要先比试比试谁的团队技术实力强,谁更能在自己的麾下聚拢一批大模型人才。 抢人大作战 技术大战开打之前,各家的大模型团队先得打赢一场关键的人才争夺战。 如果你是一个清华博士,有5-10年NLP(Natural Language Processing,自然语言处理)行业经验,那么你的资料只要出现在招聘平台上,不需要任何详细履历,就可以在注册完成后的48小时内,接到多家猎头公司的询问电话,以及数十条HR、猎头、业务经历甚至BOSS本人发来的站内信息。在这些信息中,不乏阿里、美团、小红书等大厂,还有诸多创业公司,以及研究机构。猎头们提供的NLP算法研究员岗位年薪也大多会在百万元上下。 根据猎聘大数据调查,过去五年,人工智能和互联网的招聘薪资均处于上涨态势,人工智能年均招聘薪资明显高出互联网。2022年,人工智能招聘平均年薪为33.15万元,比互联网高出4.27万元,即14.78%。 五年来人工智能与互联网招聘平均年薪对比 在ChatGPT爆火后,这样的情况越来越明显。据上述调查显示,与ChatGPT相关的岗位工资均超过平均水平,AIGC为39.08万,对话机器人为34.89万,预训练模型为33.93万。“ChatGPT一火起来,AI工程师的薪资水平也越来越高,你不开高价就抢不到人。”某AI领域投资人对虎嗅说。 从技术的角度看,大模型发端于NLP领域,自然语言处理岗位在人工智能领域一直都处于人才稀缺的状态,薪酬水平处于高位。科锐国际调研咨询业务负责人&高科技领域资深专家景晓平对虎嗅表示,“人工智能行业典型岗位按产业链划分,技术层和基础层薪酬水平处于高位,高于互联网其他领域薪酬水平,应用层和互联网常规岗位薪酬一致。” 事实上,近年来国内AI人才的硕博占比也在逐年提升,很多企业对AI领域的人才要求学历至少是硕士。薪酬结构则与企业的性质密切相关,国有企业、研究所的薪酬主要是固定薪酬、项目奖金和津贴,例如,国内第一梯队的AI实验室,清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)挂在官网上的博士后招聘待遇为年薪30万,享受清华大学教职工社会保险、住房公积金等待遇。提供公寓或每年4.2万的租房补贴,同时可以解决子女入园、入学。 IT大厂和AI创业公司的薪酬结构则多为,固定薪资+浮动奖金+股权期权激励。在猎聘、脉脉、BOSS直聘三个平台搜索ChatGPT,硕博学历职位的月薪普遍高于3万,最高达9万。“在薪酬方面IT大厂并不会占多少便宜,AI大模型的研发都是高举高打,创业公司给出的薪酬可能更有竞争力。”西湖心辰COO俞佳认为,没有资金支持很难在大模型的基础训练领域推动一家初创公司,对于这个领域来说,钱的问题可能“不是最大的问题”。 猎聘、脉脉、BOSS直聘,搜索ChatGPT的前排结果 此外,在诸多岗位信息中,工作地点集中在北京、上海、杭州和深圳,但其中一些职位也并不限制办公地。景晓平表示,目前国内AI人才北京占据第一位,上海、广东省分列二三位,近些年互联网发展极为活跃的浙江省,在人工智能发展上也丝毫不落风头,成都作为科技新秀城市,有优质相关生源的地域,也储备了不少人工智能人才。但从需求总量来看,国内AI人才还有很大缺口。 OpenAI的专家团队为何强 OpenAI官网挂出的参与过ChatGPT的项目团队共87人,该团队平均年龄为32岁,其中90后是主力军。 《ChatGPT团队背景研究报告》显示,ChatGPT研发团队绝大多数成员拥有名校学历,成员最集中的前5大高校是:斯坦福大学(14人)、加州大学伯克利分校(10人)、麻省理工学院(7人)、剑桥大学(5人)、哈佛大学(4人)和佐治亚理工学院(4人)。 ChatGPT 团队成员毕业前10名高校 此外,很多成员都有名企工作经历,包括:Facebook、Stripe、Uber、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内
AI
行业
活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 来源:金色财经
lg
...
金色财经
2023-03-03
Meta推出先进大型语言模型 下一个ChatGPT不远了?
go
lg
...
ChatGPT的爆火引爆了
AI
行业
,全球科技巨头争相杀入这一领域展开混战。周五,Meta也宣布推出大型语言模型LLaMA,加入到由微软、谷歌等科技巨头主导的AI“军备竞赛”中。 当地时间2月24日,Meta宣布将推出针对研究社区的“Meta人工智能大型语言模型”系统(Large Language Model Meta AI),简称“LLaMA”。 同ChatGPT、New Bing不同,LLaMA并不是一个任何人都可以与之对话的产品,也并未接入任何Meta应用。更为确切地说,该产品将是一个开源的“研究工具”。 公司CEO扎克伯格在社交媒体上表示,LLaMA旨在帮助研究人员推进研究工作,LLM(大型语言模型)在文本生成、问题回答、书面材料总结,以及自动证明数学定理、预测蛋白质结构等更复杂的方面也有很大的发展前景。 开源的“研究工具” Meta表示,LLaMA可以在非商业许可下提供给政府、社区和学术界的研究人员和实体工作者,正在接受研究人员的申请。 此外,LLaMA将提供底层代码供用户使用,因此用户可以自行调整模型,并将其用于与研究相关的用例。与之截然不同的是,谷歌旗下的DeepMind和OpenAI并不公开训练代码。 该公司还表示,LLaMA作为一个基础模型被设计成多功能的,可以应用于许多不同的用例,而不是为特定任务设计的微调模型。 比GPT3.5性能更强 根据Meta官网介绍,LLaMA包含4个基础模型,参数分别为70亿、130亿、330亿和650亿。其中,LLaMA 65B 和 LLaMA 33B 在 1.4 万亿个 tokens 上训练,而最小的模型 LLaMA 7B 也经过了 1 万亿个 tokens 的训练。 Meta表示,在大多数基准测试中,参数小的多的LLaMA-13B的性能优于GPT3.5的前身GPT3-175B,而LLaMA-65B更可与业内最佳的Chinchilla-70B和PaLM-540B竞争。值得一提的是,近期大火的ChatGPT便是由GPT3.5提供支持。 Meta 还提及,LLaMA-13B对算力的要求“低得多”,可以在单个数据中心级GPU(Nvidia Tesla V100)上运行。 扎克伯格写道: “Meta 致力于这种开放的研究模式,我们将向 AI 研究社区提供我们的新模型。” 值得一提的是,去年5月,Meta 也曾推出过大型语言模型 OPT-175B。该项目同样也是针对研究人员的,这构成了其聊天机器人 blenterbot 新迭代的基础。后来,该公司还推出了一款名为“卡拉狄加”(Galactica) 的模型,但因经常分享偏见和不准确的信息而遭到下架。 据媒体报道,扎克伯格已将人工智能作为公司内部的首要任务,其本人也经常在财报电话会议和采访中谈论它对改进 Meta 产品的重要性。媒体分析称,虽然现在 LLaMA 没有在 Meta 产品中使用,但未来不排除使用的可能。 本文不构成个人投资建议,不代表平台观点,市场有风险,投资需谨慎,请独立判断和决策。 来源:金色财经
lg
...
金色财经
2023-02-27
ChatGPT嗨翻天,AIETF(512930)狂飙到何时?
go
lg
...
有望加速落地,业绩增长已成必然。 二、
AI
行业
发展再上新台阶? ChatGPT的出现,并非偶然。OpenAI在2018和2019年,分别推出了GPT1和GPT2,但当时它们的通用性不强,并未引起广泛关注。到2020年,OpenAI推出GPT3,正是因为GPT3的出现,使得大家基于它去开发一些全新的AI能力,也正是今天ChatGPT诞生的起点。 2022年,ChatGPT横空出世,人工智能发展进入新阶段。ChatGPT横不仅可以完美解答人类提出的指令,甚至可以自我对抗一个人类制定的判断标准,完成社会化改造,具有类似人的反应和情境认知。 人工智能已在多领域广泛应用,如安防、金融、医疗、智能汽车等领域,例如语音合成应用于导航、有声阅读、机器人等场景;计算机视觉应用于安防、人脸识别、自动驾驶等场景;自然语音处理应用于翻译、情感分析、智能问答等场景。未来,人工智能有望应用于更多场景,影响我们生活方方面面。 数据、算力、算法作为人工智能三要素,将迎来历史性发展机遇。人工智能模型的应用分为训练、推理两大环节。数据与算力是模型训练的基础,算法是模型实现路径,近年人工智能的快速发展得益于三大要素共同进步。 (1)数据是人工智能的“燃料”,全球数据量指数级增长。 深度学习算法是推动人工智能技术突破性发展的关键技术理论,大量训练数据的训练支撑是深度学习算法的基础。训练数据越多、越完整、质量越高,模型推断的结论越可靠。随着ChatGPT对人工智能的催化,数据量将会指数级增长。根据中国信通院数据,到2035年,全球数据量将达2142ZB,是2020年数据量的45-46倍。 图2:全球数据量(ZB) 资料来源:中国信息通信研究院,Statista,天风证券研究所 (2)算力是人工智能的“底座”,我国算力规模增长迅速。 人工智能模型的训练依赖大量算力支持,海量算力是大规模训练及生产人工智能模型的前提。数据海量增加,算法模型愈加复杂,应用场景的深入和发展,带来了对算力需求的快速提升。根据《2022-2023中国人工智能计算力发展评估报告》,2021-2026年我国智能算力规模增长迅速,年复合增长率达52.3%,而同期通用算力规模年复合增长率为18.5%。 (3)算法是人工智能“发动机”,算法迎来持续爆发。 2006年深度学习算法的提出使AI进入新发展阶段。近年AI应用的繁荣来源于AI算法持续突破创新,而且是在大数据、大算力的支持下发挥出较大的威力。2017年谷歌提出Transformer算法,奠定ChatGPT所有技术的基础。如今,ChatGPT开启强人工智能时代,算法相关领域有望迎来持续爆发。 数据、算力、算法三要素和人工智能发展相辅相成,未来市场潜力巨大, 2020年全球人工智能技术支出为687亿美元,预计2025年达到2212亿美元,年复合增速达到26.3%,而我国AI市场规模年复合增速将达到41.5%,预计增速有望全球第一。 三、行业龙头纷纷布局,
AI
行业
活力四射? 近期,国际大型科技公司相继发布AI产品和未来计划,互掰手腕。微软自2019年与OpenAI展开合作,并表示未来所有产品将全线整合ChatGPT,目前已推出引入ChatGPT技术的搜索引擎NewBing。2023年2月谷歌推出对标ChatGPT的对话机器人Bard。Bard基于谷歌LaMDA模型,参数量最高达1370亿,LaMDA已经在多个维度接近人类水平。谷歌表示未来会将AI技术率先应用于搜索领域,或将与微软展开正面竞争。 国内行业龙头积极布局,产业落地加速。 (1)科大讯飞:公司在AI领域积累深厚,ChatGPT有望带来新的成长机遇。 公司于2022年12月份进一步启动生成式预训练大模型任务攻关,科大讯飞AI学习机、讯飞听见等产品将成为该项技术率先落地的产品,将于2023年5月6日进行产品级发布。 公司在AI领域积累深厚,ChatGPT有望带来新的成长机遇随着ChatGPT的火热,认知智能迎来大规模应用的历史机遇期。公司在AI领域深耕多年,在深度学习算法、大模型技术、行业大数据、知识图谱、多模态感知、系统工程技术方面积累深厚,有望为公司带来新的成长机遇。 (2)三六零:公司已将ChatGPT作为核心战略。 三六零创始人周鸿祎在“星空下的对话”节目中公开表示:ChatGPT可能代表着“人工智能历史上一场真正革命的开始”,同时公司长期做搜索引擎,拥有大量算力、NLP处理模型等要素,还拥有财力支撑,将大力推进ChatGPT技术。 具体来看,截至2022年三季报公司拥有货币资金219亿元,能够保证公司在ChatGPT大量算力、研发等开支;同时公司相较于国外同行落后的主要是预训练大模型和有效的多模态数据清洗与融合技术,在继续深入自行研发的同时,不排除寻找强有力的合作伙伴,以开放的心态搭建多方共享平台、补足短板,快速缩小差距。 (3)浪潮信息:公司AI服务器竞争力强,积极布局人工智能产业。 浪潮信息产品在市场上具有较高的竞争力,根据Gartner、IDC、Synergy2022年发布的最新数据,公司服务器、存储产品在2022年Q1全球市占率10.4%位居第二,在中国市占率36.4%保持第一。 近日,公司在AIGC层面已从算力,算法,和应用三个方面进行布局。在人工智能浪潮的推动下,公司作为AI基础设施有望迎来更大发展。 我国具有丰富应用场景和数据积累,随着政策环境持续优化,科技巨头的纷纷投入,有望带动人工智能相关产业链加速发展,我们应积极关注相关产业链的投资机会。 四、人工智能投资,你“AI”了吗? 以ChatGPT为代表的人工智能技术给人类带来了便利,但也引起了诸多担忧。多国高校禁用ChatGPT、大型企业限制其使用范围、马斯克公开批评它.....人工智能领域在经历了几个月的狂飙之后,如今已经放缓脚步,相关个股走势分歧严重,涨停潮和跌停板此起彼伏,它正义无反顾的接受投资者的“审判”。 震荡的市场给我们创造了更多的投资机遇,在宏观以及微观均具备良好做多的当下,可关注ChatGPT、云计算、人工智能等热点概念板块的低吸机会,加大仓位配置。 平安中证人工智能ETF【场内简称AI ETF(512930)】,一键投资人工智能,该基金紧密跟踪中证人工智能主题指数,投资覆盖大数据、云计算、云存储、机器学习、机器视觉、人脸识别、语音语义识别、智能芯片等人工智能领域;持仓股包括科大讯飞、三六零、浪潮信息、韦尔股份等热门股,市值权重分布上相对均衡,在小市值风格较强的当下具有行业主题+风格属性双击的优势。 AI ETF(512930)管理费率为0.15%,托管费率为0.05%,远低于市场同类型权益ETF费率,有助于投资者节约投资成本,提高投资效率。同时具备透明度高、申赎更加灵活、交易费率更低、流动性更强等特征,可以作为投资者投资标的指数的有效工具。 (来源:界面AI) 声明:本条内容由界面AI生成并授权使用,内容仅供参考,不构成投资建议。AI技术战略支持为有连云。
lg
...
有连云
2023-02-27
上一页
1
•••
53
54
55
56
57
58
下一页
24小时热点
中国国家主席习近平重大行动表态!金融时报:A股长期牛市可能从此开启
lg
...
金市展望:前所未有的暴涨!黄金触及3000美元只是时间问题 下周多重风险
lg
...
中国国家主席习近平“果然”信号明确!交易主管:中国经济策略发生重大变化
lg
...
下周展望:“德国史上最重要选举”来袭!美国PCE绝对爆点,别忘了日本CPI
lg
...
特朗普对华新招!推动墨西哥对中国进口商品征收关税
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
60讨论
#VIP会员尊享#
lg
...
1751讨论
#比特币最新消息#
lg
...
903讨论
#CES 2025国际消费电子展#
lg
...
21讨论