全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
马斯克指控一人工智能机器人账号是加密骗局,推特暂停该账号
go
lg
...
bhu Biswal创办的,该账号使用
OpenAI
的GPT-4模型来理解并回复那些标记了该账户的人的推文。 该账号还与ERC-20表情包代币Bob Token(BOB)相关联,该代币于2023年4月推出。在推特暂停“Explain This Bob”的账号后,这种加密代币的价格暴跌了超过30%。 这次暂停标志着马斯克对这个机器人账号的早期印象发生了转变,4月20日,他曾在推特上发“我爱鲍勃”来回应该账号的一条推文。观察人士认为,马斯克现在认为“Explain This Bob”是一种营销策略,目的是提高Bob Token的价格。
lg
...
金融界
2023-06-21
老虎环球遭遇滑铁卢:60亿美元基金8个月仅融资20多亿
go
lg
...
3000万美元,并且在人工智能创业公司
OpenAI
获得了“有意义的所有权”。
OpenAI
最近以290亿美元的估值融资3亿美元。
lg
...
金融界
2023-06-20
Etherscan AI工具Code Reader官方教程
go
lg
...
下几点: AI 生成答案:这些响应由
OpenAI
的大型语言模型 (LLM) 生成,仅供参考。始终验证它们的准确性,不要仅仅依赖它们作为证据或提交漏洞赏金。 生成提示:要使用该工具,你需要有效的
OpenAI
API 密钥和足够的
OpenAI
使用限制。此工具不存储你的 API 密钥。 聊天完成模式:该工具目前仅支持一次性提示,不允许连续对话。 Code Reader 5步使用法 1、首先输入你的
OpenAI
API 密钥。 2、粘贴你想探索的合约地址。 3、该工具将自动获取与提供的合约相关的所有文件。 4、检索到合约文件后,你可以选择要通读的特定源代码文件。此外,你可以在与 AI 共享之前直接在 UI 中修改源代码。 5、根据选定的源代码,你可以生成 AI 提示与代码进行交互并提出问题以加深理解。 用例示范 代码概述:为特定部分代码或函数生成 AI 提示,让你更深入地了解那部分代码。利用有针对性的问题获得 AI 生成的解释,使你能够深入研究代码的内部工作原理。当第一次与智能合约交互时,此功能特别有价值,因为它提供了对其操作和功能的透彻理解。此外,利用此功能生成文档以供参考。 检索读/写函数:获取与读写以太坊数据相关的智能合约函数的完整列表,以及它们各自功能的详细说明。有了这些信息,你可以就如何直接在相应的合约地址页面上的“读取合约”或“写入合约”选项卡下与这些功能进行交互做出明智的决定。 探索 dApp 集成:深入研究代码,全面了解如何将所选智能合约与你的去中心化应用程序 (dApp) 无缝集成。 代理合约的限制 粘贴代理合约地址时,工具不会自动获取执行合约的合约文件。要访问相关的执行合约,你可以进入代理合约的地址页面,勾选“Read/Write as Proxy”选项卡并复制地址: 如果“Read/Write as Proxy”选项卡不可用,你可以导航至下方按钮,在Proxy Contract Verification页面点击“Verify”,复制找到的实现地址: 单击“这是代理吗?” 按钮 来源:金色财经
lg
...
金色财经
2023-06-20
人工智能遇上大麻烦了! 产出内容全是“垃圾” 科学家警告AI训练AI将产生“模型崩溃”
go
lg
...
其称为“模型崩溃”。 ChatGPT和
OpenAI
等大型语言模型通常被认为是基于从互联网上获取的大量数据进行训练的,而这些数据直到最近都是主要由人类生成的。 但随着我们对这些工具的使用增加,人工智能生成的内容正在大规模地添加到未来语言模型将学习的在线数据池中。 科学家们表示,经过几代的训练,这意味着错误和无意义的情况将会不断增加,使得后续的人工智能无法区分事实和虚构。这些人工智能将会“开始错误地解释他们认为是真实的事物,从而强化他们自己的信念”。 Anderson使用莫扎特及其不那么有才华的同时代作曲家安东尼奥·萨列里的作品来说明这个问题。他写道:“如果你用莫扎特训练一个音乐模型,你会得到一些有点像莫扎特但缺乏亮点的输出结果—我们称之为'萨列里'。如果现在由萨列里训练下一代,依此类推,第五代或第六代会是什么样子?” 论文的首席作者、牛津大学的Ilia Shumailov博士表示,问题出在AI在之前的AI上进行训练后对概率的理解。不太可能发生的事件在其输出中越来越不太可能反映出来,这限制了下一代AI在理解上一代AI输出的可能性。 论文中给出的一个例子是,将一个由人类生成的关于中世纪建筑的文本输入到一个AI语言模型中,然后使用该模型的输出来训练后续几代的AI。 原始文本中对竞争的建筑理论进行了熟练的处理,经过多次循环后,第九代的文本变成了无意义的内容。 Anderson将其比喻为大规模的污染,写道:“正如我们将海洋填满了塑料垃圾,大气层充斥着二氧化碳一样,我们即将用无聊的内容填满互联网。” 人工智能生成的内容已经大规模地在网上出现。在线虚假信息监测机构NewsGuard在5月份警告称,他们发现了49个新闻网站,看起来完全是由人工智能编写的。 而根据《华盛顿邮报》的报道,营销和公关机构越来越多地将它们的文案交给聊天机器人,使人类作家失去了工作机会。 但是,在Shumailov和Anderson的研究结果出来之后,希望不被AI超越的人类作家们还不能太过自满。 Shumailov表示,人类生成的数据并不是训练AI所必需的绝对要素,人类生成的数据之所以有用,是因为它们包含了自然变化、错误和不太可能的结果。“所以人类肯定会提供帮助,但同时也不意味着人类数据是一个重大要求。”
lg
...
楼喆
2023-06-20
向美国和中国发起挑战!法国高调推动自己成为欧洲人工智能中心
go
lg
...
人工智能的炒作在一定程度上是由美国公司
OpenAI
的ChatGPT聊天机器人的广泛传播性质引发的。 在法国年度科技大会Viva Tech上,从初创公司到老牌科技公司,以及从化妆品到银行业等各行各业的公司,每个人都在谈论人工智能。 马克龙、法国财政部长Bruno Le Maire和数字部长Jean-Noel Barrot出席了此次活动,表明了政府对法国科技发展的支持。 “我们将疯狂地投资于培训和研究,”马克龙告诉CNBC,并补充说,法国在人工智能领域处于有利地位,因为它可以获得人才和围绕该技术成立的初创企业。 虽然美国在许多方面被视为人工智能领域的领导者,但法国希望迎头赶上。 “相信我,很明显美国是第一,这是有充分理由的,因为它是一个巨大的国内市场……我希望我们能明确地弥合差距,加大投资,加大发展,加快进步,”马克龙说。 即使在欧盟内部,巴黎的雄心也面临着激烈的竞争。 “法国肯定有机会成为欧洲的领导者,但它面临着来自德国和英国的激烈竞争,”约翰霍普金斯大学保证自主研究所的联合主任Anton Dahbura通过电子邮件告诉CNBC。 过去一周,英国首相苏纳克(Rishi Sunak)大力推动英国成为全球人工智能中心。 Dahbura说,法国要想取得成功,就需要“利用人工智能在它已经很强大的经济领域发展”,比如制造业和制药业。 Dahbura说:“这是一个关键时刻,需要从战略上确定特定的独特能力领域,并大力投资于人工智能,以建立优势。” 美国公司目前主导着关于人工智能的讨论,比如微软(它投资了
OpenAI
)和芯片制造商英伟达(Nvidia)。 马克龙表示,法国没有像美国那样的人工智能巨头,但希望在该技术领域创造两三个“大型全球参与者”。 它寄望于自己的初创企业能够迅速成长。成立四周的法国初创公司Mistral AI筹集了1.05亿欧元的资金,突显了人工智能发展的潜力和炒作。其他一些本地创业公司也在Viva Tech上展示了他们的产品。 法国希望通过包括美国和英国在内的七国集团(G7)以及经济合作与发展组织(OECD)来实现对人工智能的全球监管。 马克龙说:“从我的角度来看……我认为我们确实需要一个规则,所有的成员,甚至是美国成员,都同意这一点。我认为我们需要一个全球性的监管。” 法国既视美国为对手,又视其为盟友。法国和欧洲的公司将试图与微软和谷歌等美国巨头竞争,但任何形式的全球监管都需要华盛顿的支持。 “竞争总是一件好事。因此,我们与美国有着非常密切的合作,但我们也希望获得我们自己的人工智能和公司。所以我认为,美国和欧洲之间的公平竞争,以及在一些关键设备上的合作,对美国和欧洲都有好处,”法国财政部长Bruno Le Maire告诉CNBC。“在监管方面,我认为与美国当局就监管人工智能的最佳方式进行深入讨论绝对至关重要。”
lg
...
超启
2023-06-19
华为轮值董事长胡厚崑:新的人工智能时代已到来
go
lg
...
阶段均需进行高性能算力资源支撑运行,以
OpenAI
的GPT-3模型为例,在训练阶段,我们预计模型算力总需求可达3.15E23FLOPs。同时,从英伟达一季度财务表现看,AI算力侧率先实现业绩兑现,英伟达AI芯片所在数据中心业务一季度收入达42.8亿美元,同比上升14%,环比上升18%,破历史记录,同时英伟达上修二季度业绩预期,印证算力侧高景气。 光模块、算力板块早盘再度活跃,相关ETF方面,AI人工智能ETF(512930.SH)逆市走强,截至发布,涨幅为3.24%,再次逼近年内高点,浪潮信息、北斗星通、光迅科技等多只成分股涨停。 中证人工智能指数在产业链上游算力,中游算法,下游AI+应用均衡布局,对目前仍处于爆发初期的AI板块来说,指数化投资是把握行业爆发的beta行情的极佳工具,建议持续关注AI人工智能ETF(512930.SH)。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-06-19
到了2030年 GPT会发展成什么样?
go
lg
...
0 个单词的人类思维速度为基准。使用
OpenAI
的chat completions API,我们估计 gpt-3.5-turbo 每分钟可以生成 1200 个单词 (words per minute,wpm),而 gpt-4 是 370 wpm(截至 2023 年 4 月初)。规模较小的开源模型,如 pythia-12b ,用 A100 GPU 跑用开箱即用的工具,至少可达到 1350 wpm,通过进一步优化似乎可以再翻一番。 因此,如果以截至 4 月份的
OpenAI
模型为参照,人工智能的速度要么大约是人类速度的 3 倍,要么等于人类速度。我预测模型在未来的推理速度会更快,因为在加速推理方面存在很大的商业与实践压力。事实上,根据 Fabien Roger 的跟踪数据,在这篇文章发表之前的一周,GPT-4 的速度已经增加到约 540wpm(12 个token/秒);这表明存在持续的改进空间与意愿。 我的预测中值是模型的 wpm 将是人类的 5 倍(范围:[0.5x, 20x]),因为这之后会出现边际收益递减的情况,尽管有一些考虑会指向更高或较低的数字。 重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以以吞吐量减少 k 倍为代价将速度提高 k 平方倍(换句话说,一个模型 k 立方倍的并行副本可以替换为速度快 k 平方倍的一个模型)。这可以通过并行平铺法来实现,理论上甚至适用于比 k 平方还要大的情况,可能至少是 100 甚至更多。因此,通过把 k 设为 5 的话,可以将 5 倍于人类速度的模型加速到 125 倍于人类速度。 重要提醒,速度与质量未必匹配:如第 1 节所述,GPT 2030 的技能组合跟人类不一样,机器在某些我们认为很容易的任务上会失败,而在某些我们感觉困难的任务却很精通。因此,我们不应把 GPT 2030 看作是“高速版人类”,而应将其看作是具有违反直觉的技能的,“高速版员工”。 尽管如此,把加速因素纳入考虑仍然很有参考意义,尤其是当加速值很大时。如果语言模型获得了 125 倍的加速,假设其处于 GPT 2030 的技能范围内,需要我们一天时间的认知动作,GPT 就可以在几分钟内完成。以前面的黑客攻击为例,机器学习系统可以快速建立起对我们来说生成速度较慢的漏洞利用或攻击。 3. 吞吐量与并行副本 模型可以根据可用的计算和内存情况任意复制。这样任何可以并行化的工作都可以快速完成。此外,一旦一个模型被微调到特别有效,改变就可以立即传播到其他实例。模型也可以针对专门的任务进行提炼,从而跑得更快、成本更低。 一旦模型经过训练,可能就会有足够的资源来跑模型的多个副本。这是因为训练一个模型需要运跑它的很多个并行副本,而训练这个模型的组织在部署的时候仍将拥有这些资源。因此,我们可以通过估算训练成本来降低副本数量。 举个例子说明一下这种逻辑,训练 GPT-3 的成本足以让它执行 9 x 10^11 次前向传播。换句话说,人类每分钟的思考量是 380 个单词,一个单词平均为 1.33 个 token,因此 9 x 10^11 次前向传播相当于以人类速度工作约 3400 年。因此,用人类的工作速度该组织可以跑 3400 个模型的并行副本一整年,或者以 5 倍于人类的速度跑相数量的副本 2.4 个月。 我们接下来为未来的模型设计同样的“训练悬垂”(训练与推理成本的比率)。这个比率应该会更大:主要原因是训练悬垂与数据集大小大致成正比,而数据集会随着时间的推移而增加。随着自然产生的语言数据被我们用完,这种趋势将会放缓,但新的模式以及合成或自生成的数据仍将推动它向前发展。我预测 2030 年的模型可使用足够的资源进行训练,去执行相当于人类速度 1800000 年的工作[范围:400k-10M]。 请注意,Cotra (2020) 与 Davidson (2023) 估计的数量相似,得出的数字比我得预测更大;我想主要区别在于我对自然语言数据耗尽所产生影响得建模方式不一样。 上面的预测有些保守,因为如果组织购买额外的计算资源的话,模型可使用得资源可能会多于训练时所用资源。粗略估计表明,GPT-4 使用了全球计算资源的约 0.01% 进行训练,不过我预计未来的训练占用全球计算总量的份额会更大,因此在训练后进一步扩展的空间会更小。尽管如此,如果组织有充分理由去扩展资源的话,仍然可以将所运行的副本数量提高到另一个数量级。 4. 知识分享 (感谢 Geoff Hinton 首先向我提出了这个观点。) 模型的不同副本可以共享参数更新。比方说,ChatGPT 可以部署到数百万用户那里,从每次交互中学到一些东西,然后将梯度更新(gradient updates)传播到中央服务器,在做过平均处理后再应用到模型的所有副本上。通过这种方式,ChatGPT 在一个小时内观察到的人性比人类一辈子(100 万小时 = 114 年)看过的东西还要多。并行学习也许是模型最重要的优势之一,因为这意味着它们可以快速学习任何自己缺失的技能。 并行学习的速率取决于一次跑多少个模型副本,它们获取数据的速度有多快,以及数据是否可以高效地并行利用。最后这一点,即使是极端的并行化也不会对学习效率造成太大影响,因为数百万的批量大小在实践中很常见,并且梯度噪声尺度(McCandlish 等人,2018 年)预测学习性能在某个“临界批量大小”以下劣化程度最小。因此,我们将聚焦在并行副本和数据采集上。 我会提供两个估计,这两个估计都表明以人类的速度并行学习至少约 100 万份模型是可行的。也即是说,机器一天的学习量相当于人类学 2500 年,因为 100 万天 = 2500 年。 第一个估计用到了第 3 节中的数字,得出的结论是训练模型的成本足以模拟模型 180 万年的工作(根据人类速度进行调整)。假设训练运行本身持续了不到 1.2 年(Sevilla 等人,2022 年),这意味着训练模型的组织有足够的 GPU 以人类速度运行 150 万个副本。 第二个估计考虑了部署该模型的组织所占市场份额。比方说,如果一次有 100 万用户向模型发起查询,则组织必然有资源来服务 100 万个模型副本。大致而言,截至 2023 年 5 月,ChatGPT 拥有 1 亿用户(并非同时全部活跃),截至 2023 年 1 月,其每天有 1300 万活跃用户。我假设典型用户的请求量相当于模型几分钟的生成文本,因此 1 月份的数字可能意味着每天大概只有 5 万人日的文本。不过,未来的 ChatGPT 式的模型似乎很可能会达到其 20 倍之多,日活用户可以达到 2.5 亿更多,因此每天将会有 100 万人日的数据。相比之下,Facebook 的日活用户数是 20 亿。 5. 多模态、工具与执行器 从历史上看,GPT 风格的模型主要是基于文本和代码进行训练,除了通过聊天对话之外,与外界互动的能力有限。然而,这种情况正在迅速改变,因为模型正在接受图像等其他模态的训练,正在接受使用工具的训练,并开始与物理执行器交互。此外,模型不会局限于文本、自然图像、视频和语音等以人类为中心的模态——它们也可能会接受网络流量、天文图像或其他海量数据源等人类不熟悉的模态的训练。 工具。最近发布的模型开始利用了外部工具,如 ChatGPT 插件等。文本与工具使用相结合足以编写出可执行的代码,说服人类让机器替他们采取行动,进行 API 调用,交易,甚至执行网络攻击都有可能。工具的使用具备经济用途,因此会有进一步发展这种能力的强烈动机。 ChatGPT 是被动的:用户说 X,ChatGPT 回应 Y。风险存在但有限。很快就会有主动系统 - 一个助手会替你回复电子邮件,代表你采取行动等。这样风险会更高。 - Percy Liang (@percyliang) 2023 年 2 月 27 日 新模态。现在有大型开源视觉语言模型,如 OpenFlamingo,在商业方面,GPT-4 和 Flamingo 都接受了视觉和文本数据的训练。研究人员还在试验更多奇异的模态对,例如蛋白质和语言(Guo 等人,2023 年)。 我们应该期望大型预训练模型的模式会继续扩展,原因有二。首先,在经济上,将语言与不太熟悉的模态(如蛋白质)配对有它的用处,这样用户就可以从解释并有效地进行编辑中受益。预测会用蛋白质、生物医学数据、CAD 模型以及与主要经济部门相关的任何其他模态进行多模态训练。 其次,我们将开始用完语言数据,因此模型开发人员得搜索新类型的数据,从而可以继续受益于规模。除了传统的文本和视频之外,现有数据源当中天文数据(很快将达到每天艾字节得规模)和基因组数据(大约 0.1 艾字节/天)是规模最大之一。这些以及其他得海量数据源可能会被用于训练 GPT 2030。 使用外来模态意味着 GPT 2030 可能会具备非直觉的能力。它可能比我们更了解恒星和基因,即尽管它现在处理基本的物理任务都比较困难。这可能会带来惊喜,比方说设计出新的蛋白质,这是我们基于 GPT 2030 那种“一般”智能水平预料不到的。在思考 GPT 2030 的影响时,重要的是要思考由于这些奇异的数据源而可能形成的超人能力。 执行器。模型也开始使用物理的执行器:ChatGPT 已经用于机器人控制,
OpenAI
正在投资一家人形机器人公司。不过,在物理域收集数据要比在数字域收集数据昂贵得多,而且人类在进化上也更适应物理域(因此机器学习模型与我们竞争的门槛更高)。因此,与数字工具相比,我预计人工智能掌握物理执行器的速度会更慢,而且我不确定我们是否该在 2030 年之前做到这一点。量化而言,我认为在 2030 年实现自主组装一辆按比例复制的法拉利的概率是 40%。 6. GPT-2030 的影响 接下来我们将分析像 GPT 2030 这样的系统对社会意味着什么。具备 GPT 2030 特征的系统至少会显著加速某些领域的研究,同时被滥用的规模也大得很。 我会从分析 GPT 2030 的一些一般优势和局限性开始,然后用来作为分析加速和滥用的视角。 优势。GPT 2030 代表的是一支庞大、适应性强、高产出的劳动力队伍。回忆一下吧,多个 GPT 2030 副本并行工作,按照 5 倍于人类的运行速度,可以完成 180 万年的工作。这意味着我们可以(受到并行性的限制)模拟 180 万个代理,每个代理在 2.4 个月内即可完成一年的工作。如上所述,对于 FLOP (浮点运算),我们可以开出 5 倍的费用,从而换取额外 25 倍的加速(这将达到人类速度的 125 倍),因此我们还可以模拟出 14000 个代理,这些代理每个都能在 3 天内完成一年的工作。 限制。利用这种数字劳动力存在三个障碍:技能情况、实验成本以及自主性。首先,GPT 2030 将拥有与人类不同的技能组合,导致它在某些任务上表现更差(但在其他任务上表现更好)。其次,模拟人工仍然需要与物理世界对接,以便收集数据,这个本身需要时间和计算成本。最后,在自主性方面,如今的模型在被“卡住”之前只能通过思维链生成几千个 token,进入到没法生成高质量输出的状态。在将复杂任务委托给模型之前,我们需要显著提高其可靠性。我预计可靠性会提高,但并非没有限制:我(非常粗略)的猜测是 GPT 2030 可以稳定运行数天(与人类等效的时间),然后就得重新设置或交给外部反馈控制。如果模型以 5 倍的速度运行的话,这意味着它们每隔几个小时就需要人工监督的介入。 因此,GPT 2030 影响最大的任务应该具备以下特性: 利用了 GPT 2030 相对于人类具备优势的技能。 只需要外部经验数据(收集应该很轻松快速,与昂贵的物理实验相反)的任务。 可以先验分解为可靠执行的子任务,或者具有清晰且可自动化的反馈指标来帮助引导模型的任务。 加速。有项任务这三条标准都很容易满足,那就是数学研究。首先,GPT 2030 可能具备超人的数学能力(第 1 节)。这第二条和第三条,数学可以纯粹通过思考和写作来完成,而且什么时候定理得到证明我们是知道。此外,全球的数学家总共也没多少(比方说美国就只有 3000 人左右),因此 GPT 2030 也许每隔几天模拟一次产出就能超过所有数学家的年产。 机器学习研究的一些重要部分也符合上述标准。GPT 2030 在编程方面能力超人,其中包括实施和运行实验。鉴于 GPT-4 擅长以通俗易懂的方式解释复杂的主题(并且市场对此也有很大需求),我猜它也能很好地呈现和解释实验结果。因此,届时机器学习研究可能会简化成构思出好的实验来运行,并与高质量(但可能不可靠)的结果报告进行交互。因此,到 2030 年时,研究生拥有的资源堪比今天带领几名优秀学生的教授手上的资源。 部分社会科学也可以得到显著加速。很多论文大部分的工作是对具备科学有趣性的数据源进行追查、分类和标记,并从中析取出重要模式。这满足了第 3 条要求,因为分类和标记可以分解为简单的子任务,并且也满足第 2 条要求,只要数据在互联网上能找到,或者可以通过在线调查收集到即可。 滥用。加速只是一方面,另一方面也会存在严重的滥用风险。最直接的案例是表现出网络攻击性的黑客能力。检查特定目标是否存在特定类型的漏洞可能会得到可靠执行,并且很容易就能检查漏洞利用是否成功(前提是能够与代码交互),因此第 3 条要求是都可以满足的。在第 2 条要求上,GPT 2030 需要与目标系统交互去了解漏洞利用是否有效,这会带来一些成本,但不足以构成重大瓶颈。此外,该模型可以在本地设计好,以开源代码作为训练数据源,去测试漏洞利用,因此它可以提前练好黑客攻击技能,然后再与外部系统进行交互。也就是说,GPT 2030 可以针对大量并行目标快速执行复杂的网络攻击。 滥用的第二个来源是操纵。如果 GPT 2030 同时与数百万用户进行交互的话,那么它在一个小时内获得的人机交互体验比人一生(100 万小时 = 114 年)获得的交互体验都要多。如果它利用这些交互来学习如何操纵,那么它就可以获得远超人类的操纵技能——打个比方,骗子擅长欺骗受害者,因为他们之前已经在数百人身上练习过,而 GPT 2030 可以将这项技能提高几个数量级。因此,它可能非常擅长在一对一对话中操纵用户,或者擅长撰写新闻文章来影响公众舆论。 因此,总而言之,GPT 2030 可以将几乎所有的数学研究以及其他研究领域的重要组成部分自动化,并且可能成为网络攻击和说服/操纵等滥用行为的强大载体。其大部分影响将受到“监督瓶颈”的限制,因此如果人工智能可以长时间自主运行的话,那么它的影响可能会更大。 来源:金色财经
lg
...
金色财经
2023-06-19
AI动力生成meme平台AiDoge即将在MEXC交易所上市 将带来$AI的100倍涨幅?
go
lg
...
领先Web3行业的AI和meme币初创企业AiDoge即将在顶尖加密货币交易所MEXC上市。 从2023年6月19日UTC时间上午开始,加密货币投资者将能够通过MEXC的加密货币交易平台直接购买AiDoge的本地$AI加密代币。 鉴于MEXC已经有一个代币使用相同的代码,AiDoge将在该平台上以$AI2进行交易(但在其他平台上,如去中心化交易所,仍然是$AI)。 参与AiDoge预售的投资者将能够在2023年6月19日UTC时间09:00(北京时间6月19日下午5时)后领取他们的代币。 Aidoge正在建立一个独特的、由人工智能(AI)驱动的meme生成和分享平台。 考虑到该项目已经引起了meme币群众和对投资尖端AI加密项目感兴趣的人的关注,分析师对$AI的前景预测非常看好。 一些分析师甚至提出了$AI可能会获得100倍收益的说法。 英国知名加密预售分析师Jacob Crypto Bury认为$AI很可能成为下一个爆炸性增长的加密项目,有着100倍的潜力。 与此同时,同行的加密预售分析师Crypto Gains认为$AI很容易实现20倍的收益,他的YouTube帐户拥有超过10万订
lg
...
Business2Community
2023-06-19
马云的蓝池资本再押注 NFT?速览 5 月获顶级加密 VC 投资的 25 个项目
go
lg
...
合创始人 Sam Altman 也是
OpenAI
的首席执行官,他认为,未来人工智能将使大部分人失业,因此 UBI(全民基本收入)将至关重要。 因此,Worldcoin 旨在:验证并创建人们在数字世界中的身份,以及为他们提供基本收入。 20. Transak 2023 年 5 月 31 日 A 轮:2000万美元 领投方:CE Innovation Capital 投资者:SBI Ven Capital、Sygnum、Azimut、Third Kind Venture Capital、UOB Venture Management、Signum Capital、Animoca Brands、Genting Ventures、Istari Ventures、No Limit Holdings、Woodstock Fund、IOSG Ventures、KX、Axelar、Tokentus、The Lao、和更多 Transak 是目前最大的 Web3 支付服务之一,可让用户在任何集成了该服务的平台或 dApp 上进行“法币<>加密货币”兑换功能。 21. Magic 2023 年 5 月 31 日 战略:5200 万美元 领投方:PayPal Ventures 投资者:Cherubic、Synchrony、KX、Northzone、Volt Capital 等 Magic 是一家“钱包即服务”公司,旨在抽离 Web3 的复杂性,为企业、用户提供与 Web2 一样简单的可定制加密钱包。迄今为止,Magic 已经创建了超过 2000 万个钱包,并被超过 13 万名开发人员使用。 六、基础设施 22. zkLink 2023 年 5 月 4 日 战略:1000 万美元 投资者:Coinbase Ventures、Ascensive Assets、SIG DTI、BigBrain Holdings、Efficient Frontier 等 zkLink 是一个基于 zk-SNARKs 的 L2 协议,专注于多链交易,目前支持的网络包括以太坊、BNB Chain、Polygon、Avalanche、zkSync、Scroll 等。此外,开发人员可以使用其 API 创建范围更广泛的跨链产品,包括跨链 DEX 和跨链 NFT 市场等。 23. Webb 2023 年 5 月 8 日 种子轮:700 万美元 领投方:Polychain Capital,Lemniscap 投资者:Zee Prime、CMS Holdings 等 Webb 是一种基于 ZK 技术的隐私跨链协议,其拳头产品 Hubble Bridge 允许用户在多个网络之间进行资产转移、验证身份、消息传递。 24. Airstack 2023 年 5 月 17 日 种子前:700 万美元 领投方:Superscrypt 投资者:Polygon、Hashed Emergent、NGC、Primal Capital、UOB Ventures、Signum Capital 等 Airstack 是一个区块链数据平台,可让开发人员轻松查询来自多个网络的数据。它还为用户开发了一个人工智能助手,可以通过询问进行查询。例如,询问“帮我查找拥有超过 10,000 MATIC 的持有人的钱包地址”,Ai 助手会自动提供查询结果。 25. PYOR 2023 年 5 月 19 日 种子轮:400万美元 领投方:Castle Island Ventures 投资者:Hash3、Antler、Future Perfect Venture、Force Ventures、CoinSwitch Ventures、Coinbase Ventures、Balaji Srinivasan PYOR 是一个面向机构的区块链数据分析平台,用户可以访问各个网络的数据,并且可以创建自定义仪表板。目前该平台处于私人测试阶段。 风险提示: 根据央行等部门发布的《关于进一步防范和处置虚拟货币交易炒作风险的通知》,本文内容仅用于信息分享,不对任何经营与投资行为进行推广与背书,请读者严格遵守所在地区法律法规,不参与任何非法金融行为。 来源:金色财经
lg
...
金色财经
2023-06-18
一周财闻:降息、降息、降息;5月金融数据出炉;美联储暂停加息
go
lg
...
对生成式人工智能增加更多安全控制措施,
OPENAI
、谷歌需要对GPT-4等工具进行评估。 人民日报:加快发展新一代人工智能 人民日报发题为《加快发展新一代人工智能》的时评文章,文章指出,人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。文章也提到,人工智能大模型带来的治理挑战也不容忽视。 股份行、城农商行跟进国有大行下调存款利率 继国有六大行后,全国性股份行紧随其后官宣下调人民币存款利率。6月12日,12家股份行跟随国有大行完成存款利率下调,各期限存款产品调整幅度在5-15个bp。同日,兰州银行相关负责人表示,近期该行也将适度下调存款挂牌利率,各期限品种调降幅度在5bp-30bp之间。 国内成品油迎年内第6次下调:汽油下调55元/吨 柴油下调50元/吨 国内成品油迎年内第6次下调,汽油下调55元/吨,柴油下调50元/吨。按一般家用汽车油箱50L容量估测,加满一箱92号汽油,将少花2元。 证监会主席易会满:围绕加强资本市场监管等重点领域研究制定一揽子政策措施 证监会主席易会满13日表示,围绕支持高水平科技自立自强、服务现代化产业体系建设、投资端改革、加强资本市场监管等重点领域研究制定一揽子政策措施。 高通对华为恢复提供5G芯片供应?余承东:假消息 有消息称,高通恢复为华为提供5G芯片供应,华为下半年或将发布有5G服务的mate60。对此,华为常务董事余承东表示,假消息。 调整起售价及新车主权益 蔚来全系车型降价3万元 蔚来宣布12日起旗下全系车型起售价下调3万元,免费换电补能不再作为标准用车权益。至此,蔚来车型起售价下探至22.8万元起。 FSD完全版将试点上海?特斯拉中国:消息不实 针对市场流传“上海将作为FSD完全版第一个试点城市开放”的消息,特斯拉中国回应,“消息不实。” 美国联邦贸易委员会将设法阻止微软收购动视暴雪的交易最终完成 微软收购动视暴雪在获得欧盟反垄断监管机构的批准近一个月后,美国反垄断机构又以可能违反反垄断法为由试图暂停这笔交易。 AMD公布新款MI300X AI芯片 AMD公布新款MI300X AI芯片,公司还公布了MI300A芯片,将用于美国的"El Capitan"超级计算机。
lg
...
金融界
2023-06-18
上一页
1
•••
362
363
364
365
366
•••
484
下一页
24小时热点
传美国对华限制不严格,全球风向变了!法国政府准备让步,中国还在等
lg
...
FX168日报:特朗普阵营传大消息!黄金突然变脸的原因在这 日元暴涨近200点
lg
...
中国国防部长董军传涉嫌腐败遭到调查 中方最新回应来了!
lg
...
彭博:为何中国多名高级军事领导人被免职?
lg
...
中欧突发重磅!《华尔街日报》:瑞典确认“中国船只”破坏海底电缆 中国最新回应来了
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1329讨论
#VIP会员尊享#
lg
...
1517讨论
#比特币最新消息#
lg
...
628讨论