全球数字财富领导者
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
一则乌龙消息搅翻市场!美国伊朗双双否认 原油上演V型反转
go
lg
...
核项目的方法。 该协议旨在阻止伊朗发展
核
武
器
,要求德黑兰接受对其核项目的限制和更广泛的联合国检查,以换取联合国、美国和欧盟结束对伊朗的制裁。 一个可能的解决方案是达成一项临时协议,根据该协议,伊朗将接受对其核计划更少的限制,以换取比2015年协议更温和的制裁减免。 中东之眼援引两名未具名消息人士的话说,伊朗和美国已经“就一项临时协议达成一致”,并将向他们的上级汇报。 声明说,伊朗将停止纯度为60%或以上的铀浓缩活动,并继续与联合国核监督机构合作,以换取每天出口至多100万桶石油,并获得“收入和其他在国外冻结的资金”。 突发!伊朗和美国传来一则消息 原油闻讯“断崖下跌”超4% 中东之眼报告公布后,油价一度下跌逾3美元/桶,但在白宫予以否认后,油价收复了大部分失地。 (美国WTI原油30分钟走势图,来源:FX168) 该网站说,会谈由美国伊朗问题特使马利和伊朗驻联合国大使伊拉瓦尼主持,这显然改变了伊朗拒绝直接与美国官员打交道的态度。 美国国务院发言人拒绝就任何此类会谈发表评论,只表示有办法向伊朗传递信息,但不愿详细说明信息的内容或传递方式。 两名伊朗官员告诉路透社,谈判取得了进展,但不会很快达成协议。第三名官员说,马利和伊尔瓦尼在过去几周至少见过三次面,但没有透露细节。 “已经取得了一些进展,我们已经与美国人交换了建议和信息,”一名伊朗高级官员说。“不过,我们还有很多细节需要讨论。” 2015年的协议将伊朗的铀浓缩限制在3.67%,该协议于2018年被当时的美国总统特朗普放弃。特朗普政府重新对伊朗实施了制裁,以遏制伊朗的石油出口。 此后,伊朗积累了纯度为60%的铀储备,联合国核监督机构发现了纯度为83.7%的微量铀,接近被视为核弹级别的90%。
lg
...
夏洛特
2023-06-09
中国和古巴达成秘密协议?美国白宫回应:该报告不准确
go
lg
...
巴导弹危机是在莫斯科开始在古巴部署苏联
核
武
器
后爆发的。莫斯科随后做出让步,撤掉了导弹,但人们普遍认为,那是美国和苏联最接近核对抗的时刻。 上世纪60年代中期,苏联在哈瓦那以南的卢尔德岛上设立了一个间谍基地,用抛物面天线对准古巴的北方邻国。俄罗斯总统普京在21世纪初关闭了该设施。
lg
...
财经风云
2023-06-09
a16z创始人万字长文:为什么AI会拯救世界
go
lg
...
·诺伊曼对罗伯特·奥本海默关于他在创造
核
武
器
方面的担忧的回应——这有助于结束了第二次世界大战并阻止了第三次世界大战。他说:"有些人为了声称他们的罪行而承认罪行。"什么是以夸张的方式声称自己工作的重要性而不显得过于自夸的最好方式呢?这解释了那些实际上正在建造和资助人工智能的浸礼会的言行不一致——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后更加严厉地说:"别让那个爱哭鬼再进来。") 其次,一些浸礼会实际上是私酒贩子。有一个完整的职业称为"人工智能安全专家"、"人工智能伦理学家"、"人工智能风险研究员"。他们的工作是成为末日预言者,并且应该适当地对待他们的陈述。 第三,加利福尼亚州以众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。其中许多,尽管不是所有,邪教是无害的,甚至为在其中找到归宿的疏离感的人提供了帮助。但有些非常危险,邪教往往很难在导致暴力和死亡的那条线上徘徊。 而现实情况是,显然对湾区的每个人都很明显,"人工智能风险"已经演变成一个邪教,突然出现在全球媒体的关注和公众讨论中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它发展出了一套完整的邪教行为和信仰。 这个邪教不是什么新鲜事——有一个长期存在的西方传统称为千禧年主义,它产生了启示录邪教。"人工智能风险"邪教具有千年主义启示录邪教的所有特征。从维基百科来看,我做了一些补充: "千禧年主义是一种由一组或运动[人工智能风险预言者]相信社会即将发生根本性转变[人工智能的到来]的信仰,在此之后,一切都将改变[人工智能的乌托邦、反乌托邦或世界末日]。只有戏剧性的事件[对人工智能的禁令、对数据中心的空袭、对非受控人工智能的核打击]被认为能够改变世界[阻止人工智能],而这种变革被认为将由一群虔诚和忠诚的人带来或幸存下来。在大多数千禧年主义情节中,即将到来的灾难或战斗[人工智能的启示或预防]将在之后紧随着一个新的、洁净的世界[人工智能的乌托邦]。” 这种世界末日教派的模式是如此明显,以至于我很惊讶为什么更多的人没有看到。 不要误会,教派是有趣的,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很有魅力。但是他们的极端信仰不应决定法律和社会的未来-显然不应如此。 AI风险2:AI会摧毁我们的社会吗? 广为流传的第二个AI风险观点是,AI将通过产生“有害”的结果(以此类末日论者的说法)来毁灭我们的社会,即使我们并非真正被杀害。 简而言之:如果机器杀手没有伤害我们,仇恨言论和错误信息也会伤害我们。 这是一个相对较新的末日论关注点,它从上面我描述的“AI风险”运动中分支出来,并在一定程度上占据主导地位。实际上,AI风险的术语最近从“AI安全”(由那些担心AI会真正杀死我们的人使用的术语)变为“AI对齐”(由那些担心社会“危害”的人使用的术语)。原始的AI安全人士对这种转变感到沮丧,尽管他们不知道如何将其收回,但他们现在主张将实际的AI风险主题更名为“AI不杀伤所有人主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。 AI社会风险主张的提示是其自己的术语“AI对齐”。与什么对齐?人类价值观。哪些人类价值观?哦,这就是事情变得棘手的地方。 恰好,我亲眼目睹了类似情况——社交媒体“信任和安全”战争。显而易见的是,多年来,社交媒体服务一直受到政府和活动家的巨大压力,要求他们禁止、限制、审查和压制各种内容。而且“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧直接从社交媒体背景转移到了“AI对齐”的新领域。 我从社交媒体战争中学到的重要经验是: 一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将至少某些内容视为非法。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力,几乎被几乎所有社会普遍认为是禁区的内容——无论其是否合法。因此,任何促进或生成内容-言论-的技术平台都将有一些限制。 另一方面,滑坡效应不是谬见,而是必然。一旦建立了对甚至极为糟糕的内容进行限制的框架——例如对仇恨言论,对某些有伤害性的词汇,或对错误信息,显然虚假的主张(比如“教皇去世了”)——各种政府机构、活动家压力团体和非政府实体将迅速行动起来,要求越来越大的审查和压制对他们认为对社会和/或他们个人偏好构成威胁的言论。他们会以包括公然犯罪在内的方式这样做。这种循环在实践中似乎可以永远进行下去,得到我们精英权力结构中充满热情的官方监控员的支持。社交媒体领域的这种情况已经持续了十年,并且除了某些例外情况外,这种情况也在不断加剧。 因此,现在“AI对齐”周围形成了这种动态。其拥护者声称拥抱对社会有益的工程化AI生成的言论和思想的智慧,并禁止对社会有害的AI生成的言论和思想。其反对者声称,思想警察极度傲慢和专横,并且通常是公然犯罪,至少在美国是如此,并且实际上试图成为一种新的由政府-企业-学术融合的权威言论独裁,直接来到乔治·奥威尔的《1984》。 由于“信任和安全”以及“AI对齐”的支持者都集中在以美国沿海精英为特征的全球人口非常狭窄的一部分中,其中包括许多在科技行业工作和撰写文章的人。因此,我的很多读者会发现自己有条件争辩,认为需要对AI输出进行大规模限制以避免破坏社会。我现在不会试图说服你们,我只会简单地说这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你们胜利。 如果你不同意当前通过不断加剧的言论规范对社交媒体和AI施加的狭窄道德观念,你还应该意识到,AI被允许说什么/生成什么的斗争将比对社交媒体审查的斗争更重要,远远更重要。AI极有可能成为世界上一切的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在追求保护你的旧说辞的掩护下决定现在的AI应该如何操作。 简而言之,不要让思想警察压制AI。 AI风险3:AI会抢走我们所有的工作吗? 由于机械化、自动化、电脑化或人工智能等各种形式的机器取代人力劳动,人们一直担心失去工作的问题。这种担忧已经持续了数百年,自从出现了机械织布机等机械装置以来。尽管每一项新的重大技术在历史上都会带来更多的高薪工作,但每一波恐慌的出现都伴随着“这一次与以往不同”的说法——这一次会发生,这一次是技术终将给人类劳动以致命打击的时候。然而,这种情况从未发生过。 在最近的过去,我们经历了两次技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多传媒人士、专家和甚至技术行业高管都不断敲打桌子,声称大规模失业即将来临,但在2019年年底——也就是COVID爆发之前——世界上的工作机会比历史上任何时候都要多,而且工资也更高。 然而,这个错误的想法却不会消失。 果不其然,它又回来了。 这一次,我们终于拥有了能夺走所有工作并使人类劳动变得无关紧要的技术——真正的人工智能。当然,这一次历史不会简单重复,这一次是:人工智能将导致大规模失业,而不是经济迅速增长、就业机会增多和工资水平上升。对不对? 不是这样,这种情况肯定不会发生,如果允许人工智能在整个经济中得以发展和推广,它可能会导致有史以来最激动人心和持续时间最长的经济繁荣,相应地带来创纪录的就业机会和工资增长——恰恰与人们的担忧相反。原因如下。 自动化杀死就业论者一直在犯的核心错误被称为“劳动总量谬误”。这种谬误是指在任何特定时间内经济中需要完成的劳动量是固定的,要么由机器完成,要么由人类完成,如果由机器完成,那么人们就没有工作可做。 劳动总量谬误是自然而然地从直觉产生的,但这种直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少输入产生的产出增加。结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——从而为被机器替代的人们创造了新的工作机会。结果是经济规模扩大,物质繁荣增加,产业增加,产品增加,就业机会增多。 但好消息不仅如此。我们还获得了更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力确定报酬。在技术融入的行业中,一名工人的生产力比传统行业的工人更高。雇主要么会根据工人的提高生产力而支付更多的钱,要么另一家雇主会出于纯粹的自利而这样做。结果是,引入技术的行业不仅会增加就业机会,而且会提高工资。 总之,技术使人们能够更加高效地工作。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,并激励了新的工作和新产业的创造。如果市场经济能够正常运行,技术能够自由引进,这将是一个永无止境的向上循环。正如弗里德曼所观察到的那样,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。拥抱技术的市场经济是我们更接近实现每个人都可以想象到的一切,但永远无法完全实现的方式。这就是为什么技术不会摧毁就业岗位,永远不会。 对于那些尚未接触过这些想法的人来说,这些都是令人震惊的思想,可能需要一些时间来理解。但我发誓我并没有编造它们——实际上,你可以在标准经济学教科书中阅读到所有这些观点。我推荐亨利·哈兹利特《一课经济学》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏的讽刺性作品《蜡烛制造商的请愿书》,这些蜡烛制造商因太阳对照明产业进行了不公平竞争而抗议太阳。我们也有我们这个时代的现代版本。 但你可能会认为这一次与以往不同。这一次,随着人工智能的出现,我们拥有了可以替代所有人类劳动的技术。 但是,按照我上面描述的原则,想象一下如果所有现有的人类劳动都被机器取代会意味着什么。 这将意味着经济生产力增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和工人来满足所有新的需求。 假设人工智能再次取代了这些工人呢?这个循环将重复,推动消费者福利、经济增长和就业与工资增长更高。这将是一种直线式的向上螺旋,将人们带向亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。 我们应该如此幸运。 AI风险4:人工智能是否会导致严重的不平等? 谈到卡尔·马克思,对于人工智能夺走工作岗位的担忧直接引出了下一个声称的人工智能风险,那就是,好吧,Marc,假设人工智能确实夺走了所有的工作,无论是出于好还是出于坏。那么,作为人工智能的所有者获得了所有的经济回报,普通人一无所获,这难道不会导致巨大而且严重的财富不平等吗? 恰好,这是马克思主义的一个核心论点,即生产资料的所有者——资产阶级——不可避免地会从实际劳动的人们——无产阶级——那里窃取所有的社会财富。无论现实如何一再证明这是一个错误,这个谬论似乎永远无法消亡。但让我们无论如何驳斥它。 这个理论的缺陷在于,作为一件技术的所有者,保留不分享它并不符合你自身的利益——事实上恰恰相反,你的利益是将它销售给尽可能多的客户。世界上最大的市场是全世界的市场,包括80亿人口。因此,在现实中,每一项新技术——即使开始时是向高薪大公司或富裕消费者销售——都会迅速普及,直到它落入尽可能大的大众市场的手中,最终覆盖整个地球上的人。 这个经典的例子是埃隆·马斯克在2006年发布的所谓“秘密计划”——他当然公开发布的——关于特斯拉的计划: 第一步,制造[昂贵的]跑车; 第二步,用第一步挣的钱造一辆价格实惠的车; 第三步,用第二步挣的钱造一辆更实惠的车。 这当然是他所做的事情,结果成为世界首富。 最后一点是关键的。如果今天他只卖车给有钱人,马斯克会更富有吗?不会。如果他只为自己造车,他会比现在更富有吗?当然不会。不,他通过销售给尽可能大的市场全世界,来最大化自己的利润。 简而言之,每个人都能够拥有这个东西,正如我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎等领域所看到的。制造这些技术的公司高度积极地降低价格,直到地球上的每个人都能够负担得起。这正是人工智能领域已经发生的事情——这就是为什么你今天可以在微软Bing和谷歌Bard等形式的免费或低成本的最先进的生成式人工智能上使用它——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。 因此,发生的情况与技术推动财富集中的理论相反——技术的个体用户,最终包括地球上的每个人,反而被赋予权力,并获得了大部分产生的价值。与之前的技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将竞相努力使这一点成为现实。 马克思当时错了,现在也错了。 这并不是说不平等在我们社会中不是一个问题。它是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制、政府干预最多以阻止采用人工智能等新技术的经济部门驱动的,具体来说是住房、教育和医疗保健。人工智能和不平等的实际风险不在于人工智能会导致更多的不平等,而在于我们不允许使用人工智能来减少不平等。 AI风险5:人工智能是否会导致坏人做坏事? 到目前为止,我已经解释了五个最常提出的人工智能风险中有四个实际上并不真实的问题——人工智能不会活过来杀死我们,人工智能不会摧毁我们的社会,人工智能不会导致大规模失业,人工智能不会导致破坏性的不平等增加。但是现在让我们来讨论第五个,这也是我实际上同意的一个:人工智能会让坏人更容易做坏事。 从某种意义上说,这是一个循环论证。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于好的或坏的目的。可以理解。而人工智能会让罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。 这让一些人提出,好吧,既然这样,那么在这种情况下,让我们在坏事发生之前禁止人工智能。不幸的是,人工智能不是一种难以获得的玄妙物质,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。 显然,AI猫已经出了包。你可以通过数千个免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现在不断增加。人工智能就像空气一样——它将无处不在。为了抓捕它,所需要的极权压迫程度将是如此严厉——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察突袭流氓GPU?——我们将没有一个社会来保护。 因此,我们有两种非常直接的方式来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。 首先,我们已经制定了法律来让使用人工智能干坏事的大多数行为犯罪化。黑入五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们只需专注于在可能时预防这些犯罪,并在不能时予以起诉。我们甚至不需要新的法律——我不知道是否有一个已经被提出的恶意利用人工智能的实际案例不是已经是非法的。如果发现了新的坏用途,我们禁止那些用途。证毕。 但是你会注意到我刚才提到的——我说我们应该首先专注于在坏事发生之前防止人工智能辅助犯罪——这难道不意味着要禁止人工智能吗?好吧,还有另一种方法可以防止这样的行为,那就是将人工智能作为一种防御性工具。让拥有坏目标的坏人具备能力的人工智能,同样也在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。 例如,如果你担心人工智能生成虚假人物和虚假视频,答案是构建新的系统,使人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。 因此,第二个方法是,让我们大力利用人工智能进行善意、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为保护自己、社区和国家所做的一切其他方面利用人工智能。 当然,政府内外已经有许多聪明人正在做这样的工作——但是如果我们将目前那些专注于无效的禁止人工智能的努力和智力用于使用人工智能来防止坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天生活的世界更加安全。 不以最大力量和速度开展人工智能的真实风险 还有一个最终而真实的人工智能风险可能是最令人恐惧的: 人工智能不仅在相对自由的西方社会中得到开发,也在中国得到开发。 中国对人工智能有着与我们截然不同的愿景。他们对此甚至并不保密,他们非常明确地表示,他们已经在追求他们的目标。而且,他们不打算将人工智能战略限制在中国境内——他们打算在他们提供5G网络、提供“一带一路”贷款、提供像TikTok这样的友好消费应用作为他们集中控制和指挥的人工智能前端的地方,将其传播到全世界的每一个角落。 人工智能的最大风险就是中国在全球人工智能主导地位上取得胜利,而我们——美国和西方——却没有取得胜利。 我提出了一个简单的策略来应对这个问题——事实上,这也是罗纳德·里根总统在与苏联赢得第一次冷战时采取的策略。 “我们赢,他们输。” 与其被围绕着关于人工智能杀手、有害人工智能、破坏就业岗位的人工智能和产生不平等的人工智能等毫无根据的恐慌放在被动位置,我们美国和西方应该尽可能全力投入人工智能。 我们应该争取全球人工智能技术优势的竞赛,并确保中国不会取得胜利。 在这个过程中,我们应该尽可能快速、尽可能大力地将人工智能引入我们的经济和社会,以最大化其对经济生产力和人类潜能的利益。 这是抵消真正人工智能风险和确保我们的生活方式不被中国愿景所取代的最佳方式。 我们该怎么办? 我提出了一个简单的计划: • 大型人工智能公司应该被允许尽快、尽可能激进地构建人工智能——但不能实现监管垄断,不能建立一个由政府保护的卡特尔,由于对人工智能风险的不正确宣称而免于市场竞争。这将最大限度地发挥这些公司惊人能力的技术和社会回报,它们是现代资本主义的宝石。 • 初创人工智能公司应该被允许尽快、尽可能激进地构建人工智能。它们既不应该面对大公司获得政府授予的保护,也不应该获得政府援助。它们应该只被允许竞争。如果初创公司不成功,它们在市场上的存在也将不断激励大公司发挥出色——我们的经济和社会无论如何都是赢家。 • 开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源没有战胜公司,其广泛可用性也对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生们是一个福音,并确保无论他们是谁、有多少钱,人工智能都对他们可用。 • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应该积极参与潜在风险领域的每一个方面,利用人工智能最大化社会的防御能力。这不应仅限于人工智能风险,而是包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的极其强大的工具,我们应该将其视为这样的工具。 • 为了防止中国取得全球人工智能主导地位的风险,我们应该充分利用我们的私营部门、科研机构和政府的力量,共同推动美国和西方人工智能在全球范围内的绝对主导地位,最终甚至在中国境内也如此。我们赢,他们输。 这就是我们如何利用人工智能拯救世界。 是时候行动了。 传奇与英雄 我以两个简单的陈述来结束。 人工智能的发展始于上世纪40年代,与计算机的发明同时开始。第一篇关于神经网络的科学论文——即我们今天拥有的人工智能的架构——发表于1943年。在过去的80年中,整个一代人的人工智能科学家出生、上学、工作,很多情况下去世,他们没有看到我们现在所获得的回报。他们是传奇,每一个人。 如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能背后思想的创造——正努力将人工智能变为现实,尽管有一堵试图将他们描绘成鲁莽的恶棍的恐慌和悲观主义的墙。我不认为他们鲁莽或者是恶棍。他们是英雄,每一个人。我和我的公司非常高兴支持尽可能多的他们,我们将100%地支持他们和他们的工作。 "多年来,千年主义者经常[人工智能风险预言者不断地]试图预测这种未来事件的确切时间,通常是通过各种标志和先兆的解释。然而,历史上的预测几乎都以失败告终[目前没有可靠的证据表明人工智能会杀死人类]。然而,他们的[人工智能风险预言者的]粉丝通常会试图修正解释,以便与事件发生时[人工智能未来的潜在风险]相对应。" 那些热衷于"人工智能风险"邪教的人可能会不同意我的观点,他们可能会坚称他们是理性的、基于科学的,并且我是一个被洗脑的追随者。但请注意,我并没有声称"人工智能绝对不会成为人类的威胁"。我只是指出,迄今为止没有证据支持"人工智能将杀死我们"这一论点。我们应该根据现有的证据进行理性的评估,而不是沉溺于邪教般的恐慌和反应。 来源:金色财经
lg
...
金色财经
2023-06-07
悦读书|欧美银行动荡,如何避免金融危机卷土重来?
go
lg
...
1998年俄罗斯拖欠债务之前也有人认为
核
武
器
国家不会违约。历史上,美国房贷违约率远低于1%,就是在经济衰退的2001年也只有0.5%,2008年金融危机期间才上升到3%。国债利率很低,购买MBS是为了追求高收益,看上去也没有什么风险。加杠杆买房,放大了房价上涨带来的收益。即使房价和通胀一起上涨,真实价格不涨,有杠杆仍然可以获利。杠杆让人迷失方向,忽视房价可能集体下跌的风险。 四、长期繁荣带来的自满 危机前,纽约联储让银行做经济衰退情境下的压力测试,没有一家银行的测试结果显示其资本金不足。事后看,压力测试的情景假设太宽松了,25 年没有发生大的衰退,银行的风险胃口越来越大,资本金的质量逐渐变差,普通股一级资本(common equity)减少。更重要的是,银行真正的杠杆在表外和衍生品,没有被计算进来。也不是银行故意隐瞒,它们也不知道怎么算。这种自满情绪不仅体现在金融市场的被监管对象,也体现在其监管者身上。伯南克2005 年在总统经济顾问委员会主席任上曾想加强“两房”的监管,保尔森2006 年来华盛顿更进一步,推动众议院通过了相关法案,但是在参议院被搁置。加强对住房贷款的监管来得太迟了,一直受到阻力,部分原因在于住房是“美国梦”的一部分,2005 年住房拥有率达到了最高点69%。危机后再加强监管,是亡羊补牢。 五、危机自我加强的循环很难打破 金德尔伯格说危机遵循“疯狂- 恐慌- 崩溃”(mania-panic-crash)路径。在危机集中爆发时刻会出现非线性放大的恐慌效应。伯南克、盖特纳、保尔森在《救火》一书里将这种效应比喻成“大肠杆菌传染效应”:某家汉堡店的某个汉堡里的牛肉有问题,恐慌的结果是全国消费者所有的肉都不吃了,而不是理性分析是哪个地方哪个分店的哪些肉出了问题。对某些资产的担忧会导致抛售,抛售让资产价格下跌导致追加保证金要求(margin call),保证金要求又导致更多的抛售,进一步压低资产价格和投资者净财富。保证金螺旋和净财富螺旋相互加强的反馈机制在危机的形成和泡沫破灭中都有发生,本章专栏8 对此有进一步的简述。 六、危机的终极根源在于人性 “太阳底下无新事。”危机的背后是人性,作为群居动物,恐惧和羊群效应在我们进化的基因之中。人的贪婪和恐惧交织,资产价格的暴涨和暴跌交替。人性不可能被消灭,因而危机总会发生,繁荣和萧条是金融的固有形态。上一场危机的应对常常埋下下一场危机的种子。 从2001 年互联网泡沫到2008 年房地产泡沫,从大衰退后的量化宽松到资产价格繁荣。危机发生,应对危机,宏观刺激,形势好转,监管放松,志得意满,危机又爆发,如此周而复始,政策、市场和人性纠缠在一起。 现在来看2008 年全球金融危机,美国发了十万亿美元次级贷款、百万亿美元信用违约掉期对赌,整个金融市场泡沫化,发生危机是必然的。大家都把雷曼倒闭当作2008 年全球金融危机的标志性事件。如果没有雷曼事件,结果会不会不一样?美联储没有救雷曼,救了贝尔斯登。事实上雷曼总资产约7 000 亿美元,贝尔斯登约4 000 亿美元,雷曼比贝尔斯登大不了多少。如果把雷曼救了,也许不一定会引发一系列的连锁反应,但历史无法假设。 危机真正传染开来、引发恐慌是在货币市场这个看上去最安全的市场。货币市场基金主要储备基金(Primary Reserve Fund)大约持有雷曼1% 的商业票据,雷曼倒闭之后该基金出现亏损,投资者的1 美元只能给付97 美分,也称跌破净值。原来大家都觉得买基金是最安全的,与存银行一样,但基金毕竟不是银行,没有存款保险保护。亏损发生后,买了这只基金的人就开始集中赎回,结果引发了发生挤兑。 当时货币市场的规模是3.5 万亿美元,约有3 500 万人投资货币市场。巴菲特回忆说参加聚会,发现大家都在讨论货币市场是否安全。如果只挤兑这一家基金还行,但这个时候还会发生“大肠杆菌传染效应”。自从雷曼的商业票据出了问题,很多家货币市场基金都遭到了挤兑,因为货币市场基金持有很多大公司的商业票据,如通用电气、苹果、微软等企业的商业票据。平时大家觉得没有风险,不会破产,到这个时候就会想这些公司的票据会不会也有问题?所以一家公司的商业票据、一个产品出了问题,市场就认为所有公司的商业票据和其他产品都有问题。危机一定有意想不到的、协同的、夸张的恐慌效应,从很乐观到恐惧再到崩盘。 危机的爆发也有可能是“灰犀牛”,即在一系列预警信号和危险迹象之后仍然发生的大概率事件。金融危机更多是“黑天鹅”,发生在事前没有想到和监管没有照顾到的角落。如果吸取了以前的经验教训,把监管漏洞堵起来,同样的危机就不会再次发生,风险聚集和金融创新都符合“最小监管阻力原则”,发生在监管边缘地带。回顾以前发生过的危机,比如20 世纪30 年代的银行危机,为避免银行挤兑,推出了存款保险,银行挤兑就很少见。再比如2008 年出问题后,对房地产市场和银行与影子银行体系监管较为严格,2020 年新冠疫情冲击时,这些部门的杠杆率得到有效控制,未发生系统性风险。 没有两次危机是一样的,但是会押着相同的韵脚。2008 年全球金融危机暴露出了影子银行的问题,没有监管到影子银行有很多表外业务,成立了表外的 “特殊投资实体”,加了很多杠杆。投资银行也都依赖短期批发融资,杠杆率更高,再就是签了很多信用违约掉期对赌协议,内嵌有复合杠杆。监管没到位,杠杆率又很高。
lg
...
金融界
2023-05-12
人工智能是新的
核
武
器
?李稻葵:需要高度重视物价指数偏冷,做好四件事中国经济潜在增速5.9%
go
lg
...
联邦预算。在他看来,人工智能相当于新的
核
武
器
,处理不好比气候变化风险还要大,比当下的国际政治、地缘政治还重要,中美需要在人工智能领域协商一致。 中国要做好四件事 1、短期适当帮助消费者,1块钱补贴能拉动4块钱消费 李稻葵分析,短期内需要适当帮助消费者,不能走以前一下滑就搞基建的老路子,因为总体上看基建的空间不是太大了。应该转变思路,适当维护一下消费者的信心。 他介绍,最近去上海系统调研一个星期,上海有个办法非常好,全国范围可以适当推广。上海拿出10个亿在支付环节补贴消费者,初步调研发现,拿出1块钱的补贴能拉动4块钱的消费,也就是10个亿补贴能带来40个亿消费。 李稻葵分析,就全国来看由于我们税收是流转税,40个亿经济活动至少30%是税收,那就12个亿,广义来看最后财政是上升的。这个帐应该全国来算,由中央财政推动地方政府来干这个事情。 2、开启地方债重组,类似20年期国有商业银行债务重组 李稻葵分析,第二个应该做的,紧迫性虽然没有第一个强,也非常重要,就是地方财政必须重组。 他分析,地方财政经过10几年,2007、2008年一轮一轮搞基建,广义地方债(包括地方投资平台)已经比GDP还高。这意味着,完全靠地方财政以及地方国有企业的盈利,已经不足以覆盖还利息的成本。还不要说还本,这是不可持续的。 李稻葵指出,这就造成这样的局面,地方政府头等大事就是债务延展,各式各样的债务,利率很高甚至两位数的利率,这个不能自欺欺人。 他建议,开启一个地方债重组的大的项目,类似于20年前搞的国有商业银行的债务重组。大的方向,给地方政府要建立新的规矩,以后发债必须通过一定的程序;同时,把相当一部分的地方债转到中央来,由国债发。大大降低融资成本,让地方政府更加专心维护经济发展、社会稳定,搞地方债的延展。 3、培育10万亿碳市场 李稻葵指出,碳市场10万亿规模,下一步必须要培育出来。他分析,现在一搞双碳都是各自为战,各个地方政府算,各个产业算,这是违反经济规律的。 “如果碳市场启动,一大批投资,很多绿色投资就有利可图了,很多企业家,很多投资者蜂拥而至,这件事刻不容缓,必须做,而且一定程度讲也能够改善我们的公共财政碳税。” 4、灵活退休体制 李稻葵表示,未来实行灵活退休的机制很有必。因为1963年出生的人今年就退休了,这批人数量是3000万,未来5年之内将有接近1.5亿人劳动人口退休,从交税社保到拿社保,这个事怎么办?强行让人不退休说不过去,因此要灵活退休,愿意继续工作的话,以后的退休金可以高一点,想按时退休就按照目前的退休金拿,这个改革一定要到位。 他提到,经过仔细的测算,中国人口确实在下降,但是如果考虑人口的质量和受教育水平,包括公共健康水平,我国的人力资源一直到2050年基本都是上升的,关键是怎么用好我们的人力资源,因此灵活退休非常重要。 他举例,很多国际一流的公司就是这么干的,领导干部、管理层按时退休,但是工程技术人员搞研发的随便干,你有经验继续干,这是很实事求是的措施。 李稻葵分析,如果上述四项改革能到位,2020到2030这10年潜在增长速度是5.9%。政府跟市场需要同向发力,政府要办好自己的事,启动市场、培育市场、匡正市场。 美国需要解决好金融稳定、联邦预算问题 李稻葵指出,美国的增长不用担心还是有活力的,但是需要解决金融稳定和联邦预算问题。 他分析,美国的命根子是美元的国际货币地位,一轮一轮折腾让其他国家降低了对美元的信任。美国要做到金融稳定,必须在政府与市场经济学里面找答案: 第一个问题,金融监管。1978年以来,每12年搞一次金融危机。原因在于,抓老鼠的猫跑不过老鼠,监管部门能力与金融创新机构的能力不匹配。最聪明的学生跑到华尔街去了,第二级当律师了,再往下才去了金融监管部门,完全是能力倒挂。能力倒挂很大程度上在于金融监管体系高度分散,形成不了高度职业感、高度荣誉感的机构。硅谷银行这么重要的银行出现问题,监管自己承认出了问题,美国必须要在金融监管问题上适当集中。 第二个问题,预算。李稻葵称,美国金融稳定搞不好,更大、更难的问题在预算。在他看来,美国民主是最糟糕的部分就是,联邦预算变成政治家地方选举的比武市场。 “当下一个重大问题,6月1号以前能不能提高债务上限,提高不了又搞一轮,类似于2011年搞的一次金融恐慌,完全是自杀式行为。”他指出。 人工智能是新的
核
武
器
?中美要在人工智能领域协商一致 演讲最后,李稻葵特别强调世界稳定,在他看来人工智能相当于新的
核
武
器
,中美要在人工智能领域协商一致,这件事比搞经济、国际政治、地缘政治还重要,“这是对人类负责”。 他分析,中美是人工智能最重要的国家,在算力、程序员、大数据方面,中美都是领先的国家。在不能排除人工智能对人类造成毁灭性、灾难性打击可能的前提下,中美一定要协商签署“人工智能宪法”,规范什么可以做、什么不可以做。
lg
...
金融界
2023-05-06
李稻葵:人工智能相当于新的
核
武
器
,中美一定要在这个问题上协商一致,比搞经济、地缘政治还重要
go
lg
...
。 李稻葵表示,人工智能相当于新的
核
武
器
,中美一定要在这个问题上协商、签署一个“人工智能宪法”,规范什么可以做、什么不可以做。他认为,这件事比搞经济、国际政治、地缘政治还重要,“这是对人类负责”。
lg
...
金融界
2023-05-06
拜登“打错了算盘”?!对华实施芯片出口管制,实际上影响却“微乎其微”
go
lg
...
实施微芯片出口管制,以冻结中国用于研发
核
武
器
的超级计算机以及ChatGPT等人工智能系统的开发,但这对中国科技行业的影响微乎其微。 这些规则限制了英伟达和 AM芯片的出货量,这些芯片已成为全球科技行业开发聊天机器人和其他人工智能系统的基础。但英伟达已经为中国市场开发了其芯片的“变体”,这些低配版本可以满足美国的规定。 周三(5月3日),行业专家告诉路透社,最新款Nvidia H800于3月发布,执行某些AI任务的时间可能会延长10%至30%,与英伟达最快的美国芯片相比,成本可能会增加一倍。 即使是使用低配的英伟达芯片也代表着中国公司的进步。中国最大的科技公司之一腾讯控股在4月份估计,使用Nvidia H800的系统将把其最大的人工智能系统的训练时间从11天减少到4天,缩短一半以上。 86Research的上海分析师Charlie Chai说:“与我们交谈的人工智能公司似乎认为障碍相对较小且可控。” 政府与行业之间的来来回回,暴露了美国在不伤害美国公司的情况下减缓中国高科技进步所面临的挑战。美国制定规则的部分策略是避免中国人完全放弃美国芯片,并加倍自己的芯片开发。 一位不愿透露姓名的芯片行业高管表示:“他们必须在某个地方划清界限,无论划在哪里,他们都将面临如何不立即造成破坏,但如何随着时间的推移削弱中国能力的挑战。” 出口限制有两部分。第一个限制了芯片计算极其精确数字的能力,该措施旨在限制可用于军事研究的超级计算机。芯片行业消息人士称,这是一项有效的行动。 但是计算极其精确的数字在AI工作中不太重要,例如大型语言模型,在这些工作中芯片可以处理的数据量更为重要。 英伟达将Nvidia H800出售给中国最大的科技公司,包括腾讯、阿里巴巴集团控股有限公司和百度公司,用于此类工作,但尚未开始大量运送芯片。 英伟达上周在一份声明中表示:“政府无意损害竞争或美国工业,并允许美国公司为商业活动提供产品,例如为消费者提供云服务。” 它补充说,中国是美国技术的重要客户。 英伟达上周表示:“去年10月份的出口管制要求我们生产的产品在两个市场之间的差距不断扩大。我们遵守法规,同时在每个市场提供尽可能具有竞争力的产品。” 英伟达 首席科学家Bill Dally本周在另一份声明中表示,随着培训需求继续每6到12个月翻一番,这种差距将随着时间的推移而迅速扩大。 美国商务部负责监督规则的部门工业和安全局的发言人没有回复置评请求。 美国的第二个限制是芯片到芯片的传输速度,这确实会影响人工智能。ChatGPT等技术背后的模型太大,无法放在单个芯片上。相反,它们必须分布在许多芯片上,通常是一次数千个,因为它们都需要相互通信。 英伟达尚未透露中国独有的H800芯片的性能细节,但路透社看到的一份规格表显示芯片到芯片的速度为400GB/秒,不到在中国境外可用H100芯片900 GB/秒峰值速度的一半。 人工智能行业的一些人认为,这仍然是足够的速度。Naveen Rao是一家名为MosaicML的初创公司的首席执行官,该公司专门帮助AI模型在有限的硬件上更好地运行。 他说:“估计系统速度会降低 10-30%,有一些方法可以通过算法解决所有这些问题。我认为这在很长一段时间内都不会成为界限,比如10年。” 中国的芯片完成人工智能训练任务的时间是更快的美国芯片的两倍,但仍然可以完成工作。 一位因与合作伙伴达成协议而要求匿名的业内人士表示:“到那时,你必须花费2000万美元而不是1000万美元来训练它。这很糟糕吗?是的。但这是否意味着这对阿里巴巴或百度来说是不可能的?不,这不是问题。” 此外,AI研究人员正试图精简他们构建的庞大系统,以降低类似于ChatGPT和其他流程的培训产品的成本。这些将需要更少的芯片,减少芯片与芯片之间的通信,减少美国速度限制的影响。 两年前,业界认为AI模型会变得越来越大,Anyscale的软件工程师Cade Daniel表示:“如果今天仍然如此,那么这种出口限制将产生更大的影响,这种出口限制很明显,但它并没有像它本应具有的那样具有破坏性。” Anyscale是旧金山一家提供软件以帮助公司执行AI工作的初创公司。
lg
...
Peng
2023-05-03
突发!俄罗斯指控乌无人机企图刺杀普京 乌克兰:莫斯科正准备发动大规模“恐怖主义挑衅”
go
lg
...
一个空军基地的袭击,该基地驻扎着可携带
核
武
器
的战略轰炸机。今年2月,一架无人机在距离莫斯科市中心约110公里(70英里)的科洛姆纳坠毁。 乌克兰通常拒绝声称对袭击俄罗斯或俄罗斯吞并的克里米亚负责,但基辅官员经常用含糊其辞或嘲弄的言论来庆祝这类袭击。
lg
...
财经风云
2023-05-03
【黄金收市】中俄连传新消息!“一场新的世界大战”一触即发?黄金强势上升再次逼近2000
go
lg
...
议上表示。他警告称,俄罗斯不会回避使用
核
武
器
打击“侵略”行为。 上个月,在海牙国际刑事法院就绑架和驱逐乌克兰未成年人一事对普京总统和俄罗斯儿童权利专员利沃娃-贝洛娃发出逮捕令后,梅德韦杰夫威胁要向国际刑事法院发射高超音速导弹。 随着乌克兰军队越过第聂伯罗河向克里米亚发起“三次探测式攻击”,克里姆林宫的支持者对俄罗斯战场战术的抱怨仍在继续。乌克兰显然还在莫斯科市中心上空部署了无人机,同时在塞瓦斯托波尔用水面无人机攻击俄罗斯黑海舰队。 据报道,俄罗斯雇佣军瓦格纳昨日指责能源巨头俄罗斯天然气工业股份公司(Gazprom)私人军队波托克(Potok)的部队在乌克兰东部城市巴赫穆特(Bakhmut)周围的激烈战斗中放弃了阵地。据报道,瓦格纳部队在西伯利亚埋葬了数百名来自乌克兰的伤亡人员,其中一些曾被判刑的士兵在获得官方赦免后返回家乡时被控犯有谋杀和故意伤害罪。 在本周美国GDP和通胀数据公布之前,全球股市下滑,美元反弹,以欧元计价的黄金价格反弹至1800欧元以上,以英镑计价的黄金价格回升至1600英镑的水平。 分析师称,美元走强令早盘以美元计价的金价承压。投资者将从本周公布的美国经济数据中寻找有关美联储利率计划的线索。 BullionVault研究主管Adrian Ash告诉MarketWatch:“虽然并不总是需要危机来推动金价走高,但到目前为止,突破2000美元大关需要一场全球流行病、欧洲自第二次世界大战以来最严重的冲突,以及西方银行股的小幅崩盘。” 他说,这次的不同之处在于,Comex和ETF多头的投机兴趣依然低迷。“这为热钱流入留下了足够的空间,在下一次危机出现时推高价格。” Ash称,受来自黄金头号消费国中国的强劲需求,加上新兴市场央行的不懈出价提振,现货价格的底部稳步上升。 尽管如此,黄金期货周二早盘大多走低,金价受到美元走强的拖累。ICE美元指数周二上升近0.5%。 美元走强可能会打压以美元计价的大宗商品需求,令这些商品对使用其他货币的用户来说更加昂贵。 FXTM富拓高级研究分析师Lukman Otunuga在一份报告中表示,由于美联储5月之后的下一步行动仍存在不确定性,黄金“仍被困在一个棘手的区间内。市场现在预计美国利率将在夏季见顶,并在12月前降息,从长期来看,黄金有可能走高。” 美联储的下一次政策会议将在5月2-3日举行。 他写道:“与此同时,由于对美联储未来政策举措的预期不断变化,波动性可能成为这场游戏的主题。” 本周公布的美国经济数据包括周三公布的3月耐用品订单、周四公布的第一季国内生产总值(GDP),以及定于周五公布的3月个人消费支出价格(PCE)价格指数。 “如果本周的美国数据或下周三的美联储决定挑战市场对美联储将在夏季开始降息的普遍预估,那么金价更有可能下跌,而不是创出新高,”Ash表示。 美国月度就业数据将在美联储下次政策会议后的5月5日公布。 “如果就业数据特别显示,美国的高利率正对就业部门产生不利影响,那么美联储无法将利率政策维持在这样的水平的敏感性将会增加——即使一些美联储发言人在讲话中暗示并非如此,”CompreBroker.io首席分析师Jameel Ahmad表示。 “总而言之,2000美元将被视为价格走势的心理关键区域,长期以来一直如此,”Ahmad称。 后市展望 1.Gainesville Coins首席市场分析师Everett Millman表示,“美联储将尽最大努力将利率维持在较高水平,以抑制通胀,但这可能意味着它可能会限制经济快速增长。” “无论他们必须做出什么决定,都可能会带来某种压力,而这种迫在眉睫的不确定性肯定是黄金所敏感的。” 2.“我们认为,金价在2000美元或以上是合理的,除非美国经济出现广泛且持续时间更长的衰退,同时寻求避险的投资者回归,”Julius Baer的下一代研究主管Carsten Menke在一份报告中写道。 3.DailyFX撰文指出,黄金在一个上升通道中交易,但在4小时时间框架上一直在录得更低的高点和更低的低点。此外,随着50日移动均线跌破100日移动均线,4小时时间图正在形成死亡交叉,暗示着下行的势头。这与今天迄今为止日线时间框架上的价格走势一致,因为金价已经在2000美元关口上遇阻,并可能以射击之星蜡烛形态收盘。 在财报发布和本周的核心PCE数据之前,短线做法似乎更为合理,盘中阻力分别在2002.20美元、2010美元和2032美元附近。金价可能会在1982美元和昨天的1974美元附近的低点获得支撑,然后再进一步跌向焦点1950美元/盎司附近的月度低点。 从技术面来看,黄金没有明确的方向,你可以从技术前景中推测,它有轻微的下行倾向。整体市场情绪仍然是金价的关键驱动因素,这种情况似乎将继续下去。 下一交易日重点关注(北京时间) 09:30 澳大利亚第一季度CPI年率 09:30 澳大利亚3月未季调CPI年率 14:00 德国5月Gfk消费者信心指数 16:00 瑞士4月ZEW投资者信心指数 18:00 英国4月CBI零售销售差值 20:30 美国3月耐用品订单月率 22:30 美国至4月21日当周EIA原油库存
lg
...
夏洛特
2023-04-26
会员
AI大革命!马斯克开发TruthGPT聊天机器人 强烈批评ChatGPT训练说谎、毁灭人类
go
lg
...
,它最终可能会摧毁我们拥有的一切,这与
核
武
器
一样危险。” 马斯克在接受采访时解释说,ChatGPT软件由左翼专家编写,训练聊天机器人说谎。#ChatGPT火爆全网# OpenAI首席执行官山姆·奥特曼(Sam Altman)表示:“我们在这里必须小心,技术本身非常强大,而且可能很危险。我认为,人们应该为我们对ChatGPT有点害怕而感到高兴。开发AI的根本原因是,就对我们生活的影响和改善我们的生活和好处而言,这将是人类迄今为止开发的最伟大的技术。” 他补充:“教育将不得不改变,但随着技术的发展,这种情况发生了很多次。当我们得到计算器时,我们教授数学的方式和我们测试学生的方式完全改变了。” 塔克指出,党派对应用程序开发的影响,甚至可以被描述为通过“控制”美国人思想,并对民主展开攻击,所有这些都是通过获取信息的途径进行的。 “更深层次的问题不仅仅是它会变得自主,并将我们所有人变成奴隶,而是它会控制我们对现实的理解,也以一种非常不诚实的方式去做,” 塔克解释说。“它可以被编程为对我们撒谎,以达到政治效果。” 他也提到,这反过来可能会对选举结果产生不利影响,但AI的危险可能会产生比选举更有害的影响。马斯克警告说,如果管理不当,它将对整个人类的存在产生灾难性影响。 马斯克表示:“AI比管理不善的飞机设计或生产维护或糟糕的汽车生产更危险,因为它具有潜力,无论人们认为这种可能性有多小,但它并非微不足道,它具有破坏文明的潜力。” 他甚至在周末发推文说,他利用与时任总奥巴马的唯一一次会面来警告软件功能存在的危险,并呼吁进行监管。 “我在GPT-1之前就看到它的发生,这就是为什么我多年来一直试图警告公众,”他说。 实际上近几个月来,马斯克已透露出进军AI的蛛丝马迹。英国《金融时报》指出,他正在积极组建一个由AI研究员和工程师组成的团队,并与SpaceX和特斯拉的一些投资者讨论向他新的新企业X.AI投资事宜。 “一群人正在投资它,这是真的,他们对此很兴奋。” 知情人士还透露,为了新公司要构建的大型AI模型,马斯克已从英伟达(NVIDIA)购入大批高性能GPU处理器。早前,《商业内幕》(Business Insider)曝光推特购买高达1万个英伟达显卡。 在本周的推特空间(Twitter Spaces)采访中,马斯克回应称:“似乎每人此时都在购买GPU,推特和特斯拉肯定会购买GPU。”
lg
...
秉哥说市
1评论
2023-04-18
上一页
1
•••
21
22
23
24
25
•••
53
下一页
24小时热点
中国市场突传重磅交易!彭博社:大量资金撤离沪深300指数转向“这资产”……
lg
...
中国重量级消息!央行政策顾问:中国人大会议或批准额外发行至多2.5万亿国债
lg
...
路透:中国祭出投资"杀手锏",欧盟对华电动车关税引爆冲突!
lg
...
2.8%!美国GDP稳步增长!消费者支出强劲,美联储有更多的空间?
lg
...
无视中国10万亿传闻!3份报告绝对冲击市场,特朗普交易引爆黄金与比特币
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
10讨论
#海外华人投资#
lg
...
27讨论
#链上风云#
lg
...
45讨论
#美国大选#
lg
...
978讨论
#VIP会员尊享#
lg
...
1408讨论