全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
与马斯克唱反调,风投大佬呼吁放飞人工智能:AI只是机器 永远不会有
生
命
go
lg
...
“就像你的烤面包机一样”,永远不会拥有
生
命
。 不过,安德森认同一件事:“人工智能会让坏人更容易做坏事。”但他表示,人工智能知识和开源实现的广泛可用性使得人工智能像空气一样无处不在,使得严格的控制措施不切实际。 他认为,与其禁止人工智能,不如开发加密验证系统等创新解决方案,以验证内容并有效打击人工智能的滥用。 除了这些观点之外,安德森还表达了他的公司对资助人工智能初创公司创始人的渴望,强调他们推动创新和技术进步的潜力。
lg
...
金融界
2023-06-08
马斯克再谈外星
生
命
:没有看到任何外星人存在的证据
go
lg
...
特斯拉和SpaceX首席执行官埃隆·马斯克周二再次强调,他没有看到任何外星人存在的证据。 马斯克在回复推特用户兼作家迈克尔·谢伦伯格(Michael Shellenberger)时写道:“不管怎样,我没有看到任何外星人的证据。” 此前谢伦伯格分享了一篇文章,该报道援引一位美国空军老兵和前国家地理空间情报局成员的话称,美国政府收回了一艘外星飞船,并把它藏了起来。这位老兵在采
lg
...
金融界
2023-06-08
曾有才:6.8黄金多空转换今日走势及多单解套
go
lg
...
佛说的一句话:“无论你遇见谁,他都是你
生
命
该出现的人,绝非偶然,他一定会教会你一些什么”。所以我也相信:“无论我走到哪里,那都是我该去的地方,经历一些我该经历的事,遇见我该遇见的人”每一位在读这篇文章的人,感谢与您相遇。 (免责声明:以上分析为曾有才曾有才【微信:Z Y C 4 0 5 1 】【公众号:波浪控盘】原创,仅代表作者个人观点,不构成具体操作建议,据此操作,盈亏自负,投资有风险,入市需谨慎!转载请注明出处 )
lg
...
曾有才
2023-06-07
曾有才:6.7国际黄金走势震荡拉锯多空操作布局思路
go
lg
...
佛说的一句话:“无论你遇见谁,他都是你
生
命
该出现的人,绝非偶然,他一定会教会你一些什么”。所以我也相信:“无论我走到哪里,那都是我该去的地方,经历一些我该经历的事,遇见我该遇见的人”每一位在读这篇文章的人,感谢与您相遇。 (免责声明:以上分析为曾有才【微信:Z Y C 4 0 5 1 】【公众号:波浪控盘】原创,仅代表作者个人观点,不构成具体操作建议,据此操作,盈亏自负,投资有风险,入市需谨慎!转载请注明出处 )
lg
...
曾有才
2023-06-07
时间的力量——高考命题,亦是人
生
命
题
go
lg
...
的时间都不增不减。 我们常说,时间就是
生
命
,而如何管理时间,决定了我们
生
命
的质量。如果我们不能好好珍惜、把握、管理好时间,人生就会在蹉跎中度过,最终一事无成。诚如“现代管理学之父”彼得·德鲁克所言:“时间是最稀缺的资源,除非它被管理好,否则其他一切都无法管理。” 那怎么管理好时间呢?关键在于善用有效的时间管理方法和工具。 首先要学会“拉条子”,这是一条非常基础而有效的时间管理工具,简单来说,就是把我们每一周、每一月所有要做的事情罗列出来,让大脑中的内容逐渐清晰化、结构化。 掌握了“拉条子”之后,就进入了时间管理第二步——确定每个“条子”的重要程度。在绝大多数情况下,最重要的“条子”应该不会超过总数的20%。这背后运行着一条重要的管理学定律——二八法则,它告诉我们的道理是:要把时间和精力集中在少数事情上,才能创造最大的价值。因此,在进行时间管理时,我们应该集中80%的时间,来做20%的核心事情。 在二八法则的基础上,我们还需要用到一个非常重要、更进一步的工具——四象限法。它把事情按照“重要性”和“紧急性”两个标准来进行排序,以重要性为竖坐标轴,以紧急性为横坐标轴,形成“重要紧急”“重要不紧急”“紧急不重要”“不重要不紧急”四个象限。专注自己的最终目标,将事情准确地分配到四象限中,就可以有计划地分配时间来做这些事。 确定了事情的重要紧急程度之后,就要将不同类别的事情填写到日程表中。通过填写日程表的过程,我们可以对任务进行更加准确的区分、安排、检验,决定事情安排到哪个时间做,哪些是重要紧急的事情,必须马上处理。此后,通过不断的迭代,日程表会变得越来越清楚,也越来越有指导性。 之后要通过写周报来倒逼我们将自己的学习和工作不断聚焦到最重要的事情上来。写周报不是事无巨细的“流水账”,也不是简单地画“时间表”,更多是以周为单位,对重点事情进行总结和思考,是否如期完成?是否遇到什么问题,怎么解决?下周计划是什么?产出目标是什么? 在时间管理中,总结与复盘也是非常有效的工具。所谓总结,是对一个时间段内的工作进行全面、系统的总体检查、评价、分析、研究,得出成绩、不足、经验等结论。其核心要义是分析,通过回顾年初目标、评价执行结果、总结经验教训和规律,指导下一阶段的学习和工作,形成科学有效的目标规划和执行计划。 我们意识到时间的珍贵,学会时间管理的方法,是为了将这一资源用到我们最重要、最值得的事情上来。于大多数人而言,人生是一场与时间做斗争的持久战。尤其生活在如今不确定性增强的数字化时代,重视速度和效率是所有人的共识。所以更要将有限的时间资源投入到更有意义的事情上,只争朝夕、不负韶华,努力提高时间的利用率,创造更大的价值。 ——以上内容摘自神州数码董事长兼首席执行官郭为的新书《时间的力量》 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-06-07
格上每日收评—2023年06月07日
go
lg
...
用,覆盖数据采集、存储、加工、分析等全
生
命
周期。加快培育数据标注、清洗、聚合等大数据产业,深化企业数据管理国家标准(DCMM)贯标,从而提升企业数据管理能力和数据供给质量。依托各地数据的交易机构,积极探索数据流通交易的新业态、新模式,激活数据要素价值潜力,实现数据要素红利向产业发展势能的充分转化。 算力建设受到多地重视 近日,多地出台政策加强人工智能产业发展,其中,算力建设受到多地重视。 5月30日,北京市发布的《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》提出,到2025年,人工智能算力布局初步形成,算力芯片等基本实现自主可控;当前要提升算力资源统筹供给能力。按照集约高效原则,分别在海淀区、朝阳区建设北京人工智能公共算力中心、北京数字经济算力中心。在人工智能产业聚集区新建或改建升级一批人工智能商业化算力中心,加强国产芯片部署应用,推动自主可控软硬件算力生态建设。 5月31日,深圳市委办公厅和市人民政府办公厅印发《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023—2024年)》要求,强化智能算力集群供给,整合深圳市算力资源,建设城市级算力统筹调度平台;打造大湾区智能算力枢纽,积极有序集聚政府、企业、科研机构、高校等的智能算力资源,与周边城市加强智能算力合作,谋划共建粤港澳大湾区智能算力统筹调度平台;联合香港企业、科研机构、高校等,打造深港人工智能算力赋能中心。 6月2日,上海自贸区临港新片区在智算大会上发布了《临港新片区加快构建算力产业生态行动方案》提出,提出2025年,临港新片区将形成以智算算力为主,基础算力和超算算力协同的多元算力供给体系,总算力将超过5EFLOPS(每秒百亿亿次浮点运算次数),人工智能算力占比达到80%,算力产业总体规模突破100亿元。此外,近期发布的《上海市推进算力资源统一调度指导意见》,也对人工智能公共算力服务平台建设提出了明确要求。 长城证券认为,AI(人工智能)算力需求景气向上,持续关注算力基础设施全产业链投资机会。基础设施方面,通信硬件设施最先受益,包括运营商为主的基础设施底座、承载算力的IDC(互联网数据中心)及上游配套设施、服务器、“东数西算”带来的骨干网建设需求等各环节。技术演进方面,基础设施的适度超前布局将进一步驱动对云计算、大数据、人工智能、边缘计算等新兴技术及算法的需求。下游应用方面,人工智能、工业互联网、车/物联网及AR/VR等应用场景的丰富和逐渐成熟落地,将进一步拉动数字基础设施需求的提升,并加快相关布局和建设。 东海证券研报指出,大模型催生算力需求,AI产业需求持续爆发。国内外科技巨头争相投入AI大模型领域,大模型的训练和推理需要大量的高算力芯片作为支撑。服务器芯片是AI算力之源,其需求量在大模型带动下爆发式增长,随着国内外科技企业持续对AI大模型领域的投入,AI产业相关的芯片产业链将有望迎来快速发展。 市场有风险,投资需谨慎。本内容表述仅供参考,不构成对任何人的投资建议。 格上研究
lg
...
格上财富
2023-06-07
“比亚迪押题成功”上热搜!2023高考作文题目引关注,“考生”ChatGPT、文心一言、通义千问金句不断
go
lg
...
承认,真正的价值来自于我们独特的人性和
生
命
。掌握时间还需要有自己的节奏,应该以生活的方式去衡量时间,而不是单纯的技术掌握。 总之,技术与时间密不可分,我们应该充分掌握科技手段的优势,同时也要正确看待自己的生活,建立起自己的时间观,依此来正确地利用和处理时间,实现自己的生活目标。 考生:文心一言 题目:时间的掌控与奴役:技术的双刃剑 随着科技的飞速发展,我们的生活发生了翻天覆地的变化。技术的进步使我们对时间的掌控达到了前所未有的程度。然而,也有人因此成为了时间的奴隶,生活被束缚在快节奏的压力之下。这句话引发了我对技术发展与时间掌控的深入思考。 技术的进步使得我们能够更高效地规划和管理时间。现代生活中的各种时间管理工具,如手机、电脑、智能手表等,使我们能够随时随地获取时间信息,更好地安排和调整自己的日程。此外,各种时间管理方法和技巧也应运而生,如番茄工作法、时间矩阵等,为人们提供了更加科学的时间管理方案。 然而,技术的发展也使得一些人成为了时间的奴隶。快节奏的生活方式和工作压力使得人们疲于奔命,常常为了追求短期效益而忽视生活的本质。人们越来越难以享受生活中的慢节奏,越来越难以拥有真正属于自己的时间。同时,时间的紧迫感也使得人们容易产生焦虑和抑郁等心理问题。 技术的双刃剑性质同样体现在对时间的掌控上。技术的发展为我们提供了更多的时间管理工具,但同时也可能使人们陷入时间的泥沼之中。正确的态度应该是审慎而明智地对待技术,既充分利用技术带来的便利,又能保持对技术的警惕和反思,避免被技术所奴役。 在时间的掌控上,我们应学会平衡与取舍。时间是宝贵的财富,但并非一切事物都有价值。我们应该学会分辨事情的轻重缓急,合理安排时间,以便在生活中找到平衡和满足。同时,我们也应该学会舍弃一些不必要的事情,避免为了追求无关紧要的短期效益而牺牲自己的时间和健康。 此外,我们还应学会放慢节奏,享受生活的美好。快节奏的生活方式往往使我们忽视了很多身边的美好事物。我们应该学会放慢脚步,感受生活的细微之处,享受与家人、朋友相处的时光,体会大自然的恩赐。在这样的过程中,我们会发现时间的价值并非只在于追求效率和成果,更在于享受生活的乐趣和意义。 科技的进步为我们的生活带来了诸多便利,但我们不应忘记科技的初衷是为了服务于人类,而非成为人类的主宰。在技术的进步与时间的掌控之间,我们需要保持清醒的头脑和审慎的态度,避免被技术所奴役。唯有如此,我们才能在快节奏的生活中找到平衡与满足,真正享受生活的美好。 总之,技术的发展使得我们能够更好地掌控时间,但同时也带来了对时间的奴役。我们应该明智地对待技术,平衡时间的使用与享受生活的美好。只有这样,我们才能在时间的洪流中找到真正的自我和幸福。 考生:通义千问 标题:忘记写了 随着时代的发展,科技的进步,我们越来越能够掌控时间,让它成为我们的仆人。然而,这并不意味着所有人都能好好地掌控时间,反而有些人成为了时间的奴隶。 人们从前慢,车马邮件都慢,一生只够爱一个人,那时的人们可以从容地享受生活,细细品味每一个瞬间。但是现在,快节奉的生活让人们失去了对时间的掌控,每天忙就碌碌,连静下心来读一本书、品一杯茶的时间都没有,更不用说享受生活了,时间成了一种紧缺资源,人们不得不成为时间的双隶,争分夺秒地完成任务,生怕浪费了一分秒。 然而,这样的生活并不能带来真正的幸福和满足,人们成为时间的双隶,被工作和琐事所束博,失去了自由和快乐。而且,一旦被时间追着跑,很容易失去方向和目标,不知道自己真正想要的是什么。这样的人生是盲目而无意义的。 那么,我们应该如何掌控时间,避免成为时间的奴隶呢?首先,我们需要认识到时间的宝贵性,珍惜每一分每一秒,不浪费时间。其次,我们需要合理规划自己的时间,制定目标和计划,让时间分配更有效率。此外,我们也需要学会放松和休息,不要让工作和琐事占据了所有的时间。 总之,人们需要好好掌控时间,让它成为我们的朋友和助手,而不是成为我们的双隶,只有这样,我们才能在有限的时间里做更多有意义的事情,拥有更加充实、幸福的人生。 考生:Claude 标题:时间的主人还是仆人 最后祝高考考生及考生家长“前程似锦、人生涨停”。
lg
...
金融界
2023-06-07
a16z创始人万字长文:为什么AI会拯救世界
go
lg
...
能是一台机器——不会比你的烤面包机更有
生
命
。 现在,显然,有些人对人工智能杀手深信不疑——浸入它们的可怕警告的媒体报道突然疯狂增加,其中一些人声称他们研究这个主题已经几十年了,现在对他们所了解的内容感到恐惧不安。其中一些真正相信者甚至是技术的实际创新者。这些人主张对人工智能实施各种离奇而极端的限制,从禁止人工智能的发展一直到对数据中心进行军事空袭和核战争。他们主张,因为像我这样的人无法排除人工智能未来可能造成的灾难性后果,我们必须采取一种预防性的立场,可能需要大量的实体暴力和死亡,以防止潜在的存在风险。 我的回应是,他们的立场是非科学的——有什么可测试的假设?什么样的事实可以证明这个假设是错误的?我们如何知道我们何时进入了危险区域?这些问题基本上得不到回答,除了"你无法证明它不会发生!"实际上,这些浸礼会的立场是如此非科学和极端——一个关于数学和代码的阴谋论——他们已经呼吁实施物理暴力,所以我将做一件我通常不会做的事情,质疑他们的动机。 具体而言,我认为有三件事情正在发生: 首先,回想一下约翰·冯·诺伊曼对罗伯特·奥本海默关于他在创造核武器方面的担忧的回应——这有助于结束了第二次世界大战并阻止了第三次世界大战。他说:"有些人为了声称他们的罪行而承认罪行。"什么是以夸张的方式声称自己工作的重要性而不显得过于自夸的最好方式呢?这解释了那些实际上正在建造和资助人工智能的浸礼会的言行不一致——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后更加严厉地说:"别让那个爱哭鬼再进来。") 其次,一些浸礼会实际上是私酒贩子。有一个完整的职业称为"人工智能安全专家"、"人工智能伦理学家"、"人工智能风险研究员"。他们的工作是成为末日预言者,并且应该适当地对待他们的陈述。 第三,加利福尼亚州以众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。其中许多,尽管不是所有,邪教是无害的,甚至为在其中找到归宿的疏离感的人提供了帮助。但有些非常危险,邪教往往很难在导致暴力和死亡的那条线上徘徊。 而现实情况是,显然对湾区的每个人都很明显,"人工智能风险"已经演变成一个邪教,突然出现在全球媒体的关注和公众讨论中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它发展出了一套完整的邪教行为和信仰。 这个邪教不是什么新鲜事——有一个长期存在的西方传统称为千禧年主义,它产生了启示录邪教。"人工智能风险"邪教具有千年主义启示录邪教的所有特征。从维基百科来看,我做了一些补充: "千禧年主义是一种由一组或运动[人工智能风险预言者]相信社会即将发生根本性转变[人工智能的到来]的信仰,在此之后,一切都将改变[人工智能的乌托邦、反乌托邦或世界末日]。只有戏剧性的事件[对人工智能的禁令、对数据中心的空袭、对非受控人工智能的核打击]被认为能够改变世界[阻止人工智能],而这种变革被认为将由一群虔诚和忠诚的人带来或幸存下来。在大多数千禧年主义情节中,即将到来的灾难或战斗[人工智能的启示或预防]将在之后紧随着一个新的、洁净的世界[人工智能的乌托邦]。” 这种世界末日教派的模式是如此明显,以至于我很惊讶为什么更多的人没有看到。 不要误会,教派是有趣的,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很有魅力。但是他们的极端信仰不应决定法律和社会的未来-显然不应如此。 AI风险2:AI会摧毁我们的社会吗? 广为流传的第二个AI风险观点是,AI将通过产生“有害”的结果(以此类末日论者的说法)来毁灭我们的社会,即使我们并非真正被杀害。 简而言之:如果机器杀手没有伤害我们,仇恨言论和错误信息也会伤害我们。 这是一个相对较新的末日论关注点,它从上面我描述的“AI风险”运动中分支出来,并在一定程度上占据主导地位。实际上,AI风险的术语最近从“AI安全”(由那些担心AI会真正杀死我们的人使用的术语)变为“AI对齐”(由那些担心社会“危害”的人使用的术语)。原始的AI安全人士对这种转变感到沮丧,尽管他们不知道如何将其收回,但他们现在主张将实际的AI风险主题更名为“AI不杀伤所有人主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。 AI社会风险主张的提示是其自己的术语“AI对齐”。与什么对齐?人类价值观。哪些人类价值观?哦,这就是事情变得棘手的地方。 恰好,我亲眼目睹了类似情况——社交媒体“信任和安全”战争。显而易见的是,多年来,社交媒体服务一直受到政府和活动家的巨大压力,要求他们禁止、限制、审查和压制各种内容。而且“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧直接从社交媒体背景转移到了“AI对齐”的新领域。 我从社交媒体战争中学到的重要经验是: 一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将至少某些内容视为非法。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力,几乎被几乎所有社会普遍认为是禁区的内容——无论其是否合法。因此,任何促进或生成内容-言论-的技术平台都将有一些限制。 另一方面,滑坡效应不是谬见,而是必然。一旦建立了对甚至极为糟糕的内容进行限制的框架——例如对仇恨言论,对某些有伤害性的词汇,或对错误信息,显然虚假的主张(比如“教皇去世了”)——各种政府机构、活动家压力团体和非政府实体将迅速行动起来,要求越来越大的审查和压制对他们认为对社会和/或他们个人偏好构成威胁的言论。他们会以包括公然犯罪在内的方式这样做。这种循环在实践中似乎可以永远进行下去,得到我们精英权力结构中充满热情的官方监控员的支持。社交媒体领域的这种情况已经持续了十年,并且除了某些例外情况外,这种情况也在不断加剧。 因此,现在“AI对齐”周围形成了这种动态。其拥护者声称拥抱对社会有益的工程化AI生成的言论和思想的智慧,并禁止对社会有害的AI生成的言论和思想。其反对者声称,思想警察极度傲慢和专横,并且通常是公然犯罪,至少在美国是如此,并且实际上试图成为一种新的由政府-企业-学术融合的权威言论独裁,直接来到乔治·奥威尔的《1984》。 由于“信任和安全”以及“AI对齐”的支持者都集中在以美国沿海精英为特征的全球人口非常狭窄的一部分中,其中包括许多在科技行业工作和撰写文章的人。因此,我的很多读者会发现自己有条件争辩,认为需要对AI输出进行大规模限制以避免破坏社会。我现在不会试图说服你们,我只会简单地说这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你们胜利。 如果你不同意当前通过不断加剧的言论规范对社交媒体和AI施加的狭窄道德观念,你还应该意识到,AI被允许说什么/生成什么的斗争将比对社交媒体审查的斗争更重要,远远更重要。AI极有可能成为世界上一切的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在追求保护你的旧说辞的掩护下决定现在的AI应该如何操作。 简而言之,不要让思想警察压制AI。 AI风险3:AI会抢走我们所有的工作吗? 由于机械化、自动化、电脑化或人工智能等各种形式的机器取代人力劳动,人们一直担心失去工作的问题。这种担忧已经持续了数百年,自从出现了机械织布机等机械装置以来。尽管每一项新的重大技术在历史上都会带来更多的高薪工作,但每一波恐慌的出现都伴随着“这一次与以往不同”的说法——这一次会发生,这一次是技术终将给人类劳动以致命打击的时候。然而,这种情况从未发生过。 在最近的过去,我们经历了两次技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多传媒人士、专家和甚至技术行业高管都不断敲打桌子,声称大规模失业即将来临,但在2019年年底——也就是COVID爆发之前——世界上的工作机会比历史上任何时候都要多,而且工资也更高。 然而,这个错误的想法却不会消失。 果不其然,它又回来了。 这一次,我们终于拥有了能夺走所有工作并使人类劳动变得无关紧要的技术——真正的人工智能。当然,这一次历史不会简单重复,这一次是:人工智能将导致大规模失业,而不是经济迅速增长、就业机会增多和工资水平上升。对不对? 不是这样,这种情况肯定不会发生,如果允许人工智能在整个经济中得以发展和推广,它可能会导致有史以来最激动人心和持续时间最长的经济繁荣,相应地带来创纪录的就业机会和工资增长——恰恰与人们的担忧相反。原因如下。 自动化杀死就业论者一直在犯的核心错误被称为“劳动总量谬误”。这种谬误是指在任何特定时间内经济中需要完成的劳动量是固定的,要么由机器完成,要么由人类完成,如果由机器完成,那么人们就没有工作可做。 劳动总量谬误是自然而然地从直觉产生的,但这种直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少输入产生的产出增加。结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——从而为被机器替代的人们创造了新的工作机会。结果是经济规模扩大,物质繁荣增加,产业增加,产品增加,就业机会增多。 但好消息不仅如此。我们还获得了更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力确定报酬。在技术融入的行业中,一名工人的生产力比传统行业的工人更高。雇主要么会根据工人的提高生产力而支付更多的钱,要么另一家雇主会出于纯粹的自利而这样做。结果是,引入技术的行业不仅会增加就业机会,而且会提高工资。 总之,技术使人们能够更加高效地工作。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,并激励了新的工作和新产业的创造。如果市场经济能够正常运行,技术能够自由引进,这将是一个永无止境的向上循环。正如弗里德曼所观察到的那样,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。拥抱技术的市场经济是我们更接近实现每个人都可以想象到的一切,但永远无法完全实现的方式。这就是为什么技术不会摧毁就业岗位,永远不会。 对于那些尚未接触过这些想法的人来说,这些都是令人震惊的思想,可能需要一些时间来理解。但我发誓我并没有编造它们——实际上,你可以在标准经济学教科书中阅读到所有这些观点。我推荐亨利·哈兹利特《一课经济学》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏的讽刺性作品《蜡烛制造商的请愿书》,这些蜡烛制造商因太阳对照明产业进行了不公平竞争而抗议太阳。我们也有我们这个时代的现代版本。 但你可能会认为这一次与以往不同。这一次,随着人工智能的出现,我们拥有了可以替代所有人类劳动的技术。 但是,按照我上面描述的原则,想象一下如果所有现有的人类劳动都被机器取代会意味着什么。 这将意味着经济生产力增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和工人来满足所有新的需求。 假设人工智能再次取代了这些工人呢?这个循环将重复,推动消费者福利、经济增长和就业与工资增长更高。这将是一种直线式的向上螺旋,将人们带向亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。 我们应该如此幸运。 AI风险4:人工智能是否会导致严重的不平等? 谈到卡尔·马克思,对于人工智能夺走工作岗位的担忧直接引出了下一个声称的人工智能风险,那就是,好吧,Marc,假设人工智能确实夺走了所有的工作,无论是出于好还是出于坏。那么,作为人工智能的所有者获得了所有的经济回报,普通人一无所获,这难道不会导致巨大而且严重的财富不平等吗? 恰好,这是马克思主义的一个核心论点,即生产资料的所有者——资产阶级——不可避免地会从实际劳动的人们——无产阶级——那里窃取所有的社会财富。无论现实如何一再证明这是一个错误,这个谬论似乎永远无法消亡。但让我们无论如何驳斥它。 这个理论的缺陷在于,作为一件技术的所有者,保留不分享它并不符合你自身的利益——事实上恰恰相反,你的利益是将它销售给尽可能多的客户。世界上最大的市场是全世界的市场,包括80亿人口。因此,在现实中,每一项新技术——即使开始时是向高薪大公司或富裕消费者销售——都会迅速普及,直到它落入尽可能大的大众市场的手中,最终覆盖整个地球上的人。 这个经典的例子是埃隆·马斯克在2006年发布的所谓“秘密计划”——他当然公开发布的——关于特斯拉的计划: 第一步,制造[昂贵的]跑车; 第二步,用第一步挣的钱造一辆价格实惠的车; 第三步,用第二步挣的钱造一辆更实惠的车。 这当然是他所做的事情,结果成为世界首富。 最后一点是关键的。如果今天他只卖车给有钱人,马斯克会更富有吗?不会。如果他只为自己造车,他会比现在更富有吗?当然不会。不,他通过销售给尽可能大的市场全世界,来最大化自己的利润。 简而言之,每个人都能够拥有这个东西,正如我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎等领域所看到的。制造这些技术的公司高度积极地降低价格,直到地球上的每个人都能够负担得起。这正是人工智能领域已经发生的事情——这就是为什么你今天可以在微软Bing和谷歌Bard等形式的免费或低成本的最先进的生成式人工智能上使用它——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。 因此,发生的情况与技术推动财富集中的理论相反——技术的个体用户,最终包括地球上的每个人,反而被赋予权力,并获得了大部分产生的价值。与之前的技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将竞相努力使这一点成为现实。 马克思当时错了,现在也错了。 这并不是说不平等在我们社会中不是一个问题。它是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制、政府干预最多以阻止采用人工智能等新技术的经济部门驱动的,具体来说是住房、教育和医疗保健。人工智能和不平等的实际风险不在于人工智能会导致更多的不平等,而在于我们不允许使用人工智能来减少不平等。 AI风险5:人工智能是否会导致坏人做坏事? 到目前为止,我已经解释了五个最常提出的人工智能风险中有四个实际上并不真实的问题——人工智能不会活过来杀死我们,人工智能不会摧毁我们的社会,人工智能不会导致大规模失业,人工智能不会导致破坏性的不平等增加。但是现在让我们来讨论第五个,这也是我实际上同意的一个:人工智能会让坏人更容易做坏事。 从某种意义上说,这是一个循环论证。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于好的或坏的目的。可以理解。而人工智能会让罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。 这让一些人提出,好吧,既然这样,那么在这种情况下,让我们在坏事发生之前禁止人工智能。不幸的是,人工智能不是一种难以获得的玄妙物质,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。 显然,AI猫已经出了包。你可以通过数千个免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现在不断增加。人工智能就像空气一样——它将无处不在。为了抓捕它,所需要的极权压迫程度将是如此严厉——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察突袭流氓GPU?——我们将没有一个社会来保护。 因此,我们有两种非常直接的方式来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。 首先,我们已经制定了法律来让使用人工智能干坏事的大多数行为犯罪化。黑入五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们只需专注于在可能时预防这些犯罪,并在不能时予以起诉。我们甚至不需要新的法律——我不知道是否有一个已经被提出的恶意利用人工智能的实际案例不是已经是非法的。如果发现了新的坏用途,我们禁止那些用途。证毕。 但是你会注意到我刚才提到的——我说我们应该首先专注于在坏事发生之前防止人工智能辅助犯罪——这难道不意味着要禁止人工智能吗?好吧,还有另一种方法可以防止这样的行为,那就是将人工智能作为一种防御性工具。让拥有坏目标的坏人具备能力的人工智能,同样也在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。 例如,如果你担心人工智能生成虚假人物和虚假视频,答案是构建新的系统,使人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。 因此,第二个方法是,让我们大力利用人工智能进行善意、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为保护自己、社区和国家所做的一切其他方面利用人工智能。 当然,政府内外已经有许多聪明人正在做这样的工作——但是如果我们将目前那些专注于无效的禁止人工智能的努力和智力用于使用人工智能来防止坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天生活的世界更加安全。 不以最大力量和速度开展人工智能的真实风险 还有一个最终而真实的人工智能风险可能是最令人恐惧的: 人工智能不仅在相对自由的西方社会中得到开发,也在中国得到开发。 中国对人工智能有着与我们截然不同的愿景。他们对此甚至并不保密,他们非常明确地表示,他们已经在追求他们的目标。而且,他们不打算将人工智能战略限制在中国境内——他们打算在他们提供5G网络、提供“一带一路”贷款、提供像TikTok这样的友好消费应用作为他们集中控制和指挥的人工智能前端的地方,将其传播到全世界的每一个角落。 人工智能的最大风险就是中国在全球人工智能主导地位上取得胜利,而我们——美国和西方——却没有取得胜利。 我提出了一个简单的策略来应对这个问题——事实上,这也是罗纳德·里根总统在与苏联赢得第一次冷战时采取的策略。 “我们赢,他们输。” 与其被围绕着关于人工智能杀手、有害人工智能、破坏就业岗位的人工智能和产生不平等的人工智能等毫无根据的恐慌放在被动位置,我们美国和西方应该尽可能全力投入人工智能。 我们应该争取全球人工智能技术优势的竞赛,并确保中国不会取得胜利。 在这个过程中,我们应该尽可能快速、尽可能大力地将人工智能引入我们的经济和社会,以最大化其对经济生产力和人类潜能的利益。 这是抵消真正人工智能风险和确保我们的生活方式不被中国愿景所取代的最佳方式。 我们该怎么办? 我提出了一个简单的计划: • 大型人工智能公司应该被允许尽快、尽可能激进地构建人工智能——但不能实现监管垄断,不能建立一个由政府保护的卡特尔,由于对人工智能风险的不正确宣称而免于市场竞争。这将最大限度地发挥这些公司惊人能力的技术和社会回报,它们是现代资本主义的宝石。 • 初创人工智能公司应该被允许尽快、尽可能激进地构建人工智能。它们既不应该面对大公司获得政府授予的保护,也不应该获得政府援助。它们应该只被允许竞争。如果初创公司不成功,它们在市场上的存在也将不断激励大公司发挥出色——我们的经济和社会无论如何都是赢家。 • 开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源没有战胜公司,其广泛可用性也对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生们是一个福音,并确保无论他们是谁、有多少钱,人工智能都对他们可用。 • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应该积极参与潜在风险领域的每一个方面,利用人工智能最大化社会的防御能力。这不应仅限于人工智能风险,而是包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的极其强大的工具,我们应该将其视为这样的工具。 • 为了防止中国取得全球人工智能主导地位的风险,我们应该充分利用我们的私营部门、科研机构和政府的力量,共同推动美国和西方人工智能在全球范围内的绝对主导地位,最终甚至在中国境内也如此。我们赢,他们输。 这就是我们如何利用人工智能拯救世界。 是时候行动了。 传奇与英雄 我以两个简单的陈述来结束。 人工智能的发展始于上世纪40年代,与计算机的发明同时开始。第一篇关于神经网络的科学论文——即我们今天拥有的人工智能的架构——发表于1943年。在过去的80年中,整个一代人的人工智能科学家出生、上学、工作,很多情况下去世,他们没有看到我们现在所获得的回报。他们是传奇,每一个人。 如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能背后思想的创造——正努力将人工智能变为现实,尽管有一堵试图将他们描绘成鲁莽的恶棍的恐慌和悲观主义的墙。我不认为他们鲁莽或者是恶棍。他们是英雄,每一个人。我和我的公司非常高兴支持尽可能多的他们,我们将100%地支持他们和他们的工作。 "多年来,千年主义者经常[人工智能风险预言者不断地]试图预测这种未来事件的确切时间,通常是通过各种标志和先兆的解释。然而,历史上的预测几乎都以失败告终[目前没有可靠的证据表明人工智能会杀死人类]。然而,他们的[人工智能风险预言者的]粉丝通常会试图修正解释,以便与事件发生时[人工智能未来的潜在风险]相对应。" 那些热衷于"人工智能风险"邪教的人可能会不同意我的观点,他们可能会坚称他们是理性的、基于科学的,并且我是一个被洗脑的追随者。但请注意,我并没有声称"人工智能绝对不会成为人类的威胁"。我只是指出,迄今为止没有证据支持"人工智能将杀死我们"这一论点。我们应该根据现有的证据进行理性的评估,而不是沉溺于邪教般的恐慌和反应。 来源:金色财经
lg
...
金色财经
2023-06-07
马斯克再谈外星
生
命
:没有看到任何外星人存在的证据
go
lg
...
马斯克周二表示,他没有看到任何外星人存在的证据。马斯克是在回复作家迈克尔·谢伦伯格转发的一篇报道,该报道援引一位美国空军老兵和前国家地理空间情报局成员的话称,美国政府收回了一艘外星飞船,并把它藏了起来,美国公众被骗了几十年。该报道称,如果这一声明属实,将是美国政府官方代表首次证实外星人的存在。马斯克回应称:“不管怎样,我没有看到任何外星人的证据。”
lg
...
金融界
2023-06-07
曾有才:6.7黄金走势震荡偏强今日行情分析维持低多看涨
go
lg
...
佛说的一句话:“无论你遇见谁,他都是你
生
命
该出现的人,绝非偶然,他一定会教会你一些什么”。所以我也相信:“无论我走到哪里,那都是我该去的地方,经历一些我该经历的事,遇见我该遇见的人”每一位在读这篇文章的人,感谢与您相遇。 (免责声明:以上分析为曾有才【微信:Z Y C 4 0 5 1 】【公众号:波浪控盘】原创,仅代表作者个人观点,不构成具体操作建议,据此操作,盈亏自负,投资有风险,入市需谨慎!转载请注明出处 )
lg
...
曾有才
2023-06-07
上一页
1
•••
663
664
665
666
667
•••
933
下一页
24小时热点
特朗普突传重大宣布!TA将任命美国商务部长 “领导”对中国征收60%关税政策
lg
...
中美重磅!金融时报:中国与特朗普团队建立联系遇阻 希望与特朗普达成协议
lg
...
美方发出强硬信号!首提终止对华永久正常贸易关系,或终止25年贸易政策
lg
...
朝鲜突传“加入”乌克兰战争!金价2622避险不升反跌 FXEmpire最新黄金技术分析
lg
...
俄乌战场突传重磅消息!普京做出重大决定 金价大涨20美元 如何交易黄金?
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1311讨论
#VIP会员尊享#
lg
...
1482讨论
#比特币最新消息#
lg
...
586讨论