全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
香港论坛
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
中国突传已破解加密货币?量子计算机“首次”威胁结构算法!全球研究市场炸锅……
go
lg
...
日)引述市场消息称,中国研究人员利用
D-Wave
量子计算机破解了用于保护银行账户、绝密军事数据和加密钱包的加密算法。全球研究市场高度瞩目进展,但由于研究细节披露缓慢,目前未能评估其对加密货币的威胁有多严重。 香港《南华早报》(SCMP)在10月11日提到,上海大学的科学家在一篇同行评审的论文中写道:“这是真正的量子计算机首次对目前使用的多种全尺寸替代-排列网络(SPN)结构算法构成真正的、实质性的威胁。” (来源:SCMP) 该论文讨论了破解Rivest-Shamir-Adleman(RSA)加密,这是最古老和广泛使用的公钥密码系统之一。有关最新研究的细节披露缓慢,因此很难确定这对加密货币和区块链技术的威胁有多严重。 据港媒指出,截至10月11日,该论文尚未以英文发布,研究人员没有接受任何采访,据说是因为“话题敏感”。 但是,如果研究人员的研究结果成立,并且可以被其他人复制,具有量子计算背景的物理学家、sqrtxx.com创始人马雷克·纳罗兹尼亚克(Marek Narozniak)认为,这将是量子计算发展“向前迈出的重要一步”。 这是否意味着,正如许多人担心的那样,许多行业(包括银行业和加密货币业)使用的密码保护机制可能很快就会变得脆弱? CoinTelegraph报道,特伦托大学密码学实验室主任兼教授Massimiliano Sala表示:“论文中缺少许多细节,因此很难就其可能的意义给出明确的答案。” 这在很大程度上取决于科学家是否能够破解一定大小的RSA密钥——即如今银行用于保护客户储蓄和支票账户的密钥。“没有证据表明这一点,”Sala强调。“但如果他们真的这么做了,那么其影响将是巨大的。” 许多人认为,量子计算(QC)正在以指数级的速度发展,它使用原子“自旋”而不是电荷来表示二进制1和0,但全功能的QC设备尚未大规模出现。 上海使用的
D-Wave
机器有时被称为量子退火机,实际上是原始量子计算机或前身,只能执行专门的任务。 然而,一些人担心,若是通用量子计算机真的出现,它可能会威胁到迄今为止为比特币和其他加密货币提供良好服务的椭圆曲线加密结构。 假设没有开发出任何对策,量子计算机能够识别比特币私钥的关键组成部分的巨大素数可能只是时间问题。 “但是,我们必须记住,
D-Wave
量子计算机不是通用量子计算机,” Sala补充道。“此外,
D-Wave
的分解RSA密钥的能力几个月前就已经由我的一位同事开发出来了。” 日本立命馆大学机械工程学教授Takaya Miyano也对科学家的研究结果的意义提出了质疑——与Sala的观点类似。 上海研究人员分解的整数长度为22位,“比实际的RSA整数长度短得多,实际的RSA整数通常等于或大于1024位,例如1024、2048,最多4096位,”他告诉CoinTelegraph。 “
D-wave
机器是一种用于解决优化问题的量子模拟器,而不是通用计算机,”Miyano补充道。 目前还不清楚它是否能够在现实世界中对大型RSA整数进行快速分解。 为什么质因数分解很重要?因式分解是一种数学过程,可将数字写为较小整数的乘积。例如,12可以分解为3 x 2 x 2。高效的素数因式分解被称为破解RSA公钥密码系统的“圣杯”。 毕竟,RSA不仅仅是一种加密技术。它还是一种“密钥”生成方案,通常涉及乘以大素数。 马雷克解释说,两方(例如银行及其客户)通常会收到一组素数,用于计算其私钥和公钥。 实际生成私钥和公钥的过程很复杂,但如果“p”和“q”是质数,而“n”是这两个质数的乘积(即n=pxq),则可以说p和q与私钥相关,而n与公钥相关。 RSA加密背后的基本数学原理是,虽然将两个质数相乘很容易,但逆向操作却非常困难,即找到两个作为乘积因数的质数——而且随着数字越来越大,这变得越来越难。 今年早些时候,Sala在特伦托大学的同事利用量子退火机发现了数字8219999的两个质因数,即32749和251。“据我们所知,这是有史以来利用量子设备分解出的最大数字,”研究人员写道。 在Sala看来,上海大学最近的论文“只有找到了分解大数的方法”才有意义。 特伦托大学的研究人员还指出,量子计算在解决传统计算机长期以来“无法解决”的复杂问题方面具有巨大潜力。 质因数分解(即将数字分解为其质因数的问题)是通过量子计算,特别是量子退火有效解决的良好候选方法。 加密密钥是安全的—就目前而言,然而,ZeroHedge写道:“假设上海科学家确实找到了一种使用量子退火器成功破解加密算法的方法,包括那些像SPN这样的算法,这些算法是军事和金融领域广泛使用的高级加密标准(AES)的基础。” 这会对加密行业产生什么影响? 马雷克表示:“用于数据加密的AES-128等对称密码不易受到此类攻击,因为它们不依赖于数字分解。” 当然,也可能存在例外,比如如果密码是通过基于RSA的密钥交换协议得出的共享密钥,他继续说道。但“即使该研究中提出的方法得到推广并被广泛使用——如果这是真的——正确加密的密码和其他数据通常仍将保持加密状态,”他说。 马雷克告诫大家不要仓促下结论。“在我们重新评估我们的乐观程度之前,让我们等待有人重复并确认这一结果,”他说。“声称破解RSA并不罕见。” 例如,2023年初,中国研究人员表示,他们已经在10量子比特量子计算机上分解了一个48位密钥,马雷克克评论说,这一说法“仍未经过同行评审”。 “而两年前,作为社区权威的Claus Schnorr犯了一个无意之失,声称RSA已被破解。我个人对这种重大声明持怀疑态度。” Sala表示:“破解RSA意味着很多软件需要更新,但不能进行大幅度的改变,因为已经有实施的标准提供了替代方案,包括用于保护比特币的椭圆曲线加密(ECC)。更为剧烈的影响将是对信用卡等机构,它们将不得不大规模撤回,以彻底改变其软件。” 人们可能想知道为什么加密货币没有像银行一样广泛使用RSA。马雷克说,加密行业青睐椭圆曲线加密,因为ECC可以使用更少的字节和更小的密钥实现相同的安全级别。这开辟了数字空间,使区块链能够更快地增长。 此外,以太坊联合创始人Vitalik Buterin在3月份表示,如果以太坊遭受量子攻击,硬分叉可以阻止这种攻击。他发帖称:“我们已经准备好制作一个非常简单的恢复分叉来应对这种情况。” (来源:Ethereum Research) 用户可能必须下载新的钱包软件,但很少有人会损失资金。 但真的那么容易吗?“我不认为这种硬分叉会简单,”马雷克说。展望未来,与目前使用的相比,量子安全签名如ML-DSA需要更大的密钥和签名。他表示,这可能会降低链上性能并提高Gas费用。 Multiverse Computing首席技术官Samuel Mugel提到,执行硬分叉“很复杂,需要广泛的社区共识,并且可能无法恢复所有丢失的资产或完全修复对网络的信任”。 “因此,在发生此类攻击之前实施抗量子加密技术对于避免这种情况至关重要。” 亚利桑那州立大学副教授、Dainamic首席执行官兼创始人Christos Makridis表示:“我们肯定需要重新审视我们目前的网络安全防御措施。” 在量子计算的世界中,需要更加关注网络容量负载(即防御分布式拒绝服务攻击)和密码(例如保护数据免受黑客攻击)。 他进一步观察到:“一种新兴观点是,量子计算和生成式人工智能(AI)的扩展使得网络攻击能力比防御能力更强。” 业界不能掉以轻心。萨拉警告说:“危险的量子计算机终将到来,这只是时间问题。” 他补充称,区块链世界必须尽快做好准备,规划出向后量子密码学过渡的路线图,开发出能够抵御“成熟的量子对手”攻击的安全措施。
lg
...
圈内人
3评论
2024-10-23
全网最大的GPU矿工占比,AI龙头初现端倪,Dynex逆袭之路~
go
lg
...
-learn,ibm-qiskit,
d-wave
兼容使用 使用python下载Dynex安装包 pip install dynex 即可调用超过2.6亿芯片数量,60万张3070等同算力显卡的算力 来源:金色财经
lg
...
金色财经
2023-10-08
人工智能时代的算力挑战
go
lg
...
用计算。比如,谷歌和NASA联合开发的
D-Wave
就只能执行量子退火(Quantum Annealing)算法,而我国研发的光量子计算机“九章”则是专门被用来研究“高斯玻色取样”问题的。尽管它们在各自的专业领域表现十分优异,但都还不能用来解决通用问题。这就好像游戏中的群体攻击大招,虽然攻击范围广,但是对每个个体的杀伤力都比较弱。因此,如果遇上大群的小怪,群体攻击固然厉害,但如果遇上防御高、血条厚的Boss,这种攻击就派不上用处了。 从这个角度看,如果我们希望让量子计算大发神威,就必须先找出适合量子计算应用的问题和场景,然后再找到相应的算法。与此同时,我们也必须认识到,虽然量子计算的研发和探索十分重要,但是它和对其他技术路径的探索之间更应该是互补,而不是替代的关系。 3、通过改进算法节约算力 如果说,通过高性能计算、分布式计算,以及量子计算等手段来提升算力是“开源”,那么通过改进算法来节约算力就是“节流”。从提升计算效率、减少因计算而产生的经济、环境成本而言,开源和节流在某种程度上具有同等重要的价值。 在ChatGPT爆火之后,大模型开始越来越受到人们的青睐。由于在同等条件下,模型的参数越多、训练的数据越大,它的表现就越好,因此为了追求模型的更好表现,现在的模型正在变得越来越大。我们知道,现在的ChatGPT主要是在GPT-3.5的基础上训练的。在它出现之前,GPT共经历了三代。GPT-1的参数大约为1.17亿个,预训练数据为5GB,从现在看来并不算多;到了GPT-2,参数量就增加到了15亿个,预训练数据也达到了40GB;而到了GPT-3,参数量则已经迅速膨胀到了骇人的1750亿个,预训练数据也达到了45TB。为了训练GPT-3,单次成本就需要140万美元。尽管OpenAI并没有公布GPT-3.5的具体情况,但可以想象,它的参数量和预训练数据上都会比GPT-3更高。为了训练这个模型,微软专门组建了一个由1万个V100GPU组成的高性能网络集群,总算力消耗达到了3640“算力当量”——也就是说,如果用一台每秒计算一千万亿次的计算机来训练这个模型,那么大约需要近十年才能完成这个任务。 如果任由这种“一代更比一代大”的趋势持续下去,那么在未来几年,对算力的需求将会出现爆炸性的增长。一项最新的研究估计,在5年之后,AI模型需要的算力可能会是现在的100万倍。很显然,由此产生的经济和环境成本将会是十分惊人的。 令人欣慰的是,目前已经有不少研究者希望改进算法、优化模型来减少对算力的需求,并且已经取得了一定的成就。比如,就在今年1月3日,来自奥地利科学技术研究所 (ISTA)的研究人员埃利亚斯·弗朗塔(Elias Frantar)和丹·阿里斯特尔(Dan Alistarh)合作进行了一项研究,首次针对 100至 1000亿参数的模型规模,提出了精确的单次剪枝方法SparseGPT。SparseGPT可以将GPT系列模型单次剪枝到 50%的稀疏性,而无需任何重新训练。以目前最大的公开可用的GPT-175B模型为例,只需要使用单个GPU在几个小时内就能实现这种剪枝。不仅如此,SparseGPT还很准确,能将精度损失降到最小。在进行了类似的修剪之后,这些大模型在训练时所需要的计算量就会大幅减少,其对算力的需求也就会相应下降。 关于提升算力、支持人工智能发展的政策思考 随着ChatGPT引领了新一轮的人工智能热潮,市场上对算力的需求也会出现爆炸性的增长。在这种情况下,为了有力支撑人工智能的发展,就必须要通过政策的手段引导算力供给的大幅度增加。而要实现这一点,以下几方面的工作可能是最为值得重视的。 第一,应当加快对算力基础设施的建设和布局,提升对全社会算力需求的支持。如前所述,从目前看,分布式计算,尤其是其中的云计算是提升算力的一个有效之举。而要让云计算的效应充分发挥,就需要大力建设各类算力基础设施。唯有如此,才可以让人们随时随地都可以直接通过网络获得所需的算力资源。 这里需要指出的是,在布局算力基础设施的时候,应当慎重考虑它们的地域和空间分布,尽可能降低算力的成本。我们知道,不同的地区的土地、水、电力等要素的价格是不同的,这决定了在不同地区生产相同的算力所需要的成本也不尽相同。因此,在建设算力基础设施时,必须统筹全局,尽可能优化成本。需要指出的是,我国正在推进的“东数西算”工程就是这个思路的一个体现。由于我国东部各种资源的使用成本都要高于西部,因此在西部地区建立算力设施,就会大幅降低算力的供给成本,从而在全国范围内达到更优的配置效率。 第二,应当加强与算力相关的硬件技术及其应用的研发,为增加算力供应提供支持。与算力相关的硬件技术既包括基于经典计算的各种硬件,如芯片、高性能计算机等,也包括超越经典计算理论,根据新计算理论开发的硬件,如量子计算机等。从供给的角度看,这些硬件是根本,它们的性能直接关系到算力提供的可能性界限。因此,必须用政策积极促进这些硬件的攻关和研发。尤其是对于一些“卡脖子”的项目,应当首先加以突破。 这里需要指出的是,在进行技术研发的同时,也应该积极探索技术的应用。例如,我们现在已经在量子计算领域取得了一些成果,但是由于用例的缺乏,这些成果并没有能够转化为现实的应用。从这个意义上讲,我们也需要加强对技术应用的研究。如果可以把一些计算问题转化成量子计算问题,就可以充分发挥量子计算机的优势,实现计算效率的大幅提升。 第三,应当对算法、架构等软件层面的要素进行优化,在保证AI产品性能的同时,尽可能减少对算力的依赖。从降低AI计算成本的角度看,降低模型的算力需求和提升算力具有同等重要的意义。因此,在用政策的手段促进算力供给的同时,也应当以同样的力度对算法、架构和模型的优化予以同等的激励。 考虑到类似的成果具有十分巨大的社会正外部性,因此用专利来保护它们并不是最合适的。因此,可以积极鼓励对取得类似成功的人员和单位给予直接的奖励,并同时鼓励他们将这些成果向全社会开源;也可以考虑由政府出面,对类似的模型产品进行招标采购。如果有个人和单位可以按照要求提供相应的成果,政府就支付相应的费用,并对成果进行开源。通过这些举措,就可以很好地激励人们积极投身到改进模型、节约算力的事业中,也可以在有成果产出时,让全社会及时享受到这些成果。 总而言之,在人工智能突飞猛进的时代,算力可能是决定人工智能发展上限的一个关键因素。唯有在算力问题上实现突破,人工智能的发展才可能有根本保障。 来源:金色财经
lg
...
金色财经
2023-02-21
未来科技大趋势! IBM推出最新量子计算芯片 同比算力翻3倍
go
lg
...
大赌注的公司。微软公司、Google、
D-Wave
Systems Inc.等,以及一代创业公司都在该领域推进。 国际数据公司的研究经理兼量子计算研究负责人Heather West表示,由于这些公司采用不同的方法来构建量子机器,因此某些类型的计算机最终可能比其他类型的计算机更适合解决某些问题。
D-Wave
称他们有一台超过5000个量子比特的机器,被称为退火量子计算机。分析师表示,退火机针对特定问题,通常与优化有关。 IBM正在寻求一种能够处理许多不同任务的量子计算机,称为量子门计算机。分析师表示,在这些计算机中扩大量子比特的数量比在退火机中更困难,因为量子比特在每台机器中的功能不同。 Dario Gil博士博士说,从理论上讲,今天没有理由不能在单个芯片上放置1000个量子比特。困难在于,你拥有的量子比特越多,他们的结果错误率就越高,他们能够保持量子态进行计算的时间就越少。 部分原因是量子比特很脆弱,很容易被温度、噪声或频率的变化破坏。IBM将他们的量子系统托管在圆柱形低温冰箱中,其中一些位于该公司位于纽约州约克敦高地的Thomas J. Watson研究中心内。一些机器被守卫在需要进行视网膜扫描才能进入的房间内。一个被放置在保护蒙娜丽莎免受今年在卢浮宫举行的扔蛋糕气候抗议活动的同一类型的玻璃后面。 该公司还宣布,已将试用其现有量子计算机的客户群扩大到210多家公司。 自2016年以来,IBM一直将他们的量子计算机放在云端,以使公司、大学和个人能够试验这项技术。它说,IBM目前为此目的在线拥有20多个系统。IBM研究员兼IBM Quantum基础设施总监 Jerry Chow表示,两家公司将能够在明年第一季度开始使用Osprey芯片。 波音公司表示,它正在通过云使用IBM的量子计算机来试验与飞机腐蚀相关的化学反应建模。 波音技术研究员Marna Kagele说:“需要时间来了解这有什么帮助。我们认为现在是开始这条道路并建立我们内部能力的正确时机,但还有很多工作要做。”
lg
...
楼喆
2022-11-10
上一页
1
2
3
4
下一页
24小时热点
美国债务危机3年内爆发!桥水基金创始人:10-15%投资组合买入“黄金”避险
lg
...
中国就业人数将出现2020年来首次下降!标普报告:裁员潮集中在“这领域”
lg
...
中美传重磅!与特朗普关系密切的参议员自请出任特使 以安排与习近平的会面
lg
...
中国突发重大消息!彭博独家:中国考虑削减业绩不佳基金经理50%薪酬
lg
...
【美国收评】 三大股指周末集体收涨 贸易政策不确定性击碎消费者信心 标普500四连跌 道指创一年期最大单周跌幅
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
63讨论
#VIP会员尊享#
lg
...
1797讨论
#比特币最新消息#
lg
...
970讨论
#CES 2025国际消费电子展#
lg
...
21讨论