客观来说,就是这种效果。 就目前而言,OpenAI在大模型这条赛道上的先发优势,是毋庸置疑的。 这是个堆数据、堆资源、堆时间的活,如果搞闭源,谁都不可能追上GPT。 别说什么超越GPT-3.5多少、只比GPT-4差多少,只要差一点,等到OpenAI实现AGI的那一刻,所有后发者的命运都是一样的。 既然单靠自己不行,就只能借助外力。 既然先发优势不可更改,那就学曾经安卓那一套,搞开源系统就是了。 开源意味着模型的源代码、所有用于训练模型权重和参数都是可公开访问、可用、可修改的,并且允许转载。 简单来说,就是邀请全世界开发者给自己打工,以此来挑战已有的闭源生态。 这样做,至少有六点好处: 1.降低进入门槛。让更多人参与,为AI发展提供动力。 2.加速研究进展。开发者可以在开源代码和数据的基础上,直接研究和创新。 3.促进产业应用普及。开源的算法和模型,可以被更多企业应用和商业化,推动AI应用落地。 4.帮助确保公平和透明。公开开源代码可以让社会对算法过程进行审查,确保其公平性和透明度。 5.节省计算和人力成本。可以在已有开源成果上继续创新,而非重复基础工作,节约大量计算和人力成本。 6.增强可重复性和可扩展性。其他人可以复现开源项目的实验,并在此基础上进行扩展,推动科技深入发展。 以Meta的开源大模型Llama2为例,短短几个月,通过Hugging Face下载的基于Llama的模型超过3000万次,开源AI社区上发布了超过7000个Llama衍生模型。 Meta在技术和资金上确实拼不过微软和OpenAI。 但就像当年的安卓一样,群众的力量是恐怖的。 不论是Meta的Llama,还是谷歌的Gemma,都能用开源的方式,像曾经的安卓那样在智能手机时代分一杯羹。 包括马斯克自己,乃至未来更多的开源大模型,都是这种玩法。 这是商业的角度。 再从伦理角度看,早在2015年,马斯克与山姆·奥特曼就讨论了这个问题:由大公司控制的少量AI系统更安全,还是大量独立系统更安全? 当时两人一致更认同后者。 逻辑就是,只要有大量彼此竞争的AI相互制衡,就算少部分AI“变质”了,产生自由意识脱离掌控,其他大量的独立系统也会联合剿灭它。 这就是马斯克心中AI最安全的发展路径:防止人类滥用AI的最佳防火墙,就是让尽可能多的人都拥有AI。 简单来说,就是提高容错率。 总之,开源不仅能促进技术更快发展,还能有效避免技术被某一家巨头垄断,更能让发展AI这条路线更加安全。 但它并不是完全没有坏处。 至少对外,关于为什么要闭源,OpenAI是这么解释的:防止AI被滥用。 就像枪支一样,如果按照马斯克的理念,人人手里都有枪,犯罪事件是不是就更多了? 要是把枪支,换成比核弹更危险的原子弹,是不是更危险? 目前AI技术滥用的几种形式 这种担心不无道理,可能性不是没有。但既然后来者们越来越多选择开源,等到GPT的先发优势越来越小的时候,它会怎么选择呢? 如果OpenAI妥协,也被迫选择开源,届时AI技术爆发的时代才真正带来。 只是福祸难以预料。 03 尾声 当然,上面说了这么多,马斯克也不是纯粹要做慈善。 他毕竟是个商人,赚钱才是最主要的目的。 比如,2014年他为什么要开源300项特斯拉专利? 因为汽车百多年的历史中,内燃机是主流,牵扯到的利益不仅仅是老牌工业巨头,更是那些富可敌国的油商和海湾国家。 凭他一个人,想撼动这棵盘根错节的巨树,单挑德国、日本的发动机巨头和阿拉伯土豪,是不可能的。 所以得拉人、拉很多人。 怎么才能快速获得盟友?最简单粗暴的就是释放利益,把技术分享出去,降低入行门槛。 当然,并不是无偿分享,有两个很重要的前提: 1.只有心怀善意的企业,可以免费使用专利。如何定义善意?特斯拉说了算。 2.一旦使用这些技术,也就默认特斯拉可以免费使用你的任何专利。 这次开源大模型Grok-1,或许也有类似的条件。。 橘生淮南则为橘,生于淮北则为枳。 人工智能的爆发,在太平洋东西两岸“叶徒相似,其实味不同”。 那边对开源闭源吵得热火朝天,这边却有人虚空买课上热搜,更有大佬公开直言:我信仰个毛线,我只信钱,这就是中国现实主义AIGC。 现在AI方面的差距,大家都懂,国内资本界天天盼着他们开源呢!这样才能抄作业。 但这其实是味慢性毒药。 就像新能源车,短期看成绩喜人,长期看很可怕。 从0到1不是那么简单的事情,我们习惯了拿来主义,习惯了吃“快餐”,根本坐不住,沉不住气,甚至失去了思考能力。(全文完)lg...