第340章 庞大算力支撑,人工智能技术发展加速!(第3页)

 占地百多亩的数据中心!

 楼层都不高,毕竟只是用来放置服务器。

 建设速度才会这么快。

 这还是数据中心建设各方面要求很高。

 否则这个建设速度会更高。

 西海数据中心,采用的是液冷技术。

 其中冷却液和相关技术,是星海半导体联合燕大材料实验室研究出来的。

 能提升服务器性能的同时,降低功耗,节约水资源和电力资源。

 要知道,这种数据中心,最大的消耗就是电费!

 哪怕是网络带宽费用,也不如电费来的吓人。

 所以,国家后续出台政策:东数西算!

 建数据中心、云计算、大数据一体化的新型算力网络体系,将东部算力需求有序引导到西部。

 西部地广人稀、资源丰富。

 东部地区人多,电力消耗太大。

 再把各种数据中心都建设在东部?

 那电力消耗会非常恐怖。

 如今,音符云投建的多个数据中心完全启用。

 剩下几个数据中心,明年也会陆续投入使用。

 所有的数据中心投入使用后,将200万台服务器。

 目前,星海集团和音符集团的数据,已经完全放在自己的数据中心。

 算力中心提供的算力超过3000petafLops的算力!

 后续,光刻厂工程完工。

 升级更优秀的人工智能芯片。

 这个算力还能翻倍!

 目前音符云的算力……已经能支撑数千亿参数模型级别的完整训练。

 未来再翻倍,足以轻松支撑万亿参数模型的完整训练。

 人工智能参数模型的训练,第100步、1000步、10000步……各方面的表现都不会太好,理解能力和处理能力,可能连现在手机厂商的语音助手都不如。

 表现可以说是:0分

 但是:当训练达到10万参数,Ai发生了质的变化,如果之前是0分……那么现在应该能有10-20分了,算是一个:人工智障了!

 当训练参数达从10的5次方,到10的6次方(100万),模型暴涨到100分!

 Ai在某个领域内,从一窍不通,到百窍皆通,全都会了!

 百万参数已经是一个质的变化!

 在2022年,谷歌发布一篇论文:当参数达到1000亿时,模型会出现更多的神奇现象,突然能理解语言,能处理大规模任务。

 而gpt2的时代,也就是10几亿参数而已!

 gpt2距离千亿参数还相差甚远……但是微软投入百亿美刀级别的资金,加速gpt3达到千亿参数。

 当时,人们觉得人类的创造力是不可能被Ai取代。

 事实上……Ai是能取代人类创造力的!

 如今音符云的算力,足以支撑数千亿参数的训练,接下来就是不断投入数据进行训练。

 这需要海量的人力、物力、资金。

 同时,这个算力,能轻松支持人工智能商用了!!

 哪怕是gpt4级别的成熟人工智能,目前音符云海量算力,也能支撑它商用!

 全球商用!