当前位置:主页 > 财经 >

国产版GPT接踵而来,算力平台谁来支撑?

上星期,百度推出根据大模型的AI聊天机器人“文心一言”,变成中国首个冲入GPT赛道的互联网公司。3月18日,第一财经记者从达观数据获知,该企业自主研发大中型语言表达模型“曹值”系统软件也获得实质性进展,跻身中国规模性语言表达模型中第一批可落地产业应用级模型。

在国产版GPT接踵而来的大环境下,目前国内的算力平台还不足以提供助力,这也成为牵制在我国大模型发展的主要短板。

国产版GPT接踵而来,算力平台谁来支撑?

竖直大模型也要上豆腐皮GPU

据了解,“曹值”与ChatGPT和“文心一言”这种更为通用性大语言表达模型不一样,是致力于竖直、专用型领域内的模型,目的在于创变金融业、政务服务、生产制造等多个垂直行业。

达观数据创办人CEO陈运文对第一财经表明:“‘曹值’在垂直行业内的理解产生的每日任务上都能达到良好的效果。如今在一些关键技术层面仍在优化,将来达观数据将建立好几个垂直领域的专用型语言表达大模型,总体作用会很有特点。”

他例举称,根据旷达AIGC智能写作水平,可兼容各种原材料申请需求场景,根据已经有各结构型类数据信息,迅速编写各种风格与非风格文本文档,用于文书、招标投标、投资银行申请文本文档、裁判文书等专业写作情景。

华为集团创办人华为任正非最近还对ChatGPT发表自己的看法。他指出:“在未来的AI大模型上面风云变幻,不仅仅是微软公司一家,人工智能软件平台公司对人类社会的立即奉献很有可能不上2%,98%都会对工业时代、农业文明的推动,大伙儿需要关注运用。”

ChatGPT推动了自然语言理解总体上中下游及其芯片思考与发展趋势,一定程度上大模型也挺将会成为下一代技术发展趋势基础设施。我国形成自己的基本模型管理体系已经成为必定要求,在这一发展中,目前我国企业面临的共同关键是算率不够。

陈运文向第一财经记者直言,练习一个竖直大模型可能还需要上豆腐皮GPU处理芯片集群式。“如今存在的困难是,我们需要的GPU总数是不够的,远水救不了近火。”他对于第一财经记者讲到,“集群式所需要的GPU总数许多,开发周期长投资大。”

现阶段支撑点包含ChatGPT大模型等在内的95%用以机器学习的处理芯片全是英伟达显卡的A100(或是中国所使用的代替品A800),该芯片价格高于1万美金。除此之外,英伟达显卡最新一代的H100芯片功能也远高于A100,但是价格也更高,折合25万人民币。

除开单独的芯片以外,英伟达显卡还售卖一个含有8个A100的网站服务器DGX,市场价贴近20万美金。投资分析师和资深专家可能,练习GPT-3等大型语言表达模型的斥资很有可能超出400万美金。

这对于大部分中小型企业来讲是不太可能承担的开销。在陈运文看起来,若是有超大型核心可以提供算率出租的方式,可能处理中小型企业很大一部分算率严重不足的问题。“中国已有的租赁网站的问题就是算率经营规模还过小,所以价格过高。”陈运文告知第一财经记者。

公司探寻尽可能减少算力的依靠

在GPT这种大模型面世前,中国几乎没有什么应用领域需要使用如此大的算率。第一财经记者了解到了,商汤科技等国内公司都拥有自己超算中心,但这样的平台仅向定项合作商对外开放;而阿里等对外开放出租的超算平台的算率依然不能达到现阶段很多大模型要求。

上海复旦大学自然语言理解试验室邱锡鹏专家教授先前还表示,该试验室开发设计大语言表达模型MOSS受限于算率网络资源严重不足的问题。据了解,MOSS都是基于32张英伟达A100处理芯片算率。比较之下,ChatGPT模型身后有着约3万元A100处理芯片,差别贴近1000倍。

对于此事,邱锡鹏觉得,在资源是有限的的情形下发展趋势大模型的趋势是“用规模较小的模型寻找特殊的使用场景”,比如能够公司内部私有部署,通过一些数据信息调整就能转化为生产主力。

做为GPT算率最主要的服务提供者,英伟达显卡早已在实践新商业模式。黄仁勋早已表明,英伟达显卡想要将人工智能算率放到云空间分享给公司。

“大家所提供的质量是将原来需要花费10亿美金运作CPU的数据中心减少为只用1亿美金就可以搞定的数据中心,如今将这个大数据中心放到云空间分享,代表着需要由100家专业公司分摊这一成本费,所以每一家企业收取的实际是很少费用。”他说道,“如今企业能够花一2000万来构建一个相近GPT大型语言表达模型,这是能够付款得起的。”

但也有业内人士指出,处理算率难题仅仅开发设计大模型的第一步。澜舟高新科技创办人CEO周明对第一财经记者表明:“尽管现在算力平台不够是市场所面临的广泛难题,可是就算算率问题解决了,也是会有任何问题,重点在于对于模型本质了解需要提升。”

周明表明,在国外如今大家还是一窝蜂的去搞大模型,可能很多人对于模型的原理了解只停留在较为基本的认识,包含大语言表达模型的产品化管理方法,欠缺学会思考的奋斗精神。

周闵然允许,将来大模型的一个发展趋势趋势是,在优化算法上进行改善,从而降低对模型和算力的依靠。“如用极小的GPU还可以做大模型,正确的方向值得注意。”他对于第一财经记者表明。


上一篇:甩掉“快递包袱”后,百世集团扭亏靠什么
下一篇:美国地方性银行“余震”不断,美股市场情绪暂难企稳

相关文章