想要搞AI大语言模型平台,其实是一件很困难的事情。
虽然自从ChatGPT震撼面世之后,国内便迅速跟风,接连出现了数个类似的语言模型。
甚至于如果放宽要求,将所有尝试着跑马圈地的公司都计算其中的话,单只是国内,就达到了‘百模大战’的程度。
各种各样的‘大模型’,甭管是独立存在的,还是挂羊头卖狗肉的,总之把看上去还像那么回事的‘大模型’加在一起,总量甚至超过了一百三十个!
这其中便有郑弘毅偷偷摸摸搞的一个试验品。
受限于资金体量和公司这几年连续步入颓势的影响,郑弘毅根本不敢大张旗鼓的进入到这个全新的赛道之中。
生怕稍有不慎,一旦发展不好的话,再给本就状况不佳的公司当头一棒。
到时候若是股价一泻千里,那乐子可就大了。
可即便只是偷偷摸摸搞的试验品,过程中遭遇的那些困难,依旧让郑弘毅感到头大。
其中最麻烦的就是成本问题!
单纯构建模型的起始费用并不算高,大概一千万到一千五百万左右,就能粗略的搭建出一个大模型平台。
可基于大模型对硬件和训练的需求,可以明显的发现,随着模型的规模越来越大,训练的成本也会越来越高昂!
首先最起码的一个成本就是数据!
大语言模型是在包含庞大数据量的大规模数据集上进行训练的,除了开源数据集以外,任何公司想要训练出合格的大语言模型,都必须具备自身长期积累的各种数据集。
并且数据成本还涉及到数据的清洗、标记、组织和存储。无论是管理成本还是处理成本,都不是普通公司能玩得转的。
更让郑弘毅头皮发麻的是,想要搞好一个大语言模型,硬件成本同样是个天文数字!
目前被普遍应用在大语言模型上的GPU、既微处理器,是英伟达A100。
由于大语言模型对于GPU的巨大需求量,导致英伟达A100的价格水涨船高,从官方标定的一万五千刀售价,直接飙升到了三万刀,并且就算是这样,你也很难买到。
因为A100被全面禁售了……
这还只是单片的售价!
按照ChatGPT目前的体量,想要满足ChatGPT的需求,至少需要三万到四万片GPU……
而如果用户规模进一步扩大,最终达成足以支撑全球用户访问的目标,那需要的GPU数量,起码还得再提升一百倍,达到四百万片以上……
如此规模的硬件使用,意味着每天光是电费的消耗,就能吓的人心肌梗塞!
原本在搞清楚了相关大语言模型的成本需求后,郑弘毅便已经打算放弃这个赛道的竞争了。
以三六五公司目前的状况和对资金的吸引力来说,在这种如同资金黑洞一般的赛道里,若是强行打算介入的话,那唯一的结果就是成为炮灰。
可偏偏……在他已经打算放弃的时候,他发现了‘无界维度’平台!
刚发现‘无界维度’平台时,郑弘毅并没有放在心上,只以为是和许多小公司搞出来的平台一样,属于挂羊头卖狗肉的东西。
但简单的使用了下后,郑弘毅便敏锐的察觉到,这‘无界维度’平台和他想的完全不同!