笔趣阁
会员书架
首页 >城市耽美 >刷抖音爆奖励,开局一辆法拉利 > 473 人工智能大模型。

473 人工智能大模型。(第2 / 2页)

上一页 章节目录 加入书签 下一章
点击观看同名漫画

苏阳盯着系统提示,半晌没有说话。两万亿参数,百万上下文,多模态,训练成本只有行业二十分之一,推理速度快十倍,价格只有三分之一——这不是大模型,这是核武器。目前市面上的大模型,不管是海外的还是国内的,参数量大多在几千亿级别,上下文几十万,训练成本动辄上亿美元。而系统给他的这个模型,在每一项指标上都实现了碾压。

他站起身来,在客厅里来回踱步。华夏的大模型行业正在经历残酷的价格战和算力战,各家厂商烧了上百亿,但谁都没有拉开决定性差距。如果盘古大模型落地,整个行业的格局会被彻底改写。

苏阳打开电脑,开始梳理当前全球ai大模型的市场格局。

当前,全球大模型行业正处于“百模大战”的白热化阶段。海外市场,openai的gpt系列依然占据领先地位,凭借先发优势和微软的算力支持,牢牢把持着企业级和开发者市场的头部份额。谷歌的gemini凭借其多模态能力和生态系统紧随其后,anthropic的claude以长上下文和安全性见长,在特定领域拥有一席之地。meta的llama系列则凭借开源策略,成为了全球开发者构建应用的首选基座模型。

国内市场则更加拥挤。百度的文心一言、阿里的通义千问、字节跳动的豆包、科大讯飞的星火、腾讯的混元、智谱的chatglm……十多家厂商的产品同台竞技,每家都投入了数十亿甚至上百亿的资金,但真正拉开代差的几乎没有。性能上你追我赶,价格战却已经打得血流成河——api调用的单价在过去一年里下跌了超过百分之九十,从千tokens几分钱跌到了几分钱、甚至零点几分钱。

行业的核心痛点有三个。

第一,算力成本居高不下。训练一个千亿参数的大模型需要数千张甚至上万张gpu,电费、硬件折旧、集群维护加起来,单次训练的成本就要数千万美元。这还不算后续的迭代优化、推理部署。即使是头部大厂,也在为高昂的算力成本头疼。

第二,推理速度和成本难以兼顾。模型越大,推理越慢、越贵。为了控制成本,很多厂商不得不牺牲模型精度,采用量化、蒸馏等技术缩小模型体积,但这样做又会损失能力。用户想要一个既聪明又快速还便宜的模型,但目前的技术做不到。

第三,长上下文和多模态能力仍是瓶颈。虽然各家都在宣传百万级上下文,但实际应用中,长文本处理的效果远不如宣传的理想。多模态的融合也大多停留在“看图说话”的初级阶段,真正的视频理解、音视频协同生成还远远不够成熟。

更关键的是,大模型尚未出现真正“杀手级”的应用。聊天、写作、翻译、代码辅助——这些场景虽然有用,但不足以支撑起一个万亿级的市场。行业共识是,大模型需要与硬件结合、与物理世界结合,才能真正释放价值。

苏阳翻完最后一份报告,靠在椅背上,嘴角浮起一丝笑意。

算力成本高?盘古大模型的训练成本只有行业平均的二十分之一。推理慢?推理速度快十倍。能力不够?两万亿参数、百万上下文、多模态,每一项指标都碾压现有产品。商业模式?价格只要三分之一,中小企业也能用得起。</p>

点击切换 [繁体版]    [简体版]
上一页 章节目录 加入书签 下一章

阅读推荐