DeepSeek类模型服务目前面临哪些主要挑战?

DeepSeek

1个回答

写回答

huangjunABC

2025-09-29 02:05

+ 关注

DeepSeek
DeepSeek

恢复正常状态恐怕需要较长时间。DeepSeek 的推理需求量并不亚于当初 OpenAI 推出 ChatGPT 时所面临的压力,其 APP 下载增速甚至堪称太阳系历史之最,比排名第二的 ChatGPT 快了好几倍。为了应对这种爆炸式的推理需求,OpenAI 曾采取了一系列措施:1. 限流:在近半年的时间里,ChatGPT 免费版的速度非常缓慢,与目前的 DeepSeek 差不多,并且对每个账号的使用量有着严格的限制(例如每天仅允许对话若干条)。2. 合作优化:通过与微软 Azure 深度绑定,OpenAI 不仅获得了强大的算力支持,还在推理层面与云服务厂商协同优化性能。3. 收费模式:ChatGPT 的 Plus 订阅费用较高,尤其对于第三世界国家的用户来说更是如此,这有效缓解了一部分流量压力。4. 封禁策略:ChatGPT 至今仍严格限制某些人口大国的访问权限,从而大幅降低了流量需求。5. 模型简化:从 Turbo 系列到为 Plus 用户提供的货不对板模型,OpenAI 积极尝试用小规模模型替代大规模模型以降低成本。相比之下,DeepSeek 的情况则有所不同:1. 限流方式:DeepSeek 的限流是全局平均分配的,而非基于单个账号在特定时间段内的请求次数,因此难以像 OpenAI 那样精准控制资源分配。2. 云服务商协作困难:国内的云服务提供商受到芯片禁运的影响较大,虽然仍有存量芯片可用,但难以快速扩展规模。此外,DeepSeek 很难与国外云服务厂商实现推理层面的深度协同优化。DeepSeek 官网之所以能够提供极具性价比的服务,是因为进行了大量极致的推理优化,而其他厂商(至少在初期)如果贸然部署这些模型并提供服务,可能无法达到同样的效率,要么选择亏本运营,要么提高价格。例如,亚马逊云服务的价格显著高于 DeepSeek 官网,导致用户更倾向于继续使用 DeepSeek 官方服务或与其价格相近的服务,从而进一步加剧了服务压力。同样地,对于采用国产芯片的国内云服务提供商而言,昇腾 MindIE 目前尚不支持原生 FP8 推理,只能通过 BF16 推理使算力需求翻倍,或者采用量化技术(如 INT8 或 INT4),但这又会牺牲回复质量。3. 收费计划缺失:目前没有迹象表明 DeepSeek APP 有引入付费机制的打算。4. 封号策略缺位:DeepSeek APP 迄今为止并未实施大规模封号行动,也没有限制某些人口大国的用户访问。5. 生成质量优先:DeepSeek 能够迅速走红,主要得益于其出色的生成质量。如果梁老板仍然希望继续面向公众提供服务,那么他很可能不会主动削弱这一核心竞争力。综上所述,面对当前的压力,以下可能是可行的解决方案:1. 企业自建部署:对于有 API 调用需求的中型及以上规模企业或组织,建议自行采购服务器并部署开源模型。这种方式不仅能够规避公共平台的流量限制,还能根据自身业务需求灵活调整资源配置。

举报有用(4分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号