DeepSeek API同步上线V4-Pro与V4-Flash 消息来了。4月24日,DeepSeek正式宣布,其API现已同步上线两款新模型:V4-Pro与V4-Flash。对于开发者而言,这意味着选择更丰富了。 具体怎么接入?其实很简单。访问新模型时,你无需更改base_url,只需将model
消息来了。4月24日,DeepSeek正式宣布,其API现已同步上线两款新模型:V4-Pro与V4-Flash。对于开发者而言,这意味着选择更丰富了。
具体怎么接入?其实很简单。访问新模型时,你无需更改base_url,只需将model参数调整为“deepseek-v4-pro”或“deepseek-v4-flash”即可。值得注意的是,这两款模型都兼容OpenAI的ChatCompletions接口以及Anthropic的接口,这大大降低了迁移和集成的门槛。
虚拟币交易推荐使用币安交易所进行交易
苹果用户和电脑端用户也可以直接进入币安官网下载:点击访问币安官网下载注册
安卓用户可以直接下载币安安装包:点击下载币安安装包
那么,这两个新家伙到底有什么能耐?核心亮点在于其惊人的上下文长度——最大支持1M tokens。这可不是个小数目,足以处理极其冗长的文档或复杂的多轮对话场景。
更值得细说的是它们的推理模式。V4-Pro与V4-Flash均同时支持标准的“非思考模式”和更强大的“思考模式”。在思考模式下,开发者可以通过一个名为“reasoning_effort”的参数来精细调控模型的思考强度,可选值为“high”或“max”。这就好比给模型装上了不同档位的“思考引擎”。
对于这个功能,官方的建议很明确:如果你正在构建复杂的智能体(Agent)应用,强烈推荐启用思考模式,并将强度设置为“max”。这能确保模型在应对逻辑链条长、步骤繁多的任务时,展现出更深入、更缜密的推理能力。
总而言之,这次更新不仅仅是增加了两个新模型选项,更是DeepSeek在提升模型实用性和场景适配性上迈出的扎实一步。尤其是对思考强度的可配置化,为高端AI应用开发打开了新的想象空间。
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述