火山引擎上线DeepSeek-R1联网搜索版,官方以外最佳体验

在DeepSeek V3发布和R1推理模型爆火之前,我一般是Kimi、豆包、DeepSeek V2 / V2.5三个模型同时使用。在《思源笔记配合Ollama、OneAPI,部署大模型AI辅助写作》,介绍了用OneAPI来中转豆包系列模型api的方法,从而使其与OpenAI API格式兼容。

但从春节前开始,DeepSeek R1在全网刷屏之后,原本速度飞快的DeepSeek网页版和api都进入了难绷的受限状态。从目前来看,深度求索应该只用几千张卡在提供给用户使用,api停止充值也说明他们暂时不准备靠算力来挣钱。考虑到从DeepSeek V3发布,到基于V3做出震惊全球的推理模型DeepSeek R1只用了半个月。我想接下来DeepSeek应该还是惊喜多多,值得期待。

image

但这篇文章发布的2025年2月份,最重要的还是找到一个稳定可用且可以联网的满血版DeepSeek(蒸馏版能力差太多了,我本地部署了越狱版,也就是不限制敏感词、敏感话题的32b Qwen2.5蒸馏版,距离能用都有挺大差距,幻觉严重,重复率300%吧)。目前来说,大概有几种方式可以实现:

  1. 官方网页版:只适合偶尔查一次,限速,大概限制到1小时1-2次请求,多了会显示服务器繁忙,请稍候再试;
  2. 自带联网能力的第三方DeepSeek R1服务,如360的纳米AI搜索,秘塔搜索;
  3. 第三方计算平台的api + 联网工具(Open-WebUI、浏览器插件“Page Assist”,推荐后者,使用门槛较低,Edge/Chrome/FireFox浏览器都可以使用),如硅基流动、阿里百炼、百度千帆、字节火山引擎等;
  4. 本地部署满血版 + 联网工具,能本地部署满血版的大佬,轮不到我来介绍了,本地部署各类模型,无论大小,都可以通过SearXNG、Search2ai等方案来解决联网问题,也可以调用google、bing的搜索api(超额收费),一般要模型支持function call,要求有代码能力;
  5. 利用WorkFlow工作流工具,如扣子Coze、Dify,通过工作流多次LLM处理,让输出的信息不仅仅是简单地采集搜索引擎前几条结果,但这种方法比较费api,费钱。​​

image

近日,火山引擎正式上线了DeepSeek R1联网版应用,没什么技术门槛,零代码就能用上。网页版试用的方法是:登录火山引擎后台——左边栏的应用广场——DeepSeek联网搜索版,如本文图1。

如果想调用,可以点进去之后,点击右上角的“复制”,自己新建一个应用,如上图,需要先开通火山引擎内的DeepSeek R1满血版模型,设置付费方式。然后新建应用,选择联网插件,成功之后,便可以调用应用的api来实现第三方调用。火山引擎和Coze的服务,都可以用OneAPI中转,转为OpenAI兼容模式,也就是说中转之后,填入Chatbox等工具中直接就能用。不过也有一些工具默认提供了对火山引擎等云计算平台的兼容,具体看你用什么工具。



微信扫描下方的二维码阅读本文

火山引擎上线DeepSeek-R1联网搜索版,官方以外最佳体验 - AI大模型, DeepSeek R1, DeepSeek联网, 人工智能, 大模型, 火山引擎

一叶
一叶

一个好奇的玩家,热爱生活,更热爱探索

文章: 1285

留下评论

您的邮箱地址不会被公开。 必填项已用 * 标注