近期DeepSeek大火,但是官方网页端、App和api都采取了限流措施,几乎只剩下1次请求/小时的成功率,可玩性趋近于零了。前两天我写了一篇《火山引擎上线DeepSeek-R1联网搜索版,官方以外最佳体验》,火山引擎部署的DeepSeek R1应该是目前速度最快,调用最方便的方案了。
所以我暂时放弃了官方api,在用硅基流动等第三方平台注册送的Tokens,结合VS Code和Roo插件,写一些WordPress插件,完善这个网站的一些后台功能,例如自托管的统计功能。目前硅基流动注册即送2000万Tokens,差不多是3000万字的输入输出。点击下方邀请链接注册或注册时填写邀请码,双方都可以获得2000万tokens额度。
邀请链接:硅基流动
邀请码:MmVCsvwH
关于如何使用DeepSeek api,官方在GitHub还专门上线了一个项目,叫Awesome-DeepSeek-integration(点此访问),推荐了一系列工具,可以调用DeepSeek api的。既有Chatbox这种已经大火的AI聊天客户端,也有笔记软件、编程助手、知识库/工具流/Agent工具等。这篇文章是用思源笔记写的,也支持DeepSeek调用。
Page Assist:兼容Ollama的浏览器插件
不过今天要推荐的,是一款更轻量的产品,不需要安装到本地,只要你有一个Chrome、Edge、FireFox浏览器,就可以安装使用。这就是近期大火的Page Assist浏览器插件,不需要安装Open-WebUI,就能够使用Ollama和一系列的大模型api,包括DeepSeek、豆包、Kimi、OpenAI GPT、Claude等等。
下载地址:
- Edge浏览器(Windows自带浏览器):Edge扩展商店
- Chrome谷歌浏览器:Chrome应用商店
- FireFox火狐浏览器:FireFox Add-ons
目前看起来FireFox更新最快,可能是Mozilla审核比较松,也有可能是作者对于FireFox拥抱开源生态的偏爱吧。
Page Assist默认会监听本机的11434端口,即Ollama的默认通信端口,识别本机已经部署的模型。在设置-一般设置里边,就可以选择联网的搜索引擎。Google、百度、搜狗、DuckGoGo等均在列,也可以通过Searxng和Brave Search API来实现联网检索功能。
用Ollama的好处在于,你可以在本地部署去掉生成限制的模型,也就是命名里带有uncensored和abliterated的模型,人称越狱版。没有网页端和api的在线审核,你想涩涩还是AI养宠都没人管你。不过绝大多数人都只能部署蒸馏版的模型,和原版差距还挺大的。
Page Assist:自带联网功能
DeepSeek官方网页版和App限速以后,第三方的服务不少,但能够解决联网的不多,免费且容易安装的更少。我想这应该就是Page Assist的最大竞争力吧,一个浏览器插件,不仅兼容Ollama和OpenAI格式的大模型api调用,还有RAG文本处理功能、联网搜索能力。
在设置页-OpenAI兼容API页面,可以自己配置各类大模型AI的API,前提是兼容OpenAI API格式的,不兼容的则可以用OneAPI来转换,例如火山引擎的在线推理模型就可以用OneAPI来中转,具体参见我去年的文章《思源笔记配合Ollama、OneAPI,部署大模型AI辅助写作》。
模型管理页面,则可以管理具体的模型,以便使用时调用。可惜的是,目前国内使用方便且能力强一点的,似乎只有第三方部署的DeepSeek。月之暗面Kimi K1.5推理能力不错,生成的结果一般,且没有开通api调用,只能网页端使用。豆包1.5 Pro也不错,但在字节的生态内如Coze平台调用方便,第三方调用则需要看客户端的兼容性,得用Chatbox之类的工具,Page Assist和Cline、Roo等并不支持(因为不兼容OpenAI API格式)。
微信扫描下方的二维码阅读本文