Home 全方位拥抱DeepSeek.md
Post
Cancel

全方位拥抱DeepSeek.md

DeepSeek 最近的火热不言而喻

其实较早之前,我就写过 N 篇 DeepSeek 能力的文章

比如我用它做自动数据分析做一键AI总结网页保存本地的快捷指令全文翻译吴恩达的《如何打造 AI 职业生涯》AI英语陪练等等

这里老章用极简洁的方式介绍如何将 DeepSeek 融入到写作、编程、翻译、总结等各场景。

DeepSeek 能力获取

方式 1:在线使用

https://chat.deepseek.com/

方式 2:本地部署

本地安装 Ollama:https://ollama.com

然后命令行运行

ollama run deepseek-r1:7b

请视自己电脑/显卡性能情况选择对应参数,从 1.5b 到 671b

具体请参考:https://ollama.com/library/deepseek-r1

方式 3:官方 API

申请:https://platform.deepseek.com/api_keys

copy 一下申请好的 api_key

记一下 base_url:https://api.deepseek.com/v1

最近太火热,官方 api 时常挂掉

使用参考 API 手册:https://api-docs.deepseek.com/guides/reasoning_model

1
2
3
4
5
6
7
8
9
10
11
12
13
14
from openai import OpenAI

client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "Hello"},
    ],
    stream=False
)

print(response.choices[0].message.content)

方式 4:第三方 API

想要更省钱的话,可以不用官方 api,转投 siliconflow

注册后免费赠送 14 元(够用很久很久,用 deepseek 翻译了一本 40 页的 pdf,只花了几分钱)

注册地址:https://cloud.siliconflow.cn/i/YefhGWlT

它不但完美支持OpenAI API调用,还可以免费使用Qwen、GLM、Yi 等模型。 支持的模型列表:https://cloud.siliconflow.cn/models

api 获取地址:https://cloud.siliconflow.cn/account/ak

用法:

当前大语言模型部分支持以 openai 库进行调用,安装 Python3.7.1 或更高版本并设置虚拟环境后,即可安装 OpenAI Python 库。

从终端/命令行运行:

1
pip install --upgrade openai

完成此操作后,running 将显示您在当前环境中安装的 Python 库,确认 OpenAI Python 库已成功安装。

之后可以直接通过 OpenAI 的相关接口进行调用,目前平台支持 OpenAI 相关的大多数参数。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
from openai import OpenAI

client = OpenAI(api_key="这里填写你的 api key", base_url="https://api.siliconflow.cn/v1")
response = client.chat.completions.create(
    model='deepseek-ai/DeepSeek-R1',
    messages=[
        {'role': 'user', 
        'content': "机器学习算法与 Python 实战这个号值的关注吗?"}
    ],
    stream=True
)

for chunk in response:
    print(chunk.choices[0].delta.content, end='')

这里需要修改的只有 api_key(上面申请后复制到的)、model(名称要遵循 siliconflow 的规范)和 messages(定义了 role 和 prompt)

DeepSeek + Cursor AI 辅助编程

有了 DeepSeek 能力,一系列的事儿就可以搞起来了,比如编程

Cursor Settings-Models中关闭其他模型,添加上面复制好的模型,点击Add model

API 地址和 API Key 可以填写 DeepSeek 官方,也可以填 Siliconflow 的。

点击Verify,看到绿色开关即为OK

然后就可以正常使用 Cursor + DeepSeek 了

DeepSeek + Obsidian 辅助写作

首先需要下载 Obsidian:https://obsidian.md/

安装后,点击左下角设置,在【第三方插件】选择浏览【社区插件市场】

搜索 Copilot,安装,然后启用后进入【选项】

这个插件是支持 ChatGPT Claude 等 api 的,网络畅通的富哥们直接把 api 填进去即可。

Copilot 支持添加其他模型

点击 Add Model

设置页面往上托,把 deepseek-ai/DeepSeek-R1 设置为默认,点击上面的 Save and Reload

回到 Obsidian,点击侧边栏的对话图标,右侧即会出现大模型对话框了

相对详细的介绍请移步:Obsidian AI 写作神器:一键配置 DeepSeek,写作效率飙升 1000%!

DeepSeek + 沉浸式翻译/总结

安装沉浸式翻译插件

https://immersivetranslate.com/manual-chrome-extension

按教程安装好插件之后,chrome 左上角就能看到这个插件

右键点击这个图标

点击设置 - 翻译服务

这里面翻译服务有很多,支持各种大模型,这里我们选择 DeepSeek 或 Siliconflow,当然你可以选别的,这里我选的是 Silicon

点击去修改,把前面申请到的 apikey 粘贴进去,模型名称使用自定义

现在访问英文网站,你就可以一键沉浸式翻译了

不过用 R1 做翻译有点大材小用了

我之前我写过 PDF 全文翻译的文章,设置方法类似,感兴趣可以移步

[[240729 翻译了吴恩达的《如何打造AI职业生涯》,花了3分钱,附教程]]

DeepSeek + JupyterHub 辅助编程

Jupyter AI 是一个扩展包,旨在将人工智能工具和功能集成到 Jupyter Notebook 环境中。通过 Jupyter AI,用户可以在 Jupyter Notebook 中直接使用各种 AI 服务和模型,如自然语言处理、机器学习和深度学习等,从而简化数据科学和机器学习项目的开发流程。

安装一定要完全安装:

pip install jupyter-ai[all]

不然大概率会出现以下报错:

There seems to be a problem with the Chat backend, please look at the JupyterLab server logs or contact your administrator to correct this problem.

正常情况下,安装完成后的juputerhub是这样,点击右上角小齿轮就可以配置模型了

DeepSeek + openwebui 聊天助手

OpenWebUI 旨在为 AI 和 LLMs 构建最佳用户界面,为那些互联网访问受限的人提供利用 AI 技术的机会。 OpenWebUI 通过 Web 界面本地运行 LLMs,使 AI 和 LLMs 更安全、更私密。

安装openwebui是我见过所有chatbot中最简单的了

1
2
3
4
5
# 安装
pip install open-webui

# 启动
open-webui serve

然后浏览器打开 http://localhost:8080

加号这里填入ollama拉起的模型名称即可

也可以配置siliconflow的模型

Google Chrome 2025-02-05 22.53.30.png

DeepSeek + 知识库&Agent

克隆 Dify 源代码至本地环境。

1
git clone https://github.com/langgenius/dify.git

启动 Dify

  1. 进入 Dify 源代码的 Docker 目录
    1
    
     cd dify/docker
    
  2. 复制环境配置文件
    1
    
     cp .env.example .env
    
  3. 启动 Docker 容器

    根据你系统上的 Docker Compose 版本,选择合适的命令来启动容器。你可以通过 $ docker compose version 命令检查版本:

    • 如果版本是 Docker Compose V2,使用以下命令:
      1
      
       docker compose up -d
      
    • 如果版本是 Docker Compose V1,使用以下命令:
      1
      
       docker-compose up -d
      

运行命令后,你应该会看到类似以下的输出,显示所有容器的状态和端口映射:

1
2
3
4
5
6
7
8
9
10
11
12
[+] Running 11/11
 ✔ Network docker_ssrf_proxy_network  Created                                                                 0.1s 
 ✔ Network docker_default             Created                                                                 0.0s 
 ✔ Container docker-redis-1           Started                                                                 2.4s 
 ✔ Container docker-ssrf_proxy-1      Started                                                                 2.8s 
 ✔ Container docker-sandbox-1         Started                                                                 2.7s 
 ✔ Container docker-web-1             Started                                                                 2.7s 
 ✔ Container docker-weaviate-1        Started                                                                 2.4s 
 ✔ Container docker-db-1              Started                                                                 2.7s 
 ✔ Container docker-api-1             Started                                                                 6.5s 
 ✔ Container docker-worker-1          Started                                                                 6.4s 
 ✔ Container docker-nginx-1           Started                                                                 7.1s

最后检查是否所有容器都正常运行:

1
docker compose ps

在这个输出中,你应该可以看到包括 3 个业务服务 api / worker / web,以及 6 个基础组件 weaviate / db / redis / nginx / ssrf_proxy / sandbox

1
2
3
4
5
6
7
8
9
10
NAME                  IMAGE                              COMMAND                   SERVICE      CREATED              STATUS                        PORTS
docker-api-1          langgenius/dify-api:0.6.13         "/bin/bash /entrypoi…"   api          About a minute ago   Up About a minute             5001/tcp
docker-db-1           postgres:15-alpine                 "docker-entrypoint.s…"   db           About a minute ago   Up About a minute (healthy)   5432/tcp
docker-nginx-1        nginx:latest                       "sh -c 'cp /docker-e…"   nginx        About a minute ago   Up About a minute             0.0.0.0:80->80/tcp, :::80->80/tcp, 0.0.0.0:443->443/tcp, :::443->443/tcp
docker-redis-1        redis:6-alpine                     "docker-entrypoint.s…"   redis        About a minute ago   Up About a minute (healthy)   6379/tcp
docker-sandbox-1      langgenius/dify-sandbox:0.2.1      "/main"                   sandbox      About a minute ago   Up About a minute             
docker-ssrf_proxy-1   ubuntu/squid:latest                "sh -c 'cp /docker-e…"   ssrf_proxy   About a minute ago   Up About a minute             3128/tcp
docker-weaviate-1     semitechnologies/weaviate:1.19.0   "/bin/weaviate --hos…"   weaviate     About a minute ago   Up About a minute             
docker-web-1          langgenius/dify-web:0.6.13         "/bin/sh ./entrypoin…"   web          About a minute ago   Up About a minute             3000/tcp
docker-worker-1       langgenius/dify-api:0.6.13         "/bin/bash /entrypoi…"   worker       About a minute ago   Up About a minute             5001/tcp

通过这些步骤,你应该可以成功在本地安装 Dify。

在 Dify 中接入 Ollama

设置 > 模型供应商 > Ollama 中填入:

  • 模型名称:deepseek-r1:7b

  • 基础 URL:http://<your-ollama-endpoint-domain>:11434

使用 Ollama 模型

进入需要配置的 App 提示词编排页面,选择 Ollama 供应商下的 llava 模型,配置模型参数后即可使用。

This post is licensed under CC BY 4.0 by the author.

吴恩达:中国的DeepSeek让人印象深刻,我想对他们说“加油”.md

机器学习中25个最重要的数学定义(公式、代码实现).md