本地服务器docker部署deepseek

ollama环境搭建

ollama下载安装

直接安装方式(未选择)

curl -fsSL https://ollama.com/install.sh | sh

docker方式安装

前置:安装Nvidia Container Toolkit

https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html

查看docker运行信息:

kai@jarvis:/data/env_init$  docker info | grep -i runtime
 Runtimes: io.containerd.runc.v2 nvidia runc
 Default Runtime: runc

有nvidia就说明OK了

验证:

sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi

image-20260111154612127

OK,环境可以了,下一步安装docker版本的ollama。

拉取docker镜像

docker pull ollama/ollama

运行docker镜像

持久化ollama模型目录创建:

sudo mkdir -p /data/docker/ollama
sudo chown -R $USER:$USER /data/docker/ollama

下载ollama:

docker run -d --gpus=all -v /data/docker/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

-d:使容器在后台以守护进程模式运行。

--gpus=all:分配所有 GPU 资源给容器,让 Ollama 能够利用 GPU 加速。

-v /data/docker/ollama:/root/.ollama:将主机上的 /data/docker/ollama 目录挂载到容器内的 /root/.ollama 目录,确保 Ollama 的模型和相关数据能够持久化存储在主机指定目录。

-p 11434:11434:将容器的 11434 端口映射到主机的 11434 端口,以便通过 http://localhost:11434(本地访问)或 http://<服务器 IP>:11434(远程访问)与 Ollama 服务交互。

--name ollama:给容器命名为 ollama,方便后续管理和识别。

ollama/ollama:指定要运行的 Ollama 镜像。

下载大模型

docker exec -it ollama ollama run deepseek-r1:1.5b

这里比较耗时,最终结果:

image-20260111202955944

后续还会再尝试使用更大的模型看能否跑起来。

windows访问大模型进行交互

image-20260111203131435

我使用的是chatbox这款比较小巧的模型,这里添加大模型信息。

image-20260111203241378

选择模型即可进行对话了。

image-20260111203352573

这样也拥有了一个可以本地执行的大模型后端了~。后续会继续探索。

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇