心电图 偷拍 白嫖deepseek腹地部署教程,转发+保藏送deepseek使用技术
发布日期:2025-03-18 04:17 点击次数:192
心电图 偷拍心电图 偷拍
💬本教程所用到的软件包+deepseek使用技术资源包赢得形势:
一、部署Ollama(多平台遴荐装置)
Ollama 守旧 Linux/macOS/Windows,需字据系统遴荐装置形势。
1. Linux 系统部署适用系统:Ubuntu/Debian/CentOS 等
圭臬:
一键装置:
curl -fsSL https://ollama.com/install.sh | sh
权限竖立(幸免 sudo 运行):
sudo usermod -aG ollama $USER # 将现时用户加入ollama组newgrp ollama # 刷新用户组
启动处事:
systemctl start ollama # 启动处事systemctl enable ollama # 开机自启
考据装置:
ollama --version # 输出书本号即生效2. macOS 系统部署
圭臬:
一键装置:
curl -fsSL https://ollama.com/install.sh | sh
启动处事:
ollama serve # 前台运行(调试用)
或通过 Launchd 后台处事:
brew services start ollama # 通过Homebrew经管
3. Windows 系统部署
前置条目:
Windows 10/11 64位
已装置 WSL2(保举Ubuntu刊行版)
圭臬:
下载装置包:Ollama Windows Installer
下载后进行双击装置
考据装置:
ollama list # 稽查已装置模子
图片
💬怎样竖立良友 Ollama 处事?
默许情况下,Ollama 处事仅在腹地运行,永诀外提供处事。要使 Ollama 处事大约对外提供处事,你需要斥地以下两个环境变量:
要是 Ollama 行为 systemd 处事运行,应使用 systemctl 斥地环境变量:
调用 systemctl edit ollama.service 裁剪 systemd 处事竖立。这将掀开一个裁剪器。
在 [Service] 部分下为每个环境变量添加一瞥 Environment:
[Service]Environment="OLLAMA_HOST=0.0.0.0"Environment="OLLAMA_ORIGINS=*"
从头加载 systemd 并重启 Ollama:
systemctl daemon-reloadsystemctl restart ollama二、拉取并运行DeepSeek模子
官方模子库参考:Ollama DeepSeek-R1 页面
图片
1. 拉取模子ollama pull deepseek-r1 # 官方保举模子称号
模子规格选项(按需遴荐):
ollama pull deepseek-r1:7b # 7B参数基础版ollama pull deepseek-r1:33b # 33B参数进阶版(需更高显存)
图片
2. 运行模子ollama run deepseek-r1
考据交互:
>>> 你好,请用汉文回复你好!我是DeepSeek-R1,很欣慰为您提供匡助!
三、不同硬件场景竖立诠释
字据硬件资源遴荐运行样式:
场景1:纯CPU运行适用情况:无寂寞显卡或显存不及
竖立优化:
已矣线程数(幸免资源虚耗):
OLLAMA_NUM_THREADS=4 ollama run deepseek-r1 # 已矣4线程
使用量化模子(减少内存占用):
ollama pull deepseek-r1:7b-q4_0 # 4-bit量化版
内存条目:
7B模子:至少8GB舒畅内存
33B模子:至少32GB舒畅内存
场景2:CPU+GPU搀杂运行
适用情况:有NVIDIA显卡(需CUDA守旧)
竖立圭臬:
装置驱动:
装置 NVIDIA驱动 和 CUDA Toolkit 12.x
启用GPU加快:
ollama run deepseek-r1 --gpu # 强制使用GPU
显存条目:
7B模子:至少6GB显存
33B模子:至少20GB显存
性能监控:
nvidia-smi # 稽查GPU诓骗率
四、AI问招待用接入腹地大模子形势1:部署MaxKB并接入Ollama
图片
1. 通过Docker部署MaxKBdocker run -d \ --name=maxkb \ -p 8080:8080 \ -v ~/maxkb_data:/var/lib/postgresql/data \ 1panel/maxkb:latest
看望 http://localhost:8080,默许账号密码 admin/MaxKB@123..
2. 竖立Ollama模子接入
参加MaxKB适度台:模子经管 > 添加模子
填写参数:
模子类型:Ollama
模子称号:DeepSeek-r1
Base URL:http://ollama主机ip:11434(Docker内看望宿主机)
模子称号:deepseek-r1(与Ollama拉取的模子名一致)
图片
3. 创建应用并测试问答功能图片
图片
形势2:腹地装置chatBox AI并接入腹地大模子1、下载装置包看望 GitHub Releases 页面:ChatBox Releases!ChatBox Releases页面
遴荐 Windows 版块:
2、装置 ChatBox运行装置圭臬:
双击下载的 .exe 文献,按提醒完成装置。
3、基础竖立3.1. 贯穿 腹地模子确保 Ollama 处事已运行。
在 ChatBox 斥地中遴荐 **ollama api**,填写:
API Endpoint: http://localhost:11434
拳交国产API Key: 留空
Model Name: deepseek-r1(与 Ollama 模子称号一致)
图片
图片
3.2 不错自界说界面图片
3.3 考据使用图片
五、常用的故障排查顺序1. Ollama处事无法启动
日记稽查:
journalctl -u ollama -f # Linux
端口破损:修改Ollama端口:
OLLAMA_HOST=0.0.0.0:11435 ollama serve # 指定新端口
2. 模子加载失败
从头运升沉:
ollama rm deepseek-r1 && ollama pull deepseek-r1
3. MaxKB贯穿超时
搜检齐集:
curl http://ollama-ip:11434 # 阐明Ollama API可达
跨域问题:在Ollama启动时添加:
OLLAMA_ORIGINS="*" ollama serve
六、性能优化提议场景保举竖立CPU样式使用GPU样式启用七、AI处事器性能监控
我使用zabbix+grafana对处事器作念了资源使用情况的监控,因为我的处事器莫得GPU,沿路使用CPU去跑,当我运行大模子的时辰,不错看到处事器资源站哟比拟高(现在我测试用的的Deepseek-r1:7b)
图片
图片
图片
最近一年著作更新基本莫得什么收益,今天动手每篇著作后头会给全球挂几个小游戏,全球看完著作难忘玩两把再退出去,感谢!同期文中也有一些视频告白,全球也赞理点开望望,望望即可,无用深度参与。 本站仅提供存储处事,扫数试验均由用户发布,如发现存害或侵权试验,请点击举报。
上一篇:成人 男同 7个平方拍照姿势,随着学,拍照轻佻悦目,人命力满满
下一篇:没有了