11
2025
02
DeepSeek本地部署及局域网共享使用
本文仅供学习使用,首先你得有N卡,检查一下你的电脑是否有N卡,有就继续往下看,没有就回家吧孩子,回家吧!开个玩笑,我们可以白嫖好兄弟的呀。本次环境内存:32G显卡: GTX 3060 6G windows11配置要求本次部署8b,因为小下载快,只有5g。如果配置跟得上推荐使用32B的模型, 基本上可以达到原版9成水平本地部署下载ollamaollama是一个开源的人工智能框架,旨在为开发者提供一个灵活、高效的工具,可以轻松将大语言模型集成到自己的应用中。访问:&
作者:hqy | 分类:编程&AI | 浏览:44 | 评论:0
11
2025
02
百元显卡 P106 “大战” DeepSeek R1 7B/8B 大模型
前言最近 DeepSeek 非常火爆,和 22 年 ChatGPT 横空出世一样,官方的服务器动不动就会“服务器繁忙,请稍后再试”。但和 ChatGPT 不同的是,DeepSeek 的官方 API 价格便宜,并且开源模型权重,允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。这也就意味着在官方网站或者 API 繁忙时,我们还可以使用第三方的 API,甚至是本地运行蒸馏后的模型来运行 DeepSeek R1。对于习惯使用 API 的用户,最近 DeepSeek 官方暂停了 API
作者:hqy | 分类:编程&AI | 浏览:65 | 评论:0
11
2025
02
基于DeepSeek的本地化知识库 RAGFlow 搭建(附带镜像链接)
DeepSeek部署完后,除了正常的聊天使用,实际上更想基于它做一些更符合预期的事情,比如基于某些事实或者数据,能给我推理出来相关的结果或者尽量限制在某一部分进行回答,这个比较突出的表现方式就是知识库,其中,最新最新出来的开源 RAGFlow 很不错,这就部署出来瞅一下。当然,DeepSeek的部署就需要参考《基于Ubuntu Ollama 部署 DeepSeek-R132B 聊天大模型(附带流式接口调用示例)》这篇文章了。RAGFlow简单介绍下它,RAGFlow 是一款基于深度文档理解构建的
作者:hqy | 分类:编程&AI | 浏览:95 | 评论:0
11
2025
02
Debian 12安装Nvidia显卡驱动
一、安装必须的工具sudo apt install dkms build-essential gcc make linux-headers-$(uname -r)二、禁止系统自带nouveau显卡驱动1.修改/etc/default/grub文件,在启动时直接禁用nouveau驱动:sudo vim /etc/default/grub在文件中的GRUB_CMDLINE_LINUX参数中加入下面内容
作者:hqy | 分类:Linux | 浏览:44 | 评论:0
11
2025
02
OpenWebUI+Ollama部署教程命令和网址
Ollama官方网址视频00:35精准空降:https://www.bilibili.com/video/BV1b8mVY2EZj?t=34.3https://ollama.com下载安装开源模型视频01:40精准空降:https://www.bilibili.com/video/BV1b8mVY2EZj?t=98.1ollama run gemma2其中gemma2可以换成其它模型,例如Qwen2.5:ollama run qwen2.5可以选择的模型在
作者:hqy | 分类:编程&AI | 浏览:45 | 评论:0
11
2025
02
zh_CNNvidiaGraphicsDrivers
Translation(s): English - Español - Français - Русский - 简体中文该文档说明了如何在Debian系统中使用NVIDIA的显卡。目录开源驱动驱动安装vesanvNouveau英伟达专有驱动选择驱动程序版本安装配置检查驱动是否工作版本 195.36.31版本 173.14.27 (legacy GPUs)版本 96.43.18 (legacy GPUs)版
作者:hqy | 分类:Linux | 浏览:50 | 评论:0
11
2025
02
debian安装nvidia驱动
Debian12安装nvidia闭源驱动1.查询自己安装的显卡型号2. 下载Nvidia linux驱动3. 安装驱动依赖项4.安装驱动run1.查询自己安装的显卡型号下面展示一些 内联代码片。// 查询当前使用的显卡
lspci | grep VGA
// 查询nvidia显卡
lspci | grep -i nvidia// 以笔记本RTX2050显卡为例In: lspc
作者:hqy | 分类:Linux | 浏览:44 | 评论:0
11
2025
02
Linux查看显卡 GPU信息
1.Linux查看显卡信息:1.1查询显卡信息 lspci | grep -i vga前边的序号 “04:00.0″是显卡的代号ASPEED Technology, Inc. ASPEED Graphics Family 即为GPU型号1.2查看指定显卡的详细信息用以下指令:lspci -v -s 04:00.01.3使用nvidia GPU可以:lspci | grep -
作者:hqy | 分类:Linux | 浏览:48 | 评论:0
11
2025
02
Ubuntu Server 20.04安装NVIDIA驱动
Ubuntu安装NVIDIA驱动安装NVIDIA驱动apt命令安装安装包安装同时安装驱动和CUDA自动安装(推荐)准备操作禁用nouveau显卡驱动安装NVIDIA显卡驱动验证安装NVIDIA驱动准备操作确定系统识别到了显卡root@master:~# lspci | grep -i nvidia 03:00.0 3D controller: NVIDIA Corporation TU1
作者:hqy | 分类:Linux | 浏览:43 | 评论:0
11
2025
02
如何在 Linux 中添加路由(Linux route)
如何在 Linux 中添加路由(Linux route)本文翻译、删改自:How To Add Route on Linux – devconnected若觉得本译文中缺了什么东西,请自行参考原文,不再单独标出关于 Linux 路由管理的详细内容,可参阅:基于策略的路由 (Policy Based Routing)、 主路由表(rt_table)、内置路由表、ip route 输出详解、增删路由,路由优先级处理本教程中所有的命令都需要使用 root 执行。使用 ip 添加路由这是最简单
作者:hqy | 分类:Linux | 浏览:48 | 评论:0
11
2025
02
[轻松使用Bing搜索API实现智能搜索体验]
引言Bing Search API是一个强大的工具,允许开发者通过简单的API调用从全球网页、图像、视频和新闻中提取信息。本文将详细介绍如何使用Bing Search API,并结合LangChain库来增强搜索体验,同时提供代码示例和解决方案以应对常见的挑战。主要内容1. 设置Bing Search API要使用Bing Search API,首先需要在Azure上创建Bing Search v7服务,并获取订阅密钥。然后,使用LangChain库中的BingSearchAPIWrapper来
作者:hqy | 分类:SEO | 浏览:70 | 评论:0
11
2025
02
如何获取Microsoft API密钥实现bing搜索分步指南
在实现Bing搜索功能的过程中,获取Microsoft API密钥是至关重要的一步。Microsoft的API服务依赖于密钥来确保用户能够安全、高效地访问其强大的搜索功能。凭借其先进的技术和广泛的数据资源,Microsoft的Bing搜索API为用户带来了精准的搜索体验和丰富的信息获取途径。因此,获取Microsoft API密钥成为实现Bing搜索功能的首要任务。接下来,本文将详细指导你如何逐步获取这一密钥,帮助你顺利接入并使用Bing搜索API,同时还会简要提及一些在使用过程中可能需要注意的
作者:hqy | 分类:SEO | 浏览:56 | 评论:0
11
2025
02
使用SearXNG-搭建个人搜索引擎(附国内可用Docker镜像源)
介绍SearXNG是聚合了七十多种搜索服务的开源搜索工具。我们可以匿名浏览页面,不会被记录和追踪。作为开发者,SearXNG也提供了清晰的API接口以及完整的开发文档。部署我们可以很方便地使用Docker和Docker compose部署SearXNG。下面给出Docker部署SearXNG的步骤。拉取Docker部署代码工程:git clone https://github.com/searxng/searxng-docker.git拉取代码前需要安装git。这里的工程因为
作者:hqy | 分类:VPS | 浏览:55 | 评论:0
11
2025
02
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。系统硬件介绍Ubuntu 22.04.4 LTSCPU: i5-10400F内存:32G硬盘: 512G SSD显卡: NVIDIA GeForce GTX 1060 6GB内网IP: 192.168.1.21下载 Ollama访问下载: htt
作者:hqy | 分类:编程&AI | 浏览:57 | 评论:0
11
2025
02
ollama+open-webui,本地部署自己的大模型
ollama+open-webui,本地部署自己的大模型版权目录一、效果预览二、部署ollama1.ollama说明2.安装流程2.1 windows系统2.1.1下载安装包2.1.2验证安装结果2.1.3设置模型文件保存地址2.1.4拉取大模型镜像2.2linux系统2.2.1下载并安装ollama2.2.2设置环境变量2.2.3拉取模型文件三、部署open-webui1.open-webui介绍2.安装流程2.1windows2.1.1下载源码2.1.2用pycharm新建一个虚拟环境?编辑
作者:hqy | 分类:编程&AI | 浏览:47 | 评论:0
11
2025
02
ollama配置允许外网访问
linux系统 ollama默认只能localhost访问 如果需要允许外网访问,需要修改环境变量 vi /etc/profile 在文件底部加入 export OLLAMA_HOST=0.0.0.0:11434 保存&nb
作者:hqy | 分类:编程&AI | 浏览:49 | 评论:0
11
2025
02
ollama搭建本地ai大模型并应用调用
1、下载ollama1)https://ollama.com 进入网址,点击download下载2)下载后直接安装即可。2、启动配置模型默认是启动cmd窗口直接输入1 ollama run llama3启动llama3大模型 或者启动千问大模型1 ollama run qwen2启动输入你需要输入的问题即可 3、配置UI界面安装docker并部署web操作界面1 docker run&n
作者:hqy | 分类:编程&AI | 浏览:47 | 评论:0
11
2025
02
ollama 跨设备访问,轻松搞定远程调用
ollama 跨设备访问,轻松搞定远程调用用 Ollama API 调用本地大模型,通过 localhost:11434 就能搞定。但是,想在其他电脑上用 IP 地址调用,可能会存在问题。网上搜了搜,要么是 Linux 环境下的设置,要么是调整 windows 环境变量。st, Windows 下也能这么操作。ollama -h 看下帮助,然后 ollama serve -h,看下帮助 window 下面可以设置 OLLAMA_HOST
作者:hqy | 分类:编程&AI | 浏览:48 | 评论:0
11
2025
02
如何在个人电脑上私有安装DeepSeek?彻底告别服务器繁忙!
这两天大家都被DeepSeek炸晕了吧,嘿嘿,其实DeepSeek也被大家炸晕了。这是今天上午的情况↓没办法,这泼天的流量一般人扛不住~想高频使用怎么办呢?本地装一个!本地部署有两个好处:❶不联网,全私密,不担心隐私泄露,还可以挂载本地知识库❷完全免费,彻底告别“服务器繁忙”。如果你是苹果Mac本——我们需要用到两个神器:一个叫做Ollama,这是一个可以在本地运行和管理大模型的软件。另一个叫做Page Assist,这是个浏览器插件,提供本地大模型的图形化管理和对话界面。一、下载Ollama,
作者:hqy | 分类:编程&AI | 浏览:49 | 评论:0
11
2025
02
nssm(Non-Sucking Service Manager)是一个用于在Windows系统上管理服务的工具。
nssm(Non-Sucking Service Manager)是一个用于在Windows系统上管理服务的工具。它允许你将.exe文件和.bat文件转换为Windows服务,并提供了一些功能来管理这些服务。下载和安装首先,你需要从nssm官方网站(https://nssm.cc/download)下载最新版本的nssm。解压缩下载的文件到一个方便访问的目录中,比如D:\nssm-2.24。使用nssm进入到和你电脑相对应的win32和win64的文件夹下在路径上输入cmd然后回车然后输入nss
作者:hqy | 分类:Windows&windows server | 浏览:40 | 评论:0