11
2025
02
DeepSeek嵌入到Excel,提升10倍工作效率
能将DeepSeek嵌入到Excel吗?当然可以了,我们需要借助VBA代码来实现,以下的代码都是由DeepSeek自动生成的,我们还需要调用DeepSeek的API,实现在A1单元格中输入数据,然后点击按钮执行,在B1单元格中输出结果的效果,我们来看下具体怎么做的一、获取API首先我们需要获取DeepSeek的API,只需来到官网,右上角点击【API开放平台】,然后在右侧找到【API keys】然后在中间点击【API keys】,就会显示窗口,我们需要为其设置一个名字,然后复制下API,等下需要
作者:hqy | 分类:编程&AI | 浏览:43 | 评论:0
11
2025
02
基于Ubuntu Ollama 部署 DeepSeek-R1:32B 聊天大模型(附带流式接口调用示例)
最近 DeepSeek出来了,很火,说是能跟ChatGpt o1 媲美,结果,用了DeepSeek的官方服务,提示“服务器繁忙 请稍后再试。”,我就想,算了,自己部署个吧。我这个是基于docker部署的,首先要docker 支持 显卡,这样才会跑的更快,基于CPU 还是比较卡的,耗费的内存也比较多。部署非常方便,除了下载很慢,基本都是环境问题,环境解决完就没啥大问题。服务器基础资源这就来个服务器部署,目前服务器资源大致如下:操作系统 : Ubuntu 24.04显卡:Tesla P100-PCI
作者:hqy | 分类:编程&AI | 浏览:47 | 评论:0
11
2025
02
如何给本地部署的 DeepSeek-R1投喂数据
随着人工智能技术的飞速发展,越来越多的人开始探索如何利用 AI 工具提升工作效率和个人知识管理水平。在众多开源AI模型中,DeepSeek-R1 凭借其强大的本地部署能力和多功能性脱颖而出。结合 AnythingLLM 这一功能强大的文档处理工具,我们可以轻松搭建一个属于自己的个性化 AI 知识管理系统。一、什么是 DeepSeek-R1?DeepSeek-R1 是一款基于深度学习的开源 AI 模型,默认支持文本生成、对话交互等多种任务。与依赖云服务的大模型相比,DeepSeek-R1 具有以下
作者:hqy | 分类:编程&AI | 浏览:56 | 评论:0
11
2025
02
对本地部署的 DeepSeek 正确投喂方式
当 DeepSeek-R1 在本地成功部署那一刻,兴奋与激动如潮水般涌上心头,迫不及待地开启与它的热烈对话,话题一个接一个,畅聊不停。出于探索的热情,还按照自己的思路给它共享了不少知识,它也能依此精准切入,给出令人满意的答案。可谁能想到,第二天再聊,它竟像失忆一般,昨天共享的数据全然没了印象,一切又回到最初状态。在 AI 的奇妙世界里,其记忆机制别有一番特点。以 DeepSeek、GPT 为代表的大多数 AI 模型,默认无状态,无持久化记忆。每次对话都是全新开场,不会记住上一次聊了啥。单次会话中
作者:hqy | 分类:编程&AI | 浏览:77 | 评论:0
11
2025
02
一款高性能、完全开源免费的人力资源管理系统
项目介绍 iBizEHR是一款高性能、全面开源、免费(MIT License开源协议)的人力资源管理系统,iBizEHR依托iBiz生产体系,不仅提供源码开放,更可提供EHR全面的业务模型,包括每一个数据实体、每一个服务设计、每一个页面UI、每一个流程模型,源码和业务模型完全对应。本系统100%开源,遵守MIT协议。 项目功能 六大模块:人力资源规划、员工关系管理、招聘与配置、培训与开发、绩效管理、薪酬福利管理。通过对人力资源的分析、规划、实施和调整,最大化企业人力资源的价值,助力企业发展。 开
作者:hqy | 分类:编程&AI | 浏览:51 | 评论:0
11
2025
02
DeepSeek本地部署及局域网共享使用
本文仅供学习使用,首先你得有N卡,检查一下你的电脑是否有N卡,有就继续往下看,没有就回家吧孩子,回家吧!开个玩笑,我们可以白嫖好兄弟的呀。本次环境内存:32G显卡: GTX 3060 6G windows11配置要求本次部署8b,因为小下载快,只有5g。如果配置跟得上推荐使用32B的模型, 基本上可以达到原版9成水平本地部署下载ollamaollama是一个开源的人工智能框架,旨在为开发者提供一个灵活、高效的工具,可以轻松将大语言模型集成到自己的应用中。访问:&
作者:hqy | 分类:编程&AI | 浏览:42 | 评论:0
11
2025
02
百元显卡 P106 “大战” DeepSeek R1 7B/8B 大模型
前言最近 DeepSeek 非常火爆,和 22 年 ChatGPT 横空出世一样,官方的服务器动不动就会“服务器繁忙,请稍后再试”。但和 ChatGPT 不同的是,DeepSeek 的官方 API 价格便宜,并且开源模型权重,允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。这也就意味着在官方网站或者 API 繁忙时,我们还可以使用第三方的 API,甚至是本地运行蒸馏后的模型来运行 DeepSeek R1。对于习惯使用 API 的用户,最近 DeepSeek 官方暂停了 API
作者:hqy | 分类:编程&AI | 浏览:64 | 评论:0
11
2025
02
基于DeepSeek的本地化知识库 RAGFlow 搭建(附带镜像链接)
DeepSeek部署完后,除了正常的聊天使用,实际上更想基于它做一些更符合预期的事情,比如基于某些事实或者数据,能给我推理出来相关的结果或者尽量限制在某一部分进行回答,这个比较突出的表现方式就是知识库,其中,最新最新出来的开源 RAGFlow 很不错,这就部署出来瞅一下。当然,DeepSeek的部署就需要参考《基于Ubuntu Ollama 部署 DeepSeek-R132B 聊天大模型(附带流式接口调用示例)》这篇文章了。RAGFlow简单介绍下它,RAGFlow 是一款基于深度文档理解构建的
作者:hqy | 分类:编程&AI | 浏览:89 | 评论:0
11
2025
02
OpenWebUI+Ollama部署教程命令和网址
Ollama官方网址视频00:35精准空降:https://www.bilibili.com/video/BV1b8mVY2EZj?t=34.3https://ollama.com下载安装开源模型视频01:40精准空降:https://www.bilibili.com/video/BV1b8mVY2EZj?t=98.1ollama run gemma2其中gemma2可以换成其它模型,例如Qwen2.5:ollama run qwen2.5可以选择的模型在
作者:hqy | 分类:编程&AI | 浏览:44 | 评论:0
11
2025
02
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。系统硬件介绍Ubuntu 22.04.4 LTSCPU: i5-10400F内存:32G硬盘: 512G SSD显卡: NVIDIA GeForce GTX 1060 6GB内网IP: 192.168.1.21下载 Ollama访问下载: htt
作者:hqy | 分类:编程&AI | 浏览:55 | 评论:0
11
2025
02
ollama+open-webui,本地部署自己的大模型
ollama+open-webui,本地部署自己的大模型版权目录一、效果预览二、部署ollama1.ollama说明2.安装流程2.1 windows系统2.1.1下载安装包2.1.2验证安装结果2.1.3设置模型文件保存地址2.1.4拉取大模型镜像2.2linux系统2.2.1下载并安装ollama2.2.2设置环境变量2.2.3拉取模型文件三、部署open-webui1.open-webui介绍2.安装流程2.1windows2.1.1下载源码2.1.2用pycharm新建一个虚拟环境?编辑
作者:hqy | 分类:编程&AI | 浏览:45 | 评论:0
11
2025
02
ollama配置允许外网访问
linux系统 ollama默认只能localhost访问 如果需要允许外网访问,需要修改环境变量 vi /etc/profile 在文件底部加入 export OLLAMA_HOST=0.0.0.0:11434 保存&nb
作者:hqy | 分类:编程&AI | 浏览:47 | 评论:0
11
2025
02
ollama搭建本地ai大模型并应用调用
1、下载ollama1)https://ollama.com 进入网址,点击download下载2)下载后直接安装即可。2、启动配置模型默认是启动cmd窗口直接输入1 ollama run llama3启动llama3大模型 或者启动千问大模型1 ollama run qwen2启动输入你需要输入的问题即可 3、配置UI界面安装docker并部署web操作界面1 docker run&n
作者:hqy | 分类:编程&AI | 浏览:46 | 评论:0
11
2025
02
ollama 跨设备访问,轻松搞定远程调用
ollama 跨设备访问,轻松搞定远程调用用 Ollama API 调用本地大模型,通过 localhost:11434 就能搞定。但是,想在其他电脑上用 IP 地址调用,可能会存在问题。网上搜了搜,要么是 Linux 环境下的设置,要么是调整 windows 环境变量。st, Windows 下也能这么操作。ollama -h 看下帮助,然后 ollama serve -h,看下帮助 window 下面可以设置 OLLAMA_HOST
作者:hqy | 分类:编程&AI | 浏览:47 | 评论:0
11
2025
02
如何在个人电脑上私有安装DeepSeek?彻底告别服务器繁忙!
这两天大家都被DeepSeek炸晕了吧,嘿嘿,其实DeepSeek也被大家炸晕了。这是今天上午的情况↓没办法,这泼天的流量一般人扛不住~想高频使用怎么办呢?本地装一个!本地部署有两个好处:❶不联网,全私密,不担心隐私泄露,还可以挂载本地知识库❷完全免费,彻底告别“服务器繁忙”。如果你是苹果Mac本——我们需要用到两个神器:一个叫做Ollama,这是一个可以在本地运行和管理大模型的软件。另一个叫做Page Assist,这是个浏览器插件,提供本地大模型的图形化管理和对话界面。一、下载Ollama,
作者:hqy | 分类:编程&AI | 浏览:46 | 评论:0
11
2025
02
Ollama Windows
Ollama Windows欢迎使用 Ollama for Windows。不再需要 WSL!Ollama 现在作为原生 Windows 应用程序运行,支持 NVIDIA 和 AMD Radeon GPU。 安装 Ollama for Windows 后,Ollama 将在后台运行, ollama 命令行工具将在 cmd、powershell 或你最喜欢的终端应用程序中可用。和往常一样,Ollama API 将在 http:/
作者:hqy | 分类:编程&AI | 浏览:55 | 评论:0
11
2025
02
如何投喂本地部署的 DeepSeek-R1
搭建个人 AI 知识库:利用 DeepSeek-R1 和 AnythingLLM 实现高效管理随着人工智能技术的飞速发展,越来越多的人开始探索如何利用 AI 工具提升工作效率和个人知识管理水平。在众多开源AI模型中,DeepSeek-R1 凭借其强大的本地部署能力和多功能性脱颖而出。结合 AnythingLLM 这一功能强大的文档处理工具,我们可以轻松搭建一个属于自己的个性化 AI 知识管理系统。一、什么是 DeepSeek-R1?DeepSeek-R1 是一款基于深度学习的开源 AI 模型,默
作者:hqy | 分类:编程&AI | 浏览:39 | 评论:0
11
2025
02
安装ollama并更改模型下载位置
下载ollamaollama官网:https://ollama.com/https://ollama.com/安装并验证下载完ollama.exe文件之后,点击安装,安装过程较为简单,按照提示完成即可。安装完成之后打开cmd,在终端cmd输入以下指令进行验证:ollama --version模型运行启动ollama:在cmd终端输入以下指令ollama serve查看模型列表:在cmd终端输入以下指令ollama list下载并运行本地大模型在cmd终端输入以下指令
作者:hqy | 分类:编程&AI | 浏览:45 | 评论:0
11
2025
02
史诗级羊毛警报!腾讯云掏出671B核弹级模型白送:DeepSeek-V3/R1无限免费调用
史诗级羊毛警报!腾讯云掏出671B核弹级模型白送:DeepSeek-V3/R1无限免费调用 前言官方的 deepseek 到目前为止都不是很稳定,经常出现 "服务器繁忙,请稍后再试。" 的情况。但是 deepseek-r1 作为一个开源的模型,只要你有足够的算力,就能够自己搭建一个对话平台,无限制使用。经过我的测试,我使用的是 MacBook Pro M1 max 32G + Ollama 只能够刚刚好跑得动 deepseek-r1:32b 的模
作者:hqy | 分类:编程&AI | 浏览:42 | 评论:0
11
2025
02
请停止在本地PC笔记本上部署DeepSeek,没卵用!
请停止在本地PC笔记本上部署DeepSeek,没卵用!最近,在自媒体账号上和社群里频繁刷到一类帖子——“如何在本地笔记本上部署DeepSeek?”“RTX 3060跑DeepSeek模型实战教程!”……作为一个一直关注AI和相关工具的半瓶水码农,我必须泼一盆冷水:醒醒!普通PC笔记本部署DeepSeek,除了满足你的“技术虚荣心”,真的毫无意义!为什么?往下看!1. 你的笔记本,根本扛不住AI算力的压榨你以为部署大模型就像安装Office一样简单?天真了!以DeepSeek这类千亿参数级的模型为
作者:hqy | 分类:编程&AI | 浏览:43 | 评论:0