为公司省钱往往省不到自己身上

感觉本网站还不错的,请主动关闭浏览器的广告屏蔽功能再访问本站,谢谢支持。

14
2025
03

ollama 支持 gpu,Ollama Windows FAQ

https://github.com/ollama/ollama/blob/main/docs/gpu.md  GPUNvidiaOllama supports Nvidia GPUs with compute capability 5.0+.Check your compute compatibility to see if your card is supported: https://developer.nvidia.com/cuda-gpusCompute
14
2025
03

NPU vs. GPU:它们有什么区别?

随着人工智能(AI)技术的蓬勃发展,催生了各种专门的硬件设计,以优化 AI 和神经网络的运算效率。在这些硬件加速器中,NPU(神经处理单元)和 GPU(图形处理单元)经常被拿来做对比,尤其是在加速 AI 任务方面。接下来,我们将深入探讨 GPU 和 NPU 的特点和区别,并分析它们各自的优缺点。本文内容包括NPU 简介GPU 简介NPU 和 GPU 快速对比NPU 和 GPU 的区别NPU 与 GPU:性能对比实施问题与存储需求NPU 简介NPU 神经处理单元NPU 是专门为优化 AI 和神经网
14
2025
03

Windows 11 电脑是否搭载 NPU?3 招教你快速识别!

NPU(神经处理单元)是专为 AI 任务量身打造的加速器,它能够显著提升机器学习(ML)任务的处理速度,同时还可以兼顾能效。2024 年,搭载 NPU 的笔记本电脑将越来越普及。这类笔记本电脑可以轻松处理人工神经网络所需的复杂计算,并为用户带来诸多基于机器学习的先进功能。例如,Windows Studio 效果就可以利用 NPU 来实时优化视频通话中的图像和音频效果。接下来,我们将介绍如何在 Windows 11 系统中检查你的电脑是否搭载了 NPU。NPU 通常与主 CPU 集成在一起,比如
14
2025
03

什么是 NPU:AI 芯片的未来,你需要了解的一些事

生成式 AI 正在席卷全球。从智能手机到电脑,乃至未来的各种数字设备,AI 几乎无处不在。AI 的广泛应用需要强大的算力,而传统的 CPU 和 GPU 已经越来越难以胜任。于是,NPU(神经处理单元)应运而生。现在,像三星 Galaxy S22、S23 和 S24 等旗舰智能手机已经开始搭载 NPU。不过,NPU 要在个人电脑中普及还需要一些时间。Intel 和 AMD 等芯片巨头已经开始推出集成 NPU 的处理器,如 Intel 的 Meteor Lake、Core 和 Core Ultra
14
2025
03

LLM 大型语言模型:推动 AI 聊天机器人迅猛崛起的核心技术

LLM 大型语言模型是推动生成式 AI 聊天机器人迅猛崛起的核心技术。像 ChatGPT、Google Bard 和 Bing Chat 这样的工具都依赖于大型语言模型生成类似人类的响应来回答你的提示和问题。但是,LLM 大型语言模型到底是什么,它们又是如何工作的呢?在本文中,系统极客将为大家解密大型语言模型 。本文内容涵盖什么是 LLM 大型语言模型LLM 大型语言模型如何工作LLM 大型语言模型有哪些局限主流 LLM 大型语言模型有哪些GTPLaMDA
14
2025
03

Ollama on Windows:本地运行大语言模型的利器

Ollama 的出现为 AI 爱好者带来了新的可能性。越来越多的工具和平台,如 OpenAI Translator、NextChat 和 LoboChat 等,都已经支持调用 Ollama 在本地运行的大语言模型 (LLM)。这不仅为 AI 新手提供了一种便捷的「入门玩法」,也为经验丰富的开发者开辟了新的探索途径。Ollama on Windows(预览版)的推出,彻底改变了在 Windows 设备上进行 AI 开发的格局。无论你是 AI 领域的探索者,还
13
2025
03

SM4国密加密算法的PHP实现

SM4简介SM4.0(原名SMS4.0)是中华人民共和国政府采用的一种分组密码标准,由国家密码管理局于2012年3月21日发布。相关标准为“GM/T 0002-2012《SM4分组密码算法》(原SMS4分组密码算法)”。PHP实现<?php$key = "asw34a5ses5w81wf";$sm4 = new Sm4Helper();$data = '123456';$enc = $sm4->encrypt($key, $data);echo &
13
2025
03

使用Spout读取大体积Excel文件

目录  1 Spout简介2 安装方法3 DEMO4 另一种办法Spout简介使用phpExcel在读取体积较大的excel文件时,会提示Fatal error: Allowed memory size of的错误,提示内存不够。可以使用Spout来解决。Spout 是一个 PHP 库,用于以快速且可扩展的方式读取和写入电子表格文件(CSV、XLSX 和 ODS)。它能够处理非常大的文件,同时保持非常低的内存使用率(小于 3MB)。官方
13
2025
03

PHP使用企业微信接口推送消息

目录  1 简介2 准备2.1 参数说明2.2 参数获取2.2.1 corpid获取2.2.2 agentid 获取2.2.3 secret获取2.3 设置企业可信IP3 推送消息3.1 关注企业微信3.2 推送代码简介企业微信开放了消息发送接口,企业可以使用这些接口让自定义应用与企业微信后台或用户间进行双向通信。接口文档:https://developer.work
13
2025
03

pdf.js浏览带密码保护的pdf文件

目录  1 简介2 查看受密码保护的 PDF3 DEMO4 参考简介pdf.js是一个完整的pdf查看器,还支持查看受密码保护的pdf。这意味着您的应用程序可以在用户尝试查看 PDF 时提示用户输入密码。在收到正确的密码后,应用程序可以向用户显示 PDF,或者显示一条错误消息。查看受密码保护的 PDF要使用 PDF.JS 打开受密码保护的 PDF,请将密码参数传递给PDFJS.getDocument API 调用:PDFJS.getDo
13
2025
03

使用PageSpy远程调试web项目

简介PageSpy 是一款用来调试远程 Web 项目的工具。它可以像使用浏览器开发者助手(F12)一样,去查看远程网页控制台、网络请求、页面内容、缓存等信息,也可以直接下发JS指令,对网页进行控制。能够帮助我们实时查看用户侧的网页状态。开源地址:https://github.com/HuolalaTech/page-spy-web使用场景任何无法在本地使用控制台调试的场景,都是 PageSpy 可以大显身手的时候!一起来看下面的例子:本地调试 H5、Webview 应用:以往有些产品提供了可以在
13
2025
03

微信支付自动唤起

一般在发起支付前,都需要用户点击某个支付按钮后才能唤起,如果你希望自动唤起支付或微信的其他功能,直接在$(document).ready里写或者 <body onload="xxx()">里写都是不行的。需要在wx.ready里写。例如:<script type="text/javascript">    $(function() {        wx.read
13
2025
03

PHP监控Windows服务器登录事件

前言开启Windows服务器远程桌面服务后,为了查询用户登录的时间、IP及次数等信息,需要在事件查看器中查看,不是很方便。本篇文章主要实现了通过PHP来查询登录事件,并把登录事件中包含的关键信息通知给系统管理员。原理Windows登录成功的事件ID是:4624(登录失败为4625),事件中包含了登录账户名、登录源IP和端口等信息:可以通过powershell的Get-EventLog命令来查询事件:Get-EventLog -LogName Security -In
13
2025
03

使用PHP开关RDP服务(远程桌面)和网络适配器

简介总所周知,windows的3389端口是个危险端口,开启后容易被爆破密码,但有时候为了运维方便,又不得不开启。本文给出一段使用PHP开启和关闭RDP服务的代码供参考。使用以下代码,可以在不需要RDP服务时关闭RDP,需要时再打开。开关RDP服务原理开启和关闭远程桌面,是通过修改注册表来实现的。当HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Terminal Server中的fDenyTSConnections的值为1时,表示关闭了远程
13
2025
03

PHP使用Imagick+GhostScript转换PDF为图片(Windows环境)

简介ImageMagick是一套功能强大、稳定而且免费的工具集和开发包,可以用来读、写和处理超过185种基本格式的图片文件,包括流行的TIFF、JPEG、GIF、PNG、PDF以及PhotoCD等格式。Ghostscript是一套基于Adobe、PostScript及可移植文档格式(PDF)的页面描述语言等而编译成的免费软件。使用PHP将PDF文档转换为图片需要安装Imagemagick软件、PHP的Imagick扩展、GhostScript软件。安装安装Imagemagick下载地址:http
12
2025
03

鸿蒙第三方应用.hap打包、安装流程。

最近在华为手表上安装第三方应用(源码打包构建应用,需要签名)。网上看了教程,在此记录下。准备工作:先安装DevEco Studio开发工具。进入华为 appgallery connect网站(注册、开发者实名认证)https://developer.huawei.com/consumer/cn/service/josp/agc/index.html添加设备,UUID需要用华为 应用调测助手软件获取。获取过程:步骤四:一 私钥、证书DevEco Studio打开项目源码密码随便写(密码包括大小写,
11
2025
03

boydfd大神:LLM生成代码后,如何一键合并到源代码中(FastApply技术研究)

LLM生成代码后,如何一键合并到源代码中(FastApply技术研究)背景在大语言模型越来越火的今天,越来越多的应用场景开始使用大语言模型来解决实际问题。而辅助编程可以算是大语言模型应用得最成功的场景之一了。早先的时候,更多使用的还是代码补全的能力,但是现在,各家产品都开始支持Chat和Agent的能力了。之前一直有个疑问,生成的代码明明只是片段,也没有一个很好的规则能直接定位到源文件的位置,甚至有些生成的代码和现有代码没有任何重叠的部分,那这些代码是怎么精准地合并到源代码中的呢?今天就带着大家
10
2025
03

boydfd大神:为了改一行代码,我花了10多天时间,让性能提升了40多倍---Pascal架构GPU在vllm下的模型推理优化

为了改一行代码,我花了10多天时间,让性能提升了40多倍---Pascal架构GPU在vllm下的模型推理优化ChatGPT生成的文章摘要这篇博客记录了作者在家中使用Pascal显卡运行大型模型时遇到的挑战和解决方案。随着本地大型模型性能的提升,作者选择使用vllm库进行推理。然而,作者遇到了多个技术难题,需要自行编译vllm和PyTorch,以支持Pascal架构的显卡。编译过程中,作者深入研究了显卡不支持的问题,特别是在量化矩阵乘法计算中发现性能瓶颈。最终,解决了性能问题,让性能提升了43倍
10
2025
03

大模型如何部署?

大模型如何部署?目前chatgbt如火如图,但是模型参数巨大,单卡H100都无法满足,请问大模型如何部署?目标是部署类似gbt 175b参数的模型到gpu上面。硬件选型AI 领域常用 GPU显卡性能应用场景价格T4适中AI 推理, 轻量级训练, 图形渲染7999(14G)4090非常高通用计算, 图形渲染, 高端游戏, 4K/8K 视频编辑14599(24G)A10适中图形渲染, 轻量级计算18999(24G)A6000适中图形渲染, 轻量级计算32999(48G)V100高深度学习训练/推理,
10
2025
03

我与vLLM的2024:清华大佬的vLLM开发之路

作者:游凯超,清华软院博士研究生我与 vLLM 的缘分,还得从五年前的那个暑假说起。2019 年,我在UC Berkeley的RISELab跟随Michael Jordan教授进行暑期研修。某天,我偶然遇到一位新入学的博士生,厚着脸皮加了他的微信。当时的我怎么也不会想到,这一“社交冒险”会在五年后改变我的人生轨迹。时间快进到 2022 年年底,ChatGPT 横空出世。曾经和我一起玩泥巴的青苹果同学已经成为ChatGPT训练师,而我还在AI顶会与随机分配的审稿人展开“鸡同鸭讲”式的争论。顶会的内

您的IP地址是: