为公司省钱往往省不到自己身上

感觉本网站还不错的,请主动关闭浏览器的广告屏蔽功能再访问本站,谢谢支持。

20
2025
03

基于ollama的常见变量设置

基于ollama的常见变量设置全局命令设置现象:无法直接使用命令ollama问题显示如下:[root@localhost LLM]# ollama-bash: ollama: command not found解决方法一:第一步:输入如下命令:[root@localhost ~]# ln -s /usr/bin/Ollama/bin/ollama /usr/local/bin/ollama第二步:我们在任意一个位置进行命令验证:[root@localhost ~]# ollamaUsage:ol
20
2025
03

查看ollama的详细的环境变量的配置

要查看 Ollama 的详细环境变量配置,可以通过以下几种方式:1. 检查环境变量你可以直接查看系统上与 Ollama 相关的环境变量。可以通过以下命令查看所有的环境变量:printenv这将列出所有当前的环境变量。如果你只想查看与 Ollama 相关的变量,可以使用 grep 来筛选:printenv | grep OLLAMA这会列出所有包含 OLLAMA&nbs
20
2025
03

Ollama系列---【ollama使用gpu运行大模型】

一、安装CudaToolkit使用控制台命令查看当前显卡驱动中的cuda版本nvidia-smi二、下载CudaToolkit注意:CudaToolkit版本要低于上面的显卡Cuda版本。Cuda各版本下载地址:CUDA Toolkit Archive | NVIDIA Developer下载好之后,一路下一步,一直默认即可。如果安装到了自定义的位置,记得加环境变量。这里我安装到了D盘,下面是我添加的环境变量。三、验证是否安装成功nvcc --version安装成功,如下图:四、设置O
20
2025
03

在ubuntu24.04上安装Ollama并设置跨域访问

Ollama 是一个基于 Go 语言开发的简单易用的本地大模型运行框架。它同时支持Nvidia和AMD显卡,最主要的是国内下载模型的速度很快。我们在前几期文章中介绍的lobechat,oneapi等应用,可以方便的利用ollama构建本地大模型运行平台。接下来我们就介绍如何构建ollama的运行平台。设备构成:1、Nvidia P40两片,32G内存。2、ubuntu24.04操作系统。具体安装过程如下:一:安装Ollama1、准备环境#安装gcc和g++ sudo apt 
20
2025
03

[Ubuntu]安装ollama操作记录

     安装ollama操作记录        简介        Ollama 是一个致力于推动本地人工智能模型开发和应用的工具和平台,允许用户在本地运行、管理和调用各种 AI 模型。它的核心理念是提供一种无需依赖云计算环境的方式,让开发者和企业能够高效地使用 AI 模型,同时确保数据隐私和安全。     
12
2025
03

#HarmonyOS NEXT体验官#【鸿蒙NEXT】苹果Mac x86的新的DevEco Studio没有模拟器了吗?

#HarmonyOS NEXT体验官#【鸿蒙NEXT】苹果Mac x86的新的DevEco Studio没有模拟器了吗? 前言:我们平时开发的过程当中,在没有真机设备的情况下,都是去官方下载配套的模拟器,把我们的项目run到模拟器中去做开发调式,比如查看UI层级,断点调式,查看打印日志信息之类的报错信息,以便于发现问题,修复对应问题,优化代码之类的,在鸿蒙开发当中,也是如此。1、Mac x86 没法安装模拟器由于当前鸿蒙更新版本比较频繁,基本每经过一两周必有一个DevEco Studi
11
2025
03

最适合LLM推理的NVIDIA GPU全面指南

介绍大型语言模型(LLM)如GPT-4、BERT以及其他基于Transformer的模型已经革新人工智能领域。这些模型在训练和推理过程中需要大量的计算资源。选择合适的GPU进行LLM推理可以显著影响性能、成本效益和可扩展性。?? 本指南将帮助你选择最适合你需求的GPU,不论是为个人项目、研究环境还是大规模生产部署。?理解关键GPU规格在深入了解推荐列表之前,让我们简要概述一些关键规格,这些规格决定了GPU是否适合LLM推理:?️ CUDA核心:这是GPU的主要处理单元。更高的CUDA核心数通常意
11
2025
03

boydfd大神:LLM生成代码后,如何一键合并到源代码中(FastApply技术研究)

LLM生成代码后,如何一键合并到源代码中(FastApply技术研究)背景在大语言模型越来越火的今天,越来越多的应用场景开始使用大语言模型来解决实际问题。而辅助编程可以算是大语言模型应用得最成功的场景之一了。早先的时候,更多使用的还是代码补全的能力,但是现在,各家产品都开始支持Chat和Agent的能力了。之前一直有个疑问,生成的代码明明只是片段,也没有一个很好的规则能直接定位到源文件的位置,甚至有些生成的代码和现有代码没有任何重叠的部分,那这些代码是怎么精准地合并到源代码中的呢?今天就带着大家
10
2025
03

boydfd大神:为了改一行代码,我花了10多天时间,让性能提升了40多倍---Pascal架构GPU在vllm下的模型推理优化

为了改一行代码,我花了10多天时间,让性能提升了40多倍---Pascal架构GPU在vllm下的模型推理优化ChatGPT生成的文章摘要这篇博客记录了作者在家中使用Pascal显卡运行大型模型时遇到的挑战和解决方案。随着本地大型模型性能的提升,作者选择使用vllm库进行推理。然而,作者遇到了多个技术难题,需要自行编译vllm和PyTorch,以支持Pascal架构的显卡。编译过程中,作者深入研究了显卡不支持的问题,特别是在量化矩阵乘法计算中发现性能瓶颈。最终,解决了性能问题,让性能提升了43倍
10
2025
03

大模型如何部署?

大模型如何部署?目前chatgbt如火如图,但是模型参数巨大,单卡H100都无法满足,请问大模型如何部署?目标是部署类似gbt 175b参数的模型到gpu上面。硬件选型AI 领域常用 GPU显卡性能应用场景价格T4适中AI 推理, 轻量级训练, 图形渲染7999(14G)4090非常高通用计算, 图形渲染, 高端游戏, 4K/8K 视频编辑14599(24G)A10适中图形渲染, 轻量级计算18999(24G)A6000适中图形渲染, 轻量级计算32999(48G)V100高深度学习训练/推理,
10
2025
03

excel如何把数字自动转换成大写 ,例如 559.40转换成 零万零仟伍佰伍拾肆元零角零分

步骤:打开 VBA 编辑器(按 Alt + F11)。插入模块(点击 插入 -> 模块)。复制以下代码并粘贴到模块中:vba复制编辑Function NumToRMB(ByVal num As Double) As String     Dim Units As Variant, Digits As Variant  
10
2025
03

我与vLLM的2024:清华大佬的vLLM开发之路

作者:游凯超,清华软院博士研究生我与 vLLM 的缘分,还得从五年前的那个暑假说起。2019 年,我在UC Berkeley的RISELab跟随Michael Jordan教授进行暑期研修。某天,我偶然遇到一位新入学的博士生,厚着脸皮加了他的微信。当时的我怎么也不会想到,这一“社交冒险”会在五年后改变我的人生轨迹。时间快进到 2022 年年底,ChatGPT 横空出世。曾经和我一起玩泥巴的青苹果同学已经成为ChatGPT训练师,而我还在AI顶会与随机分配的审稿人展开“鸡同鸭讲”式的争论。顶会的内
09
2025
03

生产级满血版Deepseek-r1 671B部署实例

Deepseek来了一波疯狂炸场,把全世界的目光都吸引了过来,这波泼天的流量也是没谁了。年后没多久,因为一些特定的原因,官网的Deepseek基本都变成了这个状态手上刚好有几张算力还算可以的显卡经过一系列折腾终于完成了完整版Deepseek-r1 671B满血版生产级的部署,本来就来详细讲一下。本人水平有限,部署过程中对各种设备、模型、网络等内容的理解有限,还望各位高手指正一、准备工作1.1 模型文件生产级满血版的Deepseek-r1,我们应该直奔他的原版仓库1. huggingfa
09
2025
03

盘点本地部署满血deepseek-r1的各种硬件配置方案

说明:本文的任何主观性语句仅代表个人观点。本人才疏学浅,语言通俗可能有不严谨或有误之处,如您对文章内容存疑,欢迎在评论区/私信指出讨论。写文时间:2025年2月15日。一切价格与性价比相关信息以此时为准。deepseek爆火的背后,溯其本源,是这两个关键句:大公无私的开源精神;打破常规的低成本。我们夸它开源,是因为它媲美全球各大公司的闭源模型;我们夸它成本低,绝不是夸它“用的钱少”,不是所谓“仅几百万美金的训练成本”,而是背后研究团队对MoE架构的改良、对注意力机制的改进、对迭代算法的各种优化…
09
2025
03

DeepSeek全网使用教程和资料汇总

为大家整理了全网所有deepseek相关得教程和使用资料,请自取。全网资料汇总:链接:夸克网盘分享pan.quark.cn/s/d8b4e023902bDeepSeek简介DeepSeek(深度求索)成立于2023年7月,由国内知名量化资管公司幻方量化创立。它是一家专注于通用人工智能(AGI)的中国科技公司,主攻大模型研发与应用。DeepSeek致力于通过先进的技术手段推动各行各业的智能化转型,以自然语言处理(NLP)、机器学习、深度学习等核心技术为基础,开发了一系列高效、智能的解决方案。核心技
09
2025
03

本地部署 DeepSeek 硬件配置清单,看到满血版价格想想还是算了

首先介绍下DeepSeek全网使用教程和资料汇总,需要的小伙伴可以自行下载相关教程。hengwei:DeepSeek全网使用教程和资料汇总DeepSeek-R1 通过其强大的推理能力和灵活的训练机制,已经火爆了整个春节。DeepSeek-R1 是一款高性能 AI 推理模型,旨在通过强化学习技术提升模型在复杂任务场景下的推理能力。本地部署 deepseek-r1 硬件需求要求还是挺高的,特别是满血 671b 参数版本:下表说明了各个版本的特点及适用场景:其中最强悍的 671B 版本部署需
09
2025
03

DeepSeek-R1 671B满血版部署硬件配置

https://blog.frognew.com/2025/02/deepseek-r1-671b-deploy-hardware.html \DeepSeek R1是DeepSeek公司于2025年1月20日发布的推理模型,被认为媲美OpenAI的o1模型。DeepSeek R1满血版:模型总参数量激活参数量上下文长度下载链接DeepSeek-R1-Zero671B37B128K? HuggingFaceDeepSeek-R1671B37B128K? HuggingFaceDeepSeek R
09
2025
03

消费级 PC 本地部署 DeepSeek-R1满血版 (671B)指南

       在科技飞速发展的今天,人工智能尤其是大语言模型的发展令人瞩目。DeepSeek R1 作为其中的佼佼者,过年期间更是彻底破圈,受到广泛关注。虽然网络版和 APP 版已经能满足很多人的需求,但对于技术爱好者和追求极致个性化的用户来说,将模型部署到本地,才能真正实现独家定制,让 DeepSeek R1 的深度思考 “以你为主,为你所用”。        大多数人在本地
09
2025
03

HuggingFace无法连接,用HF-mirror来绕开限制

在服务器上,通过sh文件运行vLLM服务时,报错连不上HuggingFace:OSError: We couldn't connect to 'https://huggingface.co' to load this file, couldn't find it in the cached files and it looks like THUDM/chatglm2-6b is not the path to a directory containing a fi
09
2025
03

NVIDIA Tesla P100/V100

一、NVIDIA Tesla P100NVIDIA Tesla P100是一款由NVIDIA公司在2016年发布的高性能显卡,它采用了帕斯卡架构,专为数据中心、深度学习和其他高性能计算任务设计。以下是NVIDIA Tesla P100的主要参数:基本信息型号:NVIDIA Tesla P100芯片厂商:NVIDIA芯片型号:nVIDIA Quadro GP100显卡类型:专业级核心参数核心代号:GP100制造工艺:16纳米CUDA核心:3584个核心频率:1328MHz显存参数显存容量:根据不同

您的IP地址是: