为公司省钱往往省不到自己身上

感觉本网站还不错的,请主动关闭浏览器的广告屏蔽功能再访问本站,谢谢支持。

07
2025
04

【AI】【本地部署】OpenWebUI的升级并移植旧有用户信息

【背景】OpenWebUI的版本升级频率很高,并会修改旧版本的Bug,不过对于已经在使用的系统,升级后现有用户信息都会丢失,于是研究如何在升级后将现有的用户信息移植到升级后版本。【准备工作】OpenWebUI的升级步骤在Docker中有现有命令,但是对于直接在真机环境中安装的情况,基本也就是按照新安装的方法去做。先卸载Ollama,再下载最新Ollama后安装。python环境安装最新openwebui包,再用npm命令安装前端界面。这些步骤都可以参看我关于webui部署的文章。重点来看一下,安
07
2025
04

pip安装报错:ERROR: Could not install packages due to an OSError: Missing dependencies for SOCKS support

Windows系统使用pip安装报错:ERROR: Could not install packages due to an OSError: Missing dependencies for SOCKS support问题现象 解决方式 关闭代理问题现象解决方式打开“网络和Internet设置”——“代理”,关闭代理。
07
2025
04

open-webui 升级

open-webui 升级要升级 OpenWebui,你需要遵循一些基本的步骤来确保你的系统能够顺利升级到最新版本。OpenWebui 是一个开源项目,通常通过其官方仓库或通过包管理器(如pip、apt等)进行更新。下面是一些常见的升级方法:1. 通过pip更新如果你的OpenWebui是通过pip安装的,你可以使用以下命令来更新:pip install --upgrade openwebui2. 通过GitHub更新如果你直接从GitHub克隆了OpenWebui的代码,你应该更新到最新的版本
07
2025
04

在linux服务器本地部署Deepseek及在mac远程web-ui访问的操作

文章介绍了在Linux服务器上部署和使用DeepSeek模型的步骤,包括安装Ollama、下载和运行模型,以及在Linux服务器上配置Ollama服务以实现远程访问,接着,文章介绍了在Mac上安装WebUI工具OpenWebUI,以便更方便地与远程Linux服务器上的DeepSeek模型进行交互1. 在Linux服务器上部署DeepSeek模型要在 Linux 上通过 Ollama 安装和使用模型,您可以按照以下步骤进行操作:步骤 1:安装 Ollama安装 Ollama:使用以下命令安装 Ol
03
2025
04

易语言注册机全套教程(小白课程)

花高价买了给大家分享吧。 2021年的哦。新版的4.5G干货课程内容包含:【一】基本环境配置【二】安卓逆向MD5类加密实战【三】脱壳【四】静态分析【五】基本工具内容如图:
03
2025
04

易语言零基础课全套教学(易语言零基础课程)

易语言零基础课全套教学(易语言零基础课程) 摘要:易语言是一门以中文作为程序代码编程语言。易语言早期版本的名字为E语言。其最早的版本的发布可追溯至2000年9月11日。创造易语言的初衷是进行用中文来编写程序的实践,方便国人以汉语的思维编写程序,并不用再去学西方思维。此版本课程内容是专门针对没有学过易语言编程的新手学员的,本版本教程是以零基础开始教学,详细通俗讲解主要讲解易语言编程基础各方面的基础知识点,可以让新手快速的掌握易语言编程。课程目录:(如图)
03
2025
04

新C语言开发启示录(C++开发全解+PPT+课程+作业+笔记)

新C语言开发启示录课程,包含:C语言开发全解+PPT+课程+作业+笔记摘要:全新C语言开发精华启示录课程是关于C语言的一次新的阐释,适合正在寻求C语言开发入门和相关的技术工程师们学。本课程对C开发过程中的很多个细节都进行了细致的教学与讲解,除了视频课程的安排以外还有课程学的PPT、课程、作业、笔记,这样能够快速的在课程掌握课程中的教学内容,极大的提高学的效率,也能够最大程度的保留同学们的学兴趣,初期学的兴趣培养也是至关重要的。课程目录:1、C语言入门到精通第01课;目录中文件数:7个 
03
2025
04

全套C语言/C++/C#深入剖析教程

全套C语言深入剖析视频教程“你真的深入了解C语言吗?”,一年以前,唐老师伴随部分同学走过了深入学C语言的365个日夜,经典的《全套C语言深入剖析vip培训班》视频让众多同学真正的掌握了C语言的精髓。整套课程采用理论讲解,实例分析,手把手指导代码编写等多种方式,全方位地为你扫除学中的各个盲区!现在分享给大家免费学获取地址:
02
2025
04

免费白嫖 Deepseek R1 满血版

DeepSeek满血版上线浙江大学推出“浙大先生”智能体平台,本地化部署DeepSeek V3/R1满血版大模型,基于CARSI资源共享向全国829所高校师生免费开放,覆盖教学、科研、生活全场景。平台依托“西湖之光”千亿级算力联盟,实现毫秒级响应,彻底解决传统AI工具卡顿问题,支持AI生图、视频生成、音乐创作及科研文献分析、作业自动批改(CCAD)、心理咨询(VODD)等20余项功能。通过零门槛接入与低代码开发环境,师生可快速创建智能体并接入教务、科研数据库,享受AI科学家、智能问答等高阶工具。
01
2025
04

比 Ollama 更简单的方式部署 DeepSeek-R1 模型

本文使用 llama.cpp 本地部署 DeepSeek-R1 模型。llama.cpp 介绍使用纯 C/C++推理 Meta 的LLaMA模型(及其他模型)。主要目标llama.cpp是在各种硬件(本地和云端)上以最少的设置和最先进的性能实现 LLM 推理。纯 C/C++ 实现,无任何依赖项Apple 芯片是一流的——通过 ARM NEON、Accelerate 和 Metal 框架进行了优化AVX、AVX2、AVX512 和 AMX 支持 x86 架构1.5 位、2 位、3 位、4 位、5
01
2025
04

私有化部署 DeepSeek-R1?看这篇文章就够了!

高性能应用服务(Hyper Application Inventor,HAI)是一款面向 AI 、科学计算的 GPU 应用服务产品,提供即插即用的澎湃算力与常见环境,助力中小企业及开发者快速部署 LLM。地址:腾讯云 HAI vs GPU 服务器大幅降低GPU云服务器使用门槛,多角度优化产品使用体验,开箱即用,如下图:选择基础环境“Ubuntu 20.04”镜像,环境配置:Ubuntu 20.04, Driver 525.105.17, Python 3.8, CUDA 12.0, cuDNN
01
2025
04

使用 vLLM 生产环境部署 DeepSeek,算力减半、吞吐增十倍!

需求:之前使用 Ollama 部署过 deepseek-r1:32b 模型,非常方便快捷,适合个人快速部署使用。如果作为企业生产环境应该使用什么方式部署呢?一般都采用 vllm、sglang 进行部署,本文是用 vLLM 部署 DeepSeek-R1模型。Ollama 和 vLLM 对比区别如下:对比维度OllamavLLM核心定位轻量级本地化工具,适合个人开发者和小规模实验生产级推理框架,专注高并发、低延迟的企业级场景硬件要求支持 CPU 和 GPU,低显存占用(默认使用量化模型)必须依赖 N
26
2025
03

【Mirror Networking】文档学习笔记

1. Mirorr 的分层结构2. 组件生命周期3. Tranport 支持提供的不同 Low Level TransportKCP: reliable UDPLiteNetLib: UDPUNET LLAPI: UDP。实测丢包率高Ignorance: ENET UDPLibuv: Node.js networking backendTelepathy: cross platform TCPSimple Websockets: WebsocketsFizzySteam: SteamNetwor
25
2025
03

ubuntu搭建ollama大模型

一、环境要求:二、安装ollama:1.下载并执行安装脚本curl -fsSL https://ollama.com/install.sh | sh2.设置默认端口echo export OLLAMA_HOST="0.0.0.0:11434">>~/.bashrc3.设置模型默认下载地址echo export OLLAMA_MODELS=/root/ollama/models>>~/.bashrc4.查看设置情况cat ~/.bashrc5.激活配置s
25
2025
03

ubuntu搭建ollama大模型

一、环境要求:二、安装ollama:1.下载并执行安装脚本curl -fsSL https://ollama.com/install.sh | sh2.设置默认端口echo export OLLAMA_HOST="0.0.0.0:11434">>~/.bashrc3.设置模型默认下载地址echo export OLLAMA_MODELS=/root/ollama/models>>~/.bashrc4.查看设置情况cat ~/.bashrc5.激活配置s
25
2025
03

DeepSeek最简单搭建方法(win版本)

1.下载ollmaOllama 是一个开源的大型语言模型(LLM)本地化部署框架,旨在简化用户在本地运行和管理大模型的流程。https://ollama.com/download2.安装ollma这里安装就和普通软件安装一样,直接双击exe文件即可,安装完成以后打开命令提示符如下图说明安装成功。3.下载&运行模型这里有很多模型可选,不同的模型对配置的要求是不一样的,纯cpu或者只是体验功能可以选择1.5b,下图是DeepSeek模型的推荐配置。本次演示的服务器:CPU:I5 8400;内
25
2025
03

DeepSeek-快速搭建Linux版本

要作为长期使用,使用Linux搭建会是一个更好的办法,这也是作为一个Linux运维的觉悟,并且还可以供局域网小伙伴一起用(暂时不考虑性能等问题)。1.下载ollmaOllama 是一个开源的大型语言模型(LLM)本地化部署框架,旨在简化用户在本地运行和管理大模型的流程。https://ollama.com/download/linux但是这个有一个弊端就是下载很慢,而且如果中途失败只能重新来,所以这里还可以直接去github下载,或者从Win下载上传到Linux服务器里面。mkdir 
25
2025
03

Win和Linux部署DeepSeek的比较简单的方法,而且采用的模型也是最小的,作为测试体验使用是没问题的。如果要在生产环境使用还是需要用到GPU来实现,下面我将以有一台带上GPU显卡的Linux机

在Win电脑和Linux服务器里面部署DeepSeek,他们都有安装模型的操作,而且这个操作会很费时间,那有没有一个方法可以提前下载好文件,然后只需要一个启动命令就可以实现呢?由于是脚本类,所以这里我们以Linux为例。如果要提供自动部署脚本,我们首先就是要分析我们的安装过程都做了什么,然后根据部署过程的动作才能把部署内容封装到一起。1.下载ollama实际上这个操作就是下载了二进制文件,然后通过配置参数然后启动它。所以我们只需要一个很简单的命令就可以实现。2.安装模型虽然我们无法直接看到安装的
25
2025
03

DeepSeek-进阶版部署(Linux+GPU)

Win和Linux部署DeepSeek的比较简单的方法,而且采用的模型也是最小的,作为测试体验使用是没问题的。如果要在生产环境使用还是需要用到GPU来实现,下面我将以有一台带上GPU显卡的Linux机器来部署DeepSeek。这里还只是先体验单机单卡,后期会更新多机多卡使用更高模型的文章。1.确认配置由于是虚拟机,并且虚拟机方面做了配置,所以这里并未显示真实显卡型号,实际型号:NVIDIA Tesla T4 16G。  [root@deepseek01 ~]#&nb
25
2025
03

人人都可以在5分钟内拥有一个属于自己的微信机器人小助理,保姆级实操教程

随着ChatGPT的革命性发布,一个能聊天、会讲笑话、自动提取文章摘要、可以查快递、查天气、查股票、自动联网搜索总结答案还能识别语音陪你一起玩游戏的智能小助理已不再是梦想。这篇保姆级教程将给大家介绍如何花费5分钟来实现一个强大的个人智能助理,它不需要我们编写任何代码,所以操作起来非常简单。开始之前,我们先通过一个小视频来看一下我们将要实现的智能助理机器人所具备的部分功能。上面仅演示了智能小助理的部分功能,通过开源插件或自定义插件我们还可以实现更丰富更好玩的功能。智能机器人搭建步骤我们使用微信作为

您的IP地址是: