21
2025
03
【LLM|BLOG】Transformer 架构
1. transformer 架构图1. transformer 架构图2. 分模块介绍2.1 什么是transformer什么是transformerTransformer 是一种神经网络,擅长理解顺序数据的上下文并从中生成新数据。 他们是第一个完全依赖自注意力,不使用 RNN 或卷积的算法。2.2 transfomer 比喻一个黑盒。将用于语言翻译的 Transformer 想象为一个黑匣子。• 输入:一种语言的句子。 • 输出:翻译。但这个黑匣子里面会发生什么呢?让我们
作者:hqy | 分类:编程&AI | 浏览:73 | 评论:0
21
2025
03
【LLM|Blog】最新大模型应用综述
大模型解决的是生产力问题。创造的价值不亚于工业革命。加密货币则解决了生产力与生产关系的矛盾。通过去中心化的方式变革了传统的经济和金融体系。目录大纲引言大模型的发展历程早期发展期(1956-2005):该阶段主要是传统神经网络模型的阶段,例如循环神经网络(Recurrent Neural Network,"RNN")卷积神经网络(ConvolutionalNeuralNetworks,"CNN")起初,AI发展主要基于小规模的专家知识,然后逐渐转向机器学习,
作者:hqy | 分类:编程&AI | 浏览:75 | 评论:0
21
2025
03
训练一个大型语言模型需要多少 GPU 小时 (LLM)?
In 2023, language models are taking center stage. Many new models have been developed from scratch, and thousands of variations of these models have been fine-tuned on domain sets and made available to the public. Generative AI is a hot topic, and mo
作者:hqy | 分类:编程&AI | 浏览:74 | 评论:0
21
2025
03
conda查看创建的虚拟环境
要查看通过 Conda 创建的虚拟环境列表,可以使用以下命令:方法 1:直接列出所有环境bash
conda env list方法 2:等价命令bash
conda info --envs输出示例bashC
# conda environments:base &nbs
作者:hqy | 分类:编程&AI | 浏览:124 | 评论:0
21
2025
03
Ollama与OpenWebUI的安装与使用
Ollama与OpenWebUI的安装与使用1. 效果演示演示地址http://192.168.2.34:3000/2. 软硬件配置系统Windows10内存16G磁盘50G显卡1660TI(6G)软件Docker 3. 安装Ollama3.1 下载OllamaOllama官网下载Ollama安装包:https://ollama.com/3.2 安装OllamaWindows下安装Ollama很简单,双击运行安装文件即可,此处不赘述。打
作者:hqy | 分类:编程&AI | 浏览:109 | 评论:0
21
2025
03
Ubuntu环境下本地部署SearXNG
SearXNG部署日记创建python虚拟环境前置条件已经安装了condaconda create --name searxng python=3.9conda activate searxngpython版本至少3.9,之前使用python3.8报错ERROR: Ignored the following versions that require a different python version: 3.1.0 Requires-Python >=3.9ERROR: Could no
作者:hqy | 分类:编程&AI | 浏览:101 | 评论:0
21
2025
03
Open-WebUI 下载及使用全攻略,轻松上手无压力!
Open WebUI 是一个开源的大语言模型(LLM)交互界面,支持本地部署与离线运行。通过它,用户能在类似 ChatGPT 的网页界面中,直接操作本地运行的 Ollama 等大语言模型工具。接下来为大家详细介绍其下载和使用方法。一、安装前的准备工作Python 3.11:这是必须严格使用的版本,更高版本可能会出现不兼容问题。可访问Python 官网下载 Python 3.11.9 安装包,安装时务必勾选 “Add Python 3.11 to PATH”,安装完成后在命令行输入pyt
作者:hqy | 分类:编程&AI | 浏览:137 | 评论:0
21
2025
03
Configuring Ollama Server
https://github.com/open-webui/open-webui/blob/main/docs/apache.md Configuring Ollama ServerOn your latest installation of Ollama, make sure that you have setup your api server from the official Ollama reference:Ollama FAQTL;DRThe guide doesn't se
作者:hqy | 分类:编程&AI | 浏览:74 | 评论:0
20
2025
03
AI时代来临,快来搭建一个属于你自己的大模型助手
当前是AI快速发展的时代,尤其ChatGPT的出现,推动了自然语言处理(NLP)技术的进步。市场上涌现出给类大模型,国内比较流行的有阿里的通义千问、百度的文心一言、华为的盘古大模型、字节的豆包大模型等。同时也出现了很多AI工具,比如图片处理、编程助手(如:GitHub Copilot等)。 这些大模型都由各个大厂提供,使用时往往会受到些限制,比如
作者:hqy | 分类:编程&AI | 浏览:71 | 评论:0
20
2025
03
Windows系统上怎么设置Ollama环境变量
ollama是大模型演示的方便工具,但是有时候我们需要修改其配置(例如模型留驻GPU的时间),首先:ollama serve -h可以看到能够设置的环境变量:Environment Variables: OLLAMA_DEBUG Show additional debug information (e.g. OLLAMA_DEBUG=1)&
作者:hqy | 分类:编程&AI | 浏览:86 | 评论:0
20
2025
03
【LLM|Action】ollama + openwebUI step by step 安装部署
透过创新AI大模型带来的颠覆性变革,洞悉元宇宙时代智能科技的前沿洞见,在这个无限可能的数字新世界,一起开启AI革命的智慧旅程。。ALL In AIGC,持续输出大模型技术干货,让大模型不再困难。1. 引言本文主要采用ollama 和 open webui 进行大模型私有化部署。 以下是使用Markdown语法对Ollama框架特点和功能进行分类总结的输出:Ollama 框架特点和功能概述Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。g
作者:hqy | 分类:编程&AI | 浏览:71 | 评论:0
20
2025
03
使用ollama+llama3.1+open-webui搭一个本地的模型
1、先安装我们的ollama1.1、官网地址:https://ollama.com/选择合适的版本,我的是window版本,点击下载,不用填邮箱。1.2、开始安装,选择默认就可以1.3、安装完毕:cmd输入:ollama 2、安装模型:llama3.12.1:找到模型 2.2复制下载2.3、命令行下载: 2.4、下载完毕就进入对话界面了: 到这本地模型已经搭建起来了,加个页面的话openweb-ui会看着舒服点3、使用pip命令安装openwe
作者:hqy | 分类:编程&AI | 浏览:61 | 评论:0
20
2025
03
Page Assist - 本地 AI 模型的 Web UI
https://www.chajianxw.com/product-tool/85997.html https://github.com/n4ze3m/page-assist https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo Page Assist - 本地 AI 模型的 Web UI1.5.02025-02-132.8万+点击下载最新版下载离线安装
作者:hqy | 分类:编程&AI | 浏览:89 | 评论:0
20
2025
03
Open-webUI后台运行开机自启脚本
ahk脚本:(通过miniconda本地部署openwebui); 启动 Anaconda Prompt 并执行命令LaunchAnaconda: ; 启动命令行窗口 Run, cmd.exe /k "C:\Users\用户名\miniconda3\Scripts\activate.bat && conda activate py311(虚拟环境名) && open-webui serve", , Min, PID&nb
作者:hqy | 分类:编程&AI | 浏览:108 | 评论:0
20
2025
03
open-webui安装步骤笔记
概述目前大模型爆火,蹭着这个热度,根据网上教程个人也部署一份个人知识库;整个应用包含大模型应用,WEB端应用;其中大模型应用一般都是部署一个推理框架(如ollama),WEB端应用开源的也比较多(如Langchain-chatchat,open-webui);本文记录open-webui的安装步骤,及运行脚本编写;(过程比较顺利,未出现失败情况);安装步骤环境信息Linux:Ubuntu 22.04.2 LTSPython版本管理:anaconda3(https://www.anaconda.c
作者:hqy | 分类:编程&AI | 浏览:110 | 评论:0
20
2025
03
从本地部署到企业级服务:十种主流LLM推理框架的技术介绍与对比
大语言模型(Large Language Models, LLMs)的部署是一项具有技术挑战性的工作。随着模型架构日益复杂,以及硬件需求不断提升,部署过程变得愈发复杂。业界已经发展出多种解决方案,使LLM的部署和扩展变得更加便捷。从适用于个人开发的轻量级本地部署工具,到面向企业级高性能生产环境的推理引擎,各类解决方案能够满足不同场景的需求。本文将深入探讨十种主流LLM服务引擎和工具,系统分析它们在不同应用场景下的技术特点和优势。无论是在消费级硬件上进行模型实验的研究人员,还是在生产环境中部署大规
作者:hqy | 分类:编程&AI | 浏览:75 | 评论:0
20
2025
03
centos部署open-webui的完整流程记录
《centos部署open-webui的完整流程记录》:本文主要介绍centos部署open-webui的完整流程,OpenWebUI是一个开源的Web用户界面工具,用于与本地或私有化部署的大语言...目录一、open-webui是什么?二、安装流程1.openssl升级2.python3.11安装3.SQLite安装升级4.pip 下载安装open-webui总结一、open-webui是什么?Open WebUI 是一个开源的、可自托管的 Web 用户界面工具,专为与本地或私有化部署的大语言
作者:hqy | 分类:编程&AI | 浏览:98 | 评论:0
20
2025
03
离线部署本地大模型 - 本地部署Ollama完整教程
大模型(Large Language Models)作为AI领域的颠覆性创新,凭借其在语言生成、理解及多任务适应上的卓越表现,迅速点燃了科技界的热情。 从阿尔法狗的胜利到GPT系列、包括国内的文心一言等的横空出世,大模型不仅展现了人工智能前所未有的创造力与洞察力,也预示着智能化转型的新纪元。 这些大模型都是往往部署于云端,人们在使用时只需要注册账号,支付费用就可以方便快捷的使用大模型,但是这也存在着一些问题:目前最先进的OpenAI的GPT系列模型,由于某些原因对国内用户并未开放。对于特殊行业企
作者:hqy | 分类:编程&AI | 浏览:83 | 评论:0
20
2025
03
ollama | 环境变量配置以及本地部署
引言随着deepseek的开源,大家都在争先恐后的往AI发展和研究。所以最近也开始陆续部署了各种框架,各种尝试,也踩过了很多坑。此篇文章主要讲ollama部署过程,都以经过验证。部署建议1、系统:优先选择win、其次ubuntu、最后mac和linux2、魔法:最好有为什么优先选择win,主要就是安装最简单,而且魔法环境配置容易。选择其他系统时,比如linux,有时候下载模型是很费劲的,需要掌握更多的底层网络知识,命令行安装代理较为麻烦。如果有软路由是最好的,那么所有系统下,安装或拉模型都没有什
作者:hqy | 分类:编程&AI | 浏览:202 | 评论:0
20
2025
03
Ollama 使用指南:Linux、Windows 和 macOS
Ollama 是一个开源平台,用于部署和运行大型语言模型。它提供了一种在本地环境中运行语言模型的能力,使得用户可以在本地安全地与这些模型进行交互,而无需将数据发送到云端。安装 Ollama确保您已经安装了 Ollama。如果还没有安装,可以通过以下命令安装:代码语言:javascript代码运行次数:0运行AI代码解释# Linux, macOS
curl -s https://install.ollama.ai | sh
#&
作者:hqy | 分类:编程&AI | 浏览:90 | 评论:0