21
2025
03
如何让你的Python应用在1分钟内变成可执行文件?你绝对想不到!
引言随着数据科学和机器学习的迅速发展,如何将复杂的数据处理逻辑转化为易于使用的可视化界面,已成为许多开发者面临的挑战。本文将深入探讨如何使用Python创建可视化界面,并以一个实际项目为例,展示该界面的功能和实现过程。1. Python可视化界面基础在Python中,有多种库可用于创建图形用户界面(GUI),如Tkinter、PyQt和Kivy。其中,Tkinter是Python内置的库,适合于快速开发简单的桌面应用程序。它具有轻量级和易于上手的特点,非常适合初学者。2. 项目概述我们将以一个数
作者:hqy | 分类:编程&AI | 浏览:91 | 评论:0
21
2025
03
【LLM|BLOG】挑战极限!一次搞懂Transformer Encoder的所有秘密!
1. Encoder 整体架构图Encoder 架构图2. 什么是Encoder编码器是负责通过自注意力和前馈神经网络(FNN)处理输入标记以生成上下文感知表示的部分。它是理解 NLP 模型中序列的强大动力。Encoder2.1 输入Embedding编码器的第一步是将每个输入单词嵌入到大小为 512维度的向量中。 此嵌入过程仅发生在最底部的编码器中。 将其视为将单词翻译成模型可以理解的语言.输入词进行Embedding1. 分词与输入准备在进行嵌入之前,输入文本需要首先被分割成离散的token
作者:hqy | 分类:编程&AI | 浏览:101 | 评论:0
21
2025
03
【LLM|BLOG】Transformer 架构
1. transformer 架构图1. transformer 架构图2. 分模块介绍2.1 什么是transformer什么是transformerTransformer 是一种神经网络,擅长理解顺序数据的上下文并从中生成新数据。 他们是第一个完全依赖自注意力,不使用 RNN 或卷积的算法。2.2 transfomer 比喻一个黑盒。将用于语言翻译的 Transformer 想象为一个黑匣子。• 输入:一种语言的句子。 • 输出:翻译。但这个黑匣子里面会发生什么呢?让我们
作者:hqy | 分类:编程&AI | 浏览:79 | 评论:0
21
2025
03
【LLM|Blog】最新大模型应用综述
大模型解决的是生产力问题。创造的价值不亚于工业革命。加密货币则解决了生产力与生产关系的矛盾。通过去中心化的方式变革了传统的经济和金融体系。目录大纲引言大模型的发展历程早期发展期(1956-2005):该阶段主要是传统神经网络模型的阶段,例如循环神经网络(Recurrent Neural Network,"RNN")卷积神经网络(ConvolutionalNeuralNetworks,"CNN")起初,AI发展主要基于小规模的专家知识,然后逐渐转向机器学习,
作者:hqy | 分类:编程&AI | 浏览:83 | 评论:0
21
2025
03
训练一个大型语言模型需要多少 GPU 小时 (LLM)?
In 2023, language models are taking center stage. Many new models have been developed from scratch, and thousands of variations of these models have been fine-tuned on domain sets and made available to the public. Generative AI is a hot topic, and mo
作者:hqy | 分类:编程&AI | 浏览:83 | 评论:0
21
2025
03
linux查看命令路径
方法一:通过使用 which 命令可以查看到命令的路径。例如,要查看 ls 命令的路径,可以在终端中输入以下命令:which ls输出示例:/bin/ls方法二:通过使用 whereis 命令可以查看到命令的路径。例如,要查看 ls 命令的路径,可以在终端中输入以下命令:whereis ls输出示例:/bin/ls方法三:通过使用 type 命令可以查看到命令的路径。例如,要查看 ls 命令的路径,可以在终端中输入以下命令:type ls输出示例:ls is aliased to 'ls
作者:hqy | 分类:Linux | 浏览:80 | 评论:0
21
2025
03
conda查看创建的虚拟环境
要查看通过 Conda 创建的虚拟环境列表,可以使用以下命令:方法 1:直接列出所有环境bash
conda env list方法 2:等价命令bash
conda info --envs输出示例bashC
# conda environments:base &nbs
作者:hqy | 分类:编程&AI | 浏览:139 | 评论:0
21
2025
03
Ollama与OpenWebUI的安装与使用
Ollama与OpenWebUI的安装与使用1. 效果演示演示地址http://192.168.2.34:3000/2. 软硬件配置系统Windows10内存16G磁盘50G显卡1660TI(6G)软件Docker 3. 安装Ollama3.1 下载OllamaOllama官网下载Ollama安装包:https://ollama.com/3.2 安装OllamaWindows下安装Ollama很简单,双击运行安装文件即可,此处不赘述。打
作者:hqy | 分类:编程&AI | 浏览:118 | 评论:0
21
2025
03
Ubuntu环境下本地部署SearXNG
SearXNG部署日记创建python虚拟环境前置条件已经安装了condaconda create --name searxng python=3.9conda activate searxngpython版本至少3.9,之前使用python3.8报错ERROR: Ignored the following versions that require a different python version: 3.1.0 Requires-Python >=3.9ERROR: Could no
作者:hqy | 分类:编程&AI | 浏览:122 | 评论:0
21
2025
03
Open-WebUI 下载及使用全攻略,轻松上手无压力!
Open WebUI 是一个开源的大语言模型(LLM)交互界面,支持本地部署与离线运行。通过它,用户能在类似 ChatGPT 的网页界面中,直接操作本地运行的 Ollama 等大语言模型工具。接下来为大家详细介绍其下载和使用方法。一、安装前的准备工作Python 3.11:这是必须严格使用的版本,更高版本可能会出现不兼容问题。可访问Python 官网下载 Python 3.11.9 安装包,安装时务必勾选 “Add Python 3.11 to PATH”,安装完成后在命令行输入pyt
作者:hqy | 分类:编程&AI | 浏览:164 | 评论:0
21
2025
03
Configuring Ollama Server
https://github.com/open-webui/open-webui/blob/main/docs/apache.md Configuring Ollama ServerOn your latest installation of Ollama, make sure that you have setup your api server from the official Ollama reference:Ollama FAQTL;DRThe guide doesn't se
作者:hqy | 分类:编程&AI | 浏览:83 | 评论:0
21
2025
03
SSH/SOCKS成为全局代理
SSH/SOCKS成为全局代理SSH/SOCKS成为全局代理来源 https://blog.creke.net/770.html参考 https://www.5yun.org/curl-ce-shi-socks5-or-http-dai-li-ming-ling.html参考 https://zhuanlan.zhihu.com/p/46804075 测试socks5命令:curl --socks5 125.119.175.48:890
作者:hqy | 分类:Linux | 浏览:91 | 评论:0
21
2025
03
centos7.X一键搭建socks5 与http 代理
centos7.X一键搭建socks5 与http 代理各种代理是很常用的,那么如何可以在服务器快速搭建自己的socks5代理与http代理呢。文章目录centos7.X一键搭建socks5 与http 代理1.一键搭建命令1.一键搭建命令代码如下:sudo wget https://ap-guangzhou-1257892306.cos.ap-guangzhou.myqcloud.com/asi/httpsocks5.sh && sh&n
作者:hqy | 分类:Linux | 浏览:77 | 评论:0
21
2025
03
CentOS系统代理配置指南,CentOS系统代理服务器配置完全指南
CentOS代理设置CentOS是一种广泛使用的Linux操作系统,其稳定性和灵活性使其成为服务器和开发环境的理想选择,在许多情况下,用户需要通过代理服务器访问互联网,以实现网络管理、提高安全性或解决网络连接问题,本文将详细介绍如何在CentOS系统中设置代理,包括全局代理、YUM代理、Wget代理等。(图片来源网络,侵权删除)一、全局代理设置1、编辑/etc/profile文件:使用命令vi /etc/profile打开配置文件。在文件末尾添加以下内容,其中proxy_ip和port需替换为实
作者:hqy | 分类:Linux | 浏览:104 | 评论:0
20
2025
03
AI时代来临,快来搭建一个属于你自己的大模型助手
当前是AI快速发展的时代,尤其ChatGPT的出现,推动了自然语言处理(NLP)技术的进步。市场上涌现出给类大模型,国内比较流行的有阿里的通义千问、百度的文心一言、华为的盘古大模型、字节的豆包大模型等。同时也出现了很多AI工具,比如图片处理、编程助手(如:GitHub Copilot等)。 这些大模型都由各个大厂提供,使用时往往会受到些限制,比如
作者:hqy | 分类:编程&AI | 浏览:82 | 评论:0
20
2025
03
Windows系统上怎么设置Ollama环境变量
ollama是大模型演示的方便工具,但是有时候我们需要修改其配置(例如模型留驻GPU的时间),首先:ollama serve -h可以看到能够设置的环境变量:Environment Variables: OLLAMA_DEBUG Show additional debug information (e.g. OLLAMA_DEBUG=1)&
作者:hqy | 分类:编程&AI | 浏览:91 | 评论:0
20
2025
03
【books】巴拉吉预言:技术、真相和构建未来的指南
下载地址在最后下载地址如下:https://pan.quark.cn/s/dc49d4b4bdea
作者:hqy | 分类:技术文章 | 浏览:87 | 评论:0
20
2025
03
【LLM|Action】ollama + openwebUI step by step 安装部署
透过创新AI大模型带来的颠覆性变革,洞悉元宇宙时代智能科技的前沿洞见,在这个无限可能的数字新世界,一起开启AI革命的智慧旅程。。ALL In AIGC,持续输出大模型技术干货,让大模型不再困难。1. 引言本文主要采用ollama 和 open webui 进行大模型私有化部署。 以下是使用Markdown语法对Ollama框架特点和功能进行分类总结的输出:Ollama 框架特点和功能概述Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。g
作者:hqy | 分类:编程&AI | 浏览:81 | 评论:0
20
2025
03
使用ollama+llama3.1+open-webui搭一个本地的模型
1、先安装我们的ollama1.1、官网地址:https://ollama.com/选择合适的版本,我的是window版本,点击下载,不用填邮箱。1.2、开始安装,选择默认就可以1.3、安装完毕:cmd输入:ollama 2、安装模型:llama3.12.1:找到模型 2.2复制下载2.3、命令行下载: 2.4、下载完毕就进入对话界面了: 到这本地模型已经搭建起来了,加个页面的话openweb-ui会看着舒服点3、使用pip命令安装openwe
作者:hqy | 分类:编程&AI | 浏览:66 | 评论:0
20
2025
03
Ubuntu上装完miniconda后,进入终端,默认进入base环境,怎么办?
1.安装教程,可参考:链接: ubuntu 20.04 | 安装 Anaconda3k.2.安装玩之后,打开终端,发现前面带有“base”,此时,可以输入如下命令,退出base环境:conda deactivate说明:base环境是miniconda的一个最基础的环境,一般创建虚拟环境时,很少在base环境下建立,通常都要在base环境外新建虚拟环境。在windows10操作系统中,通过控制端可以进入以下两种后台:分别在miniconda虚拟环境和win10后台进行相关操作
作者:hqy | 分类:Linux | 浏览:190 | 评论:0