为公司省钱往往省不到自己身上

感觉本网站还不错的,请主动关闭浏览器的广告屏蔽功能再访问本站,谢谢支持。

11
2025
02

Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由

在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。系统硬件介绍Ubuntu 22.04.4 LTSCPU: i5-10400F内存:32G硬盘: 512G SSD显卡: NVIDIA GeForce GTX 1060 6GB内网IP: 192.168.1.21下载 Ollama访问下载: htt
11
2025
02

ollama+open-webui,本地部署自己的大模型

ollama+open-webui,本地部署自己的大模型版权目录一、效果预览二、部署ollama1.ollama说明2.安装流程2.1 windows系统2.1.1下载安装包2.1.2验证安装结果2.1.3设置模型文件保存地址2.1.4拉取大模型镜像2.2linux系统2.2.1下载并安装ollama2.2.2设置环境变量2.2.3拉取模型文件三、部署open-webui1.open-webui介绍2.安装流程2.1windows2.1.1下载源码2.1.2用pycharm新建一个虚拟环境?编辑
11
2025
02

ollama配置允许外网访问

linux系统    ollama默认只能localhost访问    如果需要允许外网访问,需要修改环境变量    vi /etc/profile    在文件底部加入    export OLLAMA_HOST=0.0.0.0:11434    保存&nb
11
2025
02

ollama搭建本地ai大模型并应用调用

1、下载ollama1)https://ollama.com 进入网址,点击download下载2)下载后直接安装即可。2、启动配置模型默认是启动cmd窗口直接输入1 ollama run llama3启动llama3大模型 或者启动千问大模型1 ollama run qwen2启动输入你需要输入的问题即可 3、配置UI界面安装docker并部署web操作界面1 docker run&n
11
2025
02

ollama 跨设备访问,轻松搞定远程调用

ollama 跨设备访问,轻松搞定远程调用用 Ollama API 调用本地大模型,通过 localhost:11434 就能搞定。但是,想在其他电脑上用 IP 地址调用,可能会存在问题。网上搜了搜,要么是 Linux 环境下的设置,要么是调整 windows 环境变量。st, Windows 下也能这么操作。ollama -h 看下帮助,然后 ollama serve -h,看下帮助 window 下面可以设置 OLLAMA_HOST
11
2025
02

Ollama Windows

Ollama Windows欢迎使用 Ollama for Windows。不再需要 WSL!Ollama 现在作为原生 Windows 应用程序运行,支持 NVIDIA 和 AMD Radeon GPU。 安装 Ollama for Windows 后,Ollama 将在后台运行, ollama 命令行工具将在 cmd、powershell 或你最喜欢的终端应用程序中可用。和往常一样,Ollama API 将在 http:/
11
2025
02

如何投喂本地部署的 DeepSeek-R1

搭建个人 AI 知识库:利用 DeepSeek-R1 和 AnythingLLM 实现高效管理随着人工智能技术的飞速发展,越来越多的人开始探索如何利用 AI 工具提升工作效率和个人知识管理水平。在众多开源AI模型中,DeepSeek-R1 凭借其强大的本地部署能力和多功能性脱颖而出。结合 AnythingLLM 这一功能强大的文档处理工具,我们可以轻松搭建一个属于自己的个性化 AI 知识管理系统。一、什么是 DeepSeek-R1?DeepSeek-R1 是一款基于深度学习的开源 AI 模型,默
11
2025
02

安装ollama并更改模型下载位置

下载ollamaollama官网:https://ollama.com/https://ollama.com/安装并验证下载完ollama.exe文件之后,点击安装,安装过程较为简单,按照提示完成即可。安装完成之后打开cmd,在终端cmd输入以下指令进行验证:ollama --version模型运行启动ollama:在cmd终端输入以下指令ollama serve查看模型列表:在cmd终端输入以下指令ollama list下载并运行本地大模型在cmd终端输入以下指令
10
2025
02

史诗级羊毛警报!腾讯云掏出671B核弹级模型白送:DeepSeek-V3/R1无限免费调用

史诗级羊毛警报!腾讯云掏出671B核弹级模型白送:DeepSeek-V3/R1无限免费调用 前言官方的 deepseek 到目前为止都不是很稳定,经常出现 "服务器繁忙,请稍后再试。" 的情况。但是 deepseek-r1 作为一个开源的模型,只要你有足够的算力,就能够自己搭建一个对话平台,无限制使用。经过我的测试,我使用的是 MacBook Pro M1 max 32G + Ollama 只能够刚刚好跑得动 deepseek-r1:32b 的模
10
2025
02

请停止在本地PC笔记本上部署DeepSeek,没卵用!

请停止在本地PC笔记本上部署DeepSeek,没卵用!最近,在自媒体账号上和社群里频繁刷到一类帖子——“如何在本地笔记本上部署DeepSeek?”“RTX 3060跑DeepSeek模型实战教程!”……作为一个一直关注AI和相关工具的半瓶水码农,我必须泼一盆冷水:醒醒!普通PC笔记本部署DeepSeek,除了满足你的“技术虚荣心”,真的毫无意义!为什么?往下看!1. 你的笔记本,根本扛不住AI算力的压榨你以为部署大模型就像安装Office一样简单?天真了!以DeepSeek这类千亿参数级的模型为
08
2025
02

本地搭建ChatGPT【Ollama + Gemma2】

前言Ollama是一个开源的大模型管理工具,它提供了丰富的功能,包括模型的训练、部署、监控等。通过Ollama,你可以轻松地管理本地的大模型,提高模型的训练速度和部署效率。此外,Ollama还支持多种机器学习框架,如TensorFlow、PyTorch等,使得你可以根据自己的需求选择合适的框架进行模型的训练。部署教程下载macOS:https://ollama.com/download/Ollama-darwin.zipWindows:https://ollama.com/download/Ol
08
2025
02

手把手教你个人离线AI知识库搭建

前言搭建过程模型选择笔记工具RAGAnythingLLM前言前两天使用Ollama搭建了本地的ChatGPT。于是产生了一个想法,话说Notion在国内的访问越来越不顺畅,加之前两年买的NAS目前只做了个人手机云同步和云影音系统(还有大把空间没利用),倒不如将所有的笔记都放在本地,然后利用NAS完成个人云笔记,再配合目前的Ollama,尝试搭建一个本地离线版的知识库,说干就干。搭建过程模型选择通过Gemma2与llama3.1的对比测评,最终选用llama3.1模型作为本地问答ChatGPT,安
08
2025
02

DeepSeek很简单,没你想象的那么复杂!

认准唯一官网Deepseek唯一官方网址:https://www.deepseek.com手机使用手机上使用DeepSeek的两种方式公众号关注DeepSeek公众号,左下角选择“网页对话”即可:APPAPP市场中搜索Deepseek,下载即可,认准APP图标以及开发公司(杭州深度求索),谨防上当受骗:image.png以下罗列官方下载地址:苹果App Store:https://apps.apple.com/cn/app/deepseek-ai-%E6%99%BA%E8%83%BD%E5%8A
08
2025
02

如何在个人电脑上私有安装DeepSeek?彻底告别服务器繁忙!

这两天大家都被DeepSeek炸晕了吧,嘿嘿,其实DeepSeek也被大家炸晕了。这是今天上午的情况↓没办法,这泼天的流量一般人扛不住~想高频使用怎么办呢?本地装一个!本地部署有两个好处:❶不联网,全私密,不担心隐私泄露,还可以挂载本地知识库❷完全免费,彻底告别“服务器繁忙”。如果你是苹果Mac本——我们需要用到两个神器:一个叫做Ollama,这是一个可以在本地运行和管理大模型的软件。另一个叫做Page Assist,这是个浏览器插件,提供本地大模型的图形化管理和对话界面。一、下载Ollama,
08
2025
02

deep-seek私有化给全公司用

deepseek这么火,我也来试试搭个本地的给局域网同学都体验一下部署:参照项目 https://gitee.com/jiasizhe/deep-seek-wechat 中的安装方式下载安装ollama: https://ollama 绑定0.0.0.0 配置环境变量 .com/downloadollama run deepseek-r1:1.5b获取到的是shell版本,命名行输入-输出ollama 绑定0.0.0.0配置win环境变量整一个前端页面部署 https://github.com/
07
2025
02

DeepSeek + Ollama + Open-WebUI 本地化部署到底需要多大显存?

关于 DeepSeek、Ollama 和 Open-WebUI 的本地集成化部署,请参考以下三篇文章:Rocky Linux 9 AI 系列 008 — 使用 Ollama 构建本地大模型 – Rocky Linux: https://www.rockylinux.cn/notes/building-local-large-models-with-ollama.htmlRocky Linux 9 AI 系列 009 — Open-WebUI 与 Ollama 无缝集成配置指南 – Rocky L
07
2025
02

DeepSeek-R1的1.5b、7b、14b、32b等模型本地部署所需电脑配置!

参数规模与模型能力参数规模(B = Billion/十亿)代表模型的复杂度和学习能力,参数越多,通常理解和生成能力越强。 1.5B - 14B:轻量级模型,适合基础任务(文本生成、简单问答)。 32B - 70B:中等规模,平衡性能与资源消耗,适合复杂任务(逻辑推理、代码生成)。本地部署后跑的就是本地算力了,叠加知识库,可以实现内部的资料对话式查询,资料不上网,更加安全可靠。不同模型需要的电脑配置,以下可供参考:• 1.5B:CPU最低4核,内存8GB+,硬盘icon3GB+
22
2024
11

PHP 实现 QR Code(二维码)生成器

这是一个 PHP 实现的 QR Code(二维码)生成器。它是基于 Kentaro Fukuchi 开发的 C 库 libqrencode 的纯 PHP 实现,并采用 LGPL 许可协议。数字,字符,网址链接都可以生成相应的二维码,网址url生成的二维码扫描后可以直接跳转相应网页
22
2024
11

全新三网话费余额查询API系统源码 Thinkphp全开源 附教程

全新三网话费余额查询API系统源码 thinkphp全开源 附教程本套系统是用thinkphp6.0框架开发的,PHP版本需8.1以上,可查询手机号话费余额、归属地和运营商等信息,系统支持用户中心在线查询和通过API接口对接发起查询,用户余额充值是对接usdt接口或者通过后台生成卡密,源码全开源,支持懂技术的人二次开发~夸克下载地址:https://pan.quark.cn/s/f6ecfd6a8c32
18
2024
11

为什么 PHP 在 2024 年会越来越受欢迎:经典语言的意外回归

2024 年,PHP 出人意料地卷土重来,这得益于重大的性能改进、现代功能和蓬勃发展的生态系统。在 Laravel 等框架的引领和广泛的托管支持下,PHP 已成为强大、快速且可靠的 Web 开发选择,这些证明它远未过时。二十多年来,PHP 一直是 Web 开发的基石,为数百万个网站和 Web 应用程序提供支持,其中包括 Facebook 和 Wikipedia 等巨头。有一段时间,PHP 的声誉有些问题,许多开发人员和技术专家预测它会衰落甚至死去,而 JavaScript(带有 Node.js)

您的IP地址是: