为公司省钱往往省不到自己身上

感觉本网站还不错的,请主动关闭浏览器的广告屏蔽功能再访问本站,谢谢支持。

09
2024
05

金蝶云星空 新建单据转换,下推时候,选不到新建的规则 业务流程汇总贴(包括单据转换、反写规则)

1,单据转换不要勾选“运行时隐藏”2,检查是否有设置下推启动条件资料见BOS模块:业务流程汇总贴(包括单据转换、反写规则)【概述】单据转换是为了解决单据之间的数据转换的问题,通过参数配置的方式,让这种转换规则不再是一种固化的规则,而是可以灵活调配的。金蝶云单据转换在一条源单与目标单的对应关系中支持定义多套规则,允许在业务流程、插件中等指定转换规则。设计单据转换规则包括配置关联主单据体、单据类型映射、字段映射关系、分组策略、选单条件策略、排序策略、插件策略、表单服务策略。各种功能请查看:第4节单据
09
2024
05

金蝶云星空 上游单据所选的业务流程图没有到目标单据的路线不允许...

解决办法是勾选业务流程(允许业务流程无连线转换)
09
2024
05

家用服务器之网络篇:网络连接聚合 vs 多通道SMB

使用网络连接聚合(LAG,Link Aggregation Group)把四个 1Gbps 的连接合并成一个 4Gbps 的连接。但是,最近在做网络调试的时候发现,两台都配有 4Gbps 网络连接聚合的服务器,它们之间的通信速度居然只有约 1Gbps!就算使用 802.3ad LACP 作为聚合方式,最高也只能跑到 1Gbps。后来查了资料,发现网络连接聚合的目的并不是加大点到点通信的带宽,只是可以增加点到多点通信的能力,顺便可以提供备用链路这与我需要的“增大文件传输带宽”目的想去甚远,于是又寄
09
2024
05

家用服务器之网络篇:1Gbps已经不够用了!

1Gbps 真的不够用了吗?或许吧。但是考虑到现在的路由器动不动就 AC1900、AC2600、AC3200,只接一根 gigabit 网线肯定是无法提供那么大带宽的。这时候就需要靠网络连接聚合(LAG,Link Aggregation Group)来提升速度了。原理很简单,一根网线 1Gbps,两跟网线就是 2Gbps,三根网线就是 3Gbps……服务器当然也可以这样搞。于是最近热衷于淘垃圾的我,又打开 eBay,在垃圾堆里找了一块四口 gigabit 网卡。Intel PRO/1000 PT
09
2024
05

家用服务器之装机篇:自制主板 BIOS

因为嫌之前用的 Asus Z97-C 上面有太多用不到的 PCI 接口(不是 PCIe),而且仅有的一条 PCIe x16 又没办法分成两个 x8 使用,用来做外部扩展的 Dell H310 只能跑在 x4 模式下面,性能损失较大。于是就去 eBay 买了块很便宜的拆机主板 Asus Z97M/G30AK。首先这款主板是 mATX 尺寸,机箱里就省出三个 PCIe 插槽的位置可以放 HP SAS Expander 卡。其次这款主板上面的四个扩展槽全部都是是 PCIe,而且可以把 x16 分成两个
09
2024
05

家用服务器之存储篇:选择SATA/SAS控制卡

之前家里的服务器一直用着破烂 AMD 推土机架构的 FX-6100,早就看着不爽了,于是这次趁着全家电脑升级,将服务器也升级到四代酷睿。同时也针对服务器最重要的存储部分做了一次彻底的升级。其实,在此之前,家里服务器陆陆续续用过不少存储方案。本文将记录各种我使用过的存储方案,并一一分析其中的优缺点。存储方案家用服务器嘛,最一开始都是仅靠主板的那几个 SATA 接口。最早的时候里面插三四块硬盘就算很多了。但是随着时间的推移,硬盘空间不够用了,最直接的解决办法就是往服务器上堆硬盘。在这过程中,遇到的第
09
2024
05

家用服务器之存储篇:大规模存储背后的简单实现

一块 Dell H310 只能接 8 块硬盘,两块 Dell H310 加上主板上的 SATA 接口一共能接 20 块硬盘。那么如果多于 20 块硬盘呢?如果以后还要扩展外置存储呢?接下来我就要再介绍一个实用的 SAS Expander 扩展卡。HP SAS Expander Card这块 HP SAS Expander 扩展卡的配件编号很多,468406-001、487738-001、468405-001、468405-002。eBay 上的售价只要 CAD$16,包邮。最早的时候,HP 的固
09
2024
05

deepi系统版本更新,重启后出现 DMAR: [Firmware bug] 解决方式

【系统环境】镜像版本:20.3CPU:未知 amdGPU:无【操作步骤】屏幕所有软件后面都带黑色虚影,然后想更新系统看能不能解决这个问题。然后检测更新 deepin 系统更新,【问题现象】更新系统后,桌面变黑什么都看不到,任务窗口所有东西不可点击,没办法只好重启,然后开机经过 deepin logo,然后就卡住报错。DMAR: [Firmware bug]: No firmware reserved region can cover this RMRR[Failed] Failed to sta
09
2024
05

让 ESXi 6.7 跑在 Asus Z390-A 主板上 esxi6.7 报错“Firmware bug: RMRR overlaps system memory”。

为了让服务器更拉风,把主板从 ASRock Z390-Pro4 换成了 Asus Z390-A,这样一来就有 PCIe x8 + x8 + x4 插槽可以插各种卡。但是,机器装好,开机进入 ESXi 6.7 的时候,紫屏崩溃了。报错“Firmware bug: RMRR overlaps system memory”。网上能查到的解决办法,一种是调整 PCI 子系统让其不占用 4GB 以上的内存空间,另外一种就是升级 BIOS。但是,我这里已经更新了目前最新的 1903 BIOS,依然报错。仔细
09
2024
05

Windows Storage Spaces 笔记

自从服务器换装 Windows 10 专业版之后,大部分存储空间的操作都可以通过控制面板搞定(开始菜单内搜索“storage spaces”)。但是有些细节设置在控制面板里面没有,最典型的例子就是“柱面数量”(Number of Columns)。本文将会记录一些必须要用 PowerShell 搞定的存储空间操作。背景知识不同的容错场景。错误的 Logical Sector Size 可以导致存储池读写效率大幅降低获取信息1. 列出现有物理硬盘Get-PhysicalDisk |&nb
09
2024
05

如何找出黑群晖中的硬盘与实际物理硬盘的对应关系

首先,本文并不是教程,只是记录一下我在黑群晖上爬行的经验。然后,本文只针对在 ESXi 6.7u3 上,使用 RDM 硬盘直通的黑群晖虚拟机。最后, 操作有风险!操作有风险!操作有风险! 重要的事情说三遍!黑群晖嘛,既然是黑的,我也不好意思多说什么。对 SAS 支持不好,如果将硬盘通过虚拟 SATA 控制器直通到 DSM 又无法显示原始信息。这怎么找出对应的物理硬盘嘛!让人抓狂。然后,想起了 ESXi 里面能看到硬盘分区表,那么如果我在 DSM 里面把硬盘分区表抹掉,这样不就
09
2024
05

家用存储服务器软件存储阵列方案简单对比

试过了三种比较常见的软件存储阵列方案。先说结论,没有完美的软件存储阵列方案,三种方案都有各自的优缺点。这三种方案分别是Windows Storage SpacesZFSLinux RAID (MD RAID)Windows Storage Spaces(Windows 存储空间)从名字就能看出来,这是 Windows 系统里特有的软件存储阵列方案,Windows Server 2012 之后的版本都包含的功能,但是在针对消费市场的系统中,只有 Windows 10 Pro 才能使用 Storag
09
2024
05

盘点那些在 ESXi 虚拟环境下翻车的硬件 (WIP)

折腾家用服务器有一段时间了,期间碰到了各种硬件不兼容、直通失败、驱动不工作等等各类问题。本文总结一下那些曾经翻车的硬件(还有可以正常使用的硬件),仅作为记录。SATA 控制器Marvell 88SE92xx - FAILMarvell 88SE92xx 是一个系列,包括 88SE9210、88SE9215、88SE9230、88SE9235。其中,0 结尾的型号带有 RAID 功能,5 结尾的型号只是普通的 SATA 控制器。我手上的 88SE9215 在 PCIe 直通之后,UEFI
09
2024
05

RedPill Tinycore DSM 7 设置安装笔记

本文仅记录 RedPill Tinycore 的设置安装流程。# Update script and components ./rploader.sh clean now ./rploader.sh update now ./rploader.sh fullupgrade now # Prepair user_config.json # Or, 
09
2024
05

在 Proxmox 环境中使用虚拟 USB 存储设备 + ARPL 引导 DSM(黑群晖)

网上有很多使用 Proxmox + ARPL 的教程,这里不再赘述。但是这些教程都是使用虚拟硬盘来引导 DSM。经研究,Proxmox 底层虚拟技术 QEMU 支持虚拟 USB 存储设备,这样就可以把 ARPL 做成 USB 引导,方便日后在虚拟机和实机(baremetal)之间转换。首先,安装 PVE。安装完成后从 SSH 登录,下载 ARPL。(本文使用 arpl-i18n)apt install unzip wget https://github.com/w
09
2024
05

如何把一块 Nvidia 显卡掰成两半使用

软件使用 Proxmox 7.2 虚拟环境 + Windows 10。-1. 原理介绍其实拆分显卡利用的是 Nvidia 给数据中心提供的驱动(破解版),把消费级显卡当作同代核心的商用显卡使用。比如把使用 GP108 核心的 GT 1030(Pascal 架构)识别成 Tesla P40。原教程里面提到,目前只有 Pascal 和 Turing 架构的消费级显卡可以拆分,所以 Ampere 架构的 30 系显卡目前还没法拆分使用。消费级显卡拆分的最大限制是显存。拆分之后的虚拟显卡可以使用 GPU
09
2024
05

解决 ESXi 6.7u3 + LSI SAS2308 使用 RDM 时的性能问题

目前我的服务器上用一块 LSI 9207-4i4e (SAS2308) 连接 16 盘位 SAS 背板。这些硬盘分别属于两个虚拟机。所以,无法将整个 LSI 9207-4i4e 直通给任何一个虚拟机使用。这个时候,硬盘直通(RDM,Raw Device Mapping)就是一个非常好的解决方案了。但是,将硬盘直通给 Windows 10 虚拟机的时候,性能出现了问题。硬盘的读写速度降到了 20MB/s 以下!经过几天的摸索,发现问题主要出在 SAS2308 的驱动上。另外,做硬盘直通时的设置可能
09
2024
05

关于 DSM 6.2.3 在 ESXi 6.7u3 上运行时神秘丢盘的那些事

黑群晖 DSM 6.2.3,最近在一起停电事故之后开始了诡异的丢盘现象。首先先介绍一下黑群晖所在服务器的情况:虚拟机:ESXi 6.7u3存储卡:LSI 9207-8i + IBM SAS Expander,通过 PCIe 直通交给虚拟机使用硬盘:8 x SAS + 2 x SATA,均为 2TB存储池设置:SHR2(两块盘冗余),9 块盘组成阵列,1 块盘做热备份问题一开始很简单,丢了两块 SAS 硬盘。停电丢硬盘很正常,既然已经有 1 块盘做热备份,再加一块 2TB 硬盘就完全修复了存储池。
09
2024
05

ESXi 6.7 中 Intel 显卡直通代码 43 的解决方法

因为架设在虚拟机上的 Plex Server 需要 Intel UHD 显卡正确驱动才能使用硬件转码,所以服务器上插了一块亮机卡,然后在 ESXi 里面将 Intel UHD Graphics 显卡直通给了 Windows 虚拟机。但是,虚拟机通过 Windows 更新打上各种驱动之后,Intel UHD 显卡报错代码 43,无法启动。折腾了一圈,大概发现了问题所在。Intel 显卡驱动程序在 7000(版本号最后四位)版本之后,加入了 CPUID 检查。如果 ESXi 向 Windows 系统
09
2024
05

privoxy 实现socket5协议转为http协议

这个软件实现的功能是将基本socket5的协议,转换成http协议安装privoxy: (http://sourceforge.net/projects/ijbswa/?source=typ_redirect)安装epel源>>> sudo yum install epel-release# 完成后查看源列表>>> yum repolist[root@vpn privoxy]# cat /etc/selinux/config# This file contro

您的IP地址是: