Docker 清理命令速查

查看Docker占用 docker system df 删除无标签的悬挂镜像 docker image prune -f 清理已停止容器 docker container prune -f 清理未使用网络 docker network prune -f 清理未使用卷 docker volume prune -f 清理构建缓存 docker builder prune -f 清理所有未使用资源 docker system prune -f 清理所有未使用资源(含卷) docker system prune -a --volumes -f 删除所有容器 docker rm -f $(docker ps -aq) 删除所有镜像 docker rmi -f $(docker images -aq) 删除所有卷 docker volume rm $(docker volume ls -q) 删除所有网络(默认网络除外) docker network rm $(docker network ls -q) 一键清空 Docker docker rm -f $(docker ps -aq) && docker rmi -f $(docker images -aq) && docker volume rm $(docker volume ls -q) && docker system prune -a --volumes -f 作用:尽可能清空 Docker 中的容器、镜像、卷、缓存。

2026年3月22日 · 1 分钟 · 104 字 · Dorianyang

论文综述

年份 题目 作者 专注任务 主要使用的深度学习框架 基础框架归属 在基础框架上的改进方法 2018 Deep Learning for Image Denoising: A Survey Chunwei Tian 等 去噪综述 深层残差 CNN 去噪综述 DnCNN 系统总结残差学习、BN、空洞卷积与噪声级建模,奠定后续 DnCNN 系改进路线。 2019 Enhanced CNN for Image Denoising Chunwei Tian 等 去噪 Residual CNN + BN + Dilated Conv DnCNN 在 DnCNN 残差去噪主干上强化感受野与稳定训练,提升噪声建模能力。 2020 Coarse-to-Fine CNN for Image Super-Resolution (CFSRCNN) Chunwei Tian 等 单图超分 Coarse-to-Fine 级联 CNN SRCNN 从单尺度映射转为粗到细逐级重建,减少细节恢复中的信息断裂。 2020 Lightweight Image Super-Resolution with Enhanced CNN Chunwei Tian 等 单图超分 轻量级增强 CNN SRCNN 在 SRCNN 路线上做轻量化与特征复用优化,提升性能/参数比。 2020 Deep Learning on Image Denoising: An Overview Chunwei Tian 等 去噪综述 CNN/UNet/GAN 去噪综述 DnCNN 梳理从传统先验到残差 CNN 的迁移,为后续多分支去噪网络提供设计参照。 2020* Attention-guided CNN for image denoising Chunwei Tian, Yong Xu, Zuoyong Li, Wangmeng Zuo, Lunke Fei, Hong Liu 去噪 ADNet(Sparse/Dilated + Attention 残差 CNN) ADNet 在 DnCNN 主干上加入稀疏空洞卷积、长路径特征增强与轻量注意力块,提升复杂噪声建模与参数效率。 2020 Image denoising using deep CNN with batch renormalization Chunwei Tian, Yong Xu, Wangmeng Zuo 去噪 BRDNet(双分支 CNN + BRN + Dilated Conv) DnCNN 将 BN 替换为 BRN 以稳定小 batch 训练,并通过双分支宽结构与空洞卷积扩大感受野、提升鲁棒性。 2021 Designing and Training of a Dual CNN for Image Denoising (DudeNet) Chunwei Tian 等 去噪 双分支 CNN 去噪 DnCNN / ADNet 将单链路残差去噪升级为双分支互补学习,增强细节与噪声分离。 2021 Asymmetric CNN for Image Super-Resolution Chunwei Tian 等 单图超分 非对称卷积 SR 网络 SRCNN 用非对称卷积与多层残差融合替代同构块堆叠,提升方向纹理建模。 2022 A Diffusion Model with A FFT for Image Inpainting Yuxuan Hu 等 图像补全 Diffusion + FFT + CNN Diffusion Models for IR&E 在扩散修复中引入频域约束与 CNN 细节补偿,改善高频纹理重建。 2022 A Dual CNN for Image Super-Resolution Chunwei Tian 等 单图超分 双支路 SR-CNN SRCNN 将单支路 SR 映射改为双支路互补表示,增强细节恢复与鲁棒性。 2022 A Hybrid CNN for Image Denoising Menghua Zheng 等 去噪 混合卷积去噪 CNN DnCNN / ADNet 融合空洞卷积与重参数化模块,兼顾大感受野和推理效率。 2022 An Improved U-Net for Watermark Removal Lijun Fu, Bei Shi, Ling Sun, Jiawen Zeng, Deyun Chen, Hongwei Zhao, Chunwei Tian 水印去除 IWRU-net(串联双 U-Net) U-Net 由单 U-Net 升级为串联双 U-Net,强化多尺度编码解码与跳连融合,在盲水印场景下显著提升去除质量。 2022 Image Super-Resolution with an Enhanced Group Convolutional Neural Network Chunwei Tian 等 单图超分 组卷积 SR-CNN SRCNN 在 SRCNN 系中引入组卷积与自适应上采样,降低冗余并增强多通道表达。 2022 Generative Adversarial Networks for Image Super-Resolution: A Survey Ziang Wu 等 超分综述 GAN-SR 综述(SRGAN/ESRGAN) GAN for image restoration 归纳从 SRGAN 到 ESRGAN 的损失/结构演进,明确“感知质量-失真”权衡路径。 2023 A Parallel and Serial Denoising Network Qi Zhang 等 去噪 并行-串行混合去噪网络 ADNet / DenseNet 用并行异构提取 + 串行致密聚合替代纯串行块堆叠,提升多尺度噪声抑制。 2023 A robust deformed convolutional neural network (CNN) for image denoising Qi Zhang 等 去噪 Deformable CNN + Residual 去噪 DnCNN 在 DnCNN 链路中引入可变形卷积与扩张卷积,改善非均匀噪声和结构对齐。 2023 Multi-stage image denoising with the wavelet transform Chunwei Tian 等 去噪 多阶段 CNN + 小波增强 ADNet / DnCNN 把频域小波块嵌入多阶段去噪流程,增强高频细节恢复与鲁棒性。 2023 Lightweight Image Denoising Network for Multimedia Teaching System Xuanyu Zhang 等 去噪 轻量 CNN + 动态卷积 ADNet / DnCNN 通过动态卷积和并行-串行混合结构实现轻量化部署与性能平衡。 2024 A cross Transformer for image denoising Chunwei Tian 等 去噪 CNN-Transformer 交互去噪网络 SwinIR(Transformer-IR) 在局部卷积和全局注意力间建立跨模块交互,提升复杂纹理去噪能力。 2024 A Self-Supervised CNN for Image Watermark Removal Chunwei Tian 等 水印去除 自监督 CNN/U-Net 变体 U-Net / DnCNN 用自监督配对构造替代强标注训练,将去噪残差思想迁移到水印移除任务。 2024* A self-supervised network for image denoising and watermark removal Chunwei Tian, Jingyu Xiao, Bob Zhang, Wangmeng Zuo, Yudong Zhang, Chia-Wen Lin 去噪+水印去除 SSNet(并行改进 U-Net + 自监督) U-Net 设计上/下双分支(分阶段与联合学习互补)并引入跨分支注意力交互,用自监督伪配对同时建模去噪与去水印。 2024 Perceptive Self-Supervised Learning Network for Noisy Image Watermark Removal Chunwei Tian 等 水印去除+去噪 双分支自监督网络 + 感知分支 U-Net / DnCNN 在自监督水印去除上加入感知约束与双分支解耦,提升细节保真度。 2024 A Heterogeneous Group CNN for Image Super-Resolution Chunwei Tian 等 单图超分 异构组卷积 SR 网络 SRCNN 用异构组块与并行上采样强化多通道特征互补,提升高倍率重建稳定性。 2024 Heterogeneous Window Transformer for Image Denoising Chunwei Tian 等 去噪 异构窗口 Transformer SwinIR 在窗口注意力框架下引入异构窗口配置,缓解固定窗口对细节/全局建模冲突。 2024 Image Super-Resolution via Dynamic Network Chunwei Tian 等 单图超分 动态卷积 SR 网络 SRCNN 将静态卷积升级为输入自适应动态卷积,提升退化变化场景下泛化。 2024 Adaptive Convolutional Neural Network for Image Super-resolution Chunwei Tian 等 单图超分 异构并行 + 动态卷积 SR-CNN SRCNN 在残差 SR 主干中引入自适应卷积核选择,增强多尺度结构恢复能力。 2024 Efficient Feature Redundancy Reduction for Image Denoising Qi Zhang 等 去噪 冗余抑制去噪 CNN DnCNN 通过特征冗余削减模块减少无效通道交互,在同等算力下提升 PSNR。 2024 Efficient Image Denoising with Heterogeneous Kernel-Based CNN Yuxuan Hu 等 去噪 异构大核去噪 CNN DnCNN 在 DnCNN 系统中引入异构大核与重参数化,扩大感受野并保持部署效率。 2024 Texture-guided CNN for Image Denoising Qi Zhang 等 去噪 纹理引导双分支去噪 CNN DnCNN / ADNet 用纹理先验分支引导主干去噪,减轻过平滑并提升细节保留。 2024 An Enhanced GAN for Image Generation Chunwei Tian, Haoyang Gao, Pengwei Wang, Bob Zhang 图像生成(可迁移为复原先验) EIGGAN(PGGAN + 并行残差 + 空间注意力) GAN for image restoration 在 PGGAN 生成器中引入并行残差与空间注意力,并采用混合正则化损失,增强高频细节合成能力。 2025 A Cosine Network for Image Super-Resolution Chunwei Tian 等 单图超分 异构 OEB/EEB 残差 SR 网络 SRCNN 通过 Odd/Even 异构块 + 多级残差融合 + 余弦退火训练提升重建上限。 2025 A Tree-guided CNN for Image Super-Resolution Chunwei Tian 等 单图超分 树结构多分支 SR-CNN SRCNN 引入树形层级聚合与余弦卷积块,增强层次特征重用与方向敏感建模。 2025 A Cluster Tree Network for Image Super-Resolution Chunwei Tian 等 单图超分 树引导 + 聚类/条件卷积 SR 网络 SRCNN 在树结构 SR 上加入簇路由与条件卷积,提升复杂纹理区域建模效率。 2025 Application of Convolutional Neural Networks in Image Super-Resolution Chunwei Tian 等 超分综述 CNN-SR 综述 SRCNN 系统总结 SRCNN 系与后续残差/上采样机制的演化脉络。 2025 Dynamic Snake Convolution Neural Network for Enhanced Image Super-Resolution Weiqiang Xin 等 单图超分 DSCNN(Dynamic Snake Conv + 多尺度并行) SRCNN 在残差 SR 网络中引入蛇形动态卷积进行几何自适应采样,并结合多尺度并行卷积提升边缘与纹理连续性。 2025* An Omni-Dimensional Dynamic Convolutional Network for Single-Image Super-Resolution Tasks Xi Chen, Ziang Wu, Weiping Zhang, Tingting Bi, Chunwei Tian 单图超分 ODConvNet(全维动态卷积 SR-CNN) SRCNN 将动态卷积扩展到 kernel/input/output/spatial 四维注意力,并与静态卷积并联融合,增强复杂结构重建能力。 2025 Implicit Multi-Scale Swin Transformer Network for Image Denoising (IMSNet) Chunwei Tian 等 去噪 多尺度 Swin + 隐式动力学建模 SwinIR 在 SwinIR 路线中引入隐式多尺度演化模块,提升跨噪声强度稳健性。 2025 3D Enhanced Residual CNN for Video Super-Resolution Network Weiqiang Xin 等 视频超分 3D CNN + 双向时序传播 SRCNN 由单帧 SR 扩展到时空联合建模,结合显式对齐和 3D 卷积提高时序一致性。 2022* VRT: A Video Restoration Transformer Jingyun Liang 等 视频复原/视频超分 多尺度视频 Transformer(TMSA) SwinIR(Transformer-IR) 将窗口注意力扩展到时序互注意,融合并行长序列建模与显式对齐。 2023 Denoising Diffusion Models for Plug-and-Play Image Restoration Yuanzhi Zhu 等 去噪/去模糊/通用复原 DiffPIR(HQS + Diffusion Prior) Diffusion Models for IR&E 用扩散先验替代传统 PnP 高斯去噪器,实现生成式先验驱动的通用逆问题求解。 2023* Practical Blind Image Denoising via Swin-Conv-UNet and Data Synthesis Kai Zhang 等 盲去噪 SCUNet(Swin + Conv UNet) SwinIR 把 DRUNet 局部建模与 SwinIR 非局部建模合并,并配套真实噪声合成策略。 2024* AddSR: Accelerating Diffusion-based Blind Super-Resolution with Adversarial Diffusion Distillation 作者未在 index 解析 盲超分 扩散蒸馏 + 对抗约束 Diffusion Models for IR&E 将多步扩散蒸馏为少步/一步并注入对抗学习,显著缩短推理链路。 2024* Deep Unpaired Blind Image Super-Resolution Using Self-supervised Learning and Exemplar Distillation Jiangxin Dong 等 盲超分 EDSR/RCAB 风格 CNN + 自监督蒸馏 SRCNN 在无配对数据下联合核估计与重建,并通过 exemplar distillation 稳定高频恢复。 2024* Learning an Adaptive Sparse Transformer for Efficient Image Restoration Shihao Zhou 等 去噪/去模糊/去雨等复原 AST-v2(自适应稀疏注意力) SwinIR(Transformer-IR) 用自适应稀疏注意力和频率增强 FFN 降低注意力冗余,兼顾效率与精度。 2024* Binarized Diffusion Model for Image Super-Resolution (BI-DiffSR) Zheng Chen 等 超分 二值化扩散 UNet Diffusion Models for IR&E 在扩散 SR 主干上做 1-bit 量化并设计一致性上下采样结构,压缩计算与存储。 2024* 2DQuant: Low-bit Post-Training Quantization for Image Super-Resolution Kai Liu 等 超分 SwinIR-light 低比特 PTQ SwinIR 通过分布感知边界初始化 + 蒸馏校准降低 Transformer-SR 超低比特量化损失。 2024* HiT-SR: Hierarchical Transformer for Efficient Image Super-Resolution Xiang Zhang 等 超分 层级窗口 Transformer-SR SwinIR 将固定窗口替换为层级扩展窗口并加入空间-通道相关建模,增强大感受野表达。 2025* CondiQuant: Condition Number Based Low-Bit Quantization for Image Super-Resolution Kai Liu 等 超分 SwinIR-light 条件数驱动 PTQ SwinIR 以线性层条件数指导量化边界与校准,重点抑制激活量化误差。 2025* DeblurDiff: Real-World Image Deblurring with Generative Diffusion Models 作者未在 index 解析 去模糊 条件扩散去模糊模型 Diffusion Models for IR&E 将真实去模糊转为条件生成过程,利用多步去噪改善复杂非均匀模糊恢复。 2025* Devil is in the Uniformity: Exploring Diverse Learners within Transformer for Image Restoration Shihao Zhou 等 通用图像复原 HINT(层级多头注意力 Transformer) SwinIR(Transformer-IR) 对 MHA 做非均匀层级划分与跨层 QK 缓存更新,减少 head 冗余并增强多样性。 2025* Bridging Fidelity-Reality with Controllable One-Step Diffusion for Image Super-Resolution Hao Chen 等 超分 单步潜空间扩散(CODSR) Diffusion Models for IR&E 通过区域自适应先验激活与双 LoRA 调制,改善单步扩散的保真-真实感可控性。 2025* FideDiff: Efficient Diffusion Model for High-Fidelity Image Motion Deblurring Xiaoyang Liu 等 去模糊 潜空间扩散 + consistency 训练 Diffusion Models for IR&E 将前向过程重定义为 blur trajectory,并结合轻量适配提高高保真去模糊效率。 2025* Frequency Domain-Based Diffusion Model for Unpaired Image Dehazing Chengxu Liu 等 去雾 频域条件扩散(FrDiff) Diffusion Models for IR&E 在幅度谱域做扩散重建并结合空间域网络,实现无配对去雾的稳健细节恢复。 2025* InfVSR: Breaking Length Limits of Generic Video Super-Resolution Ziqing Zhang 等 视频超分 AR + One-step Diffusion Transformer Diffusion Models for IR&E 采用 chunk 自回归 + 单步扩散 + KV-cache,突破长视频 VSR 的时长瓶颈。 2025* Intra and Inter Parser-Prompted Transformers for Effective Image Restoration Cong Wang 等 通用图像复原 SAM 提示的 U 形 Transformer SwinIR(Transformer-IR) 引入 parser-prompted intra/inter attention,把结构先验显式注入复原过程。 2026 A Heterogeneous CNN with Transformers for Image Denoising Chunwei Tian, Tongtong Cheng, Yingpeng Ma, Qi Zhu, Bob Zhang, David Zhang 去噪 HTDNet(异构 CNN + 轻量 Transformer) SwinIR(Transformer-IR) 通过 HAR 异构融合块与轻量 Transformer 分支联合建模局部/全局特征,并以对称增强机制缓解深层退化与复杂度上升。 2026* Lightweight Multi-Dilated Transformer for Image Deblurring Zhihao Zhao 等 去模糊 MDFormer(多空洞 Transformer) SwinIR(Transformer-IR) 在窗口注意力前后引入多空洞聚合与空洞 FFN,扩大有效感受野并保持轻量。 2026* Neural Discrimination-Prompted Transformers for Efficient UHD Image Restoration and Enhancement Cong Wang 等 UHD 去噪/去雾/去模糊 NDPT(判别先验提示 Transformer) SwinIR(Transformer-IR) 通过高低分辨率神经差异先验引导 Transformer 复原,提升 UHD 场景的效率与质量。 2025* Omni-Deblurring: Capturing Omni-Range Context for Image Deblurring Yaowei Li 等 去模糊 CNN-Transformer 混合 U 形网络 SwinIR(Transformer-IR) 提出 Omni-range Context Block 同步建模局部/区域/全局信息,改善复杂模糊恢复。 2025* One-Step Diffusion Model for Image Motion-Deblurring Xiaoyang Liu 等 去模糊 单步潜空间扩散 + eVAE Diffusion Models for IR&E 以单步扩散替代多步采样,并重构 VAE 编解码链路以减小细节损失。 2025* PatchScaler: An Efficient Patch-Independent Diffusion Model for Image Super-Resolution Yong Liu 等 超分 DiT 扩散 SR + patch 自适应采样 Diffusion Models for IR&E 按 patch 复杂度动态分配扩散采样与重建预算,降低冗余计算。 2025* PGP-DiffSR: Phase-Guided Progressive Pruning for Efficient Diffusion-based Image Super-Resolution Zhongbao Yang 等 超分 潜空间扩散 SR + 渐进剪枝 Diffusion Models for IR&E 对扩散 UNet 进行相位引导粗到细剪枝,在保性能前提下显著压缩模型。 2025* QArtSR: Quantization via Reverse-Module and Timestep-Retraining in One-Step Diffusion based Image Super-Resolution Libo Zhu 等 超分 一步扩散 SR 低比特量化 Diffusion Models for IR&E 用 timestep retraining + reverse-module 校准降低一步扩散模型量化误差。 2025* RIFLE: Removal of Image Flicker-Banding via Latent Diffusion Enhancement Libo Zhu 等 伪影去除/增强 潜空间扩散 + FB 先验估计 Diffusion Models for IR&E 将 flicker-banding 去除建模为先验条件扩散复原,加入条纹参数估计器增强可控性。 2025* STCDiT: Spatio-Temporally Consistent Diffusion Transformer for High-Quality Video Super-Resolution Junyang Chen 等 视频超分 预训练视频 DiT + 锚帧调制 Diffusion Models for IR&E 通过运动感知 VAE 重建和锚帧特征调制提高时空一致性与细节稳定性。 2025* Towards Redundancy Reduction in Diffusion Models for Efficient Video Super-Resolution Jinpei Guo 等 视频超分 单步视频 DiT + 注意力重路由 Diffusion Models for IR&E 用 attention specialization routing 重分配 head 职责并移除冗余模块,提效降耗。 2025* DOVE: Efficient One-Step Diffusion Model for Real-World Video Super-Resolution Zheng Chen 等 视频超分 CogVideoX 一步扩散适配 Diffusion Models for IR&E 基于预训练视频扩散模型做 latent/pixel 两阶段训练,兼顾速度与真实视频质感。 2025* BiMaCoSR: Binary One-Step Diffusion Model Leveraging Flexible Matrix Compression for Real Super-Resolution Kai Liu 等 超分 一步扩散 + 二值化 + 矩阵压缩 Diffusion Models for IR&E 在一步扩散 SR 上引入 1-bit 压缩与补偿分支,降低部署开销并维持重建质量。 2024* Flexible Residual Binarization for Image Super-Resolution Yulun Zhang 等 超分 SRResNet/SwinIR 的 1-bit QAT 框架 SwinIR / SRCNN 用二阶残差二值化与灵活补偿分支缓解极低比特下的纹理退化。 2026* Ultravsr: Achieving Ultra-Realistic Video Super-Resolution with Efficient One-Step Diffusion Space 作者未在 index 解析 视频超分 一步扩散空间蒸馏 Diffusion Models for IR&E 通过多步到单步蒸馏构建高效扩散空间,提升视频超分的推理可用性。 2026* QuantVSR: Low-Bit Post-Training Quantization for Real-World Video Super-Resolution Bowen Chai 等 视频超分 扩散视频 SR 的低比特 PTQ Diffusion Models for IR&E 基于时空复杂度做层级低秩补偿与量化校准,降低 VSR 扩散模型部署成本。

2026年2月14日 · 8 分钟 · 1587 字 · Dorianyang

利用 frp 进行内网 ssh

在企业网络环境中,通过跳板机访问内网或 WSL2 主机时,SSH 经常出现不稳定问题,例如连接卡在 SSH2_MSG_KEX_ECDH_REPLY,或在连接成功后出现 vim/tmux 显示不完整、会话假死等现象。 这类问题本质上与网络路径、MTU、TCP 长连接稳定性有关,单纯依赖 ssh 或 autossh 很难彻底解决。 目标 实现如下访问路径: MacBook → 公网服务器 → 内网机器 / WSL2 在 MacBook 上通过 SSH 连接公网服务器的某个端口,即可稳定访问内网主机的 SSH 服务。 服务端(公网服务器) 下载并启动 frps: wget https://github.com/fatedier/frp/releases/download/v0.53.2/frp_0.53.2_linux_amd64.tar.gz tar xf frp_0.53.2_linux_amd64.tar.gz cd frp_0.53.2_linux_amd64 创建最小配置: # frps.ini [common] bind_port = 7000 启动服务: ./frps -c frps.ini 确保云防火墙放行 7000 端口。 客户端(内网机器 / WSL2) 下载 frpc 并配置反向 SSH 通道: wget https://github.com/fatedier/frp/releases/download/v0.53.2/frp_0.53.2_linux_amd64.tar.gz tar xf frp_0.53.2_linux_amd64.tar.gz cd frp_0.53.2_linux_amd64 # frpc.ini [common] server_addr = 公网服务器IP server_port = 7000 [ssh] type = tcp local_ip = 127.0.0.1 local_port = 22 remote_port = 2222 启动客户端: ...

2026年2月1日 · 1 分钟 · 113 字 · Dorianyang

WSL2 ssh 卡在 KEX_ECDH_REPLY

在 WSL2(Ubuntu 22.04) 中,通过 ssh 连接远端服务器时,连接会无响应。执行调试命令: ssh -vvv user@host 可以看到输出停在: expecting SSH2_MSG_KEX_ECDH_REPLY 客户端不再继续,服务器侧也没有任何日志。更换网络或在 Windows 原生终端中连接正常,说明并非服务器或账号问题。 搜索该现象后,定位到 Unix StackExchange 上的一篇帖子,指出这是 SSH 在 密钥交换阶段(KEX) 发送的握手包过大,在某些网络(WSL2 NAT、防火墙、VPN、校园/公司网络)中触发 Path MTU 黑洞,导致服务器无法收到 KEX_ECDH_INIT,因此不会返回 SSH2_MSG_KEX_ECDH_REPLY。 按照帖子中的建议,手动指定较短的密钥交换算法测试: ssh -o KexAlgorithms=ecdh-sha2-nistp521 user@host 连接立即成功,确认问题与网络路径和握手包大小有关。 为避免每次手动指定参数,将配置写入用户级 SSH 配置文件: ~/.ssh/config 内容如下: Host my-server HostName real.server.ip.or.domain User myuser KexAlgorithms ecdh-sha2-nistp521 此后使用 ssh my-server 即可正常连接,问题稳定解决。

2026年1月31日 · 1 分钟 · 52 字 · Dorianyang

自托管 Github Actions Runner

在 Linux 系统上,依次执行以下步骤 mkdir actions-runner && cd actions-runner curl -o actions-runner-linux-x64-2.329.0.tar.gz -L https://github.com/actions/runner/releases/download/v2.329.0/actions-runner-linux-x64-2.329.0.tar.gz tar xzf ./actions-runner-linux-x64-2.329.0.tar.gz 然后来到你的仓库 -> settings -> actions -> runners -> Add your self-hosted 可以看到 Configure 部分的指令,执行它们进行登录。会让你输入一些名称之类的,本次教程全部回车,根据自己需要配置 然后我们安装服务 sudo ./svc.sh install sudo ./svc.sh start 这样 runner 就会作为服务在后台

2025年12月11日 · 1 分钟 · 40 字 · Dorianyang

如何为 github actions 创建专用用户

这是为了赋予该用户某些高权限操作,且不会赋予太多权限,保证服务器安全 # 1. 创建用户(无密码,避免本地密码登录) sudo adduser --disabled-password --gecos "" ghactions # 2. 创建 .ssh 目录 sudo mkdir -p /home/ghactions/.ssh # 3. 权限收紧 sudo chown -R ghactions:ghactions /home/ghactions/.ssh sudo chmod 700 /home/ghactions/.ssh 然后为 github actions 创建私钥用于github action 远程登录 # 切换至用户 sudo su ghactions # 生成公私钥 ssh-keygen -t ed25519 -C "github-actions" -f ~/.ssh/id_ed25519 # 查看公钥,复制到剪贴板: cat ~/.ssh/id_ed25519.pub # 切换回原用户 su <原用户名> # 执行赋予权限 sudo bash -c 'echo "这里换成你的公钥内容" >> /home/ghactions/.ssh/authorized_keys' sudo chown ghactions:ghactions /home/ghactions/.ssh/authorized_keys sudo chmod 600 /home/ghactions/.ssh/authorized_keys 为 ghactions 赋予特定操作的权限 ...

2025年12月9日 · 2 分钟 · 234 字 · Dorianyang

常用 docker 镜像命令速查

postgres docker run -d --name postgres -e POSTGRES_PASSWORD=postgres -e POSTGRES_USER=postgres -e POSTGRES_DB=postgres -p 5432:5432 -v pgdata:/var/lib/postgresql/data postgres:16 pgvector docker run -d \ --name pgvector-db \ -e POSTGRES_PASSWORD=mysecret \ -p 5432:5432 \ pgvector/pgvector:pg16

2025年12月8日 · 1 分钟 · 32 字 · Dorianyang

Obsidian Git 同步

在 obsidian 设置中点击第三方插件,搜索插件 git 然后通过终端进入你的 obsidian 笔记所在目录,初始化一个 git 仓库 然后其实和正常 git 一样,你需要和远程 github 仓库关联。此处不赘述 然后,在插件中开启 也可以根据自己需要修改其他的

2025年11月25日 · 1 分钟 · 16 字 · Dorianyang

哈工大人工智能实验 MNIST 预测

代码获取请单击此处 HIT_AI_Intro_Exp 快速开始 1. 数据集准备 我们从网络上下载 MNIST_data 数据集,解压后放在文件夹下,可以看到分为训练集和测试集两部分 2. 训练模型 首先,你需要在电脑上安装 uv 工具(如果你熟悉 conda 也可以)。uv 安装随便去网上搜搜教程就行 拥有 uv 后,请你运行 uv --version 如果显示了版本则说明 uv 正常安装了 然后运行以下命令,安装所需要的 Python 包(如果你用过 conda 就是安装 requirenments.txt 里面的包,请使用 python 3.10) uv sync 我们安装的是以下包,最重要的是 mindspore 训练框架 然后训练我们的模型。命令为 uv run train.py --ckpt_path ./ckpt 可以看到训练开始了,显示每一轮以及损失 最终我们看到ckpt/下有一系列检查点,这些也就是我们训练得到的模。,最后一个 4-10 也就是第 10 个 epoch 得到的模型,最完整的模型 3. 评估模型 我们使用最后一个 checkpoint 得到的模型来使用 test 数据集进行评估 uv run eval.py --ckpt_path ckpt/checkpoint_lenet_4-10_1875.ckpt 运行如下图 可以看到精度 98.88%,还是很不错的。接下来我们将使用图片真实的从使用角度测试该模型 ...

2025年11月17日 · 1 分钟 · 132 字 · Dorianyang

使用 MLX 在 Apple M 芯片进行 Lora 微调

苹果加油,和 CUDA 碰一碰 数据准备 从 github 克隆 Apple 给出的示例项目项目 git clone https://github.com/ml-explore/mlx-examples.git 在项目lora/data/中放置你的训练、验证和测试集数据 下载一个模型。此处我们从modelscope下载一个小模型minimind2 pip install modelscope modelscope download --model gongjy/MiniMind2 下载后,记住模型的路径。此处我的路径如下 环境配置 使用 uv 初始化一个环境 $ uv init --name mlx . -p3.13 Initialized project `hypollm` at `/Users/dorian/Documents/Programme/NUS311/model_test` 你也可以使用conda $ conda create -n mlx python==3.13 安装所需的包 $ uv add mlx-lm transformers torch numpy 微调过程 进入项目路径 cd /mlx_example/lora/。如果不使用 swanlab 就删除最后一个 arg $ mlx_lm.lora --model <此处你的基座模型路径> --train --data ./data --report-to swanlab # 显示如下则成功 # Loading pretrained model # Loading datasets # Training # Trainable parameters: 1.654% (1.720M/104.031M) # Starting training..., iters: 1000 # Calculating loss...: 100%|██| 25/25 [00:07<00:00, 3.42it/s] 微调结束后,可以看到如下内容,是 checkpoints 和最终模型 然后我们进行融合权重 $ mlx_lm.fuse --model <你的基座模型路径> --adapter-path adapters --save-path <你的模型名字> 最终得到以下文件 模型部署 下载 Ollama(麻烦自行查找并下载) 新建一个Modelfile,注意没有后缀,内容如下(也可以参考此网站) FROM <模型文件夹的绝对路径> # 推理参数(适合精确结构推理) PARAMETER temperature 0.2 PARAMETER top_p 0.8 PARAMETER top_k 50 PARAMETER repeat_penalty 1.05 PARAMETER num_ctx 4096 PARAMETER num_predict 512 # 对齐 Qwen 格式的多轮对话模版 TEMPLATE """<|im_start|>system {{ .System }}<|im_end|> <|im_start|>user {{ .Prompt }}<|im_end|> <|im_start|>assistant """ # 设定系统指令 SYSTEM "You are an expert in causal inference and graph theory." 利用 ollama 创建 $ ollama create <模型名字> -f <Modelfile位置> 运行 $ ollama run <模型名字> 这篇博客也很好 https://juejin.cn/post/7426343844595335168

2025年10月28日 · 1 分钟 · 180 字 · Dorianyang