在DevOps实践中,Linux作为基础设施的核心操作系统,其自动化能力直接决定了研发运维链路的效率、稳定性与可扩展性。自动化脚本不仅是简化重复操作的“利器”,更是打通开发、测试、部署全流程的“桥梁”。
今日文章阅读福利:《运维入门大礼包》
扫码添加小助理,发送暗号“运维”,即可获取。
对于中级DevOps工程师而言,熟练编写Linux自动化脚本并实现与主流工具链的深度整合,是提升工作效能、保障业务连续性的核心技能。本文将从核心价值、实用脚本示例、工具链集成方案、全流程可视化及最佳实践五个维度,系统梳理相关技术要点。
一、Linux自动化脚本在DevOps实践中的核心价值
DevOps的核心目标是打破研发与运维的壁垒,实现“持续集成、持续部署(CI/CD)”的闭环。Linux自动化脚本作为底层执行载体,其价值主要体现在以下四个方面:
提升效率,规避人为失误:部署、运维中的重复操作(如代码拉取、环境配置、日志清理)通过脚本自动化执行,可将原本小时级的工作压缩至分钟级,同时避免手动操作带来的配置不一致、命令输错等问题。
标准化流程,降低协作成本:脚本将运维经验与流程规范固化为可执行代码,形成统一的操作标准,新成员可快速复用脚本开展工作,减少跨团队协作中的沟通成本。
增强流程可控性,支撑CI/CD闭环:自动化脚本可无缝对接CI/CD工具,实现从代码提交到应用上线的全流程自动化触发、执行与反馈,让每一次变更都可追溯、可回滚。
拓展基础设施能力:通过脚本可实现服务器资源的批量管理、监控告警的自动化触发、异常场景的自动恢复,为基础设施的弹性伸缩与高可用提供支撑。
二、实用Linux Bash/Shell脚本示例
以下将提供两个DevOps场景中高频使用的Bash脚本示例,包含完整可运行代码、详细注释及使用说明,覆盖自动部署与日志轮转核心场景。
示例1:应用自动部署脚本(支持启停、版本切换与回滚)
该脚本适用于Java应用(可适配Python、Node.js等其他语言),实现从代码拉取、编译打包、服务启停到版本回滚的全流程自动化,支持指定版本号部署,同时包含错误处理与日志记录。
#!/bin/bash# 应用自动部署脚本# 功能:拉取Git代码、编译打包、启停服务、版本回滚# 作者:DevOps Engineer# 日期:2026-01-04# 适用场景:Java Spring Boot应用,基于Systemd管理服务# -------------------------- 配置参数 --------------------------APP_NAME="user-service" # 应用名称GIT_REPO="https://gitlab.example.com/dev/user-service.git" # Git仓库地址GIT_BRANCH="release-1.0" # 部署分支/标签APP_DIR="/opt/apps/${APP_NAME}" # 应用部署目录JAR_NAME="${APP_NAME}.jar" # 应用Jar包名称LOG_DIR="/var/log/${APP_NAME}" # 应用日志目录BACKUP_DIR="${APP_DIR}/backup" # 版本备份目录JAVA_OPTS="-Xms512m -Xmx1024m" # Java运行参数SERVICE_NAME="${APP_NAME}.service" # Systemd服务名# -------------------------- 函数定义 --------------------------# 日志记录函数log() { local timestamp=$(date +"%Y-%m-%d %H:%M:%S") echo "[${timestamp}] [${1}] ${2}" >> "${LOG_DIR}/deploy.log" echo "[${timestamp}] [${1}] ${2}"}# 检查命令执行结果check_result() { if [ $? -ne 0 ]; then log "ERROR" "${1} 执行失败,脚本退出" exit 1 else log "INFO" "${1} 执行成功" fi}# 备份当前版本backup_current_version() { log "INFO" "开始备份当前版本" mkdir -p "${BACKUP_DIR}" if [ -f "${APP_DIR}/${JAR_NAME}" ]; then local backup_file="${BACKUP_DIR}/${JAR_NAME}.$(date +%Y%m%d%H%M%S)" cp "${APP_DIR}/${JAR_NAME}" "${backup_file}" check_result "版本备份" else log "WARN" "当前无已部署版本,跳过备份" fi}# 拉取Git代码并编译打包pull_and_build() { log "INFO" "开始拉取Git代码(分支:${GIT_BRANCH})" if [ ! -d "${APP_DIR}/src" ]; then git clone "${GIT_REPO}" "${APP_DIR}/src" check_result "Git仓库克隆" fi cd "${APP_DIR}/src" || exit 1 git checkout "${GIT_BRANCH}" check_result "切换至分支${GIT_BRANCH}" git pull origin "${GIT_BRANCH}" check_result "拉取最新代码" log "INFO" "开始编译打包" ./mvnw clean package -DskipTests check_result "Maven打包" cp "target/${JAR_NAME}" "${APP_DIR}/" check_result "复制Jar包至部署目录"}# 停止应用服务stop_service() { log "INFO" "开始停止${APP_NAME}服务" systemctl stop "${SERVICE_NAME}" check_result "服务停止" # 等待进程退出 sleep 5 if pgrep -f "${JAR_NAME}" > /dev/null; then log "WARN" "服务进程未正常退出,强制杀死" pkill -f "${JAR_NAME}" fi}# 启动应用服务start_service() { log "INFO" "开始启动${APP_NAME}服务" systemctl start "${SERVICE_NAME}" check_result "服务启动" # 检查服务状态 sleep 10 if systemctl is-active --quiet "${SERVICE_NAME}"; then log "INFO" "${APP_NAME}服务启动成功,状态正常" else log "ERROR" "${APP_NAME}服务启动失败,查看日志获取详情" exit 1 fi}# 版本回滚(回滚至最近一次备份)rollback_version() { log "INFO" "开始执行版本回滚" local latest_backup=$(ls -lt "${BACKUP_DIR}/${JAR_NAME}."* 2>/dev/null | head -n 1 | awk '{print $9}') if [ -z "${latest_backup}" ]; then log "ERROR" "无备份版本可回滚,脚本退出" exit 1 fi stop_service cp "${latest_backup}" "${APP_DIR}/${JAR_NAME}" check_result "恢复备份版本(${latest_backup})" start_service}# -------------------------- 主逻辑 --------------------------# 初始化日志目录mkdir -p "${LOG_DIR}"# 解析命令行参数case "$1" in deploy) backup_current_version pull_and_build stop_service start_service log "INFO" "${APP_NAME}部署完成" ;; rollback) rollback_version log "INFO" "${APP_NAME}版本回滚完成" ;; stop) stop_service log "INFO" "${APP_NAME}服务停止完成" ;; start) start_service ;; restart) stop_service start_service log "INFO" "${APP_NAME}服务重启完成" ;; *) echo "用法:$0 {deploy|rollback|start|stop|restart}" echo " deploy - 部署应用(拉取代码、打包、启停服务)" echo " rollback - 回滚至最近一次备份版本" echo " start/stop/restart - 启停/重启服务" exit 1 ;;esac
使用说明:
脚本需赋予执行权限:chmod +x deploy_app.sh;
部署应用:./deploy_app.sh deploy;
版本回滚:./deploy_app.sh rollback;
需提前配置 Systemd服务文件(如 /usr/lib/systemd/system/user-service.service),确保服务可通过systemctl管理。
示例2:日志轮转脚本(支持按大小/时间切割、压缩与清理)
该脚本用于解决应用日志过大导致的磁盘占用问题,支持按日志大小或时间维度切割,自动压缩历史日志,并清理指定天数前的日志文件,可配合定时任务(crontab)定期执行。
#!/bin/bash# 日志轮转脚本# 功能:按大小/时间切割日志、压缩历史日志、清理过期日志# 作者:DevOps Engineer# 日期:2026-01-04# 适用场景:Linux 环境下各类应用日志管理# -------------------------- 配置参数 --------------------------LOG_FILES=( "/var/log/user-service/app.log" # 需轮转的日志文件1 "/var/log/order-service/app.log" # 需轮转的日志文件2)ROTATE_MODE="size" # 轮转模式:size(按大小)/ time(按时间)MAX_SIZE="100M" # 按大小轮转时的单文件最大容量(支持K/M/G)ROTATE_INTERVAL="daily" # 按时间轮转时的周期(daily/weekly/monthly)MAX_BACKUP_COUNT=30 # 保留的最大历史日志数COMPRESS_ENABLE=true # 是否压缩历史日志(true/false)COMPRESS_TYPE="gzip" # 压缩格式(gzip/bzip2)EXPIRE_DAYS=7 # 日志过期天数(超过此天数自动清理)# -------------------------- 函数定义 --------------------------# 日志记录log() { local timestamp=$(date +"%Y-%m-%d %H:%M:%S") echo "[${timestamp}] ${1}" >> "/var/log/log_rotate_script.log" echo "[${timestamp}] ${1}"}# 按大小切割日志rotate_by_size() { local log_file=$1 # 转换大小为字节(用于比较) local size_num=$(echo "${MAX_SIZE}" | sed 's/[KMG]$//') local size_unit=$(echo "${MAX_SIZE}" | sed 's/^[0-9]*//') case "${size_unit}" in K) size_bytes=$((size_num * 1024)) ;; M) size_bytes=$((size_num * 1024 * 1024)) ;; G) size_bytes=$((size_num * 1024 * 1024 * 1024)) ;; *) size_bytes=$size_num ;; esac # 获取当前日志大小(字节) local current_size=$(stat -c "%s" "${log_file}" 2>/dev/null) if [ -z "${current_size}" ]; then log "WARN" "日志文件${log_file}不存在,跳过轮转" return fi # 达到阈值则切割 if [ "${current_size}" -ge "${size_bytes}" ]; then log "INFO" "日志文件${log_file}大小超过${MAX_SIZE},开始切割" # 重命名历史日志(按时间戳命名) local timestamp=$(date +%Y%m%d%H%M%S) local backup_log="${log_file}.${timestamp}" mv "${log_file}" "${backup_log}" # 触发应用重新生成日志文件(需确保应用支持日志切割后自动创建新文件) kill -USR1 $(pgrep -f "$(basename ${log_file%.log})") 2>/dev/null log "INFO" "日志切割完成,生成历史文件:${backup_log}" # 压缩历史日志 if [ "${COMPRESS_ENABLE}" = true ]; then case "${COMPRESS_TYPE}" in gzip) gzip "${backup_log}" ;; bzip2) bzip2 "${backup_log}" ;; *) log "WARN" "不支持的压缩格式${COMPRESS_TYPE},跳过压缩" ;; esac log "INFO" "历史日志压缩完成(格式:${COMPRESS_TYPE})" fi # 清理过期日志 clean_expire_logs "${log_file}" else log "INFO" "日志文件${log_file}大小未达阈值(当前:$(echo "scale=2; ${current_size}/1024/1024" | bc)M),跳过切割" fi}# 按时间切割日志rotate_by_time() { local log_file=$1 if [ ! -f "${log_file}" ]; then log "WARN" "日志文件${log_file}不存在,跳过轮转" return fi log "INFO" "按${ROTATE_INTERVAL}周期轮转日志文件${log_file}" local timestamp=$(date +%Y%m%d) # 按周期调整时间戳格式(每日/每周/每月) case "${ROTATE_INTERVAL}" in weekly) timestamp=$(date +%Y%U) ;; # 年+周数 monthly) timestamp=$(date +%Y%m) ;; # 年+月 esac local backup_log="${log_file}.${timestamp}" # 若当日已切割则跳过 if [ -f "${backup_log}" ] || [ -f "${backup_log}.${COMPRESS_TYPE}" ]; then log "INFO" "今日已完成日志切割,跳过" return fi mv "${log_file}" "${backup_log}" kill -USR1 $(pgrep -f "$(basename ${log_file%.log})") 2>/dev/null log "INFO" "日志切割完成,生成历史文件:${backup_log}" # 压缩与清理 if [ "${COMPRESS_ENABLE}" = true ]; then case "${COMPRESS_TYPE}" in gzip) gzip "${backup_log}" ;; bzip2) bzip2 "${backup_log}" ;; *) log "WARN" "不支持的压缩格式${COMPRESS_TYPE},跳过压缩" ;; esac log "INFO" "历史日志压缩完成(格式:${COMPRESS_TYPE})" fi clean_expire_logs "${log_file}"}# 清理过期日志clean_expire_logs() { local log_file=$1 log "INFO" "开始清理${EXPIRE_DAYS}天前的过期日志" # 清理原始历史日志与压缩日志 find "$(dirname ${log_file})" -name "$(basename ${log_file}).*" \ -type f -mtime "+${EXPIRE_DAYS}" -delete check_result="清理过期日志" log "INFO" "过期日志清理完成"}# -------------------------- 主逻辑 --------------------------log "INFO" "日志轮转脚本开始执行(轮转模式:${ROTATE_MODE})"for log in "${LOG_FILES[@]}"; do case "${ROTATE_MODE}" in size) rotate_by_size "${log}" ;; time) rotate_by_time "${log}" ;; *) log "ERROR" "不支持的轮转模式${ROTATE_MODE},脚本退出" && exit 1 ;; esacdonelog "INFO" "日志轮转脚本执行完成"
使用说明:
赋予执行权限:chmod +x log_rotate.sh;
定时执行(每日凌晨2点):添加crontab任务0 2 * * * /path/to/log_rotate.sh;
若应用不支持kill -USR1重新生成日志,可替换为重启应用(需结合业务可用性调整)。
三、自动化脚本与主流DevOps工具链的整合方案
孤立的自动化脚本无法发挥最大价值,需将其集成到Jenkins、GitLab CI、Ansible等主流DevOps工具链中,融入CI/CD流水线、配置管理与基础设施即代码(IaC)流程。以下为典型工具的集成方案:
1. 与Jenkins集成
Jenkins作为CI/CD核心工具,可通过“自由风格项目”或“Pipeline 流水线”调用 Linux脚本,实现自动化触发与执行。
集成方式:
自由风格项目:在“构建步骤”中选择“执行shell”,直接编写脚本命令或调用外部脚本(如/path/to/deploy_app.sh deploy),同时可配置构建触发器(如Git提交触发、定时触发)。
Pipeline流水线(推荐):通过Jenkinsfile定义流水线,将脚本集成到 stages中,实现流程可视化与版本控制。示例Jenkinsfile(声明式):
pipeline { agent any environment { APP_NAME = 'user-service' SCRIPT_PATH = '/opt/scripts/deploy_app.sh' } stages { stage('拉取代码') { steps { git url: 'https://gitlab.example.com/dev/user-service.git', branch: 'release-1.0' } } stage('自动化部署') { steps { sh "${SCRIPT_PATH} deploy" } } stage('服务验证') { steps { sh "systemctl is-active --quiet ${APP_NAME} || exit 1" sh "curl -f http://localhost:8080/actuator/health || exit 1" } } } post { success { echo "${APP_NAME}部署成功" // 发送通知(如企业微信、邮件) } failure { echo "${APP_NAME}部署失败,执行回滚" sh "${SCRIPT_PATH} rollback" } }}
2. 与GitLab CI集成
GitLab CI与GitLab仓库深度集成,可通过.gitlab-ci.yml文件定义流水线,直接在GitLab Runner(Linux环境)中执行脚本。
集成方式:在项目根目录创建.gitlab-ci.yml,指定脚本执行步骤与触发条件:
stages: - build - deploy - verifyvariables: APP_NAME: user-service SCRIPT_PATH: /opt/scripts/deploy_app.shbuild_job: stage: build script: - ./mvnw clean package -DskipTests - cp target/${APP_NAME}.jar /opt/apps/${APP_NAME}/src/target/ only: - release/*deploy_job: stage: deploy script: - ${SCRIPT_PATH} deploy dependencies: - build_job only: - release/*verify_job: stage: verify script: - systemctl is-active --quiet ${APP_NAME} - curl -f http://localhost:8080/actuator/health dependencies: - deploy_job only: - release/* allow_failure: false
说明:需确保GitLab Runner已部署在目标Linux服务器,且拥有脚本执行与服务管理权限。
3. 与Ansible集成
Ansible作为配置管理工具,适合批量服务器的脚本分发与执行,可将Bash脚本封装为Ansible Playbook任务,实现规模化运维。
集成方式:创建Playbook文件(如deploy_app.yml),通过script模块或 command模块调用脚本:
- name: 批量部署应用服务 hosts: app_servers become: yes tasks: - name: 分发部署脚本 copy: src: /opt/scripts/deploy_app.sh dest: /opt/scripts/ mode: '0755' - name: 执行部署脚本 script: /opt/scripts/deploy_app.sh deploy register: deploy_result - name: 输出部署结果 debug: msg: "{{ deploy_result.stdout }}" - name: 验证服务状态 systemd: name: user-service state: started enabled: yes
执行Playbook:ansible-playbook -i inventory.ini deploy_app.yml,实现多服务器批量部署。
4. 与Terraform集成
Terraform作为IaC工具,用于基础设施编排,可通过provisioner模块在资源创建后执行自动化脚本,完成环境初始化配置。
集成方式:在Terraform配置文件(main.tf)中添加remote-exec provisioner,创建EC2实例后自动执行日志轮转脚本:
resource "aws_instance" "app_server" { ami = "ami-0c55b159cbfafe1f0" instance_type = "t2.micro" # 资源创建后执行脚本 provisioner "remote-exec" { inline = [ "yum install -y gzip bzip2", "mkdir -p /opt/scripts", "curl -o /opt/scripts/log_rotate.sh https://example.com/scripts/log_rotate.sh", "chmod +x /opt/scripts/log_rotate.sh", "/opt/scripts/log_rotate.sh", "echo '0 2 * * * /opt/scripts/log_rotate.sh' >> /var/spool/cron/root" ] } connection { type = "ssh" user = "ec2-user" private_key = file("~/.ssh/id_rsa") host = self.public_ip }}
执行terraform apply时,将自动完成实例创建与脚本执行,实现基础设施与初始化脚本的联动。
四、端到端自动化流程可视化(Mermaid流程图)
以下通过Mermaid流程图,描绘从代码提交到自动化脚本执行、应用部署完成的全流程,整合GitLab、Jenkins、Ansible与自动化脚本,清晰呈现各环节联动关系。
五、脚本安全性、错误处理与可维护性最佳实践
自动化脚本直接操作生产环境,其安全性、稳定性与可维护性至关重要。以下为核心最佳实践:
1. 脚本安全性最佳实践
最小权限原则:脚本执行用户避免使用root,通过sudo分配必要权限;脚本文件权限设置为0755(仅所有者可修改),敏感配置(如密码、密钥)避免硬编码,通过环境变量、密钥管理工具(如HashiCorp Vault)存储。
输入校验与过滤:对脚本参数、外部输入进行校验(如判断参数是否合法、文件是否存在),避免注入攻击。例如在部署脚本中校验Git分支名称合法性,防止恶意分支部署。
敏感操作审计:脚本中添加详细日志记录,包含操作人、时间、执行步骤与结果,关键操作(如部署、回滚)同步至审计系统,便于故障追溯。
脚本完整性校验:通过MD5/SHA256校验脚本文件,避免被篡改。例如在 Jenkins中添加步骤:echo "xxx /opt/scripts/deploy_app.sh" | md5sum -c。
2. 错误处理最佳实践
全局错误捕获:脚本开头添加set -euo pipefail,其中set -e表示命令执行失败时脚本退出,set -u表示引用未定义变量时退出,set -o pipefail表示管道命令任一环节失败则整体失败。
分步校验与回滚机制:关键步骤(如打包、服务启动)后添加结果校验,失败则执行回滚操作。例如部署脚本中打包失败则停止后续步骤,服务启动失败则自动回滚至旧版本。
友好的错误提示:错误信息需明确具体原因(如“Git 拉取失败:网络超时”“服务启动失败:端口被占用”),而非笼统的“执行失败”,便于快速定位问题。
3. 可维护性最佳实践
模块化设计:将脚本按功能拆分为函数(如部署脚本中的备份、拉取、启停函数),避免冗长的线性代码,便于修改与复用。
配置与逻辑分离:脚本中的可变参数(如应用名称、仓库地址、路径)集中放在脚本开头,便于批量修改,无需改动核心逻辑。
详细注释与文档:添加脚本功能、作者、日期、参数说明、执行步骤等注释,配合README文档说明使用场景、依赖条件与注意事项,降低维护成本。
版本控制与迭代:将自动化脚本纳入Git版本控制,每次修改提交时添加说明,便于回滚至历史版本;定期迭代优化脚本,适配业务变更(如应用架构调整、工具版本升级)。

六、总结
Linux自动化脚本是DevOps实践的核心基石,而与主流工具链的深度整合则是实现全流程自动化的关键。中级DevOps工程师需不仅能编写高效、安全的脚本,更要理解脚本在整个DevOps链路中的定位,通过Jenkins、Ansible、Terraform等工具将脚本融入CI/CD、配置管理与IaC流程,形成闭环能力。
同时,坚守安全性、错误处理与可维护性最佳实践,才能让自动化脚本真正成为提升效能、保障业务稳定的“助推器”,而非潜在风险点。未来,随着云原生、AI 运维等技术的发展,自动化脚本将与更复杂的工具链深度融合,成为DevOps 工程师不可或缺的核心技能。
本文部分素材整理自网络公开领域,版权归原作者所有,由LINUX工程师训练营排版成文,转载请注明出处,侵删。新盟教育自2009年成立,至今已有16年的IT培训经验。在长期的发展过程中,我们始终秉持“以学生发展为宗旨,以教学质量为生命,以团队精神为法宝,以服务态度为基础”的理念,踏踏实实地开展教学工作。新盟教育是华为HALP授权培训机构,也是腾讯课堂101认证机构,还曾与思科官方、阿里云官方有过合作。这些合作与授权,代表着行业对我们的认可。在课程设置上,我们以华为、思科课程为主,同时也开设了Linux、红帽、K8s微服务等课程。为了让学员能更好地适应企业工作,我们还提供企业实操的选修知识讲座。通过这些课程,我们希望帮助学员掌握扎实的IT技能。成立至今,我们已经为18万多名学员提供了IT技术教育和指导,向Cisco、Google、联想、方正等上百家知名企业输送了很多IT人才,在合作伙伴和学员中都收获了不错的评价。如果你有志于在IT领域发展,新盟教育愿意成为你成长路上的助力,帮你实现职业目标。