jenkins2 pipeline高级

网友投稿 1071 2022-10-14

jenkins2 pipeline高级

jenkins2 pipeline高级

jenkins2 pipeline里groovy的高级用法。翻译自:在groovy里使用函数,条件控制,循环,异常捕获等

node('remote') { git url: ' def v = version() if (v) { echo "Building version ${v}" } def mvnHome = tool 'M3' sh "${mvnHome}/bin/mvn -B -Dmaven.test.failure.ignore verify" step([$class: 'ArtifactArchiver', artifacts: '**/target/*.jar', fingerprint: true]) step([$class: 'JUnitResultArchiver', testResults: '**/target/surefire-reports/TEST-*.xml'])}def version() { def matcher = readFile('pom.xml') =~ '(.+)' matcher ? matcher[0][1] : null}

上面的代码中:

def用来定义groovy变量或函数;=~表示正则表达式的匹配;master[0][1]表示取出匹配结果中第一个匹配项中的第一个group的值;readFile为groovy的函数用来从workspace里读取文件返回文件的内容,同时还可以使用writeFile来保存内容到文件,fileExists用来判断文件是否存在;

注意 groovy脚本框下面的checkbox:use groovy sandbox,如果选中的话,groovy 脚本会在沙盒里运行有限的功能, 否则如果不是管理员运行的话会报错或者仍然运行就的脚本,需要管理员来approve groovy script。

如果遇到RejectedAccessException权限问题,需要jenkins管理员在Manage Jenkins » In-process Script Approval中approve 权限staticMethod org.codehaus.groovy.runtime.ScriptBytecodeAdapter findRegex java.lang.Object java.lang.Object。

2. 本地变量的序列化

如下的代码在运行时可能会遇到错误java.io.NotSerializableException: java.util.regex.Matcher,错误的原因是Matcher是不可序列化的类型。

node('remote') { git url: ' def matcher = readFile('pom.xml') =~ '(.+)' if (matcher) { echo "Building version ${matcher[0][1]}" } def mvnHome = tool 'M3' sh "${mvnHome}/bin/mvn -B -Dmaven.test.failure.ignore verify" step([$class: 'ArtifactArchiver', artifacts: '**/target/*.jar', fingerprint: true]) step([$class: 'JUnitResultArchiver', testResults: '**/target/surefire-reports/TEST-*.xml'])}

pipeline job为了支持能够在jenkins重启后恢复继续运行,jenkins在后台定期地将job的运行状态保存到硬盘。保存的动作一般在每个step结束后,或者在一些step的中间,例如sh step的中间。jenkins保存的job的状态,包括整个控制流程,例如局部变量,循环所在的位置,等等。正因为如此,groovy里的任何变量必须是number,string或可序列化的类型,其他的例如网络连接等是不能够序列化的。如果你临时地使用不可序列化的类型,则需要在使用完马上释放。如果局部变量在函数中,函数调用结束的时候局部变量也会被自动释放。我们也可以显示地释放局部变量。 如下

node('remote') { git url: ' def matcher = readFile('pom.xml') =~ '(.+)' if (matcher) { echo "Building version ${matcher[0][1]}" } matcher = null def mvnHome = tool 'M3' sh "${mvnHome}/bin/mvn -B -Dmaven.test.failure.ignore verify" step([$class: 'ArtifactArchiver', artifacts: '**/target/*.jar', fingerprint: true]) step([$class: 'JUnitResultArchiver', testResults: '**/target/surefire-reports/TEST-*.xml'])}

然而最安全的方法是将不可序列化的语句隔离到函数中,且在函数的前面增加属性@NonCPS。通过这种方法pipeline将识别此函数为native且不保存对应的局部变量。另外使用了@NoCPS的函数中不能够调用其他的pipeline steps,例如必须将readFile放到函数外面:

node('remote') { git url: ' def v = version(readFile('pom.xml')) if (v) { echo "Building version ${v}" } def mvnHome = tool 'M3' sh "${mvnHome}/bin/mvn -B -Dmaven.test.failure.ignore verify" step([$class: 'ArtifactArchiver', artifacts: '**/target/*.jar', fingerprint: true]) step([$class: 'JUnitResultArchiver', testResults: '**/target/surefire-reports/TEST-*.xml'])}@NonCPSdef version(text) { def matcher = text =~ '(.+)' matcher ? matcher[0][1] : null}

上面的加了@NoCPS的version函数将被正常的groovy运行时执行,所以任何的局部变量都是允许的。

3. 创建多线程

pipeline能够使用parallel来同时执行多个任务。 parallel的调用需要传入map类型作为参数,map的key为名字,value为要执行的groovy脚本。为了测试parallel的运行,可以安装parallel test executor插件。此插件可以将运行缓慢的测试分割splitTests。

用下面的脚本新建pipeline job:

node('remote') { git url: ' archive 'pom.xml, src/'}def splits = splitTests([$class: 'CountDrivenParallelism', size: 2])def branches = [:]for (int i = 0; i < splits.size(); i++) { def exclusions = splits.get(i); branches["split${i}"] = { node('remote') { sh 'rm -rf *' unarchive mapping: ['pom.xml' : '.', 'src/' : '.'] writeFile file: 'exclusions.txt', text: exclusions.join("\n") sh "${tool 'M3'}/bin/mvn -B -Dmaven.test.failure.ignore test" step([$class: 'JUnitResultArchiver', testResults: 'target/surefire-reports/*.xml']) } }}parallel branches

如果遇到RejectedAccessException错误,需要管理员approve权限staticMethod org.codehaus.groovy.runtime.ScriptBytecodeAdapter compareLessThan java.lang.Object java.lang.Object。

当第一次运行上面的pipeline job的时候,所有的测试顺序执行。当第二次或以后执行的时候,splitTests将会将所有的测试分割为大概等价的两份,然后两个task并行运行。如果两个task运行在不同的slave上,则可以看到job总的时间将会减半。

下面的等价语句用来打包pom.xml和源代码:archive 'pom.xml, src/'step([$class: 'ArtifactArchiver', artifacts: 'pom.xml, src/'])

我们可以看到prallel里的语句使用了node,这意味着并行执行的任务将会在新的node/slave上执行,且使用不同的workspace,为了确保所有的node和workspace使用相同的代码,所以才有了前面的打包archive和parallel里的解包unarchive。

上面的例子中我们可以看到同一个pipeline job里可以使用多个node,多个node会有不同的workspace,我们需要确保每个workspace的内容都是我们想要的内容。

另一个问题,如果在pipeline中使用env,环境变量的修改会在整个pipeline起作用,如果只修改parallel并行的线程的变量,可以使用withEnv。

在使用了parallel的console log里,并行的log都混在了一起,需要在job的pipeline steps页面查看按逻辑分割的更情况的log。

4. 创建stage

默认地,pipeline的多个job可以并行地运行。使用stage可以限制job里的某些阶段的并行数量。新的job用于更高的优先级,旧的job遇到stage的并行限制会直接退出。

并行性的限制有的时候很有用,例如部署到单个server,在同一时间只能有最新的一个job部署。

5. 从外部加载groovy脚本

作者:​​iTech​​

github:​​https://github.com/cicdops/cicdops​​

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:在centos中安装jenkins master为service
下一篇:huey:小型多线程任务队列
相关文章

 发表评论

暂时没有评论,来抢沙发吧~