python之fabric(二):执行模式(转)
执行模式
- 执行模式可以让你在多个主机上执行多个任务。
执行策略:
- 默认fabric是单个有序地执行方法,其行为如下:
1. 创建一系列任务,通过fab任务执行要执行的任务;
2. 根据主机列表定义,去执行每一个任务;
3. 没有主机定义的任务,将在本地执行一次。
如:
from fabric.api import run, env env.hosts = ['host1', 'host2'] def taskA():
run('ls') def taskB():
run('whoami') # 将在host1, host2都执行taskA, taskB
$ fab taskA taskB # 执行顺序如下
taskA executed on host1
taskA executed on host2
taskB executed on host1
taskB executed on host2
定义任务:
- 如何定义任务,详情可见这里。
定义主机列表:
- 大多数时候你都需要根据目标,来定义多个远程主机,而不是仅在本地。
主机:
- python定义的主机字符串为:
username@hostname:port #用户名和端口都可以省略
- 主机定义也支持IPV6格式,如:
::1, [::1]:1222
user@2001:db8::1
user@[2001:db8::1]:1222
角色:
- 角色提供了可以定义一个字符串对应于一组主机列表,而不是每次都针对的是整个主机列表,如:
from fabric.api import env
#假如www1, www2, www3是你的web服务器, 你可以指定任务由特定的角色来执行
env.roledefs['webservers'] = ['www1', 'www2', 'www3'] # 定义多个角色
env.roledefs = {
'web': ['www1', 'www2', 'www3'],
'dns': ['ns1', 'ns2']
}
怎么构建hosts:
- 通过全局的env:
from fabric.api import env, run env.hosts = ['host1', 'host2'] def mytask():
run('ls /var/www')
- env配置会被每个任务检查,因此你完全可以在方法中设置env,如:
from fabric.api import env, run def set_hosts():
env.hosts = ['host1', 'host2'] def mytask():
run('ls /var/www') # 调用
fab set_hosts mytask, set_hosts
- 通过命令行参数指定:
$ fab -H host1,host2 mytask #会被env.hosts所重写,类似角色也可以通过-R role1, role2, ...来定义
- 你也可以扩展命令行定义的主机,如:
from fabric.api import env, run env.hosts.extend(['host3', 'host4']) def mytask():
run('ls /var/www') # 那么执行主机将merge为host1,host2,host3,host4
fab -H host1, host2 mytask
NOTE: env.hosts是python的list对象,所以你可以用list.append()方法添加host,或者其他方法。
- 针对每个任务的命令行参数:这是fabric提供一种更细粒度的定制:
from fabric.api import run def mytask():
run('ls /var/www') # 该定义将重写其他任何hosts定义,mytask仅会在host1,host2上执行
fab mytask:hosts="host1;host2"
- 针对每个任务进行修饰:
from fabric.api import hosts, run
@hosts('host1', 'host2')
def mytask():
run('ls /var/www')
# 或者
my_hosts = ('host1', 'host2')
@hosts(my_hosts)
def mytask():
# ...
# 这种修饰将重写env.hosts设置, 但不会重写上面通过命令行定义的任务。
- 总结下上面这些host与task绑定定义的优先级:
# 由高到低
1. 命令行 fab mytask:host=host1
2. fabfile中修饰任务@hosts('host1')
3. 在fabfile中设置env.hosts = ['host1']
4. 在命令行中-H host1,host2,...
- 主机列表组合
from fabric.api import env, hosts, roles, run
env.roledefs = {'role1': ['b', 'c']}
@hosts('a', 'b')
@roles('role1')
def mytask():
run('ls /var/www')
# 若命令行不包含task定义,则上面的mytask家在a, b, c主机上执行
- 排除特定的主机
# 若myrole被定义运行[host1, host2,...,host15], 则该命令将排除host2,host5
$ fab -R myrole -x host2,host5 mytask #该-x并不会修改env.hosts
用Execute智能地执行任务:
- 看这么一个例子:
from fabric.api import run, roles
env.roledefs = {
'db': ['db1', 'db2'],
'web': ['web1', 'web2', 'web3'],
}
@roles('db')
def migrate():
# Database stuff here.
pass
@roles('web')
def update():
# Code updates here.
pass
# 在fabric1.2之前,我们需要fab migrate update来执行这两个任务,
# 在fabric1.2之后,我们可以通过execute函数来执行这两个任务:
from fabric.api import run, roles, execute
def deploy():
execute(migrate)
execute(update)
通过Execute访问多主机的结果:
- 一个范例
from fabric.api import env, roles, task, execute, run, runs_once
env.roledefs = {
'zoo': ['zooserver'],
'mysql': ['mysqlmaster'],
}
@task
def workhorse():
return run("uname -a")
@roles('zoo')
@task
@runs_once
def go():
results = execute(workhorse)
print results
#执行
fab go
用Execute动态设置host列表:
- 我们可以通过传递参数,动态设置hosts,如:
from fabric.api import run, execute, task # For example, code talking to an HTTP API, or a database, or ...
from mylib import external_datastore # This is the actual algorithm involved. It does not care about host
# lists at all.
def do_work():
run("something interesting on a host") # This is the user-facing task invoked on the command line.
@task
def deploy(lookup_param):
# This is the magic you don't get with @hosts or @roles.
# Even lazy-loading roles require you to declare available roles
# beforehand. Here, the sky is the limit.
host_list = external_datastore.query(lookup_param)
# Put this dynamically generated host list together with the work to be
# done.
execute(do_work, hosts=host_list) # 调用
fab deploy:app
fab deploy:other
- 一个替代的方法:
from fabric.api import run, task from mylib import external_datastore # Marked as a publicly visible task, but otherwise unchanged: still just
# "do the work, let somebody else worry about what hosts to run on".
@task
def do_work():
run("something interesting on a host") @task
def set_hosts(lookup_param):
# Update env.hosts instead of calling execute()
env.hosts = external_datastore.query(lookup_param) #调用
fab set_hosts:app do_work #相比上一种方法,该方法可以轻易替换其他任务,如
fab set_hosts:db snapshot
fab set_hosts:cassandra,cluster2 repair_ring
fab set_hosts:redis,environ=prod status
故障处理:
- 故障处理也是一个比较实用的东西,fabric默认是"快速失败"的,一旦出现错误,就立即停止。
- 我们可以通过settings上下文中的env.warn_only=True来临时指定,失败也继续执行。
连接:
- fab本身是不对任何主机做远程连接的,她只会设置env.host_string的值(即当前的host)。
- NOTE: 连接对象Connection会保存在fabric.state.connections中,并做缓存,以减少创建新连接的消耗。
懒连接:
- fab在执行远程操作前,并不会事先去连接远程主机,如:
from fabric.api import *
@hosts('host1')
def clean_and_upload():
local('find assets/ -name "*.DS_Store" -exec rm '{}' \;')
local('tar czf /tmp/assets.tgz assets/')
put('/tmp/assets.tgz', '/tmp/assets.tgz') //这里才会开始进行远程连接相关的操作:cache.get() == null?new : cache.get()
with cd('/var/www/myapp/'):
run('tar xzf /tmp/assets.tgz')
关闭连接:
- 连接缓存并不会关闭连接。fab工具会帮你管理连接,它会遍历所有连接,并在其退出前关闭连接。你也可以调用fabric.network.disconnect_all()来确保关闭所有连接。
多次连接尝试和跳过错误的主机:
- fabric在连接远程主机出错之前,会尝试多次(env.connection_attempts,默认为1)连接,每次连接超时env.timeout 秒(默认为10)。
密码管理:
- Fabric在内存中维护了两层的密码缓存管理,会记住你登录的密码和sudo时的密码,以免以后再次输入。
- 第一层密码由 env.password保存,其值为ssh默认密码或sudo提示输入密码。第二层密码保存在env.passwords中,主要用于缓存user/host/port:password。
- Fabric还是建议使用密钥进行ssh访问,如无密登录。
使用本地的SSH配置文件:
- 你可以为Fabric指定特定的ssh配置文件(--ssh-config-path/env.ssh_config_path.),但默认Fabric并没有开启加载配置文件,需要设置env.use_ssh_config为True。
- 若开启了Fabric加载配置文件的选项,则Fabric为使用以下一些配置项:
User/Port ,HostName, IdentityFile, ForwardAgent, ProxyCommand。
具体参考可见:
http://docs.fabfile.org/en/1.9/usage/execution.html
python之fabric(二):执行模式(转)的更多相关文章
- 研磨设计模式解析及python代码实现——(二)外观模式(Facade)
一.外观模式定义 为子系统中的一组接口提供一个一致的界面,使得此子系统更加容易使用. 二.书中python代码实现 class AModuleApi: def testA(self): pass cl ...
- jvm内存结构(二)(栈的变化,机器指令的格式/执行模式)
栈的结构: <Java虚拟机原理图解>4.JVM机器指令集 局部变量表: 方法执行时,虚拟机会把字节码中方法数据区的code类型的属性中的局部变量放到栈的局部变量表中. 操作栈: jvm指 ...
- python设计模式之常用创建模式总结(二)
前言 设计模式的创建模式终极目标是如何使用最少量最少需要修改的代码,传递最少的参数,消耗系统最少的资源创建可用的类的实例对象. 系列文章 python设计模式之单例模式(一) python设计模式之常 ...
- python使用Fabric模块实现自动化运维
简介:Fabric是基于Python实现的SSH命令行工具,简化了SSH的应用程序部署及系统管理任务,它提供了系统基础的操作组件,可以实现本地或远程shell命令,包括:命令执行.文件上传.下载及完整 ...
- 编程语言与Python学习(二)
1.1 流程控制之for循环 1 迭代式循环:for,语法如下 for i in range(10): 缩进的代码块 2 break与continue(同上) 3 循环嵌套 for i in rang ...
- Python进阶(十二)----re模块
Python进阶(十二)----re模块 一丶re模块 re模块是python将正则表达式封装之后的一个模块.正则表达式模式被编译成一系列的字节码,然后由用C编写的匹配引擎执行. #正则表达式: ...
- python排序之二冒泡排序法
python排序之二冒泡排序法 如果你理解之前的插入排序法那冒泡排序法就很容易理解,冒泡排序是两个两个以向后位移的方式比较大小在互换的过程好了不多了先上代码吧如下: 首先还是一个无序列表lis,老规矩 ...
- CDC不同模式在ODI体现系列之二 异步模式
CDC不同模式在ODI体现系列之二 异步模式 2 异步模式需要在数据库中做一些准备工作: 改数据为归档并启用logminer: SQL> shutdown immediate 数据库已经关闭. ...
- Python 数据分析(二 本实验将学习利用 Python 数据聚合与分组运算,时间序列,金融与经济数据应用等相关知识
Python 数据分析(二) 本实验将学习利用 Python 数据聚合与分组运算,时间序列,金融与经济数据应用等相关知识 第1节 groupby 技术 第2节 数据聚合 第3节 分组级运算和转换 第4 ...
随机推荐
- OpenResty 安装及使用(第一篇安装)
OpenResty搭建 1.openResty介绍 OpenResty (也称为 ngx_openresty)是一个全功能的 Web 应用服务器.它打包了标准的 Nginx 核心,很多的常用的第三方模 ...
- C++ using namespace std(转载)
转载自http://www.kuqin.com/language/20080107/3532.html 感谢这位大神的解答! 以下的内容摘抄自转载的文章里面的部分内容. 早些的实现将标准库功能定义在全 ...
- Python Scarpy安装包
由于网络的原因,Scraoy无法安装 Cannot fetch index base URL https://pypi.python.org/simple/ 1. scrapy 安装所需要的包可以从 ...
- HDU 1372 Knight Moves (bfs)
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=1372 Knight Moves Time Limit: 2000/1000 MS (Java/Othe ...
- mySql-通过group by分组
当我们想查询主表和子表的信息时,我们首先会通过主表的id和子表中的主表id关联 如现有主表:tbl_enquire_price(询价表)和子表:tbl_enquire_price_detail(询价详 ...
- 2016HUAS_ACM暑假集训2E - I Hate It
又是一个线段树的应用,不过跟上一题(D-排兵布阵)不同的是,这次是求某段区间上的最值,而不是某段区间和.当然,数据更新是必须的.D题注释已经很详细了,所以这题注释少点. 大致题意:给你N个已经排好的学 ...
- ASP.NET应用程序与页面生命周期
http://www.cnblogs.com/suizhouqiwei/archive/2012/08/15/2637775.html
- Jquery数组操作
jQuery的数组处理,便捷,功能齐全. 最近的项目中用到的比较多,深感实用,一步到位的封装了很多原生js数组不能企及的功能. 最近时间紧迫,今天抽了些时间回过头来看 jQuery中文文档 中对数组的 ...
- winform基本控件----按钮
这次来引用一个我们上课时候老师给的一个实验内容,来说一下winform程序设计中的按钮控件的使用.下面是我们老师给的实验内容. 实验目的: 掌握Winform的开发环境. 掌握窗体的创建和基本方法. ...
- 11 TCP/IP 基础与Linux的网络配置
1. TCP/IP与OSI参考模型 TCP/IP是Unix/Linux世界的网络基础,在某种意义上Unix网络就是TCP/IP,而TCP/IP就是网络互联的标准.它不是一个独立的协议,而是一组协议.其 ...