如何使用批处理执行python脚本,并把python脚本的控制台日志输出到一个log文件中

Python013

如何使用批处理执行python脚本,并把python脚本的控制台日志输出到一个log文件中,第1张

1, 用绝对路径试试:D:\logs\log.txt;

2, 最后的exit去掉试试,反正最后一行执行完也会自然退出。

3, 另写一个简单的python测试脚本,里面只有一行 print 'Hello World', 然后用上述批处理执行一下看看log对不对。

       在实现iOS项目的自动打包工程中,我们需要配置好工程的证书文件信息,为了能够自动的根据bundle id来设置不同的profile文件,我们可以通过脚本文件来修改工程的projext.pbxproj文件帮助我们进行自动设置。

1. Project.pbxproj

Xcode项目中的xxx.xcodeproj其实是一个文件夹,右键单击xxx.xcodeproj,显示包内容:

Project.pbxproj的解析

关于这个配置文件的结构,请参考 project.pbxproj,最熟悉的”陌生人 (http://www.olinone.com/?p=215),解析该文件可以使用现有的解析工具mod-pbxproj,该工具是一个python的脚本。其github地址为: https://github.com/kronenthaler/mod-pbxproj 。

为了修改不同taget的profile,我们需要知道这些配置在文件中的具体位置,不难发现:

我们的目标是为不同的bundle id设置不同的profile,所以只需要找到不同target的XCBuildConfiguration,修改其中PROVISIONING_PROFILE的值即可。通过分析project.pbxproj文件结构,你会发现其找到这些target的buildSettings的路径如下:

rootObject=>PBXNativeTarget=>XCConfigurationList=>XCBuildConfiguration。

XCBuildConfiguration会有Debug和Release两个版本,这里我们以修改Release版本的为例进行说明。

2. Python脚本修改profile

需要在工程目录下配置如下脚本文件,通过从json文件中读取配置信息,然后根据不同的bundle id来设置不同的profile文件和其他字段信息。其中xcode_configurator_profile.py为修改profile的脚本文件,profile.json为配置的证书信息。demo如下图所示:

首先在profile.json文件中配置好bundle id和对应的profile文件,如下如所示:

然后在工程目录下执行xcode_configurator_profile.py:

检查profile修改结果:

如果设置了以后有任何问题, 你可以在对应的xxx.xcodeproject下找到对应的备份。

第一步:将我们数据库备份到某目录下,注明时间:

运行备份脚本(注意在备份目录下,我的在/home/dbback/下)

查看目录是否生成备份文件,心细的同学可能发现我这个mysqldump没有指定用户名和密码,为啥我运行的时候费用输入密码呢?莫着急,马上为你揭晓答案,因为mysql5.6后(具体版本编号不记得了),如果你把密码写到脚本里,运行会有警告,告诉你不要把密码写到脚本里,会有危险,那我的小伙伴该怎么办呢,官方给了解决方案,期望你是配置到my.cnf文件中,所以,现在打开你的my.cnf,加入如下字段:

有了以上这两条,运行脚本时就不会在提示要输入密码了,马上测试下,看是否成功,如果没问题,我们进入下一步。

第二步:如何自动备份到oss中,开始前我们要做两件事,

1、登录阿里云控制台,点右上“管理控制台”,然后点左上“产品与服务”,在第二列中点击“对象存储OSS”,如果没开通就要开通,如果开通了直接点击右上的“新建bucket”,来创建一个bucket,记住buket的名字。(注:其实通过api也是可以直接创建bucket的,因为这个操作不多,所以我就用控制台来创建了,降低理解的难度。)

2、开始写上传脚本,因为要导入oss的sdk,所以要下安装下,比较简单,跟安装其他python包没啥区别,解压进入目录,然后运行python setup.py install 就安装完毕了,接下来看我们如何使用它,全部代码如下:

#!/usr/bin/python env

#autor:glacier

#date:2015-11-16

import os,os.path,time

import operator

import time

from oss.oss_api import *

prefix = '/home/dbback'

logtime = time.strftime(time.ctime())

#filelist = [ file for file in os.listdir(os.path.dirname(os.path.abspath(__file__))) if os.path.isfile(file) ]

filelist = [ file for file in os.listdir(prefix) if os.path.isfile(prefix + '/' + file) ]

def get_time(filename):

ft = os.stat(filename)

return ft.st_ctime

#def get_max():

#flist = []

#for file in filelist:

#flist.append(os.stat(file).st_ctime)

#return max(flist)

def get_dist():

d = {}

for file in filelist:

d[file] = get_time(prefix + '/' + file)

return d

if __name__ == '__main__':

#maxtime = get_max()

d = get_dist()

#dic= sorted(d.iteritems(), key=lambda d:d[1], reverse = True)

upfile = max(d.iteritems(), key=operator.itemgetter(1))[0]

endpoint = "your aliyun endpoint"

accessKeyId, accessKeySecret="your accessKeyId","your accessKeySecret "

oss = OssAPI(endpoint, accessKeyId, accessKeySecret)

res = oss.put_object_from_file("bucketname",upfile,prefix + '/' + upfile)

if res.status != 200:

with open('/var/log/dbback.log', 'a+') as f:

f.write(logtime + ' back failed' + '\n')

我们接下来分析下脚本内容,其中脚本中注释的行都不用看,是我编写过程中测试用的,最开始我们设定了备份文件的目录和记录日志的时间,然后生成了一个备份目录所有文件的列表(列表其实不是最好的方式,我是用最简单的方式了,因为文件多了,列表会慢),然后定义了两个函数,get_time()函数是获取文件的创建时间戳,get_dist()函数是获取文件名和时间戳的字典,主函数部分比较难理解的根据字典value排序获得文件名了,d.iteritems()获得字典中的每个key,value对,key指定了一个函数,operator.itemgetter(1)表示用value来排序(因为就两个元素,key 是0,value就是1了),就是时间戳,排序完后返回key,最后的[0]做了这个工作,脚本其它部分的内容我就不多说了,都是很常见的用法,没什么难于理解的,好,脚本就介绍到这里,接下来进入我们最后一步。

第三步:将脚本写入crontab中,具体什么时候执行,就根据大家各自业务不同来设置了,没什么特别的。