Python实现批量压缩文件/文件夹zipfile的使用
目录
- 【Python压缩文件夹】导入“zipfile”模块
- 【python压缩文件】导入“zipfile”模块
- 补充
zipfile是python里用来做zip格式编码的压缩和解压缩的,由于是很常见的zip格式,所以这个模块使用频率也是比较高的,
在这里对zipfile的使用方法做一些记录。即方便自己也方便别人。
Python zipfile模块用来做zip格式编码的压缩和解压缩的,要进行相关操作,首先需要实例化一个 ZipFile 对象。ZipFile 接受一个字符串格式压缩包名称作为它的必选参数,第二个参数为可选参数,表示打开模式,类似于文件操作,有r/w/a三种模式,分别代表读、写、添加,默认为r,即读模式。
zipfile里有两个非常重要的class, 分别是ZipFile和ZipInfo, 在绝大多数的情况下,我们只需要使用这两个class就可以了。ZipFile是主要的类,用来创建和读取zip文件而ZipInfo是存储的zip文件的每个文件的信息的。
【Python压缩文件夹】导入“zipfile”模块
def zip_ya(startdir,file_news): startdir = ".\\123" #要压缩的文件夹路径 file_news = startdir +'.zip' # 压缩后文件夹的名字 z = zipfile.ZipFile(file_news,'w',zipfile.ZIP_DEFLATED) #参数一:文件夹名 for dirpath, dirnames, filenames in os.walk(startdir): fpath = dirpath.replace(startdir,'') #这一句很重要,不replace的话,就从根目录开始复制 fpath = fpath and fpath + os.sep or ''#这句话理解我也点郁闷,实现当前文件夹以及包含的所有文件的压缩 for filename in filenames: z.write(os.path.join(dirpath, filename),fpath+filename) print ('压缩成功') z.close() if__name__=="__main__" startdir = ".\\123" #要压缩的文件夹路径 file_news = startdir +'.zip' # 压缩后文件夹的名字 zip_ya(startdir,file_news)
【python压缩文件】导入“zipfile”模块
import zipfile def zip_files( files, zip_name ): zip = zipfile.ZipFile( zip_name, 'w', zipfile.ZIP_DEFLATED ) for file in files: print ('compressing', file) zip.write( file ) zip.close() print ('compressing finished') files = ['.\\123.txt','.\\3.txt']#文件的位置,多个文件用“,”隔开 zip_file = '.\\m66y.zip'#压缩包名字 zip_files(files, zip_file)
补充
ZipFile还提供了如下常用的方法和属性:
ZipFile.getinfo(name)
获取zip文档内指定文件的信息。返回一个zipfile.ZipInfo对象,它包括文件的详细信息。
ZipFile.infolist()
获取zip文档内所有文件的信息,返回一个zipfile.ZipInfo的列表。
ZipFile.namelist()
获取zip文档内所有文件的名称列表。
ZipFile.extract(member[, path[, pwd]])
将zip文档内的指定文件解压到当前目录。参数member指定要解压的文件名称或对应的ZipInfo对象;参数path指定了解析文件保存的文件夹;
ZipFile.extractall([path[, members[, pwd]]])
解压zip文档中的所有文件到当前目录。参数members的默认值为zip文档内的所有文件名称列表,也可以自己设置,选择要解压的文件名称。
ZipFile.printdir()
将zip文档内的信息打印到控制台上。
ZipFile.setpassword(pwd)
设置zip文档的密码。
ZipFile.read(name[, pwd])
到此这篇关于Python实现批量压缩文件/文件夹zipfile的使用的文章就介绍到这了,更多相关Python 批量压缩zipfile内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!