python小技巧——将变量保存在本地及读取
在用jupyter notebook写python代码的过程中会产生很多变量,而关闭后或者restart jupyter kernel后所有变量均会消失,想要查看变量就必须将代码重新再运行一遍,而想在另一个jupyter notebook中调用变量就更加麻烦。在运行时间很长的代码中将变量保存下来能够节省很多事。
那就开始吧!
我用到的包是pickle
1.在使用之前首先需要导入包:
import pickle
2.导入包后即可开始实质性操作,我们定义保存变量和读取变量的函数。
保存变量函数:
def save_variable(v,filename): f=open(filename,'wb') pickle.dump(v,f) f.close() return filename
读取变量函数:
def load_variavle(filename): f=open(filename,'rb') r=pickle.load(f) f.close() return r
3.保存变量和读取变量操作。
保存变量:将变量results
保存在results.txt
文件中。
filename = save_variable(results, 'results.txt')
读取变量:从results.txt
中读取变量内容给results
。
results = load_variavle('results.txt')
最后将代码放在一起,想用哪段用哪段。
import pickle def save_variable(v,filename): f=open(filename,'wb') pickle.dump(v,f) f.close() return filename def load_variavle(filename): f=open(filename,'rb') r=pickle.load(f) f.close() return r filename = save_variable(results,'results.txt') results = load_variavle('results.txt')
以上就是python小技巧——将变量保存在本地及读取的详细内容,更多关于python 变量保存并读取的资料请关注我们其它相关文章!
相关推荐
-
python 提高开发效率的5个小技巧
很多时候学习是一种难者不会,会者不难的事情. 下面的5个python技巧是性价比极高的知识点,一学就会,不难但是相当管用. 使用交互模式 使用python -i xxxx.py可以直接进入python的交互模式,可以很方便的调用xxxx.py中定义的方法和函数,特别适合调试没有main()方法的文件,强力推荐. 使用pdb进行调试 很多从c++/java转到python的同学可能对python没有断点功能相当失望. 其实python自带的pdb库就可以解决这个问题. 看这个例子. def sum
-
Python爬虫小技巧之伪造随机的User-Agent
前言 不管是做开发还是做过网站的朋友们,应该对于User Agent一点都不陌生,User Agent 中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统及版本.CPU 类型.浏览器及版本.浏览器渲染引擎.浏览器语言.浏览器插件等 在Python爬虫的过程中经常要模拟UserAgent, 因此自动生成UserAgent十分有用 通过UA来判断不同的设备或者浏览器是开发者最常用的方式方法,这个也是对于Python反爬的一种策略,但是有盾就有矛啊 写好爬虫的原则
-
使用Python操作MySQL的小技巧
1.获取插入数据的主键id import pymysql database = pymysql.connect( host="127.0.0.1", port=3306, user="root", password="root", database="test" ) cursor = database.cursor() for i in range(5): cursor.execute('insert into test (n
-
10个Python小技巧你值得拥有
列表推导式 你有一个list: bag = [1, 2, 3, 4, 5] 现在你想让所有元素翻倍,让它看起来是这个样子: [2, 4, 6, 8, 10] 大多初学者,根据之前语言的经验会大概这样来做 bag = [1, 2, 3, 4, 5] for i in range(len(bag)): bag[i] = bag[i] * 2 但是有更好的方法: bag = [elem * 2 for elem in bag] 很简洁对不对?这叫做Python的列表推导式 . 遍历列表 还是上面的列表
-
使用python将大量数据导出到Excel中的小技巧分享
(1) 问题描述:为了更好地展示数据,Excel格式的数据文件往往比文本文件更具有优势,但是具体到python中,该如何导出数据到Excel呢?如果碰到需要导出大量数据又该如何操作呢? 本文主要解决以上两个问题. (2)具体步骤如下: 1.第一步,安装openpyxl, 使用pip install openpyxl即可,但是在windows下安装的是2.2.6版本,但是centos自动安装的是4.1版本,(多谢海哥的提醒). 写的代码在windows下运行没问题,但centos上却报错了,说是e
-
详解Python中正则匹配TAB及空格的小技巧
在正则中,使用.*可以匹配所有字符,其中.代表除\n外的任意字符,*代表0-无穷个,比如说要分别匹配某个目录下的子目录: >>> import re >>> match = re.match(r"/(.*)/(.*)/(.*)/", "/usr/local/bin/") >>> match.groups() ('usr', 'local', 'bin') >>> 比如像上面,使用(.*)就能很好
-
使用Python解决Windows文件名非用反斜杠问题(python 小技巧)
在编程过程中,我们往往会遇到一个小麻烦--微软 Windows 系统在文件夹名之间使用反斜杠字符,而几乎所有其它的计算机(操作系统)都使用正斜杠: Windows filenames: C:\some_folder\some_file.txt Most other operating systems: /some_folder/some_file.txt 这是由于上世纪 80 年代早期计算机历史上的一个小意外.「MS-DOS」的第一版使用了正斜杠字符来指定命令行选项.当微软在「MS-DOS 2.
-
常用的10个Python实用小技巧
大家好,都说追女孩方法大于态度,学Python也是,今天就给大家分享的是我在用Python编写程序时常用的一些小技巧. 1.多次打印同一个字符 在Python中,不用特地写一个函数来重复打印同一个字符,直接使用Print就可以 tem = 'I Love Python ' print(tem * 3) I Love Python I Love Python I Love Python 2.在函数内部使用生成器 在写Python程序时,我们可以在函数内部直接使用生成器,这样可以使代码更简洁. su
-
Python 使用类写装饰器的小技巧
最近学到了一个有趣的装饰器写法,就记录一下. 装饰器是一个返回函数的函数.写一个装饰器,除了最常见的在函数中定义函数以外,Python还允许使用类来定义一个装饰器. 1.用类写装饰器 下面用常见的写法实现了一个缓存装饰器. def cache(func): data = {} def wrapper(*args, **kwargs): key = f'{func.__name__}-{str(args)}-{str(kwargs)})' if key in data: result = data
-
Python中使用filter过滤列表的一个小技巧分享
有的时候使用dir(Module),可以查看里面的方法,但是模块自带的属性"__"开头的也会显示,如下: >>> import random >>> dir(random) ['BPF', 'LOG4', 'NV_MAGICCONST', 'RECIP_BPF', 'Random', 'SG_MAGICCONST', 'SystemRandom', 'TWOPI', 'WichmannHill', '_Buil tinMethodType', '_M
-
详解10个可以快速用Python进行数据分析的小技巧
一些小提示和小技巧可能是非常有用的,特别是在编程领域.有时候使用一点点黑客技术,既可以节省时间,还可能挽救"生命". 一个小小的快捷方式或附加组件有时真是天赐之物,并且可以成为真正的生产力助推器.所以,这里有一些小提示和小技巧,有些可能是新的,但我相信在下一个数据分析项目中会让你非常方便. Pandas中数据框数据的Profiling过程 Profiling(分析器)是一个帮助我们理解数据的过程,而Pandas Profiling是一个Python包,它可以简单快速地对Pandas 的
-
Python爬虫常用小技巧之设置代理IP
设置代理IP的原因 我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站.假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问.所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象. 我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败.高强度.高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文
随机推荐
- http代理相关知识分析
- Linux下安装Tomcat7.0.82的简单方法
- asp,asp.net,php,jsp下的301转向代码
- iOS实现列表与网格两种视图的相互切换
- jquery.jstree 增加节点的双击事件代码
- IE同样实现多线程断点续传
- 简单谈谈AJAX核心对象
- Ajax 实现加载进度条
- flash 打开本地文件代码
- SQL命令优化需要记住的9点事项
- Oracle教程之pl/sql简介
- 基于javascript实现页面加载loading效果
- jQuery实现折叠、展开的菜单组效果代码
- 取得input元素中部分选中(selected)的值
- Nodejs使用mysql模块之获得更新和删除影响的行数的方法
- JDBC链接数据库的几个步骤
- Cisco设备IOS的恢复方法
- asp.net中Response.Redirect与Server.Transfer的区别分析
- 建立灵巧结构的PHP程序
- Android View 测量流程(Measure)全面解析