博客
关于我
python:利用json保存和读取数据
阅读量:168 次
发布时间:2019-02-28

本文共 1787 字,大约阅读时间需要 5 分钟。

在实际项目中,数据的本地存储是非常常见的需求。为了便于后续的查看和复用,通常会选择将数据以JSON格式保存。这种格式特别适用于存储如Int、double、str、list、tuple、dict等Python的原生数据类型。

保存数据

要将数据保存为JSON文件,可以按照以下步骤进行:

  • 准备数据:首先,确保你需要保存的数据类型是JSON支持的Python原生数据类型。如果是NumPy数组,可以通过将其转换为列表形式(使用tolist()方法)来保存。

  • 创建字典对象:将数据与其他元数据(如文件名、日期等)组合成一个字典对象。

  • 转换为JSON字符串:使用json.dumps()函数将字典对象转换为JSON格式的字符串。

  • 生成文件名:根据需求生成唯一的文件名,通常可以结合当前日期和文件扩展名(如.json)。

  • 写入文件:使用文件操作函数将JSON字符串写入本地文件中。

  • 以下是一个完整的代码示例:

    import json# 示例数据dictObj = {    'name': 'zhuang',    'state': 'exciting',    'data': [1, 2, 3, 4, 5]}# 生成当前日期的文件名import datetimenow = datetime.datetime.now().strftime('%Y-%m-%d')filename = f'test_{now}.json'# 将字典对象序列化为JSON字符串jsObj = json.dumps(dictObj)# 打开文件并写入内容with open(filename, 'w') as fileObject:    fileObject.write(jsObj)

    结果

    执行上述代码后,系统会在本地目录下生成一个名为test_2020-08-20.json的文件,文件内容为:

    {    "name": "zhuang",    "state": "exciting",    "data": [1, 2, 3, 4, 5]}

    载入数据

    要重新加载这些数据,可以按照以下步骤进行:

  • 打开文件:使用open()函数读取文件内容,确保使用正确的编码格式(如UTF-8)。

  • 解析JSON内容:使用json.load()函数将文件内容解析为Python字典对象。

  • 处理数据:根据需求对解析后的数据进行进一步处理或展示。

  • 以下是一个加载数据的代码示例:

    filename = 'test_2020-08-20.json'with open(filename, encoding='UTF-8') as fin:    s = json.load(fin)print(s)

    注意事项

    NumPy数组的保存

    如果你需要保存NumPy数组,直接使用json.dump()会报错,因为JSON不支持NumPy数组的序列化。解决方法是将NumPy数组转换为列表形式,再进行保存。

    import numpy as np# 创建NumPy数组a = np.array([1, 2, 3, 4, 5])# 将其转换为列表形式a_list = a.tolist()# 创建保存的字典对象dictObj = {    'data': a_list}# 生成文件名并写入filename = 'test_save_array.json'with open(filename, 'w') as fileObject:    jsObj = json.dumps(dictObj)    fileObject.write(jsObj)

    结果

    保存完成后,文件内容将为:

    {    "data": [1, 2, 3, 4, 5]}

    为了验证结果的正确性,可以重新加载文件并打印内容:

    filename = 'test_save_array.json'with open(filename, encoding='UTF-8') as fin:    s = json.load(fin)print(s)

    总结

    通过上述方法,你可以轻松地将Python数据以JSON格式保存到本地文件中,并在需要时重新加载和使用。对于NumPy数组,只需将其转换为列表即可顺利保存和恢复。这种方法简单且高效,适用于大多数数据持久化场景。

    转载地址:http://ythd.baihongyu.com/

    你可能感兴趣的文章
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
    查看>>
    NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
    查看>>
    nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
    查看>>
    NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
    查看>>
    Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
    查看>>
    NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
    查看>>
    NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
    查看>>
    NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
    查看>>
    NIFI大数据进阶_NIFI集群知识点_认识NIFI集群以及集群的组成部分---大数据之Nifi工作笔记0014
    查看>>
    NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
    查看>>
    NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
    查看>>
    NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
    查看>>