pandas.read_pickle#
- pandas.read_pickle(filepath_or_buffer, compression='infer', storage_options=None)[源代码][源代码]#
从文件加载pickled的pandas对象(或任何对象)并返回未pickled的对象。
警告
从不信任的来源加载pickled数据可能是不安全的。请参见 这里。
- 参数:
- filepath_or_buffer字符串, 路径对象, 或类文件对象
字符串、路径对象(实现
os.PathLike[str]
),或实现二进制readlines()
函数的类文件对象。也接受 URL。URL 不限于 S3 和 GCS。- 压缩str 或 dict,默认 ‘infer’
用于即时解压磁盘数据。如果 ‘infer’ 并且 ‘filepath_or_buffer’ 是类路径,则从以下扩展名检测压缩:’.gz’, ‘.bz2’, ‘.zip’, ‘.xz’, ‘.zst’, ‘.tar’, ‘.tar.gz’, ‘.tar.xz’ 或 ‘.tar.bz2’(否则不压缩)。如果使用 ‘zip’ 或 ‘tar’,ZIP 文件必须仅包含一个要读取的数据文件。设置为
None
表示不解压。也可以是一个字典,键'method'
设置为 {'zip'
,'gzip'
,'bz2'
,'zstd'
,'xz'
,'tar'
} 之一,其他键值对将转发给zipfile.ZipFile
,gzip.GzipFile
,bz2.BZ2File
,zstandard.ZstdDecompressor
,lzma.LZMAFile
或tarfile.TarFile
,分别。例如,以下内容可以传递用于使用自定义压缩字典的 Zstandard 解压:compression={'method': 'zstd', 'dict_data': my_compression_dict}
。Added in version 1.5.0: 增加了对 .tar 文件的支持。
在 1.4.0 版本发生变更: Zstandard 支持。
- storage_options字典, 可选
对于特定存储连接有意义的额外选项,例如主机、端口、用户名、密码等。对于HTTP(S) URL,键值对会作为头选项转发到
urllib.request.Request
。对于其他URL(例如以“s3://”和“gcs://”开头),键值对会转发到fsspec.open
。请参阅fsspec
和urllib
获取更多详细信息,关于存储选项的更多示例请参考 这里。
- 返回:
- 对象
从文件中解封的 pandas 对象(或任何对象)。
参见
DataFrame.to_pickle
将 DataFrame 对象序列化(pickle)到文件中。
Series.to_pickle
将 Series 对象序列化(pickle)到文件中。
read_hdf
将 HDF5 文件读取到 DataFrame 中。
read_sql
将 SQL 查询或数据库表读取到 DataFrame 中。
read_parquet
加载一个 parquet 对象,返回一个 DataFrame。
备注
read_pickle 只有在对象是使用 to_pickle 序列化的情况下,才保证与 pandas 1.0 向后兼容。
例子
>>> original_df = pd.DataFrame( ... {"foo": range(5), "bar": range(5, 10)} ... ) >>> original_df foo bar 0 0 5 1 1 6 2 2 7 3 3 8 4 4 9 >>> pd.to_pickle(original_df, "./dummy.pkl")
>>> unpickled_df = pd.read_pickle("./dummy.pkl") >>> unpickled_df foo bar 0 0 5 1 1 6 2 2 7 3 3 8 4 4 9