读取和写入文件#
本页面处理常见应用;有关完整的 I/O 例程集合,请参见 输入和输出.
读取文本和 CSV 文件#
没有缺失值#
使用 numpy.loadtxt
.
带有缺失值#
使用 numpy.genfromtxt
.
使用非空白分隔符#
>>> with open("csv.txt", "r") as f:
... print(f.read())
1, 2, 3
4,, 6
7, 8, 9
掩码数组输出#
>>> np.genfromtxt("csv.txt", delimiter=",", usemask=True)
masked_array(
data=[[1.0, 2.0, 3.0],
[4.0, --, 6.0],
[7.0, 8.0, 9.0]],
mask=[[False, False, False],
[False, True, False],
[False, False, False]],
fill_value=1e+20)
数组输出#
>>> np.genfromtxt("csv.txt", delimiter=",")
array([[ 1., 2., 3.],
[ 4., nan, 6.],
[ 7., 8., 9.]])
数组输出,指定填充值#
>>> np.genfromtxt("csv.txt", delimiter=",", dtype=np.int8, filling_values=99)
array([[ 1, 2, 3],
[ 4, 99, 6],
[ 7, 8, 9]], dtype=int8)
空白分隔#
numpy.genfromtxt
也可以解析带有缺失值的空白分隔数据文件,如果
每个字段都有一个固定的宽度:使用宽度作为 delimiter 参数.:
# File with width=4. The data does not have to be justified (for example, # the 2 in row 1), the last column can be less than width (for example, the 6 # in row 2), and no delimiting character is required (for instance 8888 and 9 # in row 3) >>> with open("fixedwidth.txt", "r") as f: ... data = (f.read()) >>> print(data) 1 2 3 44 6 7 88889 # Showing spaces as ^ >>> print(data.replace(" ","^")) 1^^^2^^^^^^3 44^^^^^^6 7^^^88889 >>> np.genfromtxt("fixedwidth.txt", delimiter=4) array([[1.000e+00, 2.000e+00, 3.000e+00], [4.400e+01, nan, 6.000e+00], [7.000e+00, 8.888e+03, 9.000e+00]])
一个特殊值(例如”x”)表示一个缺失字段:将其用作 missing_values 参数.
>>> with open("nan.txt", "r") as f: ... print(f.read()) 1 2 3 44 x 6 7 8888 9
>>> np.genfromtxt("nan.txt", missing_values="x") array([[1.000e+00, 2.000e+00, 3.000e+00], [4.400e+01, nan, 6.000e+00], [7.000e+00, 8.888e+03, 9.000e+00]])
你想要跳过包含缺失值的行:设置 invalid_raise=False.
>>> with open("skip.txt", "r") as f: ... print(f.read()) 1 2 3 44 6 7 888 9
>>> np.genfromtxt("skip.txt", invalid_raise=False) __main__:1: ConversionWarning: Some errors were detected ! Line #2 (got 2 columns instead of 3) array([[ 1., 2., 3.], [ 7., 888., 9.]])
分隔符空白字符与表示缺失数据的空白字符不同.例如,如果列由
\t
分隔,那么如果缺失数据由一个或多个空格组成,则会被识别为缺失数据.:>>> with open("tabs.txt", "r") as f: ... data = (f.read()) >>> print(data) 1 2 3 44 6 7 888 9 # Tabs vs. spaces >>> print(data.replace("\t","^")) 1^2^3 44^ ^6 7^888^9 >>> np.genfromtxt("tabs.txt", delimiter="\t", missing_values=" +") array([[ 1., 2., 3.], [ 44., nan, 6.], [ 7., 888., 9.]])
读取 .npy 或 .npz 格式的文件#
选择:
使用
numpy.load
.它可以读取由numpy.save
、numpy.savez
或numpy.savez_compressed
生成的文件.使用内存映射.请参见
numpy.lib.format.open_memmap
.
写入一个文件,以便由NumPy读回#
二进制#
使用 numpy.save
,或者存储多个数组使用 numpy.savez
或 numpy.savez_compressed
.
对于 安全性和可移植性 ,除非 dtype 包含需要序列化的 Python 对象,否则请设置 allow_pickle=False
.
掩码数组 目前无法保存
,也无法保存其他任意数组子类.
可读的#
numpy.save
和 numpy.savez
创建二进制文件.要 写一个人类可读的文件,使用 numpy.savetxt
.数组只能是1维或2维的,并且没有 savetxtz 用于多个文件.
大数组#
请参见 写入或读取大数组.
读取任意格式的二进制文件(”二进制数据块”)#
使用一个 结构化数组.
Example:
.wav
文件头是一个 44 字节的块,位于 data_size
字节的实际声音数据之前:
chunk_id "RIFF"
chunk_size 4-byte unsigned little-endian integer
format "WAVE"
fmt_id "fmt "
fmt_size 4-byte unsigned little-endian integer
audio_fmt 2-byte unsigned little-endian integer
num_channels 2-byte unsigned little-endian integer
sample_rate 4-byte unsigned little-endian integer
byte_rate 4-byte unsigned little-endian integer
block_align 2-byte unsigned little-endian integer
bits_per_sample 2-byte unsigned little-endian integer
data_id "data"
data_size 4-byte unsigned little-endian integer
.wav
文件头作为一个 NumPy 结构化 dtype:
wav_header_dtype = np.dtype([
("chunk_id", (bytes, 4)), # flexible-sized scalar type, item size 4
("chunk_size", "<u4"), # little-endian unsigned 32-bit integer
("format", "S4"), # 4-byte string, alternate spelling of (bytes, 4)
("fmt_id", "S4"),
("fmt_size", "<u4"),
("audio_fmt", "<u2"), #
("num_channels", "<u2"), # .. more of the same ...
("sample_rate", "<u4"), #
("byte_rate", "<u4"),
("block_align", "<u2"),
("bits_per_sample", "<u2"),
("data_id", "S4"),
("data_size", "<u4"),
#
# the sound data itself cannot be represented here:
# it does not have a fixed size
])
header = np.fromfile(f, dtype=wave_header_dtype, count=1)[0]
这个 .wav
示例是为了说明;在实际生活中读取 .wav
文件时,请使用 Python 的内置模块 wave
.
(改编自 Pauli Virtanen,:ref:advanced_numpy,根据 CC BY 4.0 许可.)
写入或读取大数组#
太大而无法放入内存的数组 可以使用内存映射像普通内存中的数组一样处理.
使用
numpy.ndarray.tofile
或numpy.ndarray.tobytes
写入的原始数组数据可以用numpy.memmap
读取:array = numpy.memmap("mydata/myarray.arr", mode="r", dtype=np.int16, shape=(1024, 1024))
由
numpy.save
输出的文件(即使用 numpy 格式)可以使用带有mmap_mode
关键字参数的numpy.load
读取:large_array[some_slice] = np.load("path/to/small_array", mmap_mode="r")
内存映射缺少数据分块和压缩等功能;更全功能的格式和可与NumPy一起使用的库包括:
Zarr: here.
NetCDF:
scipy.io.netcdf_file
.
关于 memmap、Zarr 和 HDF5 之间的权衡,请参见 pythonspeed.com.
为其他(非NumPy)工具编写文件#
与其他工具**交换数据**的格式包括 HDF5、Zarr 和 NetCDF(参见 写入或读取大数组).
写入或读取一个 JSON 文件#
NumPy 数组和大多数 NumPy 标量 不是 直接 JSON 可序列化的.相反,使用自定义的 json.JSONEncoder
用于 NumPy 类型,这可以通过你喜欢的搜索引擎找到.
使用 pickle 文件进行保存/恢复#
尽可能避免使用;:doc:pickles 对于错误或恶意构造的数据不安全.
使用 numpy.save
和 numpy.load
.设置 allow_pickle=False
,除非数组的数据类型包含Python对象,在这种情况下需要进行pickle处理.
numpy.load
和 pickle
子模块也支持解封文件,这些文件是用 NumPy 1.26 创建的.
从 pandas DataFrame 转换为 NumPy 数组#
使用 tofile
和 fromfile
进行保存/恢复#
一般来说,优先使用 numpy.save
和 numpy.load
.
numpy.ndarray.tofile
和 numpy.fromfile
会丢失字节顺序和精度的信息,因此除了临时存储外,不适合其他用途.