快速开始

! [ -e /content ] && pip install -Uqq fastai  # 在Colab上升级fastai
from fastai.vision.all import *
from fastai.text.all import *
from fastai.collab import *
from fastai.tabular.all import *

fastai 的应用程序都使用相同的基本步骤和代码:

在这个快速入门中,我们将展示这些步骤适用于广泛的不同应用和数据集。正如您所看到的,尽管使用了非常不同的模型和数据,每种情况的代码非常相似。

计算机视觉分类

以下代码完成了以下任务:

  1. 从 fast.ai 数据集集合中下载一个名为 Oxford-IIIT 宠物数据集 的数据集,该数据集包含 7,349 张来自 37 个不同品种的猫和狗的图像,并将其提取到您正在使用的 GPU 服务器上。
  2. 从互联网上下载一个 预训练模型,该模型已经在 130 万张图像上训练过,使用的是一款获奖模型。
  3. 利用最新的迁移学习进展对预训练模型进行 微调,以创建一个特别定制用于识别狗和猫的模型。

前两个步骤只需运行一次。如果您再次运行,将使用已经下载的数据集和模型,而不是重新下载它们。

path = untar_data(URLs.PETS)/'images'

def is_cat(x): return x[0].isupper()
dls = ImageDataLoaders.from_name_func(
    path, get_image_files(path), valid_pct=0.2, seed=42,
    label_func=is_cat, item_tfms=Resize(224))

learn = vision_learner(dls, resnet34, metrics=error_rate)
learn.fine_tune(1)
epoch train_loss valid_loss error_rate time
0 0.173790 0.018827 0.005413 00:12
epoch train_loss valid_loss error_rate time
0 0.064295 0.013404 0.005413 00:14

您可以使用predict方法对您的模型进行推断:

img = PILImage.create('images/cat.jpg')
img

is_cat,_,probs = learn.predict(img)
print(f"Is this a cat?: {is_cat}.")
print(f"Probability it's a cat: {probs[1].item():.6f}")
Is this a cat?: True.
Probability it's a cat: 0.999722

计算机视觉分割

以下是我们如何使用Camvid 数据集的一个子集,利用fastai训练分割模型的方法:

path = untar_data(URLs.CAMVID_TINY)
dls = SegmentationDataLoaders.from_label_func(
    path, bs=8, fnames = get_image_files(path/"images"),
    label_func = lambda o: path/'labels'/f'{o.stem}_P{o.suffix}',
    codes = np.loadtxt(path/'codes.txt', dtype=str)
)

learn = unet_learner(dls, resnet34)
learn.fine_tune(8)
epoch train_loss valid_loss time
0 2.882460 2.096923 00:03
epoch train_loss valid_loss time
0 1.602270 1.543582 00:02
1 1.417732 1.225782 00:02
2 1.307454 1.071090 00:02
3 1.170338 0.884501 00:02
4 1.047036 0.799820 00:02
5 0.947965 0.754801 00:02
6 0.868178 0.728161 00:02
7 0.804939 0.720942 00:02

我们可以通过要求模型为图像的每个像素上色,以可视化它完成任务的效果。

learn.show_results(max_n=6, figsize=(7,8))

或者,我们可以使用SegmentationInterpretation类绘制对验证损失贡献最大的k个实例。

interp = SegmentationInterpretation.from_learner(learn)
interp.plot_top_losses(k=2)

自然语言处理

以下是训练一个模型所需的所有代码,该模型能够对电影评论的情感进行分类,优于五年前任何存在的模型:

dls = TextDataLoaders.from_folder(untar_data(URLs.IMDB), valid='test')
learn = text_classifier_learner(dls, AWD_LSTM, drop_mult=0.5, metrics=accuracy)
learn.fine_tune(2, 1e-2)
epoch train_loss valid_loss accuracy time
0 0.594912 0.407416 0.823640 01:35
epoch train_loss valid_loss accuracy time
0 0.268259 0.316242 0.876000 03:03
1 0.184861 0.246242 0.898080 03:10
2 0.136392 0.220086 0.918200 03:16
3 0.106423 0.191092 0.931360 03:15

预测是通过 predict 完成的,正如在计算机视觉中一样:

learn.predict("I really liked that movie!")
('pos', tensor(1), tensor([0.0041, 0.9959]))

表格

从普通的表格数据构建模型的基本步骤与之前的模型相同。以下是训练一个模型所需的代码,该模型将根据个人的社会经济背景预测他们是否为高收入者:

path = untar_data(URLs.ADULT_SAMPLE)

dls = TabularDataLoaders.from_csv(path/'adult.csv', path=path, y_names="salary",
    cat_names = ['workclass', 'education', 'marital-status', 'occupation',
                 'relationship', 'race'],
    cont_names = ['age', 'fnlwgt', 'education-num'],
    procs = [Categorify, FillMissing, Normalize])

learn = tabular_learner(dls, metrics=accuracy)
learn.fit_one_cycle(2)
epoch train_loss valid_loss accuracy time
0 0.372298 0.359698 0.829392 00:06
1 0.357530 0.349440 0.837377 00:06

推荐系统

推荐系统非常重要,特别是在电子商务领域。像亚马逊和Netflix这样的公司努力推荐用户可能喜欢的产品或电影。以下是如何训练一个模型,根据用户以前的观看习惯预测他们可能喜欢的电影,使用MovieLens数据集

path = untar_data(URLs.ML_SAMPLE)
dls = CollabDataLoaders.from_csv(path/'ratings.csv')
learn = collab_learner(dls, y_range=(0.5,5.5))
learn.fine_tune(6)
epoch train_loss valid_loss time
0 1.497551 1.435720 00:00
epoch train_loss valid_loss time
0 1.332337 1.351769 00:00
1 1.180177 1.046801 00:00
2 0.913091 0.799319 00:00
3 0.749806 0.731218 00:00
4 0.686577 0.715372 00:00
5 0.665683 0.713309 00:00

我们可以使用之前看到的相同的 show_results 调用来查看一些用户和电影ID、实际评分和预测的示例:

learn.show_results()
userId movieId rating rating_pred
0 5.0 3.0 2.0 3.985477
1 1.0 62.0 4.0 3.629225
2 91.0 81.0 1.0 3.476280
3 48.0 26.0 2.0 4.043919
4 75.0 54.0 3.0 4.023057
5 42.0 22.0 3.0 3.509050
6 40.0 59.0 4.0 3.686552
7 63.0 77.0 3.0 2.862713
8 32.0 61.0 4.0 4.356578