I. 浅尝

昨天简单试了一下在fashion mnist的gan模型,发现还能work,当然那个尝试也没什么技术水平,就是把原来的脚本改一下路径跑了就完事。今天回到fashion mnist本身的主要任务——10分类,用Keras测了一下一些模型在上面的分类效果,最后得到了94.5%左右的准确率,加上随机翻转的数据扩增能做到95%。

首先随便手写了一些模型的组合,测试发现准确率都不大好,看来对于这个数据集来说,自己构思模型是比较困难的了,于是想着用现成的模型结构。一说到现成的cnn模型,基本上我们都会想到VGG、ResNet、inception、Xception等,但这些模型为解决imagenet的1000分类问题而设计,用到这个入门级别的数据集上似乎过于庞大了,而且也容易过拟合。后来突然想起,Keras好像自带了个叫MobileNet的模型,查看了一下模型权重,发现参数量不大,但是容量应该还是可以的,故选用MobileNet做实验。

II. 深究

对于MobileNet就不多做介绍了,网上有不少文章讲解。简单来讲,它跟Xception的思想是一样的,在把大部分的卷积换成了depthwise卷积,而这个depthwise卷积有点类似矩阵的SVD分解,它把本来很大的卷积核矩阵分解为两个小矩阵,最后参数变少了,效果还更好了。更新的类似的工作还有ShuffleNet,不过目前还没有Keras版,作罢~

实验很简单,加载MobileNet模型,默认加载imagenet的预训练权重(不见得imagenet的权重会对这个数据集有啥帮助,但这确实有助于加快收敛并提高精度,看来不少视觉特征都是通用型的),然后接一个10分类器进行分类,放开所有权重进行训练。要注意的是:

1、MobileNet的原始设计是224*224的输入,而fashion mnist的图像只有28*28,差别比较大。虽然说直接输入也不会报错,这里还是把图像放大了两倍,变成了56*56,以免丢失细节信息,当然可以放得更大,但效果没有明显提升,浪费计算量;

2、MobileNet必须要三通道图像输入,为了迎合这一点,把图像复制三次即可。

整个代码如下:

import numpy as np
import mnist_reader
from tqdm import tqdm
from scipy import misc
import tensorflow as tf

np.random.seed(2017)
tf.set_random_seed(2017)

X_train, y_train = mnist_reader.load_mnist('../data/fashion', kind='train')
X_test, y_test = mnist_reader.load_mnist('../data/fashion', kind='t10k')

height,width = 56,56

from keras.applications.mobilenet import MobileNet
from keras.layers import Input,Dense,Dropout,Lambda
from keras.models import Model
from keras import backend as K

input_image = Input(shape=(height,width))
input_image_ = Lambda(lambda x: K.repeat_elements(K.expand_dims(x,3),3,3))(input_image)
base_model = MobileNet(input_tensor=input_image_, include_top=False, pooling='avg')
output = Dropout(0.5)(base_model.output)
predict = Dense(10, activation='softmax')(output)

model = Model(inputs=input_image, outputs=predict)
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])
model.summary()

X_train = X_train.reshape((-1,28,28))
X_train = np.array([misc.imresize(x, (height,width)).astype(float) for x in tqdm(iter(X_train))])/255.

X_test = X_test.reshape((-1,28,28))
X_test = np.array([misc.imresize(x, (height,width)).astype(float) for x in tqdm(iter(X_test))])/255.

model.fit(X_train, y_train, batch_size=64, epochs=50, validation_data=(X_test, y_test))

代码很简单很清晰,就不注释了~

经过多次测试,基本上在20个epoch内能达到94.5%以上的准确率(尽管我们设置了random seed,但由于cudnn的存在,依然不能保证重复运行的结果都一样)。后面的epoch不稳定,有过拟合嫌疑。

III. 细抠

感觉不做数据扩增的前提下,94.5%以上的准确率应该是可以满意了。再测了一下做数据扩增的,但想了一下,对于这个数据集,似乎没有什么适合的数据扩增手段,唯一想到的就是随机左右翻转了,加上去,看效果:

import numpy as np
import mnist_reader
from tqdm import tqdm
from scipy import misc
import tensorflow as tf

np.random.seed(2017)
tf.set_random_seed(2017)

X_train, y_train = mnist_reader.load_mnist('../data/fashion', kind='train')
X_test, y_test = mnist_reader.load_mnist('../data/fashion', kind='t10k')

height,width = 56,56

from keras.applications.mobilenet import MobileNet
from keras.layers import Input,Dense,Dropout,Lambda
from keras.models import Model
from keras import backend as K

input_image = Input(shape=(height,width))
input_image_ = Lambda(lambda x: K.repeat_elements(K.expand_dims(x,3),3,3))(input_image)
base_model = MobileNet(input_tensor=input_image_, include_top=False, pooling='avg')
output = Dropout(0.5)(base_model.output)
predict = Dense(10, activation='softmax')(output)

model = Model(inputs=input_image, outputs=predict)
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])
model.summary()

X_train = X_train.reshape((-1,28,28))
X_train = np.array([misc.imresize(x, (height,width)).astype(float) for x in tqdm(iter(X_train))])/255.

X_test = X_test.reshape((-1,28,28))
X_test = np.array([misc.imresize(x, (height,width)).astype(float) for x in tqdm(iter(X_test))])/255.

def random_reverse(x):
	if np.random.random() > 0.5:
		return x[:,::-1]
	else:
		return x

def data_generator(X,Y,batch_size=100):
	while True:
		idxs = np.random.permutation(len(X))
		X = X[idxs]
		Y = Y[idxs]
		p,q = [],[]
		for i in range(len(X)):
			p.append(random_reverse(X[i]))
			q.append(Y[i])
			if len(p) == batch_size:
				yield np.array(p),np.array(q)
				p,q = [],[]
		if p:
			yield np.array(p),np.array(q)
			p,q = [],[]		

model.fit_generator(data_generator(X_train,y_train), steps_per_epoch=600, epochs=50, validation_data=data_generator(X_test,y_test), validation_steps=100)

果然,数据扩增还是有一定帮助的,我跑了两次,一次有95.04%,一次是94.91%,也就是说50个epoch内可以达到了95%左右的准确率。要注意不是所有数据扩增都能提升,我尝试多加了random mask,发现效果还下降了。所以说数据扩增必须适应数据集,尤其是适应测试集,说白了,我觉得虽然数据扩增是对训练集做的,但其本质就是引入测试集的先验知识。

IV. 道远

看来fashion mnist还真的挺有难度,不像mnist随便写单个Dense层就可以得到90%多的准确率,因此用它来作为CNN算法基准确实有相当的代表性了。mnist的测试准确率普遍可以达到99%以上了,而就目前我所能浏览到的数据来看,在fashion mnist上最多也只有96%左右(还是没公开源代码的),离99%还有很大距离,看来哪怕是对于这个数据集,还是任重而道远呀。

不知道哪个模型能率先到达99%的准确率呢~


转载到请包括本文地址:http://kexue.fm/archives/4556/

如果您觉得本文还不错,欢迎点击下面的按钮对博主进行打赏。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!