“让Keras更酷一些!”:精巧的层与花式的回调
By 苏剑林 | 2018-08-06 | 166206位读者 |Keras伴我走来 #
回想起进入机器学习领域的这两三年来,Keras是一直陪伴在笔者的身边。要不是当初刚掉进这个坑时碰到了Keras这个这么易用的框架,能快速实现我的想法,我也不确定我是否能有毅力坚持下来,毕竟当初是theano、pylearn、caffe、torch等的天下,哪怕在今天它们对我来说仍然像天书一般。
后来为了拓展视野,我也去学习了一段时间的tensorflow,用纯tensorflow写过若干程序,但不管怎样,仍然无法割舍Keras。随着对Keras的了解的深入,尤其是花了一点时间研究过Keras的源码后,我发现Keras并没有大家诟病的那样“欠缺灵活性”。事实上,Keras那精巧的封装,可以让我们轻松实现很多复杂的功能。我越来越感觉,Keras像是一件非常精美的艺术品,充分体现了Keras的开发者们深厚的创作功力。
本文介绍Keras中自定义模型的一些内容,相对而言,这属于Keras进阶的内容,刚入门的朋友请暂时忽略。
层的自定义 #
这里介绍Keras中自定义层及其一些运用技巧,在这之中我们可以看到Keras层的精巧之处。
基本定义方法 #
在Keras中,自定义层的最简单方法是通过Lambda层的方式:
from keras.layers import *
from keras import backend as K
x_in = Input(shape=(10,))
x = Lambda(lambda x: x+2)(x_in) # 对输入加上2
有时候,我们希望区分训练阶段和测试阶段,比如训练阶段给输入加入一些噪声,而测试阶段则去掉噪声,这需要用K.in_train_phase实现,比如
def add_noise_in_train(x):
x_ = x + K.random_normal(shape=K.shape(x)) # 加上标准高斯噪声
return K.in_train_phase(x_, x)
x_in = Input(shape=(10,))
x = Lambda(add_noise_in_train)(x_in) # 训练阶段加入高斯噪声,测试阶段去掉
当然,Lambda层仅仅适用于不需要增加训练参数的情形,如果想要实现的功能需要往模型新增参数,那么就必须要用到自定义Layer了。其实这也不复杂,相比于Lambda层只不过代码多了几行,官方文章已经写得很清楚了:
https://keras.io/layers/writing-your-own-keras-layers/
这里把它页面上的例子搬过来:
class MyLayer(Layer):
def __init__(self, output_dim, **kwargs):
self.output_dim = output_dim # 可以自定义一些属性,方便调用
super(MyLayer, self).__init__(**kwargs) # 必须
def build(self, input_shape):
# 添加可训练参数
self.kernel = self.add_weight(name='kernel',
shape=(input_shape[1], self.output_dim),
initializer='uniform',
trainable=True)
def call(self, x):
# 定义功能,相当于Lambda层的功能函数
return K.dot(x, self.kernel)
def compute_output_shape(self, input_shape):
# 计算输出形状,如果输入和输出形状一致,那么可以省略,否则最好加上
return (input_shape[0], self.output_dim)
双输出的层 #
平时我们碰到的所有层,几乎都是单输出的,包括Keras中自带的所有层,都是一个或者多个输入,然后返回一个结果输出的。那么Keras可不可以定义双输出的层呢?答案是可以,但要明确定义好output_shape,比如下面这个层,简单地将输入切开分两半,并且同时返回。
class SplitVector(Layer):
def __init__(self, **kwargs):
super(SplitVector, self).__init__(**kwargs)
def call(self, inputs):
# 按第二个维度对tensor进行切片,返回一个list
in_dim = K.int_shape(inputs)[-1]
return [inputs[:, :in_dim//2], inputs[:, in_dim//2:]]
def compute_output_shape(self, input_shape):
# output_shape也要是对应的list
in_dim = input_shape[-1]
return [(None, in_dim//2), (None, in_dim-in_dim//2)]
x1, x2 = SplitVector()(x_in) # 使用方法
层与loss的结合 #
有了《Keras中自定义复杂的loss函数》一文经验的读者可以知道,Keras中对loss的基本定义是一个输入为y_true和y_pred函数。但在比较复杂的情况下,它不仅仅是预测值和目标值的函数,还可以结合权重进行复杂的运算。
这里再次以center loss为例,介绍一种基于自定义层的写法。
class Dense_with_Center_loss(Layer):
def __init__(self, output_dim, **kwargs):
self.output_dim = output_dim
super(Dense_with_Center_loss, self).__init__(**kwargs)
def build(self, input_shape):
# 添加可训练参数
self.kernel = self.add_weight(name='kernel',
shape=(input_shape[1], self.output_dim),
initializer='glorot_normal',
trainable=True)
self.bias = self.add_weight(name='bias',
shape=(self.output_dim,),
initializer='zeros',
trainable=True)
self.centers = self.add_weight(name='centers',
shape=(self.output_dim, input_shape[1]),
initializer='glorot_normal',
trainable=True)
def call(self, inputs):
# 对于center loss来说,返回结果还是跟Dense的返回结果一致
# 所以还是普通的矩阵乘法加上偏置
self.inputs = inputs
return K.dot(inputs, self.kernel) + self.bias
def compute_output_shape(self, input_shape):
return (input_shape[0], self.output_dim)
def loss(self, y_true, y_pred, lamb=0.5):
# 定义完整的loss
y_true = K.cast(y_true, 'int32') # 保证y_true的dtype为int32
crossentropy = K.sparse_categorical_crossentropy(y_true, y_pred, from_logits=True)
centers = K.gather(self.centers, y_true[:, 0]) # 取出样本中心
center_loss = K.sum(K.square(centers - self.inputs), axis=1) # 计算center loss
return crossentropy + lamb * center_loss
f_size = 2
x_in = Input(shape=(784,))
f = Dense(f_size)(x_in)
dense_center = Dense_with_Center_loss(10)
output = dense_center(f)
model = Model(x_in, output)
model.compile(loss=dense_center.loss,
optimizer='adam',
metrics=['sparse_categorical_accuracy'])
# 这里是y_train是类别的整数id,不用转为one hot
model.fit(x_train, y_train, epochs=10)
花式回调器 #
除了修改模型,我们还可能在训练过程中做很多事情,比如每个epoch结束后,算一下验证集的指标,保存最优模型,还有可能在多少个epoch后就降低学习率,或者修改正则项参数,等等,这些都可以通过回调器来实现。
回调器官方页:https://keras.io/callbacks/
保存最优模型 #
在Keras中,根据验证集的指标来保留最优模型,最简便的方法是通过自带的ModelCheckpoint,比如
checkpoint = ModelCheckpoint(filepath='./best_model.weights',
monitor='val_acc',
verbose=1,
save_best_only=True)
model.fit(x_train,
y_train,
epochs=10,
validation_data=(x_test, y_test),
callbacks=[checkpoint])
然而,这种方法虽然简单,但是有一个明显的缺点,就是里边的指标是由compile的metrics来确定的,而Keres中自定义一个metric,需要写成张量运算才行,也就是说如果你期望的指标并不能写成张量运算(比如bleu等指标),那么就没法写成一个metric函数了,也就不能用这个方案了。
于是,一个万能的方案就出来了:自己写回调器,爱算什么就算什么。比如:
from keras.callbacks import Callback
def evaluate(): # 评测函数
pred = model.predict(x_test)
return np.mean(pred.argmax(axis=1) == y_test) # 爱算啥就算啥
# 定义Callback器,计算验证集的acc,并保存最优模型
class Evaluate(Callback):
def __init__(self):
self.accs = []
self.highest = 0.
def on_epoch_end(self, epoch, logs=None):
acc = evaluate()
self.accs.append(acc)
if acc >= self.highest: # 保存最优模型权重
self.highest = acc
model.save_weights('best_model.weights')
# 爱运行什么就运行什么
print 'acc: %s, highest: %s' % (acc, self.highest)
evaluator = Evaluate()
model.fit(x_train,
y_train,
epochs=10,
callbacks=[evaluator])
修改超参数 #
训练过程中还有可能对超参数进行微调,比如最常见的一个需求是根据epoch来调整学习率,这可以简单地通过LearningRateScheduler来实现,它也属于回调器之一。
from keras.callbacks import LearningRateScheduler
def lr_schedule(epoch):
# 根据epoch返回不同的学习率
if epoch < 50:
lr = 1e-2
elif epoch < 80:
lr = 1e-3
else:
lr = 1e-4
return lr
lr_scheduler = LearningRateScheduler(lr_schedule)
model.fit(x_train,
y_train,
epochs=10,
callbacks=[evaluator, lr_scheduler])
如果是其他超参数呢?比如前面center loss的lamb,或者是类似的正则项。这种情况下,我们需要将lamb设为一个Variable,然后自定义一个回调器来动态赋值。比如当初我定义的一个loss:
def mycrossentropy(y_true, y_pred, e=0.1):
loss1 = K.categorical_crossentropy(y_true, y_pred)
loss2 = K.categorical_crossentropy(K.ones_like(y_pred)/nb_classes, y_pred)
return (1-e)*loss1 + e*loss2
如果要动态改变参数e,那么可以改为
e = K.variable(0.1)
def mycrossentropy(y_true, y_pred):
loss1 = K.categorical_crossentropy(y_true, y_pred)
loss2 = K.categorical_crossentropy(K.ones_like(y_pred)/nb_classes, y_pred)
return (1-e)*loss1 + e*loss2
model.compile(loss=mycrossentropy,
optimizer='adam')
class callback4e(Callback):
def __init__(self, e):
self.e = e
def on_epoch_end(self, epoch, logs={}):
if epoch >= 100: # 100个epoch之后设为0.01
K.set_value(self.e, 0.01)
model.fit(x_train,
y_train,
epochs=10,
callbacks=[callback4e(e)])
注意Callback类共支持六种在不同阶段的执行函数:on_epoch_begin、on_epoch_end、on_batch_begin、on_batch_end、on_train_begin、on_train_end,每个函数所执行的阶段不一样(根据名字很容易判断),可以组合起来实现很复杂的功能。比如warmup,就是指设定了默认学习率后,并不是一开始就用这个学习率训练,而是在前几个epoch中,从零慢慢增加到默认的学习率,这个过程可以理解为在为模型调整更好的初始化。参考代码:
class Evaluate(Callback):
def __init__(self):
self.num_passed_batchs = 0
self.warmup_epochs = 10
def on_batch_begin(self, batch, logs=None):
# params是模型自动传递给Callback的一些参数
if self.params['steps'] == None:
self.steps_per_epoch = np.ceil(1. * self.params['samples'] / self.params['batch_size'])
else:
self.steps_per_epoch = self.params['steps']
if self.num_passed_batchs < self.steps_per_epoch * self.warmup_epochs:
# 前10个epoch中,学习率线性地从零增加到0.001
K.set_value(self.model.optimizer.lr,
0.001 * (self.num_passed_batchs + 1) / self.steps_per_epoch / self.warmup_epochs)
self.num_passed_batchs += 1
Keras无限可能 #
Keras还有很多可圈可点的技巧,比如可以直接利用model.add_loss来灵活地增加loss,还有模型嵌套调用、纯粹作为tensorflow的简单上层api,等等,就不一一整理了,欢迎有疑问、有兴趣的读者留言讨论。
通常我们认为Keras这样的高度封装的库,灵活性是比较欠缺的,但事实上不然。要知道,Keras并不是简单地调用tensorflow或者theano中现成的上层函数,而仅仅是通过backend来封装了一些基本的函数,然后把所有的东西(各种层、优化器等)用自己的backend重写了一遍!也正是如此,它才能支持切换不同的后段。
能做到这个程度,Keras的灵活性是不容置喙的,但是这种灵活性在帮助文档和普通的案例中比较难体现,很多时候要阅读源码,才能感觉到Keras那样的写法已经无可挑剔了。我感觉,用Keras实现复杂的模型,既是一种挑战,又像是一种艺术创作,当你成功时,你就会陶醉于你创造出来的艺术品了。
转载到请包括本文地址:https://kexue.fm/archives/5765
更详细的转载事宜请参考:《科学空间FAQ》
如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。
如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!
如果您需要引用本文,请参考:
苏剑林. (Aug. 06, 2018). 《“让Keras更酷一些!”:精巧的层与花式的回调 》[Blog post]. Retrieved from https://kexue.fm/archives/5765
@online{kexuefm-5765,
title={“让Keras更酷一些!”:精巧的层与花式的回调},
author={苏剑林},
year={2018},
month={Aug},
url={\url{https://kexue.fm/archives/5765}},
}
August 7th, 2018
感谢博主,很少看到一篇文章产生由衷的喜悦了
August 7th, 2018
周指活系列
August 15th, 2018
苏神想在这里请教一个keras的问题,就是我在使用BN层的时候,keras中使用这个直接添加bn层就可以了吗?因为我再两个问题中都加过bn但是效果都是精度下降收敛加快,精度下降很让人困惑,在tf中使用bn需要加上
update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_ops):
train_op = optimizer.minimize(loss)
在keras中是否精度下降和没有类似这段tf代码的功能有关,还是BN本身不适用于某些问题。
1、BN本身不适用于某些问题,比如我在NLP模型中,就没有成功用过BN;
2、如果是tf效果好,而Keras精度下降,可以检查一下BN的超参数。事实上BN是有一些超参数的,不同的框架默认的超参数可能不一样。
August 22nd, 2018
苏神,最近我在写keras的时候使用了自定义loss(不是添加层的那种,就是一个函数),保存好模型(checkpoint方式保存)直接做预测时,载入模型总是报错,说找不到我自定义的那个loss函数,这种问题应该如何解决
我一般都是直接简单地save_weights的,其他没尝试,也没经验~
你使用save_weights以后,是重构model,然后再做对吗?
对
你可以试试load_model的custom_objects
感谢@wjj|comment-9696的指导。
September 3rd, 2018
正解!!可以类似指定下该函数。就正常了。
def root_mean_squared_error(y_true, y_pred):
return K.sqrt(K.mean(K.square(y_pred - y_true)))
model = load_model('model.model',custom_objects={'root_mean_squared_error': root_mean_squared_error})
September 30th, 2018
请问你这个typecho的代码插件用的是哪个?能否发一份?谢谢。
代码插件?是指代码高亮的插件吗?我用的是prism.js
October 7th, 2018
[...]让Keras更酷一些!Keras模型杂谈[...]
January 2nd, 2019
你好,看完你的文章很喜欢。
能否请教一个问题呢,我现在想在训练过程中动态修改layer.trainable这个属性,比如我在epoch=0时候冻结网络前两层,经过训练之后,我想保留训练好的权重,此时冻结网络的前四层。
看到的一般说法需要重新compile,这样的我之前学到权重就没有了,又变成了随机初始化的模型。
不知道大神有没有其他的解决方案提供呢,谢谢!
compile多个模型,模型之间的权重是共享的,不会随机初始化
January 7th, 2019
大神,我用个keras做迁移学习,有个问题困扰我很久了。我用inceptionV3在imagenet上训练好的参数,做迁移学习。开始的问题是 训练的时候acc稳定在99%左右,但验证的时候val_acc基本上是1/nClass分之一。搞了好久发现是BN 层的问题。训练的时候BN层用的是batch的均值方差,验证的时候又换回预训练模型的均值方差,而且这个问题 用keras解决不了。所以我想到用原生tf来训练。原生tf训练BN层需要手动更新updates,也就是BN层的均值方差。网上一般给出的解决方案是这样的。
1 update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
2 with tf.control_dependencies(update_ops):
3 train_step = tf.train.AdamOptimizer(learning_rate=0.0001).minimize(loss)
但是keras模型使用tf.get_collection(tf.GraphKeys.UPDATE_OPS)返回的是空列表。于是我改成
update_ops = base_model.updates
with tf.control_dependencies(update_ops):
train_step = tf.train.AdamOptimizer(lr).minimize(cross_entropy_mean)
这样总是会报错: You must feed a value for placeholder tensor 'input_2' with dtype float。求大神指点
“验证的时候又换回预训练模型的均值方差”,这个是怎么检验出来的?
January 23rd, 2019
请问博主,keras里,怎么记录训练过程中,每个epoch的学习率lr。
还有一个问题,tf里,tensor运算都要事先运行一个session。在keras有没有这种类似的操作,或者说keras只是一个建模型的高级前端,很多功能并没有。
在tf中不需要feed_dict的tensor,都可以用K.eval获得值。
keras里,怎么记录训练过程中,每个epoch的学习率lr.这个问题怎么解决呢
上面不是介绍了“花式回调器”了吗?不是介绍了每个epoch保存最优模型的做法了吗?前面不是说过K.eval可以获得tensor值了吗?你花一点点的一点点的心思,去找找lr的tensor在哪,不就可以了吗?
(PS:上面已经介绍了LearningRateScheduler来动态调节学习率,说明这个类的定义中一定能告诉我们lr的tensor在哪,只需要看看源码,就知道是model.optimizer.lr)
并没有用keras的优化器,用的tf.keras,也不是纯keras
model.compile(optimizer=tf.train.AdamOptimizer(rate),
rate = exponential_decay_with_burnin
实际我用的tf函数,只是fit用的keras方法。在这个fit过程中,tf的tensor相当于进行多个session?
tf.keras和keras源码不同
既然你都知道tf.keras和keras不一样,那问我我也不知道啊~~我只会纯keras,又或者是纯tf,不会这种杂交的。