“让Keras更酷一些!”:中间变量、权重滑动和安全生成器
By 苏剑林 | 2019-04-28 | 99708位读者 |继续“让Keras更酷一些”之旅。
今天我们会用Keras实现灵活地输出任意中间变量,还有无缝地进行权重滑动平均,最后顺便介绍一下生成器的进程安全写法。
首先是输出中间变量。在自定义层时,我们可能希望查看中间变量,这些需求有些是比较容易实现的,比如查看中间某个层的输出,只需要将截止到这个层的部分模型保存为一个新模型即可,但有些需求是比较困难的,比如在使用Attention层时我们可能希望查看那个Attention矩阵的值,如果用构建新模型的方法则会非常麻烦。而本文则给出一种简单的方法,彻底满足这个需求。
接着是权重滑动平均。权重滑动平均是稳定、加速模型训练甚至提升模型效果的一种有效方法,很多大型模型(尤其是GAN)几乎都用到了权重滑动平均。一般来说权重滑动平均是作为优化器的一部分,所以一般需要重写优化器才能实现它。本文介绍一个权重滑动平均的实现,它可以无缝插入到任意Keras模型中,不需要自定义优化器。
至于生成器的进程安全写法,则是因为Keras读取生成器的时候,用到了多进程,如果生成器本身也包含了一些多进程操作,那么可能就会导致异常,所以需要解决这个这个问题。
输出中间变量 #
这一节以基本模型
x_in = Input(shape=(784,))
x = x_in
x = Dense(512, activation='relu')(x)
x = Dropout(0.2)(x)
x = Dense(256, activation='relu')(x)
x = Dropout(0.2)(x)
x = Dense(num_classes, activation='softmax')(x)
model = Model(x_in, x)
为例,逐步深入地介绍如何获取Keras的中间变量。
作为一个新模型 #
假如模型训练完成后,我想要获取x = Dense(256, activation='relu')(x)
对应的输出,那可以在定义模型的时候,先把对应的变量存起来,然后重新定义一个模型:
x_in = Input(shape=(784,))
x = x_in
x = Dense(512, activation='relu')(x)
x = Dropout(0.2)(x)
x = Dense(256, activation='relu')(x)
y = x
x = Dropout(0.2)(x)
x = Dense(num_classes, activation='softmax')(x)
model = Model(x_in, x)
model2 = Model(x_in, y)
将model
训练完成后,直接用model2.predict
就可以查看对应的256维的输出了。这样做的前提是y
必须是某个层的输出,不能是随意一个张量。
K.function! #
有时候我们自定义了一个比较复杂的层,比较典型的就是Attention层,我们希望查看层的一些中间变量,比如对应的Attention矩阵,这时候就比较麻烦了,如果想要用前面的方式,那么就要把原来的Attention层分开为两个层定义才行,因为前面已经说了,新定义一个Keras模型时输入输出都必须是Keras层的输入输出,不能是随意一个张量。这样一来,如果想要分别查看层的多个中间变量,那就要将层不断地拆开为多个层来定义,显然是不够友好的。
其实Keras提供了一个终极的解决方案:K.function
!
介绍K.function
之前,我们先写一个简单示例:
class Normal(Layer):
def __init__(self, **kwargs):
super(Normal, self).__init__(**kwargs)
def build(self, input_shape):
self.kernel = self.add_weight(name='kernel',
shape=(1,),
initializer='zeros',
trainable=True)
self.built = True
def call(self, x):
self.x_normalized = K.l2_normalize(x, -1)
return self.x_normalized * self.kernel
x_in = Input(shape=(784,))
x = x_in
x = Dense(512, activation='relu')(x)
x = Dropout(0.2)(x)
x = Dense(256, activation='relu')(x)
x = Dropout(0.2)(x)
normal = Normal()
x = normal(x)
x = Dense(num_classes, activation='softmax')(x)
model = Model(x_in, x)
在上面的例子中,Normal
定义了一个层,层的输出是self.x_normalized * self.kernel
,不过我想在训练完成后获取self.x_normalized
的值,而它是跟输入有关,并且不是一个层的输出。这样一来前面的方法就没法用了,但用K.function
就只是一行代码:
fn = K.function([x_in], [normal.x_normalized])
K.function
的用法跟定义一个新模型类似,要把所有跟normal.x_normalized
相关的输入张量都传进去,但是不要求输出是一个层的输出,允许是任意张量!返回的fn
是一个具有函数功能的对象,所以只需要
fn([x_test])
就可以获取到x_test
对应的x_normalized
了!比定义一个新模型简单通用多了~
事实上K.function
就是Keras底层的基础函数之一,它直接封装好了后端的输入输出操作,换句话说,你用Tensorflow为后端时,fn([x_test])
就相当于
sess.run(normal.x_normalized, feed_dict={x_in: x_test})
了,所以K.function
的输出允许是任意张量,因为它本来就在直接操作后端了~
权重滑动平均 #
权重滑动平均是提供训练稳定性的有效方法,通过滑动平均可以几乎零额外成本地提高解的性能。权重滑动平均一般就是指“Exponential Moving Average”,简称EMA,这是因为一般滑动平均时会使用指数衰减作为权重的比例。它已经被主流模型所接受,尤其是GAN,在很多GAN论文中我们通常会看到类似的描述:
we use an exponential moving average with decay 0.999 over the weight ...
这就意味着GAN模型使用了EMA。此外,普通模型也会使用,比如《QANet: Combining Local Convolution with Global Self-Attention for Reading Comprehension》就在训练过程中用了EMA,衰减率是0.9999。
滑动平均的格式 #
滑动平均的格式其实非常简单:假设每次优化器的更新为:
\begin{equation}\boldsymbol{\theta}_{n+1} = \boldsymbol{\theta}_n - \Delta \boldsymbol{\theta}_n \end{equation}
这里的$\Delta \boldsymbol{\theta}_n$就是优化器带来的更新,优化器可以是SGD、Adam等任意一种。而滑动平均则是维护一组新的新的变量$\boldsymbol{\Theta}$:
\begin{equation}\boldsymbol{\Theta}_{n+1} = \alpha \boldsymbol{\Theta}_n + (1-\alpha) \boldsymbol{\theta}_{n+1}\end{equation}
其中$\alpha$是一个接近于1的正常数,称为“衰减率(decay rate)”。
权重滑动平均也叫Polyak averaging。注意,尽管在形式上有点相似,但它跟动量加速不一样:EMA不改变原来优化器的轨迹,即原来优化器怎么走,现在依然是同样的走法,只不过它维护一组新变量,来平均原来优化器的轨迹;而动量加速则是改变了原来优化器的轨迹。
再次强调,权重滑动平均不改变优化器的走向,只不过它降优化器的优化轨迹上的点做了平均后,作为最终的模型权重。
关于权重滑动平均的原理和效果,可以进一步参考《从动力学角度看优化算法(四):GAN的第三个阶段》一文。
巧妙的注入实现 #
实现EMA的要点是如何在原来优化器的基础上引入一组新的平均变量,并且在每次参数更新后执行平均变量的更新。这需要对Keras的源码及其实现逻辑有一定的了解。
在此给出的参考实现如下:
class ExponentialMovingAverage:
"""对模型权重进行指数滑动平均。
用法:在model.compile之后、第一次训练之前使用;
先初始化对象,然后执行inject方法。
"""
def __init__(self, model, momentum=0.9999):
self.momentum = momentum
self.model = model
self.ema_weights = [K.zeros(K.shape(w)) for w in model.weights]
def inject(self):
"""添加更新算子到model.metrics_updates。
"""
self.initialize()
for w1, w2 in zip(self.ema_weights, self.model.weights):
op = K.moving_average_update(w1, w2, self.momentum)
self.model.metrics_updates.append(op)
def initialize(self):
"""ema_weights初始化跟原模型初始化一致。
"""
self.old_weights = K.batch_get_value(self.model.weights)
K.batch_set_value(zip(self.ema_weights, self.old_weights))
def apply_ema_weights(self):
"""备份原模型权重,然后将平均权重应用到模型上去。
"""
self.old_weights = K.batch_get_value(self.model.weights)
ema_weights = K.batch_get_value(self.ema_weights)
K.batch_set_value(zip(self.model.weights, ema_weights))
def reset_old_weights(self):
"""恢复模型到旧权重。
"""
K.batch_set_value(zip(self.model.weights, self.old_weights))
使用方法很简单:
EMAer = ExponentialMovingAverage(model) # 在模型compile之后执行
EMAer.inject() # 在模型compile之后执行
model.fit(x_train, y_train) # 训练模型
训练完成后:
EMAer.apply_ema_weights() # 将EMA的权重应用到模型中
model.predict(x_test) # 进行预测、验证、保存等操作
EMAer.reset_old_weights() # 继续训练之前,要恢复模型旧权重。还是那句话,EMA不影响模型的优化轨迹。
model.fit(x_train, y_train) # 继续训练
现在翻看实现过程,可以发现主要的一点是引入了K.moving_average_update
操作,并且插入到model.metrics_updates
中,在训练过程中,模型会读取并执行model.metrics_updates
的所有算子,从而完成了滑动平均。
进程安全生成器 #
一般来说,当训练数据无法全部载入内存,或者需要动态生成训练数据时,就会用到generator
。一般来说,Keras模型的generator
的写法是:
def data_generator():
while True:
x_train = something
y_train = otherthing
yield x_train, y_train
但如果someting
或otherthing
里边包含了多进程操作,就可能出问题。这时候有两种解决方法,一是fit_generator
时将设置参数 use_multiprocessing=False, worker=0
;另一种方法就是通过继承keras.utils.Sequence
类来写生成器。
官方参考例子 #
官方对keras.utils.Sequence
类的介绍在这里。官方强调:
Sequence
are a safer way to do multiprocessing. This structure guarantees that the network will only train once on each sample per epoch which is not the case with generators.
总之,就是对于多进程来说它是安全的,可以放心用。官方提供的例子如下:
from skimage.io import imread
from skimage.transform import resize
import numpy as np
# Here, `x_set` is list of path to the images
# and `y_set` are the associated classes.
class CIFAR10Sequence(Sequence):
def __init__(self, x_set, y_set, batch_size):
self.x, self.y = x_set, y_set
self.batch_size = batch_size
def __len__(self):
return int(np.ceil(len(self.x) / float(self.batch_size)))
def __getitem__(self, idx):
batch_x = self.x[idx * self.batch_size:(idx + 1) * self.batch_size]
batch_y = self.y[idx * self.batch_size:(idx + 1) * self.batch_size]
return np.array([
resize(imread(file_name), (200, 200))
for file_name in batch_x]), np.array(batch_y)
就是按格式定义好__len__
和__getitem__
方法就行了,__getitem__
方法直接返回一个batch的数据。
bert as service例子 #
我第一次发现Sequence
的必要性,是在试验bert as service的时候。bert as service是肖涵大佬搞的一个快速获取bert编码向量的服务组件,我曾经想用它获取字向量,然后传入到Keras中训练,但发现总会训练着训练着就卡住了。
经过搜索,确认是Keras的fit_generator
所带的多进程,和bert-as-service自带的多进程冲突问题,具体怎么冲突我也比较模糊,就不深究了~而这里提供了一个参考的解决方案,用的就是继承Sequence
类来写生成器。
(PS:就调用bert as service而言,后面肖涵大佬提供了协程版的ConcurrentBertClient
,可以取代原来的BertClient
,这样哪怕在原始生成器也不会有问题了。)
清流般的Keras #
在我眼里,Keras就是深度学习框架中的一股清流,就好比Python是所有编程语言中的一股清流一样。用Keras实现所需要做的事情,就好比一次次惬意的享受。
转载到请包括本文地址:https://kexue.fm/archives/6575
更详细的转载事宜请参考:《科学空间FAQ》
如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。
如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!
如果您需要引用本文,请参考:
苏剑林. (Apr. 28, 2019). 《“让Keras更酷一些!”:中间变量、权重滑动和安全生成器 》[Blog post]. Retrieved from https://kexue.fm/archives/6575
@online{kexuefm-6575,
title={“让Keras更酷一些!”:中间变量、权重滑动和安全生成器},
author={苏剑林},
year={2019},
month={Apr},
url={\url{https://kexue.fm/archives/6575}},
}
April 29th, 2019
[...]苏剑林. (2019, Apr 28). 《“让Keras更酷一些!”:中间变量、权重滑动和安全生成器 》[Blog post]. Retrieved from https://kexue.fm/archives/6575[...]
May 10th, 2019
苏神也实现了EMA,我之前为了复现keras的QANet也实现过,不过是吧tensorflow的EMA实现在keras复现了一下,但是在cpu的时候是可行的,gpu失效了,现在试一下这个实现
欢迎测试~
December 27th, 2019
博主你好,请教一下,如果我对生成器和判别器都采用EMA技术的话,我在训练过程中输出判别器和生成器的loss时,是不是需要将判别器和生成器都采用最新的EMA权值,比如说,当我在训练完判别器,准备输出判别器的loss时,判别器的权值采用EMA权值,这点没问题,单此时的生成器权值是采用当前权值,还是EMA权值呢?同理在输出生成器loss时,判别器是不是也要采用EMA权值?
GAN不关心loss,你只需要在计算FID或IS等指标时,加载EMA的loss就行了。
January 24th, 2020
model.metrics_updates 这个函数在 TF2.0 里面没有了,怎么修改ExponentialMovingAverage这个方法,使其兼容 tf.keras?
用model.add_metric方法直接添加。
March 22nd, 2020
就多任务中多loss,有考虑过输出每个loss吗?(多个loss是线性加权得到一个总loss,只用一个优化器),有些没头绪,请指教!
Keras多个loss就会自动输出多个loss信息
形如:
final_loss = loss_1 + loss_2
model.add_loss(final_loss)
在history中并未找到loss_1 和 loss_2的输出值,只有final_loss。
能否对如何获得,再说详细一点呢?因为在文档上并未找到(也有可能关键字不对。。。)
最新版的keras有model.add_metric方法,可以添加你想要显示的metric,使用方法跟add_loss一样,只是多了个name参数。
原来是更新后,我前面搜索了一些方法,有看到这个,结果从keras官方文档没看到,还以后是没有的。感谢解惑!
发现前面有一篇blog已经介绍了这个内容,亲测可用!https://kexue.fm/archives/6311#%E5%8F%AF%E4%BB%A5%E4%B8%8D%E8%A6%81%E8%BE%93%E5%87%BA
March 26th, 2020
model.metrics_updates 这个函数在 TF2.0 里面没有了,怎么修改ExponentialMovingAverage这个方法,使其兼容 tf.keras? 可以举一个例子吗 如何用model.add_metric添加呢
参考这里的EMA:
https://github.com/bojone/bert4keras/blob/master/examples/task_relation_extraction.py
March 26th, 2020
还有个问题就是如果我想用每个ema后的模型用于训练其他的模型(每个batch),EMAer.apply_ema_weights() 这个需要在循环里不断使用吗,还是一次就可以了,因为并不用恢复到原权重了,感谢。。
彻底搞懂EMA的实现原理,然后自己根据自己的需求自己写。笔者不承包定制。
.就是想问,使用这个函数后,之后的model一直都是ema的模型了吧?不需要反复调用
是,权重只需要更新一次。
April 6th, 2020
似乎这个无法实现momentum动态减小? 必须再反复调用inject? 但这样运算速度我看减小了很多
修改超参请参考:
https://kexue.fm/archives/5765#%E4%BF%AE%E6%94%B9%E8%B6%85%E5%8F%82%E6%95%B0
(注:需要学会理解并接受静态图的优雅与美妙~)
November 19th, 2020
苏神,我看权重滑动函数时,看了下moving_average_update函数的源码,如下:
with tf_ops.colocate_with(x):
decay = tf_ops.convert_to_tensor(1.0 - momentum)
if decay.dtype != x.dtype.base_dtype:
decay = tf_math_ops.cast(decay, x.dtype.base_dtype)
update_delta = (x - tf_math_ops.cast(value, x.dtype)) * decay
return tf_state_ops.assign_sub(x, update_delta)
给我的感觉像是在做:x-=(x-value)*decay的计算,但是这里的x好像是等于value,因为sel.ema_weights是由model.weights赋值得到的那么显然对每一个w1,w2有w1=w2(因为你是在compile前得到的模型权重,所以应该是一个固定值),那这样相当于x-=0,感觉就没有意义了,最后通过assign_sub函数有x-x=0,这样就太奇怪了,所以想问下原因,是我的理解错了吗?多谢。
你这是哪里的源码?似乎不是我写的?
这是keras的moving_average_update函数的源码
March 3rd, 2021
苏神,你好!
关于滑动平均,不知道我下面的理解是否正确:
1. 滑动平均的计算,是每次迭代更新都计算一次?
2. 滑动平均就是记录了历史的整个网络参数均值(这里不记录所有历史参数,只记录前一次迭代结果的均值,而且会覆盖之前的结果),并与当前迭代模型迭代得到的网络参数,进行加权求和?
恳请指点
没错。
嗯嗯,感谢指点~~