王长虎认为我们系统地研究如何把一个训练好的神经网络变化成为一个新的网络,并且保持原有神经网络的功能完全不变。我们将该过程定义为网络变形。在父网络变形之后,我们期望得到的子网络能够完整继承父网络的知识,同时在更短的时间里继续增长为一个更强大的网络。这种网络变形的第一个要求是它能够处理各种网络变化的能力,包括深度的变化,宽度的变化,内核大小的变化,甚至是整个子网络的变化。为了满足这个要求,我们首先引入网络变形方程,然后为所有这些变化类型提出了变形算法。这些变形算法对于经典神经网络和卷积神经网络都适用。网络变形的第二个要求是它能够处理神经网络中非线性的能力。为此,我们提出了参数激活函数族的概念,以帮助任何非线性连续激活神经元函数的变形