产生的原因及解决办法是:①颗粒流动性不好,流人模孔的颗粒量时多时少,引起片重差异过大,应重新制粒或加入较好的助流剂如微粉硅胶等,改善颗粒流动性,②颗粒内的细粉太多或颗粒的大小相差悬殊,致使流入模孔内的物料时重时轻,应除去过多的细粉或重新制粒,③加料斗内的颗粒时多时少,造成加料的重量波动也会引起片重差异超限,所以应保持加料斗内始终有1/3量以上的颗粒,④冲头与模孔吻合性不好,例如下冲外周与模孔壁之间漏下较多药粉,致使下冲发生“涩冲”现象,必然造成物料填充不足,对此应更换冲头、模圈。
A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN
B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0
C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络
D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合