辅导DNN程序、代作DNN的资源分配框架

- 首页 >> 其他

我们提出了一种基于DNN的资源分配框架,来优化CRN的性能,而不管CRN的EE如何。它由三层组成,即输入层,多个隐藏层和输出层。输入是具有连续概率密度函数的瞬时信道功率增益 、 和 ,输出是 或 ,隐藏层和输出层的激活函数是ReLU,即 ,其中 和 分别表示神经单元的输入和输出,后面给出了网络结构的详细参数,为了获得每个神经元的权重,需要对DNN进行训练,训练数据通过[6]提出的传统资源分配策略或[5]给出的节能资源分配策略获得,瞬时信道功率增益 、 和 是具有连续的概率密度函数,信道gSS,gSP和hPS是瑞利分组衰落,分别是指数分布1,0.5和0.5的指数分布

例如指数分布,令 =[     ]表示第i个输入训练过程的向量,输出数据分别由 和 表示,使用传统的方案,可以获得具有大量训练数据的集合,在训练过程中,应用均方误差最小化准则[13],并且由于可以以分布式方式实施,因此利用小批量梯度下降算法来更新权重值。

期中 表示CBS的节能最优发射功率, 和 分别对应ATP和AIP约束的双变量。在(6)式中, 是一个非负成本因子,在[5]中双变量是通过亚梯度法得到的。与SE最大化问题类似,由参数 带入优化问题(5-7)中,然后求出 ,不断用亚梯度法更新 ,在允许误差内,此时的 为最大能效。

每个隐层的神经元数量为200.训练过程基于使用[5]和[6]中提出的具有107信道实现的方案获得的数据。 测试结果通过使用103通道实现获得。 仿真设置来自[5]的设置。 恒定电路功率和放大器系数PC和ζ分别设置为0.05W和0.2。 噪音的方差是0.01。  Pp为60 mW。 用于更新μ和λ的次梯度方法的所有迭代步长都是0.1。 信道gSS,gSP和hPS是瑞利分组衰落,分别是指数分布1,0.5和0.5的指数分布