FATE —— 二.1.2.1 Hetero

编程入门 行业动态 更新时间:2024-10-09 03:19:26

<a href=https://www.elefans.com/category/jswz/34/1719100.html style=FATE —— 二.1.2.1 Hetero"/>

FATE —— 二.1.2.1 Hetero

前言

神经网络可能是近年来最流行的机器学习算法。FATE提供了联邦异构神经网络实现。

这种联合异构神经网络框架允许多方联合进行具有部分重叠的用户样本但不同特征集的学习过程,这对应于垂直分区的虚拟数据集。Hetero NN的一个优点是它提供了与非隐私保护方法相同的准确度,同时不透露每个私有数据提供商的信息。

基本框架工程

下图显示了提议的联邦异构神经网络框架。

乙方(Party B):我们将乙方定义为同时持有数据矩阵和类标签的数据提供者。由于班级标签信息对于监督学习是不可或缺的,因此必须有一方能够访问标签y。乙方自然承担起联合学习中的主导服务器的责任。

甲方(Party A):我们将只有数据矩阵的数据提供者定义为甲方。甲方在联合学习环境中扮演客户的角色。

数据样本在加密方案下对齐。通过使用数据库间交叉点的隐私保护协议,各方可以找到他们的共同用户或数据样本,而不会损害数据集的非重叠部分。

乙方和甲方各有自己的底层神经网络模型,可能会有所不同。双方共同构建交互层,这是一个完全连接的层。该层的输入是两方底部模型输出的串联。此外,只有乙方拥有交互层模型。最后,乙方建立了顶级神经网络模型,并将交互层的输出反馈给它。

联邦异构神经网络的前向传播

正向传播过程由三部分组成。

Part I
顶部模型的反向传播

乙方计算交互层输出的误差增量,然后更新顶层模型。

Part II
交互层的反向传播
  • 乙方通过delta计算激活函数输出的误差delta_act。

  • 乙方将delta_bottomB=delta_act*W_B传播到底部模型,然后更新W_B(W_B-=eta*delta_act*alpha_B)。

  • 乙方生成噪声epsilon_B,计算[delta_act*(alpha_A+epsilon_B]并发送给甲方。

  • 甲方对epsilon_acc进行加密,并将[epsilon_acc]发送给乙方,然后乙方对收到的值进行解密。甲方生成噪声epsilon_A,将epsilon_ A/eta添加到解密结果(delta_act*alpha_A+epsilon_-B+epsilon_A/eta),并将epsilon-A添加到累积噪声epsilon_acc(epsilon-acc+=epsilon/A)。甲方将相加结果发送给乙方(delta_act*W_A+epsilon_B+epsilon_A/eta)

  • 乙方收到[epsilon_acc]和delta_act*alpha_A+epsilon_B+epsilon_A/eta。首先,它向A方发送A方的底部模型输出错误δ_act*W_A+acc]。其次,更新W_A-=eta*(δ_act*W_A+epsilon_B+epsilon_A/eta-epsilon-B)=eta*delta_act*W_A-epsilon_B=W_TRUE-epsilon_acc。其中W_TRUE表示实际权重。

  • 甲方解密[delta_act*(W_A+acc)]并将delta_act*(W_A+acc)传递给其底部模型。

第一部分第一部分

Part III
底部模型的反向传播

乙方和甲方分别更新其底部模型。下图显示了联邦异构神经网络框架的反向传播。

其他功能

  • 允许乙方进行无特色培训。

  • 在培训过程中支持评估培训和验证数据

  • 自FATE-v14.0以来,支持使用早期停止策略

  • 自FATE-v1.6.0以来支持选择性反向传播

  • 自FATE-v1.6.0以来支持低浮点优化

  • 自FATE-v1.6.0以来,支持交互式层的退出策略

更多推荐

FATE —— 二.1.2.1 Hetero

本文发布于:2024-03-07 22:40:53,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1719099.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:FATE   Hetero

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!