橫向聯(lián)邦學(xué)習(xí)
對于相同特征的樣本參與方實現(xiàn)綜合運算,利用分布于各方的同構(gòu)進行機器學(xué)習(xí)建模,適用于業(yè)務(wù)相似的場景,通過提升樣本數(shù)量達到訓(xùn)練模型效果的提升
對于相同特征的樣本參與方實現(xiàn)綜合運算,利用分布于各方的同構(gòu)進行機器學(xué)習(xí)建模,適用于業(yè)務(wù)相似的場景,通過提升樣本數(shù)量達到訓(xùn)練模型效果的提升
對于樣本用戶重合度高、特征互補的數(shù)據(jù),利用梯度下降等技術(shù),通過豐富樣本特征維度,實現(xiàn)機器學(xué)習(xí)模型優(yōu)化,適用于跨行業(yè)跨機構(gòu)的數(shù)據(jù)聯(lián)合建模
對于無法滿足橫向與縱向條件的數(shù)據(jù),用戶和特征重疊都較少,可采用遷移學(xué)習(xí)技術(shù),建立適用更廣泛的共享機器學(xué)習(xí)模型
擁有自動建模功能,支持多種機器學(xué)習(xí)和深度學(xué)習(xí)的聯(lián)邦學(xué)習(xí)訓(xùn)練和模型部署,用戶極易上手
對訓(xùn)練狀態(tài)和訓(xùn)練效果的全方位監(jiān)控,用戶對訓(xùn)練進程一目了然
支持多種數(shù)據(jù)庫的接入,支持有協(xié)調(diào)方和去中心化版本,靈活進行私有化部署
通過聯(lián)邦學(xué)習(xí)特有的算法保證數(shù)據(jù)不出本地,共享數(shù)據(jù)最小化,通過加密協(xié)議確保數(shù)據(jù)交互的安全性