“FL 流程始于與所有設備共享的全局模型。每臺設備在本地訓練模型,并將更新發送到中央服務器,在那里匯總以改進模型,”學者們說。“然后將這個更新的模型分發回設備進行進一步訓練。FL 循環迭代多次,直到全局模型達到所需的最佳精度。”
該團隊的模型在每臺機器上本地運行,包括一個長短期記憶 (LSTM) 架構、一個 dropout 單元和兩個完全連接的密集層。LSTM 處理順序數據,而 dropout 單元減少過度擬合,密集層有助于做出最終預測。
該模型還使用超參數來調整本地 LSTM 模型并在中央服務器上對類似客戶端進行聚類。這些超參數在訓練開始前設置,控制著機器學習模型的訓練過程。