摘要本文介紹了一種新型優(yōu)化算法——SGDM-A5ADA(Stochastic Gradient Descent with Momentum and Adaptive Learning Rate Adjustment for Asynchronous Data Streams),該算法在傳統(tǒng)隨機梯度下降法(SGD)基礎(chǔ)上結(jié)合動量機制和自適應(yīng)學(xué)習(xí)率策略,針對異步數(shù)據(jù)流場景進行了優(yōu)化。實驗表明,SGDM-A5ADA在分布式訓(xùn)練、非平穩(wěn)數(shù)據(jù)環(huán)境中表現(xiàn)出更穩(wěn)定的收斂速度和更高的資源利用率。