CL-MoE: Verbesserung multimodaler großer Sprachmodelle mit doppeltem Momentum Mixture-of-Experts für kontinuierliches visuelles Frage-Antworten | Synapse