HyperMoE: Auf dem Weg zu besseren Mixture of Experts durch Wissensübertragung zwischen Experten | Synapse