Participamos en programas de marketing, nuestro contenido editorial no está influenciado por ninguna comisión. Para saber más, por favor visítenos Términos y condiciones página.
Llama 4 Maverick 17B Instruct (128E) ist ein leistungsstarkes multimodales Sprachmodell von Meta, das auf einer Mixture-of-Experts (MoE)-Architektur mit 128 Experten und 17 Milliarden...
Llama 4 Maverick 17B Instruct (128E) ist ein leistungsstarkes multimodales Sprachmodell von Meta, das auf einer Mixture-of-Experts (MoE)-Architektur mit 128 Experten und 17 Milliarden aktiven Parametern pro Vorwärtsdurchlauf (insgesamt 400B) basiert. Es unterstützt mehrsprachige Text- und Bildeingaben und erzeugt mehrsprachige Text- und Codeausgaben in...
Llama 4 Maverick 17B Instruct (128E) ist ein leistungsstarkes multimodales Sprachmodell von Meta, das auf einer Mixture-of-Experts (MoE)-Architektur mit 128 Experten und 17 Milliarden...
Llama 4 Maverick 17B Instruct (128E) ist ein leistungsstarkes multimodales Sprachmodell von Meta, das auf einer Mixture-of-Experts (MoE)-Architektur mit 128 Experten und 17 Milliarden aktiven Parametern pro Vorwärtsdurchlauf (insgesamt 400B) basiert. Es unterstützt mehrsprachige Text- und Bildeingaben und erzeugt mehrsprachige Text- und Codeausgaben in...
Llama 4 Maverick 17B Instruct (128E) ist ein leistungsstarkes multimodales Sprachmodell von Meta, das auf einer Mixture-of-Experts (MoE)-Architektur mit 128 Experten und 17 Milliarden...
Llama 4 Maverick 17B Instruct (128E) ist ein leistungsstarkes multimodales Sprachmodell von Meta, das auf einer Mixture-of-Experts (MoE)-Architektur mit 128 Experten und 17 Milliarden aktiven Parametern pro Vorwärtsdurchlauf (insgesamt 400B) basiert. Es unterstützt mehrsprachige Text- und Bildeingaben und erzeugt mehrsprachige Text- und Codeausgaben in...
Llama 4 Maverick 17B Instruct (128E) ist ein leistungsstarkes multimodales Sprachmodell von Meta, das auf einer Mixture-of-Experts (MoE)-Architektur mit 128 Experten und 17 Milliarden...
Llama 4 Maverick 17B Instruct (128E) ist ein leistungsstarkes multimodales Sprachmodell von Meta, das auf einer Mixture-of-Experts (MoE)-Architektur mit 128 Experten und 17 Milliarden aktiven Parametern pro Vorwärtsdurchlauf (insgesamt 400B) basiert. Es unterstützt mehrsprachige Text- und Bildeingaben und erzeugt mehrsprachige Text- und Codeausgaben in...