Image

Instytut Innowacji Technologicznych ze ZEA rewolucjonizuje modele językowe AI za pomocą nowej architektury
• Falcon Mamba 7B zajmuje 1. pozycję na świecie pod względem wydajności otwartych modeli językowych w przestrzeni stanów (SSLM) zgodnie z niezależną weryfikacją Hugging Face.
• Modele SSLM nie wymagają znacznych pokładów pamięci ani dodatkowych zasobów pamięciowych do generowania arbitralnych długich bloków tekstu.
• Falcon Mamba 7B sprawdza się również lepiej od tradycyjnych modeli opartych na architekturze transformatorowej, takich jak Llama 3.1 8B firmy Meta i 7B firmy Mistral.
• Nowy model stanowi odzwierciedlenie innowacji i pionierskiego podejścia Abu Zabi do prac badawczo-rozwojowych w zakresie sztucznej inteligencji.
• Modele SSLM nie wymagają znacznych pokładów pamięci ani dodatkowych zasobów pamięciowych do generowania arbitralnych długich bloków tekstu.
• Falcon Mamba 7B sprawdza się również lepiej od tradycyjnych modeli opartych na architekturze transformatorowej, takich jak Llama 3.1 8B firmy Meta i 7B firmy Mistral.
• Nowy model stanowi odzwierciedlenie innowacji i pionierskiego podejścia Abu Zabi do prac badawczo-rozwojowych w zakresie sztucznej inteligencji.
- 13.08.2024, 09:14
- Kategoria: Nauka i technologie
- Źródło: Business Wire