Nauka i technologie

Instytut Innowacji Technologicznych ze ZEA rewolucjonizuje modele językowe AI za pomocą nowej architektury

Falcon Mamba 7B został uznany za najlepszy na świecie pod względem wydajności otwartych modeli językowych w przestrzeni stanów (SSLM) przez niezależną weryfikację Hugging Face. Modele SSLM nie potrzebują dużych zasobów pamięci do generowania długich bloków tekstu. Falcon Mamba 7B wykazuje się lepszą wydajnością niż tradycyjne modele oparte na architekturze transformatorowej, takie jak Llama 3.1 8B firmy Meta i 7B firmy Mistral. Ten nowy model jest dowodem na innowacyjne podejście Abu Zabi do prac badawczo-rozwojowych w dziedzinie sztucznej inteligencji.

W Abu Zabi, Zjednoczone Emiraty Arabskie, Instytut Innowacji Technologicznych (TII) oraz Rada ds. Badań nad Zaawansowanymi Technologiami (ATRC) poinformowały o udostępnieniu nowego dużego modelu językowego z serii Falcon o nazwie Falcon Mamba 7B. Model ten plasuje się na 1. pozycji na świecie pod względem wydajności otwartych modeli językowych w przestrzeni stanów (SSLM) zgodnie z niezależną weryfikacją Hugging Face.

Więcej treści oraz multimedia znajdziesz w oryginalnym artykule na stronie: https://www.businesswire.com/news/home/20240812166383/pl/

Nowa architektura modelu językowego AI Falcon Mamba 7B, opracowana przez Technology Innovation Institute z ZEA, oznacza rewolucję w dziedzinie sztucznej inteligencji. Model ten, jako pierwszy w serii Falcon, odbiega od dotychczasowych rozwiązań, które opierały się na transformatorach. Jest to kolejny przełomowy wynik badań Instytutu, który udostępnia społeczeństwu nowe narzędzia i produkty w otwartym formacie.

Nowa architektura modelu językowego AI Falcon Mamba 7B, opracowana przez Technology Innovation Institute z ZEA, oznacza rewolucję w dziedzinie sztucznej inteligencji. Model ten, jako pierwszy w serii Falcon, odbiega od dotychczasowych rozwiązań, które opierały się na transformatorach. Jest to kolejny przełomowy wynik badań Instytutu, który udostępnia społeczeństwu nowe narzędzia i produkty w otwartym formacie.

„Falcon Mamba 7B to czwarty z rzędu model AI zajmujący czołową pozycję na rynku, umacniając tym samym rolę Abu Zabi jako globalnego ośrodka badań i rozwoju sztucznej inteligencji. Jest to osiągnięcie, które podkreśla niezachwiane zaangażowanie ZEA na rzecz innowacji” – powiedział Faisal Al Bannai, sekretarz generalny ATRC oraz doradca prezydenta Zjednoczonych Emiratów Arabskich ds. badań strategicznych i zaawansowanych technologii.

W porównaniu z architekturami transformatorowymi, model Falcon Mamba 7B osiąga lepsze wyniki niż Llama 3.1 8B, Llama 3 8B firmy Meta oraz Mistral 7B według nowych wskaźników referencyjnych HuggingFace. Co więcej, w porównaniu z innymi SSLM, Falcon Mamba 7B pokonał wszystkie pozostałe otwarte modele przy użyciu dotychczasowych wskaźników i jest pierwszym modelem w rankingu wiodących modeli opracowanym przez HuggingFace na podstawie bardziej rygorystycznych kryteriów.

„Instytut Innowacji Technologicznych pokonuje coraz to dalsze granice technologii za pomocą serii modeli AI pod szyldem Falcon. Model Falcon Mamba 7B stanowi wyraz prawdziwie pionierskich prac i toruje drogę do kolejnych innowacji w dziedzinie sztucznej inteligencji, które przyczynią się do zwiększenia możliwości człowieka i poprawy jakości życia” – powiedziała dr Najwa Aaraj, dyrektor generalna TII.

Wykorzystanie modeli opartych na przestrzeni stanów jest idealne do analizy złożonych sytuacji, takich jak rozwój fabuły w książkach. Dzieje się tak, ponieważ tego rodzaju modele nie wymagają dodatkowej pamięci do przetwarzania dużych ilości informacji.

Modele oparte na szeregu transformatorów są bardzo skuteczne w przechowywaniu i wykorzystywaniu informacji z poprzednio przetworzonych sekwencji. Są idealne do generowania treści, ale wymagają dużej mocy obliczeniowej ze względu na konieczność porównywania wszystkich słów.

Modele SSLM mają zastosowanie w różnych dziedzinach, takich jak szacunki, prognozy i zadania kontrolne. Doskonale sprawdzają się również w przetwarzaniu języka naturalnego, tłumaczeniu maszynowym, streszczaniu tekstów, rozpoznawaniu obrazów i przetwarzaniu dźwięku, podobnie jak modele wykorzystujące architekturę transformatorową.

„Wprowadzenie modelu Falcon Mamba 7B napawa mnie dumą, ponieważ jego stworzenie było możliwe dzięki wykorzystaniu ekosystemu TII opartego na współpracy. Nowy model stanowi istotny krok naprzód, który inspiruje do poszukiwania nowych perspektyw i dalszego opracowywania systemów inteligentnych. W TII pokonujemy coraz dalsze granice zarówno w zakresie SSLM, jak i modeli transformatorowych, pragnąc dokonywać kolejnych innowacji w dziedzinie generatywnej sztucznej inteligencji” – powiedział dr Hakim Hacid, p.o. głównego badacza AI Cross-Center Unit w TII.

Modele językowe Falcon zostały pobrane ponad 45 mln razy, co świadczy o niesamowitym sukcesie tych rozwiązań. Falcon Mamba 7B zostanie udostępniony na mocy liberalnej licencji TII Falcon 2.0, opartej na Apache 2.0, promującej odpowiedzialne korzystanie ze sztucznej inteligencji. Więcej informacji na temat nowego modelu można znaleźć na stronie FalconLLM.TII.ae.

Modele językowe Falcon cieszą się ogromną popularnością, zostały pobrane ponad 45 mln razy. Falcon Mamba 7B zostanie udostępniony na mocy licencji TII Falcon 2.0, która opiera się na zasadach użytkowania Apache 2.0, promując odpowiedzialne wykorzystanie sztucznej inteligencji. Szczegółowe informacje na temat nowego modelu można znaleźć na stronie FalconLLM.TII.ae.

Informacje pochodzą z serwisu AETOSWire

Niniejsze zawiadomienie jest ważne w swojej oryginalnej wersji językowej. Tłumaczenie ma jedynie charakter orientacyjny i służy do ułatwienia zrozumienia treści oryginalnego zawiadomienia, które ma skutki prawne.


Na podstawie aktualności z serwisu: pap-mediaroom.pl

Wykorzystujemy pliki cookies.
Polityka Prywatności
Więcej
ROZUMIEM