Polacy stworzyli AI, które radzi sobie lepiej od ChatGPT

Polscy naukowcy stworzyli chatbot LongLLaMa, który jest lepszy i wydajniejszy w analizowaniu tekstów od popularnego ChatGPT.

news
Kamil Cuber3 października 2023
9
Źrodło fot. Unsplash | Steve Johnson
i

Gdy słyszymy hasło sztuczna inteligencja, zazwyczaj przychodzą nam na myśl takie chatboty jak ChatGPT od OpenAI czy Bard od Google. Okazuje się jednak, że również polscy naukowcy mają się czym poszczycić w tym temacie. LongLLaMa, model językowy, który wyróżnia się znacznie lepszymi zdolnościami do analizowania tekstu od konkurencyjnych AI, powstał w Polsce.

Za stworzenie LongLLama odpowiadają Szymon Tworkowski, Konrad Staniszewski, Mikołaj Pacek i Piotr Miłoś powiązani z Uniwersytetem Warszawskim oraz Polską Akademią Nauk. W projekt byli również zaangażowani Yuhuai Wu, jeden ze współtwórców xAI, startupu Elona Muska oraz Henryk Michalewski powiązany z Google DeepMind.

Model językowy opiera się na sztucznej inteligencji OpenLLaMA wydanej przez Meta. Jednak został on zmodyfikowany przez polskich naukowców w taki sposób, aby radził sobie z dużą ilością danych wejściowych. W uproszczeniu oznacza to, że użytkownicy mogą przesłać AI większą liczbę wiadomości bez zagrożenia, że niektóre z nich mogą zostać pominięte. Tak tłumaczy to Piotr Miłoś, jeden z autorów projektu:

Nasz model może obsługiwać jednorazowo 8 tysięcy tokenów, czyli w przybliżeniu 30-50 stron tekstu, a w przypadku niektórych zadań znacznie więcej, nawet 256 tysięcy tokenów, chociaż to tylko wynik techniczny. LongLLaMA jest w stanie przetwarzać znacznie większy kontekst niż było to wcześniej możliwe, czyli potrafi w jednym kawałku „zjeść” znacznie więcej tekstu.

Podczas testów, LongLLaMa uzyskał dokładność na poziomie 94,5% po analizie tekstu o długości 100 tysięcy tokenów i 73% przy 256 tysiącach tokenów. Dla porównania standardowe chatboty mają ograniczenie do kilku tysięcy. ChatGPT posiada limit około 4 tysięcy tokenów, a Bard 1 tysiąca.

Polacy stworzyli AI, które radzi sobie lepiej od ChatGPT - ilustracja #1
Wyniki testów LongLLaMa. | Źródło: IDEAS NCBR

Praca polskich naukowców została doceniona przez międzynarodową społeczność badawczą, a związana z nimi publikacja pod tytułem „Focused Transformer: Contrastive Training for Context Scaling” ma zostać przedstawiona podczas konferencji NeurIPS 2023 w Nowym Orleanie. W przyszłości dokonania badaczy mogą zostać wykorzystane do ulepszenia obecnych już na rynku chatbotów.

Kamil Cuber

Kamil Cuber

Z GRYOnline.pl związał się w 2022 roku, jest autorem tekstów o tematyce sprzętowej. Swoją przygodę z pisaniem rozpoczynał jeszcze w gimnazjum, biorąc udział w konkursach organizowanych przez producentów z branży elektronicznej. Następnie przy okazji zakupu nowego komputera zainteresował się sprzętem, stopniowo coraz lepiej poznając rynek komputerowy. Zagorzały fan komputerów i gier single-player, choć nie odrzuci też zaproszenia do gry w szachy oraz Foxhole’a.

Leciwe Toy Story 2 doczekało się fanowskiego remaku na Unreal Engine 5. Efekt robi wrażenie

Leciwe Toy Story 2 doczekało się fanowskiego remaku na Unreal Engine 5. Efekt robi wrażenie

„Xbox powinien dążyć do bycia największym na świecie”. Były szef Blizzarda krytykuje obecną politykę Microsoftu

„Xbox powinien dążyć do bycia największym na świecie”. Były szef Blizzarda krytykuje obecną politykę Microsoftu

Reddit świętuje 20 urodziny i zapowiada dostosowanie się do obecnych realiów AI

Reddit świętuje 20 urodziny i zapowiada dostosowanie się do obecnych realiów AI

Intel szykuje potwora z 52 rdzeniami. Nowa generacja CPU namiesza w 2026?

Intel szykuje potwora z 52 rdzeniami. Nowa generacja CPU namiesza w 2026?

24 GB pamięci na pokładzie. Specyfikacja NVIDIA GeForce RTX 5070 Ti SUPER wyciekła do sieci

24 GB pamięci na pokładzie. Specyfikacja NVIDIA GeForce RTX 5070 Ti SUPER wyciekła do sieci