Polacy stworzyli AI, które radzi sobie lepiej od ChatGPT

Polscy naukowcy stworzyli chatbot LongLLaMa, który jest lepszy i wydajniejszy w analizowaniu tekstów od popularnego ChatGPT.

nauka
Kamil Cuber3 października 2023
9
Źrodło fot. Unsplash | Steve Johnson
i

Gdy słyszymy hasło sztuczna inteligencja, zazwyczaj przychodzą nam na myśl takie chatboty jak ChatGPT od OpenAI czy Bard od Google. Okazuje się jednak, że również polscy naukowcy mają się czym poszczycić w tym temacie. LongLLaMa, model językowy, który wyróżnia się znacznie lepszymi zdolnościami do analizowania tekstu od konkurencyjnych AI, powstał w Polsce.

Za stworzenie LongLLama odpowiadają Szymon Tworkowski, Konrad Staniszewski, Mikołaj Pacek i Piotr Miłoś powiązani z Uniwersytetem Warszawskim oraz Polską Akademią Nauk. W projekt byli również zaangażowani Yuhuai Wu, jeden ze współtwórców xAI, startupu Elona Muska oraz Henryk Michalewski powiązany z Google DeepMind.

Model językowy opiera się na sztucznej inteligencji OpenLLaMA wydanej przez Meta. Jednak został on zmodyfikowany przez polskich naukowców w taki sposób, aby radził sobie z dużą ilością danych wejściowych. W uproszczeniu oznacza to, że użytkownicy mogą przesłać AI większą liczbę wiadomości bez zagrożenia, że niektóre z nich mogą zostać pominięte. Tak tłumaczy to Piotr Miłoś, jeden z autorów projektu:

Nasz model może obsługiwać jednorazowo 8 tysięcy tokenów, czyli w przybliżeniu 30-50 stron tekstu, a w przypadku niektórych zadań znacznie więcej, nawet 256 tysięcy tokenów, chociaż to tylko wynik techniczny. LongLLaMA jest w stanie przetwarzać znacznie większy kontekst niż było to wcześniej możliwe, czyli potrafi w jednym kawałku „zjeść” znacznie więcej tekstu.

Podczas testów, LongLLaMa uzyskał dokładność na poziomie 94,5% po analizie tekstu o długości 100 tysięcy tokenów i 73% przy 256 tysiącach tokenów. Dla porównania standardowe chatboty mają ograniczenie do kilku tysięcy. ChatGPT posiada limit około 4 tysięcy tokenów, a Bard 1 tysiąca.

Polacy stworzyli AI, które radzi sobie lepiej od ChatGPT - ilustracja #1
Wyniki testów LongLLaMa. | Źródło: IDEAS NCBR

Praca polskich naukowców została doceniona przez międzynarodową społeczność badawczą, a związana z nimi publikacja pod tytułem „Focused Transformer: Contrastive Training for Context Scaling” ma zostać przedstawiona podczas konferencji NeurIPS 2023 w Nowym Orleanie. W przyszłości dokonania badaczy mogą zostać wykorzystane do ulepszenia obecnych już na rynku chatbotów.

Kamil Cuber

Kamil Cuber

Z GRYOnline.pl związał się w 2022 roku, jest autorem tekstów o tematyce sprzętowej. Swoją przygodę z pisaniem rozpoczynał jeszcze w gimnazjum, biorąc udział w konkursach organizowanych przez producentów z branży elektronicznej. Następnie przy okazji zakupu nowego komputera zainteresował się sprzętem, stopniowo coraz lepiej poznając rynek komputerowy. Zagorzały fan komputerów i gier single-player, choć nie odrzuci też zaproszenia do gry w szachy oraz Foxhole’a.

Gracz musiał dokupić starą kartę graficzną, bo RTX 5090 nie radził sobie w klasycznych tytułach

Gracz musiał dokupić starą kartę graficzną, bo RTX 5090 nie radził sobie w klasycznych tytułach

M4 MacBook Air imponuje w benchmarkach, ale chłodzenie ograniczy jego moc

M4 MacBook Air imponuje w benchmarkach, ale chłodzenie ograniczy jego moc

Nvidia przyznaje się do błędu i dodaje RTX 5080 do grona kart graficznych z wadą produkcyjną

Nvidia przyznaje się do błędu i dodaje RTX 5080 do grona kart graficznych z wadą produkcyjną

Ryzen 7 9800X3D z poważnymi problemami, które mogą być związane z płytami głównymi ASRock

Ryzen 7 9800X3D z poważnymi problemami, które mogą być związane z płytami głównymi ASRock

Gemini AI ma teraz bezpłatną funkcję, za którą wcześniej trzeba było zapłacić

Gemini AI ma teraz bezpłatną funkcję, za którą wcześniej trzeba było zapłacić