futurebeat.pl NEWSROOM Polacy stworzyli AI, które radzi sobie lepiej od ChatGPT Polacy stworzyli AI, które radzi sobie lepiej od ChatGPT Polscy naukowcy stworzyli chatbot LongLLaMa, który jest lepszy i wydajniejszy w analizowaniu tekstów od popularnego ChatGPT. naukaKamil Cuber3 października 2023 9 Źrodło fot. Unsplash | Steve Johnsoni Gdy słyszymy hasło sztuczna inteligencja, zazwyczaj przychodzą nam na myśl takie chatboty jak ChatGPT od OpenAI czy Bard od Google. Okazuje się jednak, że również polscy naukowcy mają się czym poszczycić w tym temacie. LongLLaMa, model językowy, który wyróżnia się znacznie lepszymi zdolnościami do analizowania tekstu od konkurencyjnych AI, powstał w Polsce. Powiązane:ChatGPT powtarza w kółko te same kawały, żaden z nich nie jest śmieszny Za stworzenie LongLLama odpowiadają Szymon Tworkowski, Konrad Staniszewski, Mikołaj Pacek i Piotr Miłoś powiązani z Uniwersytetem Warszawskim oraz Polską Akademią Nauk. W projekt byli również zaangażowani Yuhuai Wu, jeden ze współtwórców xAI, startupu Elona Muska oraz Henryk Michalewski powiązany z Google DeepMind. Model językowy opiera się na sztucznej inteligencji OpenLLaMA wydanej przez Meta. Jednak został on zmodyfikowany przez polskich naukowców w taki sposób, aby radził sobie z dużą ilością danych wejściowych. W uproszczeniu oznacza to, że użytkownicy mogą przesłać AI większą liczbę wiadomości bez zagrożenia, że niektóre z nich mogą zostać pominięte. Tak tłumaczy to Piotr Miłoś, jeden z autorów projektu: Nasz model może obsługiwać jednorazowo 8 tysięcy tokenów, czyli w przybliżeniu 30-50 stron tekstu, a w przypadku niektórych zadań znacznie więcej, nawet 256 tysięcy tokenów, chociaż to tylko wynik techniczny. LongLLaMA jest w stanie przetwarzać znacznie większy kontekst niż było to wcześniej możliwe, czyli potrafi w jednym kawałku „zjeść” znacznie więcej tekstu. Podczas testów, LongLLaMa uzyskał dokładność na poziomie 94,5% po analizie tekstu o długości 100 tysięcy tokenów i 73% przy 256 tysiącach tokenów. Dla porównania standardowe chatboty mają ograniczenie do kilku tysięcy. ChatGPT posiada limit około 4 tysięcy tokenów, a Bard 1 tysiąca. Wyniki testów LongLLaMa. | Źródło: IDEAS NCBR Praca polskich naukowców została doceniona przez międzynarodową społeczność badawczą, a związana z nimi publikacja pod tytułem „Focused Transformer: Contrastive Training for Context Scaling” ma zostać przedstawiona podczas konferencji NeurIPS 2023 w Nowym Orleanie. W przyszłości dokonania badaczy mogą zostać wykorzystane do ulepszenia obecnych już na rynku chatbotów. Czytaj więcej:ChatGPT zachowuje się podobnie do umysłu 9-latka POWIĄZANE TEMATY: nauka analizy i badania AI / sztuczna inteligencja chatboty / ChatGPT Kamil Cuber Kamil Cuber Z GRYOnline.pl związał się w 2022 roku, jest autorem tekstów o tematyce sprzętowej. Swoją przygodę z pisaniem rozpoczynał jeszcze w gimnazjum, biorąc udział w konkursach organizowanych przez producentów z branży elektronicznej. Następnie przy okazji zakupu nowego komputera zainteresował się sprzętem, stopniowo coraz lepiej poznając rynek komputerowy. Zagorzały fan komputerów i gier single-player, choć nie odrzuci też zaproszenia do gry w szachy oraz Foxhole’a. Gracz musiał dokupić starą kartę graficzną, bo RTX 5090 nie radził sobie w klasycznych tytułach Gracz musiał dokupić starą kartę graficzną, bo RTX 5090 nie radził sobie w klasycznych tytułach M4 MacBook Air imponuje w benchmarkach, ale chłodzenie ograniczy jego moc M4 MacBook Air imponuje w benchmarkach, ale chłodzenie ograniczy jego moc Nvidia przyznaje się do błędu i dodaje RTX 5080 do grona kart graficznych z wadą produkcyjną Nvidia przyznaje się do błędu i dodaje RTX 5080 do grona kart graficznych z wadą produkcyjną Ryzen 7 9800X3D z poważnymi problemami, które mogą być związane z płytami głównymi ASRock Ryzen 7 9800X3D z poważnymi problemami, które mogą być związane z płytami głównymi ASRock Gemini AI ma teraz bezpłatną funkcję, za którą wcześniej trzeba było zapłacić Gemini AI ma teraz bezpłatną funkcję, za którą wcześniej trzeba było zapłacić