Mentionsy

Radio Naukowe
08.01.2026 05:30

#283 Sztuczna matematyka – modele językowe zaczynają zawstydzać matematyków | prof. Bartosz Naskręcki

– Bardzo szybko się przekonaliśmy, że nasze wyobrażenie o tym, co jest trudne, a co mogą robić modele językowe, to były dwa zupełnie różne światy – mówi odcinku nr 283 dr Bartosz Naskręcki, prodziekan Wydziału Matematyki i Informatyki Uniwersytetu Adama Mickiewicza w Poznaniu.

* * *
Słuchasz nas regularnie? Może spodoba Ci się któryś z progów wsparcia :) Zajrzyj na https://patronite.pl/radionaukowe
Nasze wydawnictwo: https://wydawnictworn.pl/ 
* * *

Dr Naskręcki jest jedynym polskim naukowcem w międzynarodowym zespole FrontierMath. Zespół zebrał się, by stworzyć bazę zupełnie nowych, nigdzie wcześniej niepublikowanych problemów matematycznych i sprawdzić, jak sobie z nimi poradzą popularne duże modele językowe (LLM). A radzą sobie nieźle: podały poprawną odpowiedź do ok. 20% przygotowanych zadań, a ich rezultaty są coraz lepsze z czasem (wraz z rozbudową i dotrenowywaniem modeli w internecie). LLM-y można wykorzystać też do weryfikowania poprawności już istniejących prac matematycznych. – Magia matematyki polega na tym, że jak się ten program, czyli ten sformalizowany dowód, skompiluje w odpowiednim kompilatorze, to on mi daje gwarancję, że to jest poprawnie – wyjaśnia dr Naskręcki. W ten sposób naukowcy wyśledzili i naprawili błąd np. w wielkim twierdzeniu Fermata.

Wykorzystanie modeli AI to już rewolucja. – Można w pewnym sensie już tworzyć matematykę trochę bez matematyków – zauważa gość. Oczywiście na razie to narzędzie i wciąż potrzebny jest człowiek, który nim kieruje, wpisuje prompty i weryfikuje wyniki. Kolejnym poziomem rewolucji byłoby stworzenie modelu zdolnego do samodzielnego tworzenia i rozwiązywania problemów matematycznych. Wydaje się jednak, że do tego jeszcze daleko. – Modele nie będą robiły niczego kognitywnie ciekawego, dopóki nie pozwolimy im wchodzić w różne interakcje. Bez interakcji trudno mi sobie wyobrazić, że coś, co ma ewidentnie pewną strukturę dynamiczną, a świadomość ma strukturę dynamiczną, da się wytworzyć w takim algorytmie – dodaje.

W odcinku usłyszycie też sporo rozważań na temat świadomości i dowiecie się, jak weryfikować prawdziwość rozwiązań, których nie umiemy policzyć, i dlaczego matematyk z modelem AI jest jak pasterz. Polecamy!

Szukaj w treści odcinka

Znaleziono 9 wyników dla "LLM"

To są te LLM-y, te językowe, to nie są specjalistyczne, matematyczne modele.

Różnica będzie taka, tu wszystkie rzeczy nie mogę zdradzać jeszcze, ale będzie taka, że te zadania będą publiczne, więc każdy będzie mógł się zmierzyć z tymi zagadkami, nie tylko LLM-y, ale też prawdziwi ludzie.

I w pewnym sensie, jak patrzymy na to, co się dzieje teraz z LLMA, z EIA i tak dalej, to po prostu to jest wynik bardzo ciężkiej pracy, bardzo wielu ludzi inteligentnych, niesamowicie utalentowanych inżynierów i programistów i matematyków i fizyków,

A ty jeszcze może rozwińmy ten wątek LLM-ów i LRM-ów, bo to jest troszkę coś innego.

że LLM to jest trochę jak ten system 1.

Po drugie, myślę, że LLM-y za każdym razem, jak się je uruchomi na nowo, to wracają do swojego stanu początkowego.

Czyli jakby każdy słuchacz teraz, jak sobie zrobi taki eksperyment wewnętrzny, dotyczący własnego samopoczucia i tej świadomości, to będzie w stanie odkryć, że jednak jest czymś innym niż ten LLM.

To jest w ogóle ciekawa sprawa z tym 42, jak kiedyś czytałem tą książkę, jeszcze przed LLM-ami, to jakoś tak, no ciekawy koncept.

ale przynajmniej pokazuje, że idziemy w dobrą stronę, bo pamiętajmy, że zaczęliśmy od tych nieszczęsnych LLM-ów, które po prostu gadają mniej lub bardziej zorganizowane głupoty, a tutaj doszliśmy do etapu, że te modele zaczynają już jednak tworzyć strukturalnie uporządkowaną wiedzę i to jest w pewnym sensie ta...

0:00
0:00