Mentionsy

Kampus Nauka
28.11.2025 17:02

Pisklę Smoka. Nowy rozdział w dziedzinie AI?

Pisklę Smoka. Nowy rozdział w dziedzinie AI?

Kolejne wersje LLM-ów obiecują coraz większą moc obliczeniową i coraz bardziej „ludzkie” odpowiedzi. Ale czy naprawdę stają się mądrzejsze? Polscy naukowcy ze startupu Pathway przekonują, że klucz leży w zdolności do uczenia się na bieżąco — w tak zwanej generalizacji w czasie. O tym, jak działa nowa architektura The Dragon Hatchling i co może zmienić w świecie AI, opowiada CEO Pathway i współtwórczyni projektu Zuzanna Stamirowska. Pyta Maks Walewski

Szukaj w treści odcinka

Znaleziono 6 wyników dla "Transformery"

Jak rozumiem, te wcześniejsze modele to były właśnie Transformery.

Model, który zaproponowaliście, od transformerów się różni, ale na jakiej zasadzie pracują transformery w ogóle?

Jak się tym zastanowisz, transformery to są modele, które wygrały dlatego, że się dobrze skalują i dobrze się skalują na GPU.

Transformery się skalują głównie właśnie skalą, niektórzy to nazywają taką brutalną siłą po prostu w skalowaniu, czyli staramy się wsadzić dużo więcej danych, staramy się wsadzić ogólnie więcej wszystkiego, jak niektórzy mówią.

Jeżeli chodzi o funkcje, które mózg może zrobić, no to właśnie transformery tak jakby trochę przez to, jak działają i czym są, nie mogą uczyć się w sposób ciągły.

Tak działają transformery.

0:00
0:00