Mentionsy

didaskalia
18.01.2026 18:00

Polski Bielik obnaża ograniczenia ChatGPT || Remigiusz Kinas - didaskalia#170

- Jakie są przewagi Bielika w stosunku do innych modeli językowych? - Czym jest suwerenność technologiczna w kontekście AI? - Jak trenuje się duże modele językowe? - Czy AI jest „czarną skrzynką”? Na te i więcej pytań odpowie Remigiusz Kinas, ekspert w dziedzinie uczenia maszynowego, jeden z twórców polskiego modelu językowego (LLM) o nazwie Bielik. Zapraszamy do oglądania kolejnego odcinka programu „didaskalia” Patrycjusza Wyżgi. 00:00:00 Najlepszy fragment 00:02:36 Po co nam Bielik? 00:09:00 Początki polskiego modelu 00:23:28 Suwerenność LLM-ów 00:36:30 Wartość danych 00:44:39 Podejście Yanna LeCuna 00:56:51 Język polski w AI 01:06:24 Ewolucja karty graficznej 01:25:41 Kwestia komputerów kwantowych 01:27:25 Jak wygląda trenowanie modelu? 01:44:21 Czy model to czarna skrzynka? 01:48:43 Debata wokół świadomości modelu 01:54:03 Tokenizacja AI 01:58:10 Biotechnologia napędzana AI 02:09:37 Rozwój AI w 2026

Szukaj w treści odcinka

Znaleziono 12 wyników dla "LLM"

No ale Bielik, czyli polski model językowy, polski LLM, czyli duży model językowy.

On myślę, że przykryje nam w ogóle świat LLM-ów i tego.

To jest oczywiście trik, że ponownie my wysyłamy informacje do tego LLM-a, o czym rozmawialiśmy wcześniej, ale ona tej wiedzy nie może użyć w innych interakcjach z innymi użytkownikami.

Nie wiem, korzystając z tego, z Bielika w aplikacji do wysyłania paczek, tysiące, nie pięć osób, tysiące ludzi robi różne rzeczy z tym LLM-em.

No tak, bo my tak jak powiedziałem, dzisiaj obcujemy z LLM-ami, czyli z dużymi modelami językowymi.

No ale on właśnie mówi LLM-y niekoniecznie.

Po pierwsze, myśli o tym, że LLM-y to nie jest droga do general intelligence.

I teraz, Jan LeCun dzisiaj mówi, że LLM-y to nie, to nie jest ta droga.

Prezentujący świat, ale w świecie LLM-ów.

W ogóle moje doświadczenia przyszedłem przez wizję komputerową, przez LLM-y, przez machine learning, przez systemy też autonomiczne, modelowanie systemów autonomicznych.

I teraz jak ja mówię, że LLM to jest 80% mnożenia macierzy, czyli mnożenie macierzy mamy na warstwach projekcyjnych, czyli tam są takie warstwy projekcyjne, później warstwy atencyjne, później mamy takie warstwy, które są warstwami jeszcze MLP, czyli FFM, czyli to są takie warstwy, które dodatkowo jeszcze

Jest ich za dużo, po prostu w świecie LLM-ów jest ich za dużo.