Mentionsy
Polski Bielik obnaża ograniczenia ChatGPT || Remigiusz Kinas - didaskalia#170
- Jakie są przewagi Bielika w stosunku do innych modeli językowych? - Czym jest suwerenność technologiczna w kontekście AI? - Jak trenuje się duże modele językowe? - Czy AI jest „czarną skrzynką”? Na te i więcej pytań odpowie Remigiusz Kinas, ekspert w dziedzinie uczenia maszynowego, jeden z twórców polskiego modelu językowego (LLM) o nazwie Bielik. Zapraszamy do oglądania kolejnego odcinka programu „didaskalia” Patrycjusza Wyżgi. 00:00:00 Najlepszy fragment 00:02:36 Po co nam Bielik? 00:09:00 Początki polskiego modelu 00:23:28 Suwerenność LLM-ów 00:36:30 Wartość danych 00:44:39 Podejście Yanna LeCuna 00:56:51 Język polski w AI 01:06:24 Ewolucja karty graficznej 01:25:41 Kwestia komputerów kwantowych 01:27:25 Jak wygląda trenowanie modelu? 01:44:21 Czy model to czarna skrzynka? 01:48:43 Debata wokół świadomości modelu 01:54:03 Tokenizacja AI 01:58:10 Biotechnologia napędzana AI 02:09:37 Rozwój AI w 2026
Szukaj w treści odcinka
No ale Bielik, czyli polski model językowy, polski LLM, czyli duży model językowy.
On myślę, że przykryje nam w ogóle świat LLM-ów i tego.
To jest oczywiście trik, że ponownie my wysyłamy informacje do tego LLM-a, o czym rozmawialiśmy wcześniej, ale ona tej wiedzy nie może użyć w innych interakcjach z innymi użytkownikami.
Nie wiem, korzystając z tego, z Bielika w aplikacji do wysyłania paczek, tysiące, nie pięć osób, tysiące ludzi robi różne rzeczy z tym LLM-em.
No tak, bo my tak jak powiedziałem, dzisiaj obcujemy z LLM-ami, czyli z dużymi modelami językowymi.
No ale on właśnie mówi LLM-y niekoniecznie.
Po pierwsze, myśli o tym, że LLM-y to nie jest droga do general intelligence.
I teraz, Jan LeCun dzisiaj mówi, że LLM-y to nie, to nie jest ta droga.
Prezentujący świat, ale w świecie LLM-ów.
W ogóle moje doświadczenia przyszedłem przez wizję komputerową, przez LLM-y, przez machine learning, przez systemy też autonomiczne, modelowanie systemów autonomicznych.
I teraz jak ja mówię, że LLM to jest 80% mnożenia macierzy, czyli mnożenie macierzy mamy na warstwach projekcyjnych, czyli tam są takie warstwy projekcyjne, później warstwy atencyjne, później mamy takie warstwy, które są warstwami jeszcze MLP, czyli FFM, czyli to są takie warstwy, które dodatkowo jeszcze
Jest ich za dużo, po prostu w świecie LLM-ów jest ich za dużo.
Ostatnie odcinki
-
Najbardziej totalitarny kraj świata
03.02.2026 14:45
-
Rosji nie można ufać
28.01.2026 15:01
-
Putin gra va banque. Stawka jest wyższa niż Ukr...
27.01.2026 18:00
-
Kwestia, w której Donald Trump jest skrajnie an...
26.01.2026 15:01
-
Bazy, surowce i wielka stawka. Jak daleko posun...
25.01.2026 18:00
-
Czy Polska może stać się potentatem zbrojeniowym?
22.01.2026 15:00
-
Wizja Polski na arenie międzynarodowej wg. Krzy...
21.01.2026 15:00
-
Polski Bielik obnaża ograniczenia ChatGPT || Re...
18.01.2026 18:00
-
Czy w 2026 roku może w Polsce polać się krew?
16.01.2026 06:30
-
Brutalna przestępczość wraca do Rosji
15.01.2026 07:00