Mentionsy

didaskalia
18.01.2026 18:00

Polski Bielik obnaża ograniczenia ChatGPT || Remigiusz Kinas - didaskalia#170

- Jakie są przewagi Bielika w stosunku do innych modeli językowych? - Czym jest suwerenność technologiczna w kontekście AI? - Jak trenuje się duże modele językowe? - Czy AI jest „czarną skrzynką”? Na te i więcej pytań odpowie Remigiusz Kinas, ekspert w dziedzinie uczenia maszynowego, jeden z twórców polskiego modelu językowego (LLM) o nazwie Bielik. Zapraszamy do oglądania kolejnego odcinka programu „didaskalia” Patrycjusza Wyżgi. 00:00:00 Najlepszy fragment 00:02:36 Po co nam Bielik? 00:09:00 Początki polskiego modelu 00:23:28 Suwerenność LLM-ów 00:36:30 Wartość danych 00:44:39 Podejście Yanna LeCuna 00:56:51 Język polski w AI 01:06:24 Ewolucja karty graficznej 01:25:41 Kwestia komputerów kwantowych 01:27:25 Jak wygląda trenowanie modelu? 01:44:21 Czy model to czarna skrzynka? 01:48:43 Debata wokół świadomości modelu 01:54:03 Tokenizacja AI 01:58:10 Biotechnologia napędzana AI 02:09:37 Rozwój AI w 2026

Szukaj w treści odcinka

Znaleziono 4 wyniki dla "Hopper"

Wtedy Cyfronet kupował najnowszą technologię, ona się nazywa Grace Hopper.

Czyli mówimy o akceleratorach, o serii na przykład, o technologii na przykład Ampir, Ada, Hopper, teraz Blackwell, czy za chwilę kolejna jakby odsłona superchipów.

Sprzęt, który się nazywa Grace i Hopper.

I teraz, jeżeli spojrzymy sobie na architekturę Hopper, która jest nadal bardzo popularną architekturą NVD, czyli mówimy o architekturze, to się nazywa Compute Capability 90, to jest taka architektura.