Mentionsy
DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską
Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!
Szukaj w treści odcinka
Jeden z problemów LLM-ów, to jak określa Piotr Pęzik, też współkierownik projektu Hive AI, to jest taka jednorazowa kreatywność.
Ostatnie odcinki
-
Filozof o technologii. AI to niebezpieczna iluz...
28.01.2026 15:01
-
Czy dzieci powinny mieć dostęp do smartfonów i ...
21.01.2026 16:00
-
2025 - rok, w którym powiedzieliśmy AI "sprawdz...
14.01.2026 15:01
-
Dzieci wychowane przez ekrany - relacje w czasa...
17.12.2025 15:06
-
Pułapki automatyzacji. Czy AI powinna zarządzać...
10.12.2025 14:57
-
Technologiczny prezentownik 2025 - gadżety, wel...
03.12.2025 15:47
-
DIGITALKS 200 - Jak rozwijać swoją inteligencję...
26.11.2025 16:26
-
DIGITALKS 199 - Jak zmienia się praca? - podsum...
19.11.2025 17:58
-
Jak wychować pierwsze pokolenie dorastające z A...
12.11.2025 15:00
-
DIGITALKS 197 - Jak pokonać brainrot? - Polecaj...
05.11.2025 15:40