Mentionsy

DIGITALKS
10.09.2025 14:00

DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską

Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!

Szukaj w treści odcinka

Znaleziono 3 wyniki dla "Pluma"

Ty jesteś zaangażowana w budowę Pluma, jednego z dwóch polskich modeli językowych.

A jednak ja zawsze zachęcam, jeżeli chcesz czuć się patriotą, patriotką, to uprawiajmy patriotyzm technologiczny, przynajmniej raz dziennie wejdźmy i zasilmy, nakarmy trochę pluma.

W przypadku Bielika to jest ten rozmiar 11 miliardów parametrów, w przypadku Pluma są różne rozmiary, różne architektury, także można dostosować model do własnych konkretnych potrzeb, jakie zadania chcemy realizować, jak dużo tych zadań, no i jaką mamy infrastrukturę.