Mentionsy

DIGITALKS
10.09.2025 14:00

DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską

Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!

Szukaj w treści odcinka

Znaleziono 4 wyniki dla "FM Obywatelu"

To jest wdrożenie naszych modeli w mObywatelu.

Także to jest to wdrożenie FM Obywatelu i to jest taki asystent, ja bym to określiła, obywatelski.

Tak, no w jednym z tych zastosowań to jest właśnie odpowiadanie na pytania klientów, obywateli, obywatelek, więc nie tylko jak obywatel szuka informacji ogólnie o sprawach urzędowych, wtedy ten chatbot wirtualny asystent w obywatelu odpowie korzystając z domeny gov.pl, z tych informacji dostępnych,

Natomiast te modele na licencjach pełni otwartych, szczególnie ten największy model 70 miliardów parametrów, też mają bardzo szeroką wiedzę o świecie i jak najbardziej nadają się na przykład do zastosowania jako tak zwany generator, czyli jako ten LLM w takich chatbotach, na przykład jak do spraw urzędowych, czy jak wirtualny asystent w obywatelu.