Mentionsy

DIGITALKS
10.09.2025 14:00

DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską

Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!

Szukaj w treści odcinka

Znaleziono 12 wyników dla "AI"

Mamy oczywiście wciąż grupę osób, która nigdy nie korzystała z AI, natomiast mamy rosnącą i coraz bardziej stabilną grupę ludzi, którzy praktycznie przy każdej czynności korzystają ze sztucznej inteligencji.

Agnieszka, co mnie bardzo cieszy, będę to podkreślała, jest kierowniczką projektu Hive AI, którego celem jest rozwijanie polskiego modelu językowego Plum i wdrażanie grupy właściwie modeli Plum w systemach administracji publicznej.

Wejdźmy trochę więcej teraz, głębiej może w tematy, bo kierujesz projektem Hive AI, więc chciałabym, żebyś trochę o tym powiedziała.

Natomiast teraz rozwijamy modele Plum właśnie pod szyldem Hive AI i poza tym, że je rozwijamy, to mamy już ten aspekt wdrożeniowy.

Ja rozmawiam z bardzo wieloma urzędami właśnie, które są zainteresowane takimi wdrożeniami.

potencjalni odbiorcy byliby zainteresowani tym, żeby mieć takiego chatbota, który odpowiadałby, bazałby na AI, gdzie po drugiej stronie człowiek by nie odpowiadał na pytania.

Ja też śledzę wiele globalnych dyskusji na ten temat i jestem za każdym razem zszokowana, jak wiele różnych punktów widzenia, nawet w dosyć takiej, można powiedzieć, spójnej grupie społecznej czy osób zainteresowanych technologią, ale pochodzących z różnych środowisk,

związani z AI, z modelami językowymi.

Myślę, że jest spory potencjał na generalnie takie trochę przekwalifikowanie się lingwistów w stronę AI i niekoniecznie to wymaga jakiejś bardzo dużej wiedzy technicznej, czy niekoniecznie jakiejś wielkiej znajomości programowania, ale jest na pewno dużo na to przestrzeni, bo po prostu potrzebujemy dobrej jakości danych językowych.

Jeden z problemów LLM-ów, to jak określa Piotr Pęzik, też współkierownik projektu Hive AI, to jest taka jednorazowa kreatywność.

Gdyby takie grupy mniejszościowe zaangażowały się bardziej w tworzenie modeli, właśnie żeby nie było tak, że reprezentujemy tę jakąś tam większość, główną część populacji, ten mainstream.

Ale też taka obserwacja, że bardzo często właśnie osoby z wykształceniem takim społeczno-humanistycznym teraz w mediach społecznościowych funkcjonują jako eksperci IT, AI, a z kolei osoby z wykształceniem technicznym powiadają się często na takie tematy etyczne wokół AI.