Mentionsy

Prawo na Oko
06.10.2025 09:17

51 | Fałszywe obrazy, prawdziwe procesy. O deepfake mówi Patrycja Dolniak

 W kolejnym odcinku Prawo na Oko Patrycja Dolniak dzieli się refleksjami na temat tego, czy sądy w Polsce i Europie są gotowe na cyfrowe manipulacje, a także omawia narzędzia, jakie mają biegli, by odróżnić prawdę od fałszu. Patrycja wskazuje również, jak prawo powinno reagować na rozwój tej technologii oraz jakie zmiany w procedurach są konieczne, by nie dopuścić do kryzysu zaufania wobec dowodów cyfrowych.


Prawo na Oko - praktycznie i w punkt!


 AUTOREKLAMA Odkryj potencjał sztucznej inteligencji (AI) w analizie orzecznictwa. Sprawdź LEX Kompas Orzeczniczy 2.0 - pakiet innowacyjnych funkcjonalności i rozwiązań nawigacyjnych w systemie LEX - https://bit.ly/lex-komaps-orzeczniczy

 

🎧 Słuchaj Prawo na Oko gdzie lubisz i jak lubisz!


YouTube: [https://www.youtube.com/@WoltersKluwerPL/podcasts]


Spotify: [https://open.spotify.com/show/3q5lk1HF1cGAWNZXZCAT5v]


Apple Podcasts - [https://podcasts.apple.com/us/podcast/prawo-na-oko/id1716925565]

 


Znajdź nas na social mediach:


📷 INSTAGRAM


@Strefa_Aplikanta [https://www.instagram.com/strefa_aplikanta/]


📱 FACEBOOK


Wolters Kluwer Polska [https://www.facebook.com/WoltersKluwerPL]


Student.lex.pl [https://www.facebook.com/studentlex]


▶ LINKEDIN


Wolters Kluwer Polska [https://www.linkedin.com/company/wolters-kluwer-polska/mycompany/]


❓ Więcej znajdziesz na: [https://www.wolterskluwer.com/pl-pl/solutions/lex/podcast-prawniczy]



❗ Napisz do nas! Współpraca:


[[email protected]|mailto:[email protected]]



GOŚĆ ODCINKA: Patrycja Dolniak


Rozmowę poprowadziła: Monika Kozłowska


Współtwórczyni podcastu: Patrycja Tiuryn


Copywriter: Małgorzata Milewicz-Stobińska


Wsparcie techniczne: Fabian Bach, Joachim Czerniak i Dominika Szymańska

Szukaj w treści odcinka

Znaleziono 245 wyników dla "Krajowej Szkole Sądownictwa i Prokuratury w Krakowie"

i to potem zaczyna krążyć w sieci.

A odkręcenie tego to już nie jest ani tak nośne, ani tak ciekawe, ani nie stanie się wiralem.

I nawet bardzo hipotetyczne ustalenie, kto był sprawcą, bo to oczywiście może się wydarzyć, ale nie musi się wydarzyć, że ustalimy, kto był sprawcą tego wszystkiego.

no niekoniecznie doprowadzi do tego, że ta osoba, jak gdyby jej reputacja powróci do momentu sprzed i już nie wspomnę o krzywdzie, która się tej osobie dzieje.

W związku z tym, że musi znosić to, co ją otacza, musi walczyć o swoje dobre imię.

W związku z tym myślę, że deepfake może być bardzo wyniszczający dla jego ofiar.

Cześć, witam was serdecznie w podcaście Prawo na oko.

Dzisiaj moim gościem jest dr Patrycja Dolniak, sędzia, wykładowczyni w Krajowej Szkole Sądownictwa i Prokuratury w Krakowie.

Cześć, witam serdecznie.

Słuchaj, na rozgrzewkę, powiedz nam czym właściwie jest deepfake?

To nie jest takie proste pytanie.

Deepfake można oczywiście zacząć z analizy od tego, o czym mamy w AI-akcie.

Czyli są to pewne wygenerowane i zmanipulowane przez AI treści, które mają przypominać istniejące osoby, miejsca, wydarzenia, ale jednak będąc zmanipulowanymi bądź wygenerowanymi treściami.

czy to wideo, czy to obrazy, czy to treściwiękowe, mogą wprowadzać odbiorców w błąd co do autentyczności i prawdziwości tego, co tak naprawwidzą.

Jeszcze jedna rzecz, którą bym od razu chciała zaznaczyć, to nie jest tak, że deepfake jest w całości zakazane.

Bo nie, deepfake jako taki zakazany nie jest, ale zakazane jest ukrywanie tego, że to jest deepfake'iem, że to jest coś, co udaje rzeczywisty obraz, rzeczywiste nagranie, a tak naprawdę jest zmanipulowane, bo będzie wygenerowane.

A czy twoim zdaniem deepfake to już jest teraz takie realne zagrożenie?

Myślę, że jak najbardziej tak, że to już się dzieje i to już naprawdę nie jest kwestia przyszłości i tego, co nas czeka, ale tego, co już jest.

A czy na sali sądowej miałaś już do czynienia z tego rodzaju, jakby nie patrzeć, zagrożeniem?

W sumie to trudna odpowiedź na to pytanie.

Jeszcze nie zdiagnozowałam, że miało to miejsce, ale pytanie, czy już się nie pojawiło, kiedy ja nie miałam o tym świadomości, druga strona nie miała o tym świadomości.

Myślę, że akurat wyciek, w którym ja orzekam, jest mniej narażony na tego typu

próby wprowadzenia materiału dowodowego, który jest po prostu wytworzony na potrzeby procesu jako wydział gospodarczy.

Bardziej bym widziała tutaj inne wydziały typu wydziały karne, wydziały rodzinne, które jako pierwsze na linii w mojej ocenie mogą być narażone na tego typu sfabrykowane dowody.

My na szczęście bardziej bazujemy na dowodach z dokumentu, w związku z tym myślę, że to nie gospodarczy sądy na początek, ale...

A czy sędziowie są w jakiś sposób szkoleni bądź przygotowywani na tego rodzaju zagrożenia, że mogą się pojawić?

No i to jest podstawowy problem, bo mam taką obawę i takie przekonanie, że jeszcze trochę za mało się mówi na ten temat, a to jest coś, co myślę, że zacznie nas dotykać bardzo szybko i to z punktu widzenia materiału dowodowego, który strony będą próbowały w ten sposób wprowadzić do naszego postępowania, ale równie dobrze na przykład z kwestii odpowiedzialności odszkodowawczej czy za krzyww przypadku

wyrządzenia komuś szkody, czy też krzywdy materiałami wygenerowanymi właśnie w tej technologii.

W związku z tym to jest coś, z czym musimy się zmierzyć, a mam wrażenie, że ciągle brakuje szkoleń, ciągle brakuje rozmowy z sędziami przede wszystkim o tym, na czym polega ta technologia, o tym, że w ogóle jest takie zagrożenie i jak może wpływać na nasze postępowanie sądowe i jak sobie z tym radzić.

A kiedy ty pierwszy raz usłyszałaś o deepfake'ach w kontekście prawa?

No i już jakiś czas temu, myślę, że to będzie kilka ładnych lat temu, natomiast to bardziej była kwestia moich zainteresowań naukowych, kiedy zaczęłam zajmować się kwestią właśnie sztucznej inteligencji i tego, z czym my jako prawnicy możemy się spotkać i będziemy się mierzyć w ramach AI.

No i wtedy ten temat deepfake'ów wydał mi się mocno intrygujący i

No powiem szczerze, trochę przerażające z punktu widzenia tego, co jesteśmy już w stanie wygenerować, a ta technologia mknie błyskawicznie, bo jeszcze jakiś czas temu, kiedy zaczynałam się interesować tymi deepfake'ami, no to jeszcze nawet takie nie do końca wprawne oko było w stanie zlokalizować, że coś jest nie tak.

Że tutaj blask światła w oczach, że tutaj dłonie nie do końca... Szósty palec.

Tak, dokładnie.

Natomiast teraz to już jest, myślę, że częstokroć tak dobrze wygenerowany i zmanipulowany materiał, że nie jesteśmy w stanie tego odróżnić.

Nawet wiedząc, że mamy do czynienia z tego typu technologią.

Czyli sądy stoją przed realnym wyzwaniem.

Jak nauczyć się rozróżniać?

Czy w ogóle można to rozróżnić?

Myślę, że trudno też wymagać od sędziego, żeby był w stanie to rozróżnić, bo często po prostu nie da się tego gołym okiem rozróżnić.

To już trzeba wchodzić w bardziej zaawansowaną kwestie technologiczne i analizować ten materiał, który mamy, na przykład jakieś kwestie nieprawidłowości w pikselach.

Do tego nie zobaczymy gołym okiem.

A sędzia ani nie ma wykształcenia w tym kierunku, ani nie ma wiedzy, ani nie ma mechanizmów, żeby to zweryfikować.

A czy mamy już biegłych, które się specjalizują w tego typu sprawach?

Powoli tak.

Są już biegli, którzy też analizują z tego punktu widzenia materiał dowodowy.

Natomiast oni zwracają uwagę też na inne rzeczy.

Bo też miałam przyjemność rozmawiać z biegłymi właśnie w kontekście deepfake'ów.

I na przykład zwracają uwagę na problem, jaki pojawia się przy wykorzystywaniu przez samych biegłych

sztucznej inteligencji w trakcie wykonywanych przez nich opinii i opracowywania opinii.

Ponieważ jest taka pokusa, żeby sztuczną inteligencją coś tam poprawić, coś dołożyć, a pamiętajmy, że AI jest szkolone na określonych danych.

I na przykład utkwi mi w pamięci opowieść biegłego, który wskazywał, jak inny biegły posługiwał się sztuczną inteligencją, żeby tam sobie poprawić, wyostrzyć obraz, który analizował z dość charakterystycznym ułożeniem dłoni.

I AI wytrenowane na określonych obrazach dopisało automatycznie i zasugerowało, że to, co trzyma ten mężczyzna, to nóż.

Natomiast okazało się, że faktycznie to była smycz.

Natomiast znowu patrząc na to, na czym szkoli się sztuczna inteligencja, może to prowadzić do pewnego bajasu i do pewnych halucynacji ze strony sztucznej inteligencji.

W związku z tym też musimy być na to wyczuleni.

A co w sytuacji, kiedy taki deepfake zostanie wykorzystany jako dowód w postępowaniu sądowym?

Pytanie można właściwie od pytania na pytanie odpowiedzieć.

Pytanie jak my to ustalimy.

Bo do momentu kiedy tego nie ustalimy, że to był deepfake, no to wyrok jest jaki jest.

Natomiast jeżeli zostanie ustalone chociażby w instancji odwoławczej, że mieliśmy do czynienia z poczynieniem ustaleń faktycznych na podstawie materiału, który został spreparowany, no to znowu pytanie na ile to miało wpływ na wynik sprawy.

A jeżeli tak, no to raczej ten wyrok będzie do wzruszenia.

W związku z tym, no oczywiście to jest kwestia materiału dowodowego i jego wagi dla konkretnego rozstrzygnięcia, ale no nie możemy tego bagatelizować.

A jak sądy obecnie podchodzą do kwestii autentyczności tych materiałów, wideo lub audio?

Trochę mam takie wrażenie, patrząc z własnej praktyki, że ten temat jeszcze do końca nie istnieje w wymiarze sprawiedliwości.

On się jeszcze jakoś tak nie pojawia na zasadzie aktualnego problemu.

Też z mojej praktyki strony do tej pory nie podnosiły tego typu zarzutów.

Szczęście w nieszczęściu w wydziałach gospodarczych, że my mamy tutaj dość mocno kontradyktoryjność sporu.

W związku z tym zakładam, że w przypadku tego typu dowodów też byłby odpowiedni zarzut z drugiej strony.

Natomiast ciągle bardzo mało się mówi i dyskutuje o tym, co nas czeka w kontekście technologii deepfake.

Jako sędzia sama wiem, że tym dowodom z nagrań, zdjęć dawało się i ciągle daje dość duży walor wiarygodności.

Myślę, że obraz nie kłamy, że obraz wart tysiąca słów.

W związku z tym myślę, że powoli będziemy musieli się pożegnać z tym założeniem.

A czy prawo w Polsce bądź ogólnie unijne przewiduje już procedury wykrywania i kwestionowania takich dowodów?

AA Act nam stanowi, czym jest deepfake i że deepfake musi być ujawniony, że nie można ukrywać czegoś, że zostało wygenerowane lub zmanipulowane.

Natomiast w kontekście naszej procedury i naszego podważania ewentualnych dowodów, to w mojej ocenie mamy to, co mamy, czyli KPC.

Też pytanie... To wystarczy?

Pytanie jest jeszcze o kwestię ciężaru dowodu.

No bo założenie jest takie, że strona, która wywodzi pewne twierdzenia, jest obowiązana te twierdzenia wykazać.

W związku z tym w przypadku zarzutu, że dowód został zmanipulowany bądź wygenerowany przez sztuczną inteligencję, czy to strona, która zarzuca, że tak się stało, będzie musiała to wykazać?

No bo jeśli tak, to może przed nią stanąć dość duże wyzwanie.

I często pewnie koszt.

I koszt, dokładnie, bo to są drogie opinie biegłych, opinie, na których myślę, że będziemy dość długo czekać, bo ciągle jeszcze mamy niewielu specjalistów, którzy się nad tym znają.

Natomiast z drugiej strony, jeżeli byśmy przyjęli, że to ciężar dowodzenia będzie na osobie, która posługuje się dowodem, to możemy sobie wyobrazić sytuację odwrotną, kiedy...

Jeżeli przeciwnik procesowy zarzuca zmanipulowanie bądź wygenerowanie, no i trzeba będzie udowadniać, że jednak ten dowód jest dowodem autentycznym, prawdziwym.

W związku z tym i z jednej i z drugiej strony to rodzi dość dalekie konsekwencje, już abstrahuję od długości procesów.

Co oczywiście może być następstwem kwestionowania tego typu dowodów i konieczności zasięgania opinii biegłych.

A jakie są największe wyzwania dla biegłych sądowych w rozpoznawaniu takich materiałów zmanipulowanych przez AI?

Nie chciałabym też wchodzić tutaj w buty biegłych, bo to nie jest moja dziedzina.

Natomiast znowu, jak gdyby posługując się tym, o czym sami biegli mi wspominają, myślę, że właśnie kwestia tego, na czym AI się uczy, tego na danych, na jakich zostało wytrenowane,

tego, w jaki sposób biegli będą w stanie ustalić pewne rzeczy, czy też posługując się właśnie sztuczną inteligencją.

Myślę, że tutaj to bardziej pytanie do biegłych, natomiast też z rozmów z nimi mogę postawić pewną tezę.

Jest to ciekawe wyzwanie, jest to wielkie wyzwanie, natomiast nie jest to proste wyzwanie.

Szczególnie tempo, w jakim rozwija się to wszystko.

Więc myślę, że zawsze jesteśmy trochę krok z tyłu, jeśli chodzi o odpowiedź ustawodawczą, co jest oczywiste.

W związku z tym musimy nadążać za tym, co się dzieje i za postępem technologicznym.

Ciężko.

Tak, to prawda.

Trochę już się ciebie o to na początku pytałam, ale czy spotkałaś się ogólnie z przypadkami, w których deepfake został użyty do szantażu, manipulacji, fałszywych oskarżeń?

Nawet nie w swojej pracy, ale gdzieś ogólnie w środowisku, czy już była taka sytuacja?

Zdarzają się przede wszystkim w przypadku osób publicznych tego typu próby szantażu, szczególnie mając na uwadze polityków, ale na przykład w ogóle patrząc wstecz skąd się wziął termin deepfake, no bo tak naprawdę to pochodzi od...

pseudonimu osoby, która sporządziła taki deepfake, podstawiając twarz aktorki Gal Gadot pod ciało pani parającej się prostytucją, tudzież pani bardzo mocno roznegliżowanej.

W związku z tym to w pierwszym rzędzie dotyka tego typu osoby, ale myślę, że to...

To nie jest jedyna grupa zagrożona deepfake'iem i to wzbudza dość poważne obawy jeszcze dalej idące.

Oczywiście mam z tą uwadze, że i te grupy należy bardzo intensywnie i mocno chronić przed tego typu zagrożeniami.

Natomiast myślę, że chociażby kwestia dzieci i ochrony ich wizerunku jest rzeczą, na którą powinniśmy wszyscy bardzo mocno uważać.

Właśnie trochę już uprzedziłaś moje pytanie, które chciałam ci zadać, bo chciałam się zadać, jakie grupy są szczególnie narażone na ten atak deepfake'owy?

Dzieci, a czy oprócz dzieci jeszcze widzisz gdzieś potencjał?

Myślę, że to tak naprawdę nikt temu nie ucieknie.

Bo deepfake może być wykorzystane, to nie jest jakaś specjalnie skomplikowana technologia.

Mam na myśli fakt, że chociażby w sieci są dostępne programy, które mogą być użyte do wygenerowania treści właśnie deepfake.

W związku z tym potencjał na szantaż, tudzież próbę zniszczenia komuś życia jest niestety bardzo duży.

Natomiast w przypadku dzieci i tego, co się ostatnio dzieje i ostatnio głośno mówi na temat udostępniania wizerunku dzieci w sieci, obawiam się, że to może być bardzo ryzykowne zachowanie z punktu widzenia deepfake'ów i z punktu widzenia niestety wykorzystania tych wizerunków dzieci.

W przypadku pornografii dziecięcej, a naprawdę myślę, że wszyscy chcielibyśmy tego uniknąć.

Czyli teraz tym bardziej trzeba kilka razy przemyśleć, co wrzucamy do internetu, jakie informacje udzielamy.

Niestety tak i musimy być tego coraz bardziej świadomi.

Powiedziałaś już o grupach, które są narażone na te ataki, a jaki typy spraw według ciebie są narażone na manipulacje?

Myślę, że to właśnie przede wszystkim będą kwestie rodzinne, kwestie postępowań karnych.

Tutaj bym widziała największe zagrożenie, natomiast to nie oznacza, że tylko to, bo jak gdyby szereg spraw cywilnych również może być przedmiotem takich ataków.

Nie wykluczam też spraw gospodarczych, w związku z tym obawiam się, że wszyscy musimy być wyczuleni na temat deepfake'ów, bo może się przydarzyć w każdym postępowaniu, które prowadzimy.

A myślisz, że możemy w jakiś sposób się ustrzec przed tego typu działaniami, czy to jest już poza naszym zasięgiem i po prostu musimy bardzo mocno weryfikować to, co widzimy?

Myślę, że to co powiem to może być bardzo smutne, o ile oczywiście mam rację.

Natomiast ja mam takie przekonanie, że niestety musimy po prostu nauczyć się z tym żyć.

Musimy być bardzo ostrożni w tym, co o sobie udostępniamy.

Musimy chronić te grupy i te osoby, które powinny być chronione.

Mam na myśli tutaj przede wszystkim dzieci i ich wizerunek.

Natomiast nie zatrzymamy tej technologii.

A sama technologia nie jest ani dobra, ani zła.

Po prostu jest i może być wykorzystywana równiw dobrych celach.

Natomiast musimy mieć świadomość tego, że niestety to nie są tylko cele dobre, do których ta technologia może być wykorzystywana i tak się niestety już dzieje.

Myślisz, że w przyszłości rozprawy będą wyglądały tak, że obok ciebie na sali sądowej będzie siedział ekspert do spraw AI?

Myślę, że tak daleko może chyba nie pójdziemy.

Aczkolwiek ten postęp jest tak błyskawiczny, że to o czym my teraz rozmawiamy 10 lat temu w ogóle...

Wydawałoby się, myślę, że nikt by o tym nie pomyślał, że w ogóle będziemy się mierzyli z takimi problemami.

Kto wie, może tak trzeba będzie, a może wszyscy będziemy musieli już przejść naprawdę porządne szkolenie z zakresu sztucznej inteligencji i to jest coś, co czeka sędziów i co jest dla nas wyzwaniem.

A czy na przykład dla ciebie pomocą w pracy byłaby taka możliwość zaczerpnięcia opinii eksperta, który jest po prostu na wyciągnięcie twojej ręki, który gdzieś zawsze jest w sądzie, do którego można podejść, skonsultować się, zapytać?

To by było świetne.

I to nie tylko z zakresu AI.

Także to byłoby rewelacyjne, bo na bieżąco często pojawia się wiele problemów.

Nawet przy zwykłych opiniach biegłych, z którymi do tej pory mamy do czynienia.

Nawet kwestia tego, na jakie pytania biegły, jest w stanie odpowiedzieć.

Jak skonstruować tę tezę dowodową, jaki materiał jest potrzebny do wydania opinii.

W związku z tym to by było marzenie każdego sędziego, myślę.

Ale chyba na razie w sferze marzeń.

wiłaś też, że bardzo dużo interesujesz się w tym temacie.

A gdzie szukasz informacji?

Byłam na studiach podyplomowych, szukam informacji tak naprawdę, no cóż, najprostszym źródłem informacji obecnie jest internet, ale tutaj bym była daleka od używania takich podstawowych narzędzi AI i niesprawdzania źródeł.

Natomiast to jednak dalej jest takie trochę przyzwyczajenie naukowe i szperanie po artykułach naukowych, po czasopismach, po książkach, po publikacjach.

No też oczywiście po dokumentach, które są obecnie już udostępniane w ramach Unii Europejskiej, Komisji Europejskiej.

W związku z tym myślę, że jak ktoś chce i ma bardzo dużo samozaparcia, to jest w stanie się dogrzebać do tych materiałów.

Natomiast brakuje takich szkoleń adresowanych do sędziów.

Bo też nie każdy ma czas, zacięcie i ochotę przeszukiwać sterty książek, artykułów, które też niekoniecznie są adresowane do sędziów, nie pisane częstokroć naszym językiem i nie analizujące problemu od naszej strony.

Więc czekam na naprawdę takie intensywne adresowane do sędziów już jako grupy zawodowej szkolenia, które pozwoliłyby nam się odnaleźć trochę w tej rzeczywistości, od której tak jak mówię, nie uciekniemy.

Ale oczekiwałabyś takich szkoleń od podstaw, czy już na jakimś takim wyższym etapie zaawansowania?

Myślę, że i takich i takich, bo to też jakby każdy z nas ma trochę umiejętność, inne umiejętności, inne zainteresowanie.

I myślę, że będą sędziowie, którzy będą chcieli takie szkolenia jak gdyby od podstaw, od początku.

A myślę, że jest grupa sędziów, która też już chciałaby wejść w pewien rytm, jak gdyby mając już pewwiedzę.

Natomiast musimy być otwarci i na jedno i na jednych i na drugich, bo nie możemy nikogo wykluczyć cyfrowo, równiwśród sędziów.

A czy taki deepfake może kiedyś posłużyć w dobrym celu w sądownictwie?

Myślę, że może posłużyć w dobrym celu.

Tak jak mówię, ta sama technologia, ona ani dobra, ani zła.

Natomiast myślę, że na przykład w kwestiach karnych poszukiwania konkretnych osób, na przykład do wytworzenia takiego wizerunku osoby poszukiwanej, dlaczego nie, tak?

W związku z tym myślę, że kwestia anonimizacji świadków...

Jest potencjał, żeby z tego deepfake'u też korzystać w dobry sposób, bo tak jak wielokrotnie podkreślałam, to nie jest zła technologia, to jest po prostu technologia.

A czy twoim zdaniem rośnie społeczna nieufność wobec materiałów wideo jako dowodów?

Ja trochę się boję, że to niestety nie wywołuje społecznej nieufności.

No bo sama wiesz, jak przeglądasz internet, potem już wpadasz w pewną bańkę i jak gdyby oczywiście algorytmy się uczą i podsuwają ci to, co oglądasz.

W związku z tym ilość tego, czym jesteśmy zalewani, jeśli chodzi o materiały, jest przeogromna i odróżnienie prawdy od fałszu jest niejednokrotnie niemożliwe.

W związku z tym

Ja trochę mam obawę, że to nie jest niestety tak, że coraz mniej ufamy temu, co widzimy w internecie.

Może niektórzy, ale czasami mam wrażenie, że to jest po prostu proste źródło informacji.

Teraz źródłem informacji już nie jest telewizja, nie są gazety, czasopisma.

Są shorty, są jakieś krótkie filmiki.

To jest skondensowana, krótka, szybka wiadomość.

I w sumie czasami niestety odnoszę wrażenie, że coraz mniej z nas bada na ile to, co widzi, to jest w ogóle coś, co jest rzeczywistością.

Też zdarzyły się na przykład sytuacje, kiedy informacja

zupełnie nieprawdziwa, wygenerowana, była podawana dalej bez jakiegoś głębszego sprawdzenia przez poważne instytucje, przez poważne agencje prasowe.

W związku z tym to niestety szerzy potem dezinformację.

Ja się już często kroś nad tym łapię i zastanawiam, czy aby na pewno...

To, co właśnie przed chwilą zobaczyłam, to będzie prawda, ale sprawdzanie też każdej rzeczy... Jest niemożliwe w tej ilości informacji.

Jest niemożliwe, natomiast myślę, że trzeba o tym mówić, trzeba to podkreślać, że no niestety nie tylko w postępowaniu sądowym, mam wrażenie, że jeszcze nie tylko...

A przede wszystkim w takim codziennym życiu jesteśmy zalewani po prostu niewiarygodną liczbą takich wiadomości, informacji, które często nie mają nic wspólnego z rzeczywistością.

A jak deepfake może wpłynąć na reputację ofiar fałszywych nagrań?

To znowu jest jak gdyby problem, no bo niestety w przypadku tych nagrań to ten deepfake i te nagrania, one się rozprzestrzeniają z siłą wodospadu, bo błyskawicznie.

Virale.

I to potem zaczyna krążyć w sieci.

A odkręcenie tego...

To już nie jest ani tak nośne, ani tak ciekawe, ani nie stanie się wiralem.

I nawet bardzo hipotetyczne ustalenie, kto był sprawcą, bo to oczywiście może się wydarzyć, ale nie musi się wydarzyć, że ustalimy, kto był sprawcą tego wszystkiego.

no niekoniecznie doprowadzi do tego, że ta osoba, jak gdyby jej reputacja powróci do momentu sprzed i już nie wspomnę o krzywdzie, która się tej osobie dzieje.

W związku z tym, że musi znosić to, co ją otacza, musi walczyć o swoje dobre imię.

W związku z tym myślę, że deepfake może być bardzo wyniszczający dla jego ofiar.

A jeśli ustalimy źródło tego deepfake'u i tak naprawdę sprawcę, jakie może ponieść konsekwencje teraz?

Ja już abstrahuję od kwestii karnych, bo nie jestem karnistą i też nie chciałabym tutaj wchodzić w te kwestie.

Natomiast przede wszystkim odpowiedzialność odszkodowawczą za ewentualne szkody i za dość uczynienie, za wyrządzoną krzywdę, jeśliwimy o kwestiach odpowiedzialności cywilno-prawnej.

W związku z tym to nie jest tak.

że sprawcy będą bezkarni, pozostaną bezkarni, bo jeżeli chodzi o mechanizmy tutaj walki z tego typu działalnością, przystępczą działalnością, my mamy.

Także jedynym moim tutaj problemem i bolączką myślę, że jest kwestia wykrywalności.

W sytuacji, kiedy już dojdziemy ponicy do kłębka kto, to jeżeli chodzi o mechanizmy tutaj ochrony prawnej, to takie mechanizmy już są.

W związku z tym jest z czego korzystać.

Pytanie, czy nie musimy tego i nie powinniśmy...

w jakiś sposób bardziej zintensyfikowi wprowadzić dodatkowych obostrzeń i dodatkowych tutaj norm chroniących pokrzywdzonych i poszkodowanych.

Natomiast tak jak mówię, to nie jest tak, że ci sprawcy powinni czuć się bezkarni.

Dużo takich spraw już jest w sądach?

Czy to jest dalej jakiś mały promil?

To jest myślę, że dopiero początek.

Tak jak mówię, ja się jeszcze nie spotkałam z tego typu sprawami, ale nie byłabym tutaj optymistką, że nie zaczniemy się spotykać.

bo to jest dopiero technologia, która od niedługiego czasu się rozkręca, jeżeli chodzi o jej popularność i dostępność dla takiego powszechnego użytkownika.

W związku z tym nie byłabym tutaj optymistką, że te sprawy nie pojawią się w sądach i niestety nie byłabym optymistką, że nie będziemy mieć pokrzywdzonych i tego typu zachowaniami.

A na podstawie twojego doświadczenia, jak uważasz, jak powinniśmy edukować społeczeństwo w zakresie deepfake'ów?

Myślę, że przede wszystkim powinniśmy iść w tym kierunku, żeby nie wierzyć tak bezrefleksyjnie w to, co widzimy.

Żeby jednak sprawdzać, sprawdzać, sprawdzać.

Chociażby w internecie szukać, czy te informacje pojawiają się na innych stronach internetowych, czy to źródło, z którego czerpiemy tę wiedzę jest wiarygodne, czy dotychczasowe informacje, które ta osoba, ta instytucja podawała były potwierdzone.

W związku z tym przede wszystkim sprawdzać, przede wszystkim być świadomym, że tego typu zagrożenie istnieje.

No i cóż.

Nie wierzyć we wszystko, co widzimy, po prostu.

Inaczej myślę, że się nie da, bo tak jak mówię, sama technologia zakazana nie jest i ona zła nie jest, natomiast dopóki nie wierzymy we wszystko bezrefleksyjnie, to myślę, że powinniśmy być w stanie się ustrzec przed najgorszym.

Jakbyś miała teraz taką sprawczość i byś mogła wskazać jedną zmianę prawną, taką systemową, by ograniczyć nadużycia, co byś wprowadziła?

Wrócę do tego, co powiedziałam wcześniej.

Ja bym przede wszystkim postawiła na edukację sędziów.

Przede wszystkim poszłabym nawet, bo jeżeli chodzi o kwestie zakazów, nakazów, to my nie wygramy z technologią.

Natomiast przede wszystkim poszłabym w zmiany, już nie legislacyjne, ale zmiany dotyczące właśnie szkolenia.

kadr wymiaru sprawiedliwości, zmiany w związku z kwestią informatyzacji wymiaru sprawiedliwości, bo prawda jest taka, że ze sztucznej inteligencji prawnicy korzystają tak bardzo szeroko, natomiast jeżeli chodzi o wymiar sprawiedliwości sędziów, to my mamy bardzo mocno ograniczone zasoby.

Właściwie nie mamy do tej pory dostępnych żadnych dedykowanych narzędzi.

I co z czego my korzystamy?

Jeżeli korzystamy, to są te publicznie dostępne na przykład LLM-y, które bądźmy szczerzy mają pewne zagrożenia i żeby z nich bezpiecznie korzystać, to się trzeba trochę narobić, żeby te dane usunąć i żeby też nie korzystać z takich otwartych źródeł, w sensie na przykład nie w profesjonalnym dostępie.

W związku z tym myślę, że powinniśmy przede wszystkim zainwestoww szkolenia, że powinniśmy zainwestoww programy dedykowane do wymiaru sprawiedliwości, a sędziowie dadzą sobie radę.

To nie wątpię.

A jest coś, co cię szczególnie niepokoi lub jakby inspiruje w rozwoju tej całej technologii?

A czy inspiruje mnie w ogóle?

Ja nie jestem osobą techniczną kompletnie.

Nie jestem humanistką z urodzenia.

W związku z tym inspiruje mnie w ogóle, jak to jest robione i jak to jest niesamowite, żeby wymyślić takie rzeczy.

W związku z tym ja jestem pełna podziwu dla osób, które to...

Które to zrobiły, które to wymyśliły, które miały taki pomysł.

W związku z tym sama technologia mnie niesamowicie inspiruje i to też było przyczynkiem do tego, żeby się nią zająć.

Natomiast kwestia jej niewłaściwego wykorzystania, bo mamy piękny potencjał, żeby uczynić z technologii pomoc w naszym codziennym życiu.

Ciągle liczę, że na przykład sztuczna inteligencja pomoże nam szybko wynaleźć lekarstwo na raka i w tym kierunku pójdziemy, a nie w kierunku autodestrukcji.

Bardzo dziękuję Ci za tą rozmowę.

Pokazałaś nam, że deepfake to nie tylko technologia i ciekawostka, ale przede wszystkim realne wyzwanie dla wymiaru sprawiedliwości.

Chyba już nie możemy wierzyć w to, co widzimy obecnie.

No niestety, to prawda.

Bardzo dziękuję również, było mi bardzo miło.

Dziękuję, do zobaczenia, do usłyszenia.