Mentionsy
Czy można opatentować "wytwór" sztucznej inteligencji?
Sebastian Ogórek, szef serwisu Wyborcza.biz, rozmawia z Aleksandrą Maciejewicz, partnerką w kancelarii prawnej Lawmore i rzeczniczką patentową, o sztucznej inteligencji, własności intelektualnej i prawie patentowym. Jak udowodnić przed sądem, że AI użyła czyjegoś głosu? Kto ma prawa autorskie do obrazu wygenerowanego przez sztuczną inteligencję? Czy prompt może zostać objęty prawem autorskim? I czy "wytwór" AI można opatentować? Więcej podcastów na: https://wyborcza.pl/podcast. Piszcie do nas w każdej sprawie na: [email protected].
Szukaj w treści odcinka
To jest ósma dziesięć.
W dzisiejszym odcinku.
Spróbujemy zastanowić się, jak mówić i jak podchodzić do tego, co no właśnie, wykreowała, stworzyła, wypluła z siebie sztuczna inteligencja.
Ósma dziesięć.
Sebastian Ogórek, to jest podcast 8.10, ja reprezentuję Gazetę Wyborczą i Wyborczą BIS, a ze mną dzisiaj Aleksandra Maciejewicz, partnerka w kancelarii Lovemore i rzeczniczka patentowa.
Dzień dobry.
Pierwsza rzecz, ile dzisiaj jest procesów dotyczących AI, w których to AI jest powodem do tego, że ktoś coś komuś ukradł?
Nie znam dokładnych liczb, ale jest ciekawa strona internetowa napędzona właśnie sztuczną inteligencją, która to monitoruje.
Ja bym przekręciła to pytanie, ile jest wyroków w tej sprawie, a jest bardzo niewiele.
To znaczy już w zakresie takim, bo mówisz o kradzieży.
No właśnie, czy to jest kradzież, czy nie?
Właśnie, no generalnie firmy technologiczne bardziej nazywają to trenowaniem, memoryzacją, etc.
Wiem, że twórcy traktują tę sytuację inaczej, dla nich to jest kwestia monetyzacji tych utworów, gdzie coś jest wykorzystywane, no to powinno być opłacone, no ale jest tutaj właśnie spór techniczny, czy w ogóle właśnie taka memoryzacja to jest...
kopiowanie utworu, tak?
Bo generalnie korzystanie, rozpowszechnianie, rozporządzanie utworem, kopiowanie, no to jest coś, co obejmują majątkowe prawa autorskie.
No bo zapewne tutaj skopiamy się teraz na, bo twórczość ma oczywiście ten aspekt prawnoautorski, ma, to jest prawo też wynalazcze, prawo własności przemysłowej, to jest też know-how, ewentualnie można powiedzieć o ochronie baz danych, ale...
Bo do tego jeszcze wrócimy.
Ja, mówiąc szczerze, pytam o to dlatego, że głośno zrobiło się o jednym przypadku.
Jarosława Łukomskiego, znanego głosu, w szczególności dla osób wychowanych w latach 90., który pewnego dnia usłyszał swój głos w reklamie usług asenizacyjnych.
No tylko, że on nigdy tych słów nie wypowiedział.
W związku z czym postanowił pójść do sądu, sprawa stała się medialna.
Ja się zastanawiałem, czy to jest pojedynczy przypadek, czy coś, co zaczyna być kulą śniegową i tak przypadków będzie coraz więcej.
Na pewno będzie za granicą, zresztą to jest jakiś wyjątek, prawda?
W kontekście chociażby deepfake'ów, które... Deepfake'ów, czyli przerobionych materiałów, w których na przykład jest czyjeś zdjęcie, chociaż osoby tam w ogóle nigdy nie było w tej sytuacji.
Tak, głos, wizerunek w kontekście audio, bo mówimy o wizerunku audialnym, czy właśnie jako zdjęcie, czy jako też wideo.
No tak, ale tutaj twórczości jako takiej nie ma, więc mówimy właśnie najczęściej o wizerunku audialnym, o dobrach osobistych, ewentualnie o dobrach w postaci RODO, w sensie w zakresie RODO, że jako że głos jest daną osobową.
Więc o ile rzeczywiście jeszcze wizerunek jest regulowany, przynajmniej w Polsce, w ustawie o prawach autorskich, no to dobra osobista to z kolei kodeks cywilny, a jeżeli chodzi o dane osobowe, no to RODO.
Czyli mamy zbieg różnych... A, jeszcze w ogóle tutaj możemy mówić o przestępstwie, ale to może... Czyli jednak karadzisz.
Poniekąd tak.
Więc w ogóle mówimy o zbiegu jakichś trzech roszczeń.
I co do tego, czy to będzie zwyżkować?
Oczywiście, no bo technologia staje się coraz bardziej dostępna, ale myślę, że też już organy ścigania i sądy cywilne będą też miały tutaj większe pole do popisu, bo przynajmniej mam taką nadzieję, też orzecznictwo, doktryna będzie dostarczać coraz więcej materiałów, żeby rozstrzygać właśnie takie spory.
Okej, to podstawowa rzecz, bo jak kogoś zobaczę, to ja będę mógł powiedzieć, że to jest ta osoba, a nie ktoś podobny, że to nie jest sobowtór.
Jak udowodnić przed sądem, że to jest mój głos?
Patrząc na standardową procedurę sądową, pewnie będzie powołany jakiś biegły.
Myślę, że też będą powstawać narzędzia, które będą właśnie pomagać.
Teraz mówi się, że jeżeli chodzi o teksty generowane przez sztuczną inteligencję, to takie detektory są bardzo słabe.
Ale jeżeli chodzi o deepfake'i i generalnie na koniec dnia ja oceniam,
Czy to ja, czy udzielają w ogóle licencji?
Bo niektórzy przecież dla Eleven Labs, niektórzy udzielają zgody na wykorzystywanie próbki głosu, wykorzystywanie tego sztucznej inteligencji innego głosu.
Czytelnicy Gazety Wyborczej powinni wiedzieć, co to jest Eleven Labs, dlatego że dzięki technologii Eleven Labs są czytane teksty na wyborcza.pl i wyborcza.biz.
Dopytam tu jeszcze jedną rzecz w sprawie tego...
kradzieży, będę tak upraszczał tego głosu, bo podobna sprawa dotyczyła OpenAI, czyli tej największej firmy, od której ta rewolucja związana ze sztuczną inteligencją się zaczęła.
I tam z głosu Scarlett Johansson.
I historia jest o tyle ciekawa, że Scarlett Johansson wystąpiła w filmie, właściwie jej głos wystąpił w filmie, którym ona mówiła, podkładała głos, ten film nazywał się Hair, czyli ona. ...
I kiedy sam Altman mówił o tym, że Open AI wprowadza głos i będzie miał swój głos, no to nie użył jej imienia i nazwiska, tylko powiedział, że Herr, co jakby wskazał, że chodzi o Scarlett Johansson.
Tylko, że Scarlett Johansson nigdy na to nie wyraziła zgody.
No i teraz ona mówi, to jest jej głos, OpenAI mówi, nie, to nie jest jej głos, to jest nasz głos stworzony, no rzeczywiście trochę podobny, ale ten, koniec końców usunięto jej głos całkowicie.
Znaczy ja już tutaj przesądzam, czy to był głos, ale chodzi o to, gdzie tutaj rozpoznać, gdzie tu jest granica, mój głos, nie mój głos.
No nie oszukujmy się też, że to jest kwestia, jaką silną pozycję w sądzie masz i jakby dowodową.
Więc to też nie chodzi o to, żeby jakimiś, oczywiście te technikalia typu, nawet nie wiem, czy tam są jakieś oktawy, szczerze mówiąc, nigdy nie specjalizowałam się w rozpoznawaniu głosów.
Ale na koniec dnia, nawet jeżeli OpenAI czy jakiś inny producent, provider nie wykorzystał próbki głosu Scarlett Johansson, ale doprowadził do tego, że głos jest myląco podobny do tego oryginalnego, to wciąż może dojść do naruszenia dóbr osobistych.
To podobnie chociażby jak też z greenwashingiem.
Nie musi dojść wprowadzenie w błąd właśnie, co konsument odbiera, co słyszy.
To też jest istotne dla tego całego postępowania i to też jest na przykład przyczynach nieuczciwej konkurencji wykorzystywane, prawda?
Wystarczy, że konsument ma to skojarzenie.
Więc jakby od strony technicznej, czy mają być porównywane jakieś konkretne parametry, to może być oczywiście te wsparcie w procesie sądowym, ale nie musi o tym przesądzać.
Kolejny przypadek, to a propos jeszcze wizerunków, prawda?
Gdzie mieliśmy Toma Waitsa lub Kim Kardashian, podobne wizerunki do nich wykorzystywane w reklamie, czy to chipsów, czy to jeansów.
I samopodobieństwo już wystarczyło do naruszenia ich dóbr osobistych.
Więc to nie był deepfake Kim Kardashian i Toma Whitesa wykorzystany, tylko po prostu specjalnie ucharakteryzowane osoby, żeby właśnie konsumenci widzieli ja jako Toma Whitesa czy Kim Kardashian.
Okej, czyli tutaj specjalnie intencja była taka, żeby po prostu pomylić.
To znaczy, że ja nigdy nie mogę korzystać z takich programów, prosząc ich o zrobienie żartobliwej informacji, którą wyślę do żony, którą moja córka wyśle do mnie i to już jest złamanie prawa?
Nie, użytek prywatny, czy nawet użytek taki czysto osobisty, prywatny jest chociażby wyłączony z RODO, w prawach autorskich też mamy właśnie ten, właśnie dozwolony użytek prywatny, więc jeżeli chodzi o takie czysto osobiste, nawet rodzinne, ale nie chodzi tylko o relacyjność rodzinną, ale też przyjacielską, etc., mamy niemal w każdej przedmiotowej, o której teraz myślę, ustawie konkretne wyłączenia, głównie tutaj chodzi o komercjalizację.
Przy czym oczywiście też nie chciałabym się ograniczać tylko do komercjalizacji per se, że na przykład tylko, no bo instytucje badawcze też mogą na przykład prowadzić działalność komercjalizacyjną.
Generalnie potraktowałabym to a contrario.
Jeżeli wychodzimy z tego użytku osobistego, to wtedy naruszamy prawo.
Ale wrzucę to na jakiś serwis społecznościowy, myśląc, że to po prostu udostępniam moim znajomym.
ale staje się to memem, zaczyna być przetwarzane po tysiąckroć i tak dalej, i tak dalej.
To ja jestem winny i ja mogłem złamać prawo, mimo że chciałem tylko się, nie wiem, zażartować albo zrobić po prostu śmieszny filmik, nie czerpać z niego żadnych korzyści.
Na koniec dnia tak.
To znaczy oczywiście meta czy jakiś inny serwis, provider również może partycypować w tej odpowiedzialności, bo oni mają określone obowiązki.
W przypadku, jeżeli pozyskają informacje o bezprawności danych, no to muszą podjąć niezwłoczne działanie w celu uniemożliwienia dostępu do takich danych.
Ale ja osobiście, jak spojrzysz chociażby w przepisy związane z odpowiedzialnością za naruszenie praw autorskich, to tam jest tak zwana odpowiedzialność bezwzględna.
Czyli twój zamiar nie ma znaczenia.
Czy twoim zamiarem było, żeby na koniec dnia to było powielone przez milion udostępnień, czy tylko przez te dwie osoby?
Generalnie, jeżeli nie będzie któregoś z tych wyjątków, o których powiedziałam tutaj szczególnie ten użytek osobisty, ale też może być pastisz, może być jakiś kolaż.
Generalnie sporo jeszcze wciąż jest tych wyjątków w prawie autorskim.
Jeżeli nie uda Ci się wykazać, że korzystasz z którychś tych uprawnionych możliwości korzystania z cudzego utworu, no to będziesz ponosić tę odpowiedzialność.
Okej, a jeśli ja jeszcze to skomplikuję i umieszczę w jakiejś rzeczywistości, która oczernia w jakiś sposób, pokazuje w złym kontekście daną osobę, to jeszcze mi grozi odpowiedzialność związana z tego tytułu?
Naruszenie dóbr osobistych, tak.
Zniewaga, pomówienie, no to już też z kolei przepisy karne.
Polska żyła też, bo jest specyficzny rodzaj deepfake'ów z podtekstem seksualnym, w którym po prostu czyjaś twarz, dźwięk, głos jest umieszczany w filmach pornograficznych.
Czasami to jest twarz dziecka i dzieci między sobą w szkole wysyłają coś takiego.
Jaka tu jest odpowiedzialność?
Bo rozumiem, że to jest jeszcze... To już zdecydowanie karna.
Zdecydowanie karna.
Trochę brzmimy tak, jakbyśmy zniechęcali do korzystania z AI, a spytam o jeszcze jedną rzecz.
Bo ty mówisz bardzo zdecydowanie.
Czy dzisiaj mamy problem taki, że one stąpają po takim grząskim gruncie i w zasadzie nie wiedzą, co mówić, co robić, bo to jest rzecz, której 2-3 lata temu jeszcze nie mieliśmy.
Nie mieliśmy takich problemów.
To znaczy, ja mówię o dość oczywistych kwestiach, no bo jednak ten wizerunek to jest oczywiste, no poniekąd.
To w jaki sposób zmienia się technologia naruszenia tego wizerunku, to jest inna kwestia.
Z kolei takimi nieoczywistymi na pewno obszarami jest chociażby twórczość z wykorzystaniem sztucznej inteligencji.
W sensie, że ja wygeneruję sobie sztuczny utwór, niech już tam będzie, tych Beatlesów, albo w Polsce jakiegoś, nie wiem, znanego elektrycznych gitar, albo czerwonych gitar, o może czerwonych gitar, takich trochę starszych.
Okej, w tym wątku poruszyłeś co najmniej dwie kwestie, bo znowu...
Bo znowu albo, czy lub naruszenie cudzych praw autorskich, no bo do tekstów, do muzyki, etc.
Wizerunku, dóbr osobistych, na przykład mówi się, że nazwy zespołów to jest dobro osobiste ich członków, etc.
Więc znowu mamy zbieg różnych przepisów prawa.
Ale na początku powiedziałeś, co to jest twórczość, jeżeli dobrze zapamiętam twoje pytanie.
I tutaj z jednej strony mamy takie podejście popularne, takie jak my, przeciętny Kowalski, rozumiemy, co to jest twórczość.
Ja coś wymyśliłam, jestem twórcza.
A jest jeszcze twórczość w rozumieniu prawa autorskiego czy prawa własności przemysłowej.
W jaki sposób to określi?
No właśnie, to znaczy jest problem, ja się uśmiechnęłam, oczywiście słuchacze tego nie widzą, ale sądy w jaki sposób, wiesz, że to jest piętno osobiste, że to jest jakaś imaginacja, że iskra Boża, etc.
Czyli tłumaczą coś niezrozumiałego przez kolejne niezrozumiałe zwroty.
Ale jest pewnego rodzaju konsensus, że twórczości nie ma tam, gdzie w jakiś sposób coś powielasz.
Jesteś ograniczony technicznie, czy przez jakiegoś zleceniodawcę lub zamawiającego.
Czyli tam, gdzie nie masz jakiegoś pola manewru, ale też jakaś twórczość quasi rzemieślnicza, techniczna, czyli znowu gdzieś masz jakieś z góry narzucone wzorce, prawda?
No bo techniczna jakaś materia tego wymaga.
Ale też na przykład według prawa autorskiego, przedmiotem prawa autorskiego nie są pomysły, idee, sposoby działania, metody działania, algorytmy, etc.
Czyli zobacz, jak masz, już wracając do tej sztucznej inteligencji, czym jest prompt?
Prompt, czyli to, co się wpisuje do sztucznej inteligencji.
Czyli mój prompt jest pomysłem, co ta sztuczna inteligencja ma stworzyć.
No znowu, tutaj stworzyć nie powinnam teoretycznie używać tego słowa w tym przypadku, bo sztucznie generuje.
Więc nie dość, że prompt, no generalnie na przykład prompt może być objęty prawami autorskimi, ale jako utwór literacki.
Załóżmy, że ja stworzę jakiś sążnisty prompt, który jest jakimś esejem, ale wciąż to jest ochrona prawnoautorska promptu, a nie outputu.
Odputu, czyli tego, co wyjdzie z tego promptu.
Dokładnie.
Więc tutaj mamy, a propos jeszcze wracając do tego wątku, że ja brzmię jakoś kategorycznie, czy w sposób zdecydowany, no to jeżeli chodzi o twórczość i sztuczną inteligencję, to tutaj absolutnie nie jestem zdecydowana.
Co najwyżej mogę pobierać jakieś analogie z orzecznictwa, na przykład z czasów, kiedy sąd orzekał, czy asystent fotografa ma prawa autorskie do fotografii.
Ale no właśnie, materia jest zupełnie inna, nie uwzględnia chociażby black boxów, czyli czarnych skrzynek.
Tak, dokładnie.
Generalnie czarna skrzynka jest, że tak powiem, częścią sztucznej inteligencji, która nie do końca wiemy, co się dzieje, dlaczego sztuczna inteligencja wygenerowała...
poprzez istnienie tej sztucznej inteligencji, taki output, a nie inny.
I to na przykład porusza amerykański urząd do spraw praw autorskich.
Czyli to my jesteśmy twórcą.
Jeżeli okazuje się, że output jest różny, niezależnie od tego, co my chcieliśmy, żeby tam było, no właśnie chyba nie.
Wiem, że tutaj wchodzą teraz dyskusje...
chociażby powoływania poloka, no bo jak on mógł decydować, jak te krople farby spadną, prawda?
Więc też jest jakiś element losowości, ale wciąż to, że z tego samego promptu wychodzą różne obiekty, czy to tekst, czy to inny obraz, etc., powoduje, że ja chyba nie do końca tam zdecydowałam, jak ten obraz ma wyglądać.
Czyli to jest, dobrze, będę teraz na prostym przykładzie wiersza.
Proszę o napisanie wiersza pięknego dla mamy z okazji świąt Bożego Narodzenia.
Teraz to, co ja teraz powiedziałem, to jest ten prompt, który należy do mnie, jest moim pomysłem, ale nie jest objęty prawem autorskim.
To tyle zrozumiałem.
I teraz są dwie drogi, bo można powiedzieć, no bo jak skorzystam z programu X, no to może należeć do twórców tego programu X.
Nie.
Kiwasz głową, że nie.
Dobra, to mamy to rozwilkłane.
Ale druga droga, że ewentualnie moje mogłoby być.
I przyznam szczerze, że część osób mówi, no zaraz, jak ja robię aparatem fotograficznym, to ten aparat też jest narzędziem i też jak gdyby promptem jest w przypadku aparatu to, jak ja ustawię ten aparat, jak ja tam dam światło, w którą stronę go skieruję, o której godzinie będę robił.
I so ekspozycja, ale to jest bardzo ciekawe, że poruszasz ten wątek, bo właśnie o tym był ten wyrok, o którym ja myślałam jeszcze sprzed czasów tej generatywnej sztucznej inteligencji, gdzie rzeczywiście, mimo że ten asystent robił zdjęcie, jakby wszystko przeklikiwał na tym aparacie, no to wciąż sąd stwierdził, że ten fotograf, który dyrygował tym asystentem, ma prawa autorskie do tego zdjęcia.
I przez analogię, gdyby, wiesz, była taka prosta sytuacja przy sztucznej inteligencji, że rzeczywiście twoja dyrektywność w tych promptach jest tak jednoznaczna, że ten output jakby w sposób niekwestionowany należy do ciebie, no to sytuacja by była taka, o której ty mówisz.
Ale na przykład, i znowu, ja tu nic nie wymyślam, to jest decyzja urzędu właśnie tego amerykańskiego, znowu, Stany Zjednoczone są nieco innym systemem, a nawet poniekąd, czasami bardzo,
innym niż my, chociażby pod kątem fair use i trenowania, ale to może na razie nie wchodźmy tam w ten wątek.
Tam decyzja dotyczyła obrazu, gdzie twórca, czy tam wannabe twórca, wygenerował 724 prompty.
Więc jakby teoretycznie ta dyrektywność w powstaniu tego... Do stworzenia jednego dzieła, tak?
Dzieło skreślamy.
No i to mimo wszystko nie zaważyło, gdzie tak na logikę, no jakby on pewnie dopłynął każdego szczegółu.
A mimo wszystko okazało się, ale jak spojrzysz na obrazy sprzed jego 724 promptów, a po, no to okazuje się, że okej, on zadbał o szczegóły, ale ten pierwotny obraz, jakby to ten pierwotny obraz...
To znaczy sztuczna inteligencja zadecydowała, gdzie były postaci, jakie było światło, jakie było pomieszczenie.
No ja wiesz, trochę ją personifikuję, nie powinnam powiedzieć zadecydowałam, bo to jednak jest maszyna.
A właśnie, czy to w ogóle wybrzmiało przy tym, co mówimy, że jakby to się wszystko też rozbija o to, że maszyny nie mogą mieć praw autorskich.
I znowu, tu nie wynajdujemy koła na nowo.
że sprawa Dawida Slatera, gdzie makaka czarna robiła sobie selfie, co zwierzęta nie mogą mieć praw autorskich, prawda?
To nie znam tematu, ale rozumiem, że chodzi o to, że ten fotograf, ta osoba dała małpie aparat i się okazało, że to co ona zrobiła, to do kogo to należy?
No właśnie, nie było tam w ogóle praw autorskich, bo to jest znowu sądówka, więc znowu nic nie wymyślam.
Wikipedia, czy tam Wikimedia, bo Wikimedia stoi za Wikipedią, została pozwana przez tego fotografa i fotograf przegrał.
No bo wiesz, jakby on stwierdził, że tam było naruszenie jego praw autorskich, bo oni sobie rozpowszechniali to zdjęcie tej makaki czarnej.
I przegrał tą sprawę właśnie na takiej zasadzie, że tam nie było praw autorskich.
No i jednak ta sztuczna inteligencja coś wypluwa.
To jest coś widocznego, słyszalnego, namacalnego.
No i teraz to do kogo to należy?
No bo nie powiesz mi, że to jest po prostu u wszystkich.
Że w domenie publicznej.
Że w domenie publicznej, no bo jak?
Aczkolwiek może być.
No wiesz, no też mówi się, że na domenie publicznej opiera się cała innowacyjność i rozwój.
Jakby to jest taki spór między fanami patentów i monopolizacja...
open science, etc.
Ale to znowu inny wątek.
Wiesz, oczywiście prawo autorskie to jest jakiś wyimek rzeczywistości, jak jedna gałęź własności intelektualnej.
Są jeszcze co najmniej trzy inne gałęzie, to znaczy podział jest umowny, ale potencjalnie można tego też szukać nie tylko w ochronie własności intelektualnej, w sensie czy każdy może wziąć i z tego korzystać, ale też chociażby w czynach nieuczciwej konkurencji, bo ja jednak tworząc dany obiekt,
No to jest moja praca, to jest jakiś mój zasób intelektualny, to jest moje know-how chociażby, prawda?
I przykładowo czyny nieuczciwej konkurencji jednak chronią moją inwestycję w powstanie czegoś.
Kolejna rzecz, że chociażby pasożytnictwo, to też jest właśnie pasożytowanie na renomie.
na inwestycji, etc., jeżeli ja nadaję temu obiektowi jakąś swoją rozpoznawalność, bo jestem rozpoznawalną artystką i dzięki temu ten obiekt korzysta z mojej rozpoznawalności, z mojej renomy przykładowo.
Kolejne, kopiowanie oznaczeń z czynów nieuczciwej konkurencji.
Tam znowu jakby nie mówi się o tym, czy to oznaczenie jest prawnoautorskie, czy nie.
Jest jeszcze taki smaczek w prawie patentowym, że jak wskazujesz wynalazce, nawet jeżeli ten wynalazek stworzyła sztuczna inteligencja lub współtworzyła, ja znowu tutaj nie widać moich gestów, ale ja to mówię tak w cudzysłowie.
to jeżeli nie wskażesz w zgłoszeniu patentowym, że wynalazcą jest sztuczna inteligencja, to to zgłoszenie patentowe ci przejdzie.
Możesz opatentować coś, co stworzyła sztuczna inteligencja.
Ja tutaj z grubsza traktuję, bardzo upraszczam ten temat, ale jeżeli ktoś prześledzi chociażby wątek Stefana Tallera, to jest naukowiec,
który stworzył sztuczną inteligencję o imieniu, ja ją spolszczam, to imię Dabus.
I Dabus jest autonomicznym bytem, on sobie sam wymyśla, jaki wynalazek popełni, etc.
Znowu ja używam słowa wynalazek, gdzie nie powinnam tego słowa używać w kontekście maszyn.
Tak, język polski i w ogóle język, mam wrażenie, że jest tutaj jedną z rzeczy, która najtrudniej nam przyjdzie chyba dostosować do tej nowej rzeczywistości, w której zaczynam żyć.
Nie język prawniczy, bo właśnie wynalazki są przypisane do patentów, prawda?
I tak dalej, i tak dalej.
Czy możemy mówić twórca, kiedy jest sztuczna inteligencja?
No ktoś by powiedział język polski to nie jest język prawniczy i tak dalej, i tak dalej.
A i właśnie tam poniekąd, jak spojrzysz w orzecznictwo, w ogóle Stefan Teller jest moim bohaterem.
On ma tyle samozaparcia i taką misję, żeby udowodnić, że sztuczna inteligencja zasługuje na prawa podmiotowe, jeżeli chodzi o taką ochronę.
I on już to postępowanie, a propos tego, żeby uznać Dabusa jako wynalazcę, prowadził w Australii, w RPA, w Unii Europejskiej, w Wielkiej Brytanii, w USA.
Oprócz RPA wszędzie przegrał, ale na przykład jak się wczyta w te uzasadnienia wyroków, to tam jest proskazane, że Thaler przegrał przez swoją uczciwość, bo wskazał Dabusa jako wynalazcę.
A gdyby wskazał siebie, to by te papiery przeszły.
Więc jak pytasz się a propos tego, czy coś jest w domenie publicznej, no to okej, prawa autorskie raczej nam odpadają, ale jest dużo innych możliwości, żeby pokombinować, żeby tą ochronę, czy tam, żeby jakieś swoje roszczenia mieć.
W lipcu Guardian pisał o dwóch płytach zespołu The Velvet Sundown, który nie istnieje.
Znaczy jest wykreowanym bytem, ale te utwory tego zespołu miały miliony odtworzeń na Spotify.
No i teraz, jeśli to do nikogo teoretycznie nie należy, no to ja bym mógł sobie wziąć i wykorzystać to w jakiejś reklamie, jako podkład muzyczny, albo nie wiem, grać na dyskotece, na, nie wiem, Sylwestrze z programem tam jakimś.
I wtedy co?
To nikomu nie trzeba płacić, nikogo nie trzeba pytać o zgodę?
No wracamy do tego wątku, co od początku maglujemy, że jest dużo tych reżimów, te prawo autorskie jest tam jakimś, ale zobacz, na przykład też prawo autorskie, powiedziałeś o zespole, mamy prawa autorskie osobiste, prawda?
Oczywiście.
ten zespół nie istnieje.
To jest jakby nawet jego pewnie nazwa została.
To jest twór, który został, ktoś wrzucił, stworzył po prostu całą sztuczną inteligencją całe dwie płyty i one po prostu poniosły się na Spotify.
No to pod kątem własności intelektualnej bym powiedziała, że tam nie ma ochrony, ale znowu wracamy do tej inwestycji w stworzenie jakiegoś obiektu.
Więc czynienie uczciwej konkurencji, kopiowanie czegoś, na co ja poniosłam jakiś nakład.
Czyli jednak jakiś paragraf się w razie czego znajdzie.
Aleksandra, na koniec o jedną rzecz, bo my dużo mówimy o tym, jakie dzisiaj wyroki zapadają.
Ale interesuje mnie też, albo nie zapadają, ale mnie interesuje też, w którą stronę prawodawstwo zmierza.
To znaczy, ok, są oczywiście te wyroki, które są precedensami i tak dalej, no ale gdzieś ktoś dzisiaj mówi, zastanawia się, jak to uregulować, jak to ułożyć, żebyśmy nawet wiedzieli, jak ich słów używać.
to idziemy w stronę, nadal to do nikogo trochę nie należy, nie przynależy, nie dajemy tych praw autorskich, tak jak mówiłaś o tym wynalazcy AI, czy jednak gdzieś ktoś chce to jakoś uregulować, komuś przekazać ten majątek wynikający z tego, co...
wypluje, wytworzy, jak zwał, tak zwał, ta sztuczna inteligencja.
Jeżeli jakieś by się pojawiły w temacie twórczości i sztucznej, na styku sztucznej inteligencji pojawiły, no to prędzej już jakieś różne lobby typu OZZOZY doprowadzą do tego, w sensie organizacji zbiorowego zarządzania, czyli firmy, które płacą na przykład artystom za to, że ktoś grał ich piosenki w radio.
Czy tam pośredniczą, jak na przykład za X. Najpewniej to, czy inne generalnie stowarzyszenia twórców, najpewniej to będzie pierwszy aspekt, który zostanie uregulowany, czyli tantiemy albo coś w stylu opłaty reprograficznej właśnie za korzystanie, no głównie do trenowania, prawda, sztucznej inteligencji.
Jeżeli chodzi zaś o ochronę, objęcie ochroną prawnoautorską tego, co zostało stworzone przy pomocy sztucznej inteligencji,
Ja podejrzewam, że bardziej będzie w tym kierunku iść orzecznictwo, to znaczy rozszerzając ten zakres, gdzie zaczyna, czy tam kończy się, gdzie jest ta granica, gdzie ten mój wpływ jest wystarczający, bo właśnie nie dokończyłam za bardzo tego wątku o tym fotografie i generalnie co wynika też z decyzji amerykańskiego urzędu.
że kluczowa jest ta decyzyjna na ostateczną formę, sposób przedstawienia danego obiektu, promptu, inputu, czyli jak właśnie wygląda ten output.
I myślę, że orzecznictwo będzie to przesuwać w tym kierunku, że to nie musi być super szczelne, udokumentowane.
To znaczy udokumentowane musi być, bo taka jest specyfika postępowania sądowego.
ale że jednak pozwoli się na to, żeby nie było tam tej stuprocentowej dyrektywności powstanie tego outputu, no bo mamy blackboxy.
Inaczej wyłączymy każdą możliwość tej ochrony prawno-autorskiej, a tak, żeby systemowo coś takiego stworzyć.
Unia Europejska pracuje nad jakimiś dokumentami.
Jest Digital Omnibus, który pewne kwestie reguluje.
Jest AI Act, który na przykład nakazuje podpisywać, że coś jest wygenerowane przez AI.
Tam są dwa wątki.
Tam trzeba uwzględnić podsumowanie, na jakich danych został trenowany model, co ma zwiększyć transparentność, a zatem też dochodzenie potencjalnie roszczeń z tego trenowania.
A to kolejny aspekt tej transparentności, no to są właśnie te metadane, że coś zostało wygenerowane z pomocą sztucznej inteligencji, ale to samo przez się nie decyduje o powstaniu tej ochrony z tytułu własności intelektualnej.
Już bardziej jak myślę o takich systemowych podejściach, no to chociażby wytyczne EPO, czyli Europejskiego Urzędu Patentowego, który co roku...
aktualizuje swoje wytyczne dla egzaminatorów w urzędzie, w jaki sposób akceptować, że coś podlega patentowaniu i tam na przykład rozszerzają się punkty co do sztucznej inteligencji.
Jak egzaminator powinien podejść do wynalazku chociażby obejmującego sztuczną inteligencję i tam widać taki przechył w kierunku, że rozluźnianie, a może jednak patentujmy tą sztuczną inteligencję, patentujmy.
Jak jest tam ten dalszy efekt techniczny, te cechy techniczne,
Dobra, mamy wyłączenie w różnych aktach prawnych, że nie można patentować programów komputerowych, ale jak tam się pojawią te dalsze efekty techniczne, to można.
Więc tak systemowo, no to myślę, że będą się właśnie pojawiać jakieś wytyczne, bo rzecznictwo wiadomo jest bardziej spowolnione, jeżeli chodzi o wejście na rynek.
Musimy już kończyć.
Ja podsumuję, że z tego, co mówisz, to gdzieś od tej nauki, od tego patentowania zaczyna się pewnego rodzaju proces cywilizowania tych, no i teraz muszę powiedzieć, wytworów, niech będzie, związanych przez sztuczną inteligencję, ale w którą stronę to pójdzie, to musimy jeszcze trochę poczekać, prawda?
O, i tym aspektem kończymy.
Aleksandra Maciewicz, partnerka w kancelarii Lowmore, rzeczniczka patentowa.
Dzięki wielkie.
Dziękuję.
Sebastian Górek, Gazeta Wyborcza, Wyborcza Biz.
Dzięki wielkie za dzisiejszy podcast.
Ósma dziesięć.
Ósma dziesięć.
Ostatnie odcinki
-
Rozmawiamy z posłem PiS Andrzejem Śliwką
04.02.2026 05:00
-
Słowacja, Czechy, Węgry. Jest szansa na zwrot k...
03.02.2026 05:00
-
Czy Bieszczady to polska Okinawa?
02.02.2026 05:00
-
Afganistan to najlepszy czas mojego wojskowego ...
31.01.2026 05:00
-
Dawid Krawczyk: Dobrze, że możemy się ze sobą n...
30.01.2026 05:00
-
Jak dostać pracę w branży kosmicznej?
29.01.2026 05:00
-
Spór o ambasadorów szkodzi Polsce. Zagraniczni ...
28.01.2026 05:00
-
„Ciepło z Polski dla Kijowa”. Pierwsze agregaty...
27.01.2026 05:00
-
Duży Format: Czy kura niemiecka jest szczęśliws...
26.01.2026 07:40
-
Min. Gawkowski: Na wojnie cyfrowej trzeba patrz...
24.01.2026 05:00