Mentionsy

TECHNOFOBIA
21.11.2023 15:00

O co chodzi z aferą wokół OpenAI? 🍿

Wasi ulubieni jeźdźcy tech apokalipsy wracają aby skomentować wielką aferę związaną z OpenAI, Altmanem, Microsoftem i całym światem generatywnej sztucznej inteligencji.

Kto wygrał, kto pójdzie do piachu, dlaczego Satya Nadella stawia na własne czipy i kto wyjdzie miliarderem z batalii o OpenAI - o tym wszystkim rozmawiają Tomasz Kolinko, Max Salamonowicz i Artur Kurasiński.

Szukaj w treści odcinka

Znaleziono 30 wyników dla "AGI"

Czy według Was cokolwiek z tego, co się wydarzyło w OpenAI może być związane z osiągnięciem AGI, czyli Artificial General Intelligence?

Max, nie wiem jakie ty masz informacje, bo ja trochę miałem sprzeczne, ale chyba główna informacja jest taka, że dopiero co zaczęli testować GPT-5, zaczęli trenować GPT-5, więc ta teoria, że teraz zobaczyli nową wersję i ona jest już to AGI, raczej chyba nie byłaby uzasadniona.

Ja się zgadzam z Tomkiem, że zasadniczo nie jest to bezpośrednio związane z wielką rewolucją Agi, która by miała nadejść w kolejny poniedziałek jako kolejny news.

Jest według mnie pośrednio związana z Agi i tym nowym, super, ogromnym

Wydaje mi się też, tam bądź co bądź pracuje 700 osób, więc to nie jest tak, że nowa wersja GPT-5 pojawia się i dwie osoby w pokoju zamkniętym, ciemnym patrzą na wyniki i mówią, o wow, AGI, to teraz się dzieje.

Myślę, żebyśmy słyszeli mimo wszystkich NDA-ów już od kogoś, od którychś inżynierów plotki bardzo solidne, że to AGI się pojawiło.

Ja myślę, że dodałbym też, bo różne osoby słuchają nas, kilka słów może na temat samego AGI i czemu to jest taka ważna rzecz.

Chciałem chwilę powiedzieć na temat konsekwencji tego AGI i to już tak od najbardziej prostych, bo wydaje mi się, że dużo osób tego nie chwyta.

Najbardziej prostą konsekwencją, wdzącą zagrożenie jest to, że AGI będzie w stanie przejeżdżać każdy kod źródłowy.

Osoba, firma, organizacja, która będzie mieć jako pierwsza dostęp do AGI, będzie mieć dostęp do każdego serwera na świecie.

Drugie oczywiście poważniejsze zagrożenie jest takie, że samo AGI...

Ale też posiadanie tego AGI może oznaczać, że organizacja może się przeskalować.

tego AGI i warto o tym pamiętać, bo czasami wydaje mi się, że wiele osób sobie nie zdaje sprawy z tego, jak poważne to jest zagrożenie i czemu wszyscy o tym mówimy i skąd się biorą te wszystkie tarcia, bo ludzie myślą o GPT-5, to będzie trochę lepsze GPT-4, bo o czymś mi nie powiedziało.

Też druga rzecz jest taka, że na dobrą sprawę my nie wiemy, może GPT-4 już lepiej zaprogramowane byłoby, lepiej obudowane nakładkami, można tak powiedzieć, byłoby tym AGI.

I z tego powodu dużo osób mówi, hola, hola, potrzebujemy jeszcze więcej czasu, nie wypuszczajmy jeszcze nic, tylko testujmy to dokładniej, upewnijmy się, że na pewno nikt tego zaraz nie obróci, nie zbuduje nam tego AGI, korzystając z naszego API.

Ludzie budujący agi nie są w stanie przewidzieć konsekwencji swoich działań z trzydniowym wyprzedzeniem.

to, co znalazłem, to, że faktycznie Microsoft na swoim Azure ma pliki z wagami, czyli ma dostęp do GPT, ma dostęp do kodu, te wagi, co jest bardzo dobrą wiadomością i tak schodząc troszeczkę do praktyczności, nasze API i projekty, które budujemy raczej nie jest zagrożone, bo zakładam, że Microsoft będzie mieć prawo korzystać z tych wag i dalej hostować swoje rzeczy na Azure, więc nie musimy się obawiać tego, że OpenAI zaraz powie hola, hola, wstrzymujemy stop, abonujemy dostęp do API, do widzenia.

Nie jest pewne i chyba raczej nie, że Microsoft będzie teraz mógł dać inżynierom z OpenAI te wagi istniejące i te wszystkie istniejące kod i powiedzieć dobrze, to teraz rozwijajcie to dalej.

I tu mi się wydaje, że to jest ta różnica pomiędzy byciem agile, jak to się ładnie określa w Dolinie Krzemowej, kiedy robisz startup, że musisz żonglować trzema płonącymi piłami mechanicznymi naraz i się uśmiechać, tak, na pierwszej stronie pitch decku.

Podoba mi się jej właśnie ten agile thinking.

Mówię o tych ich okularach magicznych.

To znaczy, co jeśli przyspieszy tak bardzo ewolucja, szkolenie, spadną koszta i my się obudzimy z tym Agi pojutrze albo za pół roku i to naprawdę dramatycznie będzie wyglądało zupełnie inaczej.

Jeżeli to, co Tomek powiedział o tym, że możemy sobie przejrzeć dowolny kod oprogramowania, to już jest coś, o czym marzą wszyscy zili ludzie na całej Ziemi, a powiedzmy sobie szczerze, jeżeli ktoś osiągnie jakiś jeden zespół, ten Agi, to pewnie da się to powtórzyć.

Czyli pierwsze polecenie do agi, pierwszego stworzonego, to będzie uniemożliwić innym stworzenie kolejnych agi.

którzy się obawiają Agi, to jest to, że Agi będzie jedno.

Jedna organizacja dojdzie do niego i to będzie koniec dla innych organizacji, bo wpływ, który będzie to Agi miało, będzie w stanie skutecznie uniemożliwić pracę już nad pozostałościami.

Z tej perspektywy tutaj, tak tylko powiem, o ile zgadzam się z obawiami Ili, to pytanie, czy to jest najlepsza strategia, żeby powstrzymać, żeby spowolnić Agi.

Nie zapominajmy, że są też inne kraje, też autorytarne, które pracują nad swoim własnym agi, model Falcon, chociażby wypuszczony przez Arabię Saudyjską.

Czyli jeżeli dobrze zrozumiecie Tomku, podejście, fajnie by było, żeby jednak to nasi osiągnęli poziom agi, żeby wybić ten argument z rąk innych.

Zastanawiam się, czy OpenAI nie pójdzie w stronę kolejnych pozwów i oczywiście oni nie mają takiej kasy jak Microsoft, ale zapewne mają całkiem dużo patentów i teraz czy ich metodą na powstrzymanie agi albo spowolnienie nie będzie teraz zatrudnienie prawników, bo ile być może i tak dużo osób odejdzie od nich, to już dobrego talentu programistycznego nie będą mieć, to talent prawniczy mogą zyskać, to się nie zamieni w organizację, która po prostu zajmuje się blokowaniem innych.

0:00
0:00