Mentionsy

Opanuj.AI Podcast
29.07.2025 06:00

5 mitów programowania z AI - zapomnij o Vibe Codingu!

W najnowszym odcinku naszego podcastu rozmawiamy o tym, jak faktycznie wygląda współpraca programisty z modelami AI , gdzie są granice możliwości tej technologii, a gdzie można poczuć prawdziwe zyski. Co dokładnie znajdziesz w środku?


❌ Mit 1: AI powinno zrobić za mnie całą robotę

❌ Mit 2: Współpraca z AI to żadna umiejętność

❌ Mit 3: To się nie opłaca, AI jest za drogie

❌ Mit 4: AI nie działa w skali enterprise

❌ Mit 5: Najlepszy jest TOP 1 model z benchmarków


Które mity z tej listy pojawiają się w twoim otoczeniu najczęściej? Koniecznie zostaw komentarz!


👉 Dołącz do 10xDevs: https://www.10xdevs.pl/

Szukaj w treści odcinka

Znaleziono 57 wyników dla "AI Devs"

AI powinno zrobić za mnie całą robotę i tylko wtedy ma to jakikolwiek sens.

Tym razem o pięciu mitach programowania z AI.

Między innymi będzie to odpowiedź na to, dlaczego to oczekiwanie, że AI działa, jeśli jest w stanie mnie w pełni zastąpić, jest błędne.

Porozmawiamy również o tym, czy współpraca z AI to jest jako taki skill, czy jest się tutaj w ogóle czego uczyć, dlaczego nie można mieć tego podejścia, że po prostu wyślę jakiś prompt, zapomnę i poczekam na rezultaty.

Jest nim właśnie to, że AI powinno zrobić za mnie całą robotę i tylko wtedy ma to jakikolwiek sens, no bo wiele osób tak sobie to wyobraża, tak też się często o tym mówi.

Często zdarza się, że mamy takie po prostu różnice umiejętności obsługi tej sztucznej inteligencji, gdzie jedna osoba, taki lider albo ambasador AI po prostu potrafi komunikować się precyzyjnie, a reszta zespołu właśnie generuje sobie problemy przez to, że jest na różnym poziomie.

Sam fakt, że zainstalujesz na przykład Cloud Coda, albo Coursora, albo Juni od JetBrains.

Zaraz wrócimy, ale zanim pójdziemy dalej, chcemy dać Ci znać, że ruszyły zapisy na drugą edycję szkolenia 10xDevs.pl 10xDevs.pl i Ty możesz do niej dołączyć.

Szczegóły znajdziesz na stronie 10xDevs.pl.

Mamy ten najbardziej oczywisty przykład, czyli sztuczna inteligencja w przeglądarce internetowej, na przykład ChatGPT, Cloud, AI, Google, Gemini.

Natomiast to nie wysyca tego tematu, no bo wiadomo, część programistów chciałoby mieć większą integrację tego AI ze swoim środowiskiem i decyduje się na pracę w dedykowanych środowiskach, w narzędziach takich jak Visual Studio Code, z ekosystemem JetBrainsów, z dużym Visual Studio czy z innymi edytorami, gdzie to AI też może być zintegrowane, czy to poprzez instalację jakiegoś pluginu, na przykład Copilota albo innych pluginów open source'owych, RooCode, KiloCode i tak dalej, i tak dalej.

Nowa fala rozwiązań to jest AI w terminalu, czyli jakby odpięcie się od ograniczeń konkretnego środowiska.

Znowu, nowy zestaw komend, inne zachowanie tego narzędzia, troszkę inne poskiwanie się kontekstem, no tam jest się czego uczyć, a zaraz, kiedy jeszcze wejdziemy w temat agentów, którzy działają asynchronicznie, zaraz w tym sensie, że za kilka miesięcy na przykład stanie się to mainstreamem,

My oczywiście zachęcamy do tej mocnej integracji przez edytory czy przez AI w terminalu,

a właśnie w procesie certyfikacji w Tenex Devs była okazja, żeby taką aplikację zbudować od zera i to w sposób przemyślany na poziomie, który zaskakiwał zarówno nas, jak i samych twórców, że tak fajne aplikacje w tak krótkim czasie mogą powstać.

szkolenia, no to często się pojawia ten wątek, jak w ogóle to stosowanie AI w procesie wytwarzania programowania ma się do stosowania AI w logice biznesowej aplikacji.

To jest też trochę odpowiedź na pytanie, czym się różni ten nasz kurs Cenex Devs od bardzo popularnego kursu, jakim jest AI Devs właśnie.

My pokazujemy i mówimy o tym, jak stosować AI właśnie w procesie wytwarzania oprogramowania, a AI Devs jest o tym, jak stosować AI wewnątrz aplikacji, jak tą aplikację napędzać na poziomie funkcji.

Wiedzę z Tenex Devs możesz zastosować do dowolnej aplikacji, czy ona sama w sobie AI zawiera, to już jest jakiś szczegół implementacyjny z punktu widzenia naszego kursu, a AI Devs da ci bardzo głęboką i szeroką wiedzę o tym właśnie, jak to AI w aplikacjach stosować na poziomie logiki biznesowej, na poziomie rozszerzenia o takie inteligentne funkcje.

Wiele osób twierdzi, że AI się nie opłaca, jest za drogie i albo wydrenuje nasz prywatny portfel, albo opróżni budżety firmowe.

I tutaj uzyskamy nielimitowane akcje do GPT-4.1, nielimitowane z gwiazdką w ramach pewnych rate limitów oraz 300 interakcji z agentem AI, ważne 300 na miesiąc.

Jeśli chodzi o ekosystem JetBrains, to tutaj pierwszy płatny plan JetBrains AI będzie nas kosztował 10 dolarów na miesiąc.

No i tutaj w ramach tego dostaniemy pakiet JetBrains AI, czyli AI autocomplete oraz chat with AI, taką konwersację z AI w stylu chata GPT, no i wczesną wersję agenta Juni.

W przypadku JetBrains zdecydowanie bardziej jednak rekomendujemy integrację z AI w terminalu.

Dzięki temu, że właśnie to AI zadziała w naszym terminalu, to nie musimy zmieniać tych naszych nawyków, przyzwyczajeń, skrótów klawiszowych, które w JetBrainsach wypracowaliśmy, a i tak uzyskujemy dostęp do najlepszego agenta.

I tutaj chociażby Cloud Code ma taki plan, gdzie możemy korzystać z niego w ramach subskrypcji Cloud AI.

Są jakieś pojedyncze promocje polegające na tym, że dzielimy się danymi, ale to oczywiście dużo bardziej się aplikuje do projektów hobbystycznych, takich, które właśnie możemy realizować pracując na certyfikat 10xDevs.

A w każdej firmie ten rachunek taki biznesowy będzie trochę inny, stąd warto sprawdzić, zrobić program pilotażowy, wybrać deweloperów, którzy są zainteresowani tematem, którzy chcą testować i na przestrzeni miesiąca, dwóch, trzech sprawdzić, jakie to są koszta, jakie są gosproduktywności, jakie są wrażenia.

Dobra Przemku, kolejny mit, również bardzo popularny, że AI nie działa w Enterprise, nie działa w moim stacku, nie działa na dużej skali, albo ewentualnie może by zadziałało, ale w naszej firmie się nie da, bo są procesy, bo jest legal.

No i znowu tutaj nawiążę do naszego ostatniego webinaru, tam też pojawia się takie pytanie, jak to jest z tym AI w skali Enterprise?

No tak naprawdę jest różnie, bo jest kilka wymiarów tej współpracy z AI w skali Enterprise, czy to jeśli chodzi o stach technologiczny, czy to jeśli chodzi o skalę i rozmiar projektów, jakieś wewnętrzne polityki, dostęp do narzędzi.

O tym też bardzo dużo mówimy właśnie w 10xDevs.

Mamy na przykład właśnie temat długu technologicznego, nie aktualizujemy jakiegoś serwisu, nie aktualizujemy jakiejś aplikacji, jakiegoś modułu, wrzucimy tam AI, no i oczywiście to AI out of the box nie poradzi sobie w takim kontekście tak dobrze, jak radziłoby sobie z jakimiś bardziej mainstreamowymi technologiami.

Ale teraz można się zastanowić, na co ten dług wpływa, bo on nie wpływa tylko na to, że AI sobie nie radzi, to nie jest tylko argument, żeby nie stosować tego AI, ale wydłuża ci się onboarding, masz wyższe koszty utrzymania, trudniej implementować nowe funkcjonalności, masz większy problem z kompatybilnością bibliotek, buildy mogą coraz dłużej trwać itd., itd., więc...

No dobra, no to to jest technologia, teraz jakby rozmiar, bo rozmiar też ma tutaj znaczenie i to nie jest tak, że wszystko można zrobić niezależnie od rozmiaru w tym AI, jak to Marcin wygląda.

Rozbijanie aplikacji na domeny funkcjonalności znacznie ułatwia współpracę z AI, bo wtedy wiemy, jak fragment projektu przekazać, jak to wszystko ze sobą połączyć, gdzie są granice, gdzie są istotne elementy tego, na czym chcemy się w danej chwili skupić, tak żeby ten agent też wiedział po prostu, gdzie ma pracować.

Nawet jeżeli pracujemy właśnie w ramach jednego modułu, to możemy ułatwić życie sztucznej inteligencji, odkryjąc tylko ten fragment projektu w naszym edytorze AI i dzięki temu ten agent porusza się znacznie lepiej, bo nie ma tego całego narzutu, że jesteśmy w wielkim monorepozytorium i każde zapytanie wywołujemy gdzieś tam z poziomu ruta.

To również są techniki, które uczymy w Tenex Devs, więc tą taką wiedzę można gromadzić, ale to również wymaga świadomości.

to to gromadzenie wiedzy, opisywanie tego, jak to repozytorium działa, co się w nim dzieje, tą wiedzę również musimy przekazać, bo AI magicznie tej wiedzy nie zdobędzie, nie wiadomo skąd.

No i następnie wewnętrzne polityki i dostęp do odpowiednich narzędzi, z których my jako programiści również często korzystamy, jak to wygląda Przemek i jak to można spiąć z tym AI, żeby ono działało fajnie.

Przede wszystkim chcemy rozróżnić samo procesowanie danych i kodu, którym się posługujemy w ramach firmy od używania tego kodu w procesie treningu, jakby przekazywania tego kodu czy naszych promptów, poleceń do firm takich jak OpenAI czy Anthropic po to, żeby one sobie te modele ulepszyły i potencjalnie tutaj, żeby właśnie generować to ryzyko, że jakaś część naszego kodu czy projektu wyciekłaby w przyszłej wersji jakiegoś GPT czy CLODA

To ogólnie wymaga ostrożności, ja też tego nie chcę trywializować, ale jakby powszechnie to akceptujemy, mamy jakieś zaufanie do tych dostawców usług chmurowych i naszym zdaniem to zaufanie też po prostu warto mieć, jeśli chodzi o OpenAI, Antropic, o te firmy właśnie, które dostarczają te największe

Czy to jest tak, że faktycznie jak wrzucimy jakieś polecenie, czy AI wygeneruje jakiś kod albo ten kod zostanie zinterpretowany jako część kontekstu, to on wycieknie?

Wszystkie popularne edytory dają nam możliwość wyłączenia, dzielenia się tymi informacjami poprzez jakieś tryby prywatności, a też dostawcy samych modeli w takich integracjach przez API, no czyli z takich, jakich korzystamy w ramach usług AI First, również wyłączają to trenowanie modeli, wyłączają

Ja bym powiedział w ten sposób, no jeśli AI wywołuje incydenty na twojej produkcji, to mniej więcej znaczy to to, że każdy programista też mógłby je wywołać, jakby każdy początkujący czy nieostrożny programista mógłby te same incydenty wywołać, bo po prostu masz jakąś lukę w procesie dowożenia tego kodu, dowożenia programowania na produkcji.

I w przypadku sztucznej inteligencji, która po prostu też może jakiś kod generować, to ona również musi mieć te bramki bezpieczeństwa, a jeśli ich nie ma, to moim zdaniem to nie jest problem sztucznej inteligencji, bo tutaj byśmy powiedzieli, że to jest problem Visual Studio Code, że wydarzył się jakiś incident na produkcji albo edytora JetBrains.

To bardzo często jest też taki reality check właśnie w porównaniu do tych publikacji, które pojawiają się w momencie premiery danego modelu, gdzie oczywiście twórcy z firm takich jak OpenAI czy ten Antropi, który pojawił się już wielokrotnie,

No ale żeby nie było jakby it depends, to tutaj Marcin może przekażemy jednak troszkę rekomendacji, bo zawsze to jest też takie pytanie, na które większość słuchaczy liczy, czyli co my rekomendujemy w połowie tego 2025 roku, co jest dla nas takim docelowym rozwiązaniem, jeśli chodzi o to programowanie z AI.

Tak samo OpenAI O3, świetny model, jeżeli chodzi o najcięższe problemy, gdzie ta analiza jest bardzo ważna i chcemy jak najwięcej

No i na koniec Przemek, gdzieś tam ulubiony nasz temat, ulubione pytanie, czyli czy AI zastąpi programistów?

O tym wszystkim jest Tenex Devs.

No i tak jak właśnie wspominaliśmy wielokrotnie, jeśli nam nie wierzycie, to spróbujcie w taki najbardziej naiwny sposób tą sztuczną inteligencją się posłużyć, zbudować jakiś kawałek kodu, kawałek software'u i zobaczycie, jak trudno jest uzyskać takie efekty, które właśnie na takim autopilocie będą mogły wyjść na produkcję.

29 września startujemy z drugą edycją 10xDevs.

Wszystkie szczegóły i informacje raz jeszcze znajdziecie na stronie 10xDevs.pl 10xDevs.pl jak my to robimy mawiać.

na jesień 2025 niż tenxdevs.pl.

Mamy nadzieję, że trochę ułożyliśmy ten sposób myślenia o tym, jak wygląda programowanie z AI, jakie są to oczekiwania, jaka jest rzeczywistość, jak sobie z tym radzić.

Zapraszamy oczywiście na kolejne nasze podcasty dotyczące AI w ramach podcastu Opanuj AI.