Mentionsy

Opanuj.AI Podcast
01.02.2026 18:45

AI zamiast lekarza? ChatGPT Health vs Google MedGemma, konstytucja Anthropic i GLM-4.7 & KIMI K2.5 z Chin

ChatGPT Health vs Google MedGemma 1.5 - giganci Generative AI chcą podbić świat medycyny. Czy już wkrótce będzie to realna alternatywa klasycznej służby zdrowia? Inny z gigantów, Anthropic, próbuje nadać technologii moralny kręgosłup, publikując nową konstytucję Claude’a definiującą ścisłą hierarchię wartości modelu. Tymczasem w Chinach Moonshot AI chwali się opanowaniem "Agent Swarm" - dzięki orkiestracji „roju” agentów, firma drastycznie przyspiesza złożone zadania programistyczne w KIMI K2.5. Na horyzoncie pojawia się także GLM-4.7, uderzający w zachodnich gigantów wydajnością klasy premium przy wielokrotnie niższych kosztach. Zastanawiamy się, czy te zmiany to realna demokratyzacja wiedzy, czy raczej ryzykowna gra o nasze najbardziej wrażliwe dane.


Komentuj, obserwuj i wystaw nam 5/5 - dzięki!

Szukaj w treści odcinka

Znaleziono 20 wyników dla "Anthropic"

konstytucji modeli Cloud od firmy Anthropic.

Przejdźmy do kolejnego tematu, trochę bardziej filozoficznego, aczkolwiek również ciekawego i istotnego, mianowicie nowa konstytucja Claude'a, czyli jak gdzieś tam Anthropic próbuje zapobiec apokalipsie AI.

Tak, Anthropic, czyli firma, która znana jest ze swoich inwestycji w tzw.

Treść tego dokumentu znajdziecie na stronie Anthropic.com łamane przez Constitution.

Jeśli chodzi o sam taki ogół, o same takie założenie, zanim przejdziemy już właśnie do szczegółów, no to tutaj Anthropic wspomina, że właśnie w porównaniu do innych gdzieś tam takich publikacji, innych materiałów właśnie ze świata tego alignmentu,

Tutaj firma Anthropic próbuje wtapiać tego typu zasady, tego typu rekomendacje do tego, jak ten model po prostu działa.

Ale my dzisiaj mówimy o tym, że to nie jest pierwsze podejście, bo wcześniej też były tego typu rozwiązania publikowane przez Anthropica.

Wcześniejsze podejście, które zresztą jest zapewne stosowane, jest i było stosowane nie tylko przez Anthropica, ale przez inne firmy, to była taka sztywna lista zasad.

No to nie dało się różne, obchodzić te różne ograniczenia i Anthropic tutaj założył, że to podejście właśnie oparte o taką szerszą konstytucję będzie lepsze.

Co jest moralne, co jest etyczne, no to już jest decyzja pracowników firmy Anthropic.

że wystarczy zajrzeć również do polskiej konstytucji i tam również wiele niejasnych, nieostych pojęć można znaleźć, więc to też nie jest tak, że tutaj Anthropic popełnia jakieś błędy albo walczy z wyzwaniami, które są jakieś nowe.

Tutaj firma Anthropic mówi, że jeśli użytkownik będzie właśnie taki przemocowy, abusive, to cloud albo pewna część tych modeli cloud, które są publicznie zdeployowane może kończyć konwersację.

Anthropic tutaj daje przykład, OpenAI też właśnie chociażby z tym swoim

Bo jeżeli inne nawet firmy właśnie z cynicznych pobudek, chęci bycia tak cool jak Anthropic się na to zdecydują, no to raczej lepiej niż gorzej dla nas i oby tak dalej.

Opanuj.AI dla usług firmy Anthropic i Opanuj.AI oferuje plany subskrypcyjne w społeczności, Hacker News nawet w tej społeczności zachodniej, tutaj programistów, pasjonatów technologii, ona zyska reputację takiego backupu dla deweloperów, którzy trafiają na limity droższych usług.

Model tak naprawdę we wszelkich rodzaju benchmarkach osiąga wyniki state of the art, porównywalne czy to z najlepszymi modelami Anthropica, Googla czy też OpenAI.

Mamy tutaj szóstą pozycję w rankingu Web Development, zaraz za modelami OpenAI, Anthropic i Gemini.

Co widzimy choćby w przypadku modeli Anthropica, które to jeszcze jakiś czas temu wcale nie były liderami benchmarków, ale właśnie to jak Cloud Code opakował te modele, jak po prostu pozwolił się nimi posługiwać w realnych projektach, no wywindowało Anthropica na takiego absolutnego lidera w kontekście programowania i też myślę, że pracy biurowej coraz częściej, bo oni tam naprawdę idą.

Natomiast tutaj tym zachodnim mainstreamem są cały czas jednak rozwiązania, czy to Googla, czy to Anthropica.

W przypadku Anthropica możemy się łudzić, że nie.