- AI Buzz
- Posts
- Przełom: Gemma 3 od Google
Przełom: Gemma 3 od Google
ORAZ: Gemini Flash zyskuje nowe możliwości obrazowe | Chiny znów zaskakują branżę AI. Manus AI to przełom na miarę DeepSeek | Dlaczego wszyscy nagle mówią o "MCP"

Cześć!
Google rozszerza swoje portfolio AI, wprowadzając lekką, ale wydajną rodzinę modeli Gemma 3 oraz nowe możliwości obrazowe dla Gemini 2.0 Flash. Te innowacje zmierzają w kierunku bardziej zintegrowanych i dostępnych rozwiązań AI.
Sprawdźcie szczegóły poniżej!
💊 W dzisiejszej pigułce:
🧠 Przełom od Google - Gemma 3
🤖 Narzędzie AI Dnia
💫 Gemini Flash zyskuje nowe możliwości obrazowe
🤖 Chiny znów zaskakują branżę AI. Manus AI to przełom na miarę DeepSeek
👀 Dlaczego wszyscy nagle mówią o "MCP"
📷 Zdjęcie dnia wygenerowane przez AI
Czas czytania: 3 minuty
DZISIEJSZE NEWSY

Google właśnie zaprezentował Gemma 3, nową rodzinę “lekkich” modeli AI zbudowanych na tej samej technologii co Gemini 2.0 — oferujących wydajność dorównującą znacznie większym modelom, działając efektywnie na pojedynczym GPU lub TPU.
Szczegóły:
Rodzina modeli występuje w czterech rozmiarach (1B, 4B, 12B i 27B parametrów) zoptymalizowanych dla różnych konfiguracji sprzętowych, od telefonów po laptopy.
Model 27B przewyższa większych konkurentów jak Llama-405B, DeepSeek-V3 i o3-mini w ocenach preferencji użytkowników na tablicy wyników LMArena.
Inne nowe możliwości obejmują okno kontekstowe o wielkości 128K tokenów, obsługę 140 języków oraz zdolności multimodalne do analizowania obrazów, tekstu i krótkich filmów.
Google wydał również ShieldGemma 2, 4B-parametrowy system sprawdzania bezpieczeństwa obrazów, który może filtrować treści eksplicytne — z łatwą integracją w aplikacjach wizualnych.
Dlaczego to ważne: Wydajność Gemma 3 jest zadziwiająca, pokonując systemy najwyższego poziomu, które przewyższają ją zarówno rozmiarem, jak i mocą obliczeniową. Działając na pojedynczym GPU, modele te osiągają niegdyś niewyobrażalny punkt idealnej równowagi, będąc open-source, potężnymi, szybkimi, multimodalnymi i wystarczająco małymi, aby można je było wdrażać na różnych urządzeniach.
Sprawdź tutaj → tutaj
🔨 Przewodnik AI
👨💻 Artisan - darmowy asystent sprzedaży AI dla firm B2B.
Artisan to narzędzie oferujące wirtualnego asystenta sprzedaży AI (Ava), który automatyzuje cały proces pozyskiwania klientów B2B.
System przejmuje zadania związane z wyszukiwaniem potencjalnych klientów, personalizacją komunikacji, zarządzaniem procesem follow-up oraz zapewnianiem dostarczalności wiadomości, umożliwiając wypełnienie kalendarza handlowców kwalifikowanymi spotkaniami.
Hire an AI BDR & Get Qualified Meetings On Autopilot
Outbound requires hours of manual work.
Hire Ava who automates your entire outbound demand generation process, including:
Intent-Driven Lead Discovery Across Dozens of Sources
High Quality Emails with Human-Level Personalization
Follow-Up Management
Email Deliverability Management

Google wydał nowe eksperymentalne możliwości generowania obrazów dla swojego modelu Gemini 2.0 Flash, umożliwiając użytkownikom przesyłanie, tworzenie i edytowanie obrazów bezpośrednio z modelu językowego bez konieczności korzystania z oddzielnego systemu generowania obrazów.
Szczegóły:
Model 2.0-flash-exp jest dostępny przez API oraz w Google AI Studio z obsługą zarówno obrazów, jak i tekstu oraz edycją poprzez konwersację tekstową.
Gemini wykorzystuje rozumowanie i multimodalną podstawę do utrzymania spójności postaci i rozumienia koncepcji ze świata rzeczywistego podczas całej konwersacji.
Na przykład możesz poprosić go o wygenerowanie historii z obrazkami, a następnie doprowadzić do idealnej wersji poprzez naturalny dialog.
Google twierdzi, że Flash 2.0 również doskonale radzi sobie z renderowaniem tekstu w porównaniu do konkurencji, umożliwiając generowanie reklam, postów w mediach społecznościowych i innych projektów z dużą ilością tekstu.
Ta aktualizacja jest istotnym krokiem w zmianie sposobu generowania treści wizualnych przez AI - odchodząc od dedykowanych modeli obrazowych w kierunku modeli językowych, które natywnie rozumieją zarówno tekst, jak i elementy wizualne. Podobnie jak naturalne podpowiedzi językowe zdominowały inne domeny, edycja obrazu wydaje się być następna na liście.
Czytaj więcej → tutaj

Manus
Kilka miesięcy po tym, jak DeepSeek R1 wywołał poruszenie w branży AI, Chiny znów zaskakują niespodziewanym produktem - tym razem to agent, który potrafi samodzielnie tworzyć aplikacje, przeprowadzać dogłębne badania i sprawdzać CV.
Kto stoi za tym projektem? Agent został stworzony przez mało znaną firmę Butterfly Effect. Ma siedzibę w Pekinie i Wuhan, zatrudniając zaledwie kilkudziesięciu pracowników.
Dlaczego to takie ważne? Manus ma być pierwszym "ogólnym agentem AI", wyprzedzającym OpenAI's Deep Research w wiodącym benchmarku GAIA. Wydaje się, że został stworzony przy stosunkowo niewielkim finansowaniu i mocy obliczeniowej, szczególnie w porównaniu do amerykańskich gigantów AI.
Jak reagują użytkownicy?
Victor Mustar z Hugging Face twierdzi, że to "najbardziej imponujące narzędzie AI, jakiego kiedykolwiek używał".
Programista Mckay Wrigley nazwał je "szokująco dobrym" i udostępnił 15-minutowe wideo ze swoimi pierwszymi wrażeniami.
Programiści już używają go do budowy "open-source'owej alternatywy" dla samego siebie.
Nie brakuje jednak kontrowersji: Niektórzy pierwsi testerzy zauważyli, że Manus ma problemy i popełnia błędy faktograficzne, podobnie jak konkurencja. Znaleźli też ślady wskazujące, że Manus to jedynie "nakładka" zbudowana na Claude 3.5 od Anthropic - teorię, którą współzałożyciel startupu wydawał się potwierdzać. Fani jednak ignorują te zastrzeżenia i już ekscytują się tym, jak Manus może działać po aktualizacji do Claude 3.7.
Jak mogę dostać dostęp? Aplikuj do bety tutaj.

Anthropic
To akronim AI, który podbija świat: MCP, czyli model context protocol (protokół kontekstu modelu), zalewa media społecznościowe od tygodnia lub dwóch.
Czym właściwie jest? To specjalny zestaw instrukcji stworzony przez Anthropic (twórcę Claude'a), który pomaga modelom LLM współpracować z aplikacjami zewnętrznymi. Został wydany w listopadzie, ale dopiero teraz zyskuje popularność, gdy programiści odkrywają jego możliwości.
Jaki problem rozwiązuje? Jeśli chcesz, aby model LLM przeglądał Twoje wiadomości w Slacku, analizował wykres w Google Sheets lub streszczał film na YouTube, napotkasz problem. Większość modeli nie wie, jak współpracować z zewnętrznymi aplikacjami bez dodatkowej konfiguracji. To jakby mówiły innym językiem.
Jak pomaga MCP? Działa jak tłumacz, co oznacza, że nie musisz już programować unikalnych integracji dla każdej aplikacji, z którą chcesz pracować. Informatyk Santiago Valdarrama uważa, że może to uczynić agentów "100 razy lepszych".
Jak faktycznie z tego korzystać? Możesz zbudować własny serwer MCP, który zasadniczo pośredniczy między różnymi aplikacjami a modelami LLM.
Nie wszyscy są jednak przekonani: Programista Theo Brown twierdzi, że za każdym razem, gdy próbował z tego korzystać, napotykał błędy. Ponadto, w miarę jak agenci stają się bardziej zaawansowane, będą mogły samodzielnie przeglądać internet, potencjalnie eliminując potrzebę pośrednika.
Czytaj więcej → tutaj
ZDJĘCIE AI DNIA (WYGENEROWANE PRZEZ 🤖)
Czy restauracje wkrótce zaoszczędza na fotografiach swoich menu?




Do zobaczenia za tydzień!
PS Jeśli uważasz, że ktoś z Twoich znajomych też powinien dostawać takie maile - wyślij mu link → aibuzz.pl | Dzięki!
PS2 Jeśli uważasz, że AI Buzz powinien pokazać się w twojej społeczności, napisz na [email protected] aby porozmawiać o współpracy