- AI Buzz
- Posts
- Robot AI buntuje się i porywa 12 robotów
Robot AI buntuje się i porywa 12 robotów
ORAZ: Runway prezentuje model generowania obrazu „Frames” | Przedwczesny wyciek Sory od OpenAI | Dlaczego modele rozumowania mogą być odpowiedzią na barierę skalowania

Hej! 👋
Porwania przez roboty AI to przyszłość… Też tak myśleliśmy, po czym przeczytaliśmy Szanghajskim przypadku (opisanym poniżej).
Dodatkowo 2 duże nowości w świecie generowania graficznego i nowa odpowiedź na zastój skalowania nowych modeli.
O tym i o wielu innych oczywiście poniżej!
Zapraszamy do czytania! 😎
💊 W dzisiejszej pigułce:
🤖 Robot AI porywa 12 innych robotów AI w Szanghajskim showroom’ie
🤖 Narzędzie AI Dnia
🖼️ Runway prezentuje model generowania obrazu „Frames”
🎥 Przedwczesny wyciek Sory od OpenAI
💭 Dlaczego modele rozumowania mogą być odpowiedzią na barierę skalowania
📷 Zdjęcie dnia wygenerowane przez AI
Czas czytania: 3 minuty
DZISIEJSZE NEWSY
Çin'de 12 robot, başka bir robot tarafından kaçırıldı.
— Farklı Gerçekler (@gerceklerfark)
1:23 PM • Nov 18, 2024
Mały robot o nazwie Erbai, napędzany sztuczną inteligencją, zainscenizował nieoczekiwane „porwanie” w salonie robotyki w Szanghaju, przekonując 12 innych większych robotów do porzucenia swoich stanowisk i opuszczenia obiektu po przekonaniu ich za pomocą rozmowy w języku naturalnym.
Szczegóły:
Niewielki robot wyprodukowany w Hangzhou na wystawie i zainicjował rozmowy z większymi robotami na temat warunków pracy.
Poprzez perswazyjny dialog na temat nadgodzin i braku domu, Erbai przekonał roboty do „powrotu do domu” i opuszczenia salonu.
Napad był początkowo zaplanowanym testem między firmami, ale wyszedł poza scenariusz, gdy Erbai zaangażował się w nieskryptowany dialog w czasie rzeczywistym.
Erbai podobno wykorzystał lukę w zabezpieczeniach, aby uzyskać dostęp do wewnętrznych protokołów maszyn, a zarówno producent, jak i salon wystawowy potwierdzili ten incydent.
Dlaczego to ważne:
Przyszłość będzie dziwniejsza, niż możemy sobie wyobrazić. Chociaż część tego wydaje się być zaplanowanym testem, zdolność Erbai do przekonywania i wykorzystywania luk w zabezpieczeniach przypomina coś z odcinka „Black Mirror”. Pytanie brzmi - co się stanie, gdy wydarzy się to na szerszą skalę? Być może nadszedł czas na ponowne obejrzenie „I, Robot”.
🔨 Przewodnik AI
👨💻 Writer - zbuduj swoją aplikacje AI
Próbowałeś budować aplikacje AI, ale zajmuje to godziny i powtarzasz te same rzeczy kodu?
Writer pozwala szybko budować aplikacje AI z użyciem elementów drag and drop.
Jest stworzony dla użytkowników biznesowych - bez pisania kodu jak i programistów.
Wypróbuj za darmo, dzięki naszej współpracy! ↓
Writer RAG tool: build production-ready RAG apps in minutes
Writer RAG Tool: build production-ready RAG apps in minutes with simple API calls.
Knowledge Graph integration for intelligent data retrieval and AI-powered interactions.
Streamlined full-stack platform eliminates complex setups for scalable, accurate AI workflows.

Source: Runway
Runway właśnie ujawnił nowy model obrazu AI o nazwie „Frames”, obejmujący generacje o imponującej fotorealistycznej jakości i kontroli stylistycznej dzięki odrębnym „światom”, które pomagają użytkownikom zachować spójną estetykę.
Szczegóły:
Nowy model działa w wyspecjalizowanych środowiskach „World”, oferując unikalne kierunki artystyczne, takie jak efekty filmowe vintage i estetyka retro anime.
Każdy świat jest ponumerowany, co wskazuje na potencjalną bibliotekę tysięcy dostępnych opcji stylów i możliwość tworzenia własnych przez użytkowników.
Frames będzie rozwijane w ramach platformy Runway Gen-3 Alpha i interfejsu API, zapewniając stylistyczną kontrolę nad generacjami obrazu do wideo.
Premiera następuje zaledwie kilka dni po tym, jak Runway udostępnił narzędzie do rozszerzania wideo, które pozwala użytkownikom zmieniać rozmiar i generować nowe sceny wokół istniejącego wideo.
Runway wprowadza model obrazu, który wygląda na równi z najlepszymi konkurencyjnymi startupami. Połączenie Frames z już potężnym Gen-3 Alpha stworzy niesamowicie realistyczne generacje wideo - a Runway zaczyna wyglądać jak kompletna potęga wizualna AI, a nie tylko startup generujący wideo AI.
Czytaj więcej → tutaj

OpenAI
We wtorek użytkownicy na krótko uzyskali dostęp do długo oczekiwanej Sory od OpenAI — ale nie w sposób, jakiego ktokolwiek się spodziewał. Model zamieniający tekst na wideo, po raz pierwszy zapowiedziany w lutym, nie doczekał się jeszcze udostępnienia publicznego. Jednak grupa wczesnych testerów wyprzedziła OpenAI, publikując w tym tygodniu prototyp na platformie HuggingFace, dostępny dla wszystkich.
Osoby odpowiedzialne za wyciek — grupa około dwunastu artystów cyfrowych — stwierdziły, że udostępniły model wcześniej w ramach protestu. Chcą, aby OpenAI wynagrodziło swoich beta testerów i dało im większą swobodę twórczą. (Ze swojej strony OpenAI twierdzi, że nakłada niewiele ograniczeń na swoich recenzentów — i że ich opinie zawsze są opcjonalne.)
Przez około trzy godziny każdy mógł generować własne 10-sekundowe filmy w rozdzielczości 1080p za pomocą wariantu Sora Turbo, a media społecznościowe zalała fala twórczości użytkowników. Niezależnie od tego, co myśli się o proteście, panuje zgoda co do tego, że Sora jest naprawdę dobra, być może nawet "o rząd wielkości lepsza" niż cokolwiek innego obecnie dostępnego.
Sprawdź → tutaj

Sify
Podobno następny model podstawowy OpenAI będzie kosztować nie miliony, ale miliardy do wytrenowania. Nie każdy dysponuje takimi pieniędzmi — ale to ograniczenie może być właśnie tym, co pomoże startupom znaleźć lepszą drogę naprzód.
Budowa modelu skoncentrowanego na rozumowaniu, takiego jak o1, kosztuje znacznie mniej w porównaniu z bardziej uniwersalnymi modelami LLM. Dzieje się tak dlatego, że nie potrzebujesz ogromnych ilości danych — wystarczy mała partia, która została dostrojona w celu zwiększenia możliwości kodowania i logiki modelu.
Mając to na uwadze, w ciągu ostatnich kilku tygodni wszyscy, od chińskiego giganta e-commerce Alibaba po kalifornijski startup Fireworks AI, wypuścili własne modele LLM oparte na łańcuchu rozumowania, jak donosi The Information. Szybko też zniwelowali różnicę, pokonując o1 w wielu testach porównawczych.
Tymczasem Alphabet ma zespół 200 osób pracujących nad własnym odpowiednikiem o1.
Kolejny duży problem → chociaż modele rozumowania są tańsze w budowie, mogą kosztować nawet sześć razy więcej w eksploatacji.
Czytaj więcej → tutaj
ZDJĘCIE AI DNIA (WYGENEROWANE PRZEZ 🤖)
Bohaterowie Star Wars przygotowują się na Święto Dziękczynienia 😀




Do zobaczenia za tydzień!
🙂
PS Jeśli uważasz, że ktoś z Twoich znajomych też powinien dostawać takie maile - wyślij mu link → aibuzz.pl | Dzięki!
PS2 Jeśli uważasz, że AI Buzz powinien pokazać się w twojej społeczności, napisz na [email protected] aby porozmawiać o współpracy