- AI Buzz
- Posts
- Robot AI buntuje się i porywa 12 robotów
Robot AI buntuje się i porywa 12 robotów
ORAZ: Runway prezentuje model generowania obrazu „Frames” | Przedwczesny wyciek Sory od OpenAI | Dlaczego modele rozumowania mogą być odpowiedzią na barierę skalowania
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/d913d853-d2fc-4657-8336-626fb54a9583/cozienny_newsletter_o_ai__1_.png?t=1700780377)
Hej! 👋
Porwania przez roboty AI to przyszłość… Też tak myśleliśmy, po czym przeczytaliśmy Szanghajskim przypadku (opisanym poniżej).
Dodatkowo 2 duże nowości w świecie generowania graficznego i nowa odpowiedź na zastój skalowania nowych modeli.
O tym i o wielu innych oczywiście poniżej!
Zapraszamy do czytania! 😎
💊 W dzisiejszej pigułce:
🤖 Robot AI porywa 12 innych robotów AI w Szanghajskim showroom’ie
🤖 Narzędzie AI Dnia
🖼️ Runway prezentuje model generowania obrazu „Frames”
🎥 Przedwczesny wyciek Sory od OpenAI
💭 Dlaczego modele rozumowania mogą być odpowiedzią na barierę skalowania
📷 Zdjęcie dnia wygenerowane przez AI
Czas czytania: 3 minuty
DZISIEJSZE NEWSY
Çin'de 12 robot, başka bir robot tarafından kaçırıldı.
— Farklı Gerçekler (@gerceklerfark)
1:23 PM • Nov 18, 2024
Mały robot o nazwie Erbai, napędzany sztuczną inteligencją, zainscenizował nieoczekiwane „porwanie” w salonie robotyki w Szanghaju, przekonując 12 innych większych robotów do porzucenia swoich stanowisk i opuszczenia obiektu po przekonaniu ich za pomocą rozmowy w języku naturalnym.
Szczegóły:
Niewielki robot wyprodukowany w Hangzhou na wystawie i zainicjował rozmowy z większymi robotami na temat warunków pracy.
Poprzez perswazyjny dialog na temat nadgodzin i braku domu, Erbai przekonał roboty do „powrotu do domu” i opuszczenia salonu.
Napad był początkowo zaplanowanym testem między firmami, ale wyszedł poza scenariusz, gdy Erbai zaangażował się w nieskryptowany dialog w czasie rzeczywistym.
Erbai podobno wykorzystał lukę w zabezpieczeniach, aby uzyskać dostęp do wewnętrznych protokołów maszyn, a zarówno producent, jak i salon wystawowy potwierdzili ten incydent.
Dlaczego to ważne:
Przyszłość będzie dziwniejsza, niż możemy sobie wyobrazić. Chociaż część tego wydaje się być zaplanowanym testem, zdolność Erbai do przekonywania i wykorzystywania luk w zabezpieczeniach przypomina coś z odcinka „Black Mirror”. Pytanie brzmi - co się stanie, gdy wydarzy się to na szerszą skalę? Być może nadszedł czas na ponowne obejrzenie „I, Robot”.
🔨 Przewodnik AI
👨💻 Writer - zbuduj swoją aplikacje AI
Próbowałeś budować aplikacje AI, ale zajmuje to godziny i powtarzasz te same rzeczy kodu?
Writer pozwala szybko budować aplikacje AI z użyciem elementów drag and drop.
Jest stworzony dla użytkowników biznesowych - bez pisania kodu jak i programistów.
Wypróbuj za darmo, dzięki naszej współpracy! ↓
Writer RAG tool: build production-ready RAG apps in minutes
Writer RAG Tool: build production-ready RAG apps in minutes with simple API calls.
Knowledge Graph integration for intelligent data retrieval and AI-powered interactions.
Streamlined full-stack platform eliminates complex setups for scalable, accurate AI workflows.
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/db377b85-1c88-41ef-8919-f573bfde5375/image.png?t=1732783635)
Source: Runway
Runway właśnie ujawnił nowy model obrazu AI o nazwie „Frames”, obejmujący generacje o imponującej fotorealistycznej jakości i kontroli stylistycznej dzięki odrębnym „światom”, które pomagają użytkownikom zachować spójną estetykę.
Szczegóły:
Nowy model działa w wyspecjalizowanych środowiskach „World”, oferując unikalne kierunki artystyczne, takie jak efekty filmowe vintage i estetyka retro anime.
Każdy świat jest ponumerowany, co wskazuje na potencjalną bibliotekę tysięcy dostępnych opcji stylów i możliwość tworzenia własnych przez użytkowników.
Frames będzie rozwijane w ramach platformy Runway Gen-3 Alpha i interfejsu API, zapewniając stylistyczną kontrolę nad generacjami obrazu do wideo.
Premiera następuje zaledwie kilka dni po tym, jak Runway udostępnił narzędzie do rozszerzania wideo, które pozwala użytkownikom zmieniać rozmiar i generować nowe sceny wokół istniejącego wideo.
Runway wprowadza model obrazu, który wygląda na równi z najlepszymi konkurencyjnymi startupami. Połączenie Frames z już potężnym Gen-3 Alpha stworzy niesamowicie realistyczne generacje wideo - a Runway zaczyna wyglądać jak kompletna potęga wizualna AI, a nie tylko startup generujący wideo AI.
Czytaj więcej → tutaj
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/e2f51cea-9363-48fb-8daa-12d5c30adb35/image.png?t=1732805337)
OpenAI
We wtorek użytkownicy na krótko uzyskali dostęp do długo oczekiwanej Sory od OpenAI — ale nie w sposób, jakiego ktokolwiek się spodziewał. Model zamieniający tekst na wideo, po raz pierwszy zapowiedziany w lutym, nie doczekał się jeszcze udostępnienia publicznego. Jednak grupa wczesnych testerów wyprzedziła OpenAI, publikując w tym tygodniu prototyp na platformie HuggingFace, dostępny dla wszystkich.
Osoby odpowiedzialne za wyciek — grupa około dwunastu artystów cyfrowych — stwierdziły, że udostępniły model wcześniej w ramach protestu. Chcą, aby OpenAI wynagrodziło swoich beta testerów i dało im większą swobodę twórczą. (Ze swojej strony OpenAI twierdzi, że nakłada niewiele ograniczeń na swoich recenzentów — i że ich opinie zawsze są opcjonalne.)
Przez około trzy godziny każdy mógł generować własne 10-sekundowe filmy w rozdzielczości 1080p za pomocą wariantu Sora Turbo, a media społecznościowe zalała fala twórczości użytkowników. Niezależnie od tego, co myśli się o proteście, panuje zgoda co do tego, że Sora jest naprawdę dobra, być może nawet "o rząd wielkości lepsza" niż cokolwiek innego obecnie dostępnego.
Sprawdź → tutaj
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/71a1bfec-e51b-4aec-905b-aef5cc1662b1/image.png?t=1732805584)
Sify
Podobno następny model podstawowy OpenAI będzie kosztować nie miliony, ale miliardy do wytrenowania. Nie każdy dysponuje takimi pieniędzmi — ale to ograniczenie może być właśnie tym, co pomoże startupom znaleźć lepszą drogę naprzód.
Budowa modelu skoncentrowanego na rozumowaniu, takiego jak o1, kosztuje znacznie mniej w porównaniu z bardziej uniwersalnymi modelami LLM. Dzieje się tak dlatego, że nie potrzebujesz ogromnych ilości danych — wystarczy mała partia, która została dostrojona w celu zwiększenia możliwości kodowania i logiki modelu.
Mając to na uwadze, w ciągu ostatnich kilku tygodni wszyscy, od chińskiego giganta e-commerce Alibaba po kalifornijski startup Fireworks AI, wypuścili własne modele LLM oparte na łańcuchu rozumowania, jak donosi The Information. Szybko też zniwelowali różnicę, pokonując o1 w wielu testach porównawczych.
Tymczasem Alphabet ma zespół 200 osób pracujących nad własnym odpowiednikiem o1.
Kolejny duży problem → chociaż modele rozumowania są tańsze w budowie, mogą kosztować nawet sześć razy więcej w eksploatacji.
Czytaj więcej → tutaj
ZDJĘCIE AI DNIA (WYGENEROWANE PRZEZ 🤖)
Bohaterowie Star Wars przygotowują się na Święto Dziękczynienia 😀
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/e100541f-adc5-4f8a-be38-c422f030eba1/image.png?t=1732865237)
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/6f994189-eadd-424c-899e-4482ac21b7a0/image.png?t=1732865246)
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/c7d1b074-11c5-4c42-8aaa-ed2bddeefd0d/image.png?t=1732865275)
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/41c4d59c-94c8-4709-ba80-e05fae8902fb/image.png?t=1732865271)
Do zobaczenia za tydzień!
🙂
PS Jeśli uważasz, że ktoś z Twoich znajomych też powinien dostawać takie maile - wyślij mu link → aibuzz.pl | Dzięki!
PS2 Jeśli uważasz, że AI Buzz powinien pokazać się w twojej społeczności, napisz na [email protected] aby porozmawiać o współpracy