- AI Buzz
- Posts
- OpenAI może wkrótce mieć własne chipy AI | 🤖 AI BUZZ
OpenAI może wkrótce mieć własne chipy AI | 🤖 AI BUZZ
AI w tym tygodniu: Szkolenie na „najpotężniejszym” superkomputerze na świecie | Mistral Large 2 lepszy od gigantów AI | Senatorowie USA domagają się odpowiedzi od OpenAI
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/d913d853-d2fc-4657-8336-626fb54a9583/cozienny_newsletter_o_ai__1_.png?t=1700780377)
Hej! 👋
Półmetek wakacji tuż tuż! 🌴
Tymczasem w świecie AI wakacji nie ma! 😊
W dzisiejszym wydaniu o najpotężniejszym superkomputerze i obecnie przeprowadzanych testach, o świetnym narzędziu które zautomatyzuje Wam obsługę klienta oraz…. coś dla na programistów, czyli model Mistral, który osiąga w programowaniu dużo lepsze wyniki niż jego więksi konkurenci.
Oraz kilka innych :)
Zapraszamy!
💊 W dzisiejszej pigułce:
🤖 Rozpoczyna się szkolenie na „najpotężniejszym” superkomputerze na świecie
🔨 Narzędzie AI
💻 OpenAI może wkrótce mieć własne chipy AI
🤖 Mistral's Large 2 mierzy się z gigantami AI
🏛️ Senatorowie domagają się odpowiedzi na temat praktyk OpenAI
🎥 Zdjęcia AI
Czas czytania: 3 minuty
DZISIEJSZE NEWSY
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/7a53e959-1687-4433-afec-ab5882aaf888/image.png?t=1721922956)
Getty Images
Firma xAI zbudowała w tym roku największy na świecie superkomputer sztucznej inteligencji. W poniedziałek Elon Musk ujawnił, że centrum danych w Memphis jest już uruchomiona i rozpoczęła trening tego, co według niego będzie „najpotężniejszą sztuczną inteligencją na świecie pod każdym względem do grudnia tego roku”.
Szczegóły:
Musk twierdzi, że superkomputer jest zasilany przez 100 000 najnowocześniejszych chipów Nvidia H100.
Były dyrektor generalny Stability AI, Emad Mostaque, spekulował, że nowy komputer może obliczyć 2,5 kwintyliona operacji zmiennoprzecinkowych na sekundę - ponad dwukrotnie szybciej niż obecny rekordzista - komputer Frontier Departamentu Energii USA
Mostaque uważa, że komputer byłby w stanie wytrenować GPT-4 w zaledwie tydzień.
Obiekt o powierzchni 785 000 stóp kwadratowych jest uważany za jedną z największych w historii inwestycji w rejonie Memphis.
Wiąże się to jednak z kosztami: inwestorzy włożyli ponad 6 miliardów dolarów w xAI od czasu jej założenia w zeszłym roku. W międzyczasie lokalni ekolodzy wyrazili obawy dotyczące zużycia energii przez obiekt. W szczytowych okresach treningowych gigafabryka może potrzebować nawet 150 megawatów energii elektrycznej - tyle samo, ile potrzeba do zasilenia 100 000 domów.
Do czego może być wykorzystywana: Pierwszym priorytetem Muska może być szkolenie nowej wersji Groka xAI, która będzie w stanie zmierzyć się z najnowszym modelem OpenAI. Centrum danych może być również wykorzystywana do opracowywania nowych produktów AI dla Tesli i SpaceX. Wreszcie, może służyć jako centrum najnowocześniejszych eksperymentów AI.
Ale wiadomość ta podkreśla również długotrwałą debatę w społeczności AI: Giganci technologiczni zakładają, że większe komputery nieuchronnie doprowadzą do bardziej wydajnych modeli - w tym takich, które mogą planować przyszłość i rozwiązywać złożone równania. Tymczasem niektórzy deweloperzy uważają, że osiągamy plateau, w którym więcej obliczeń doprowadzi tylko do niewielkiego wzrostu wydajności. Nowa gigafabryka xAI może wkrótce dostarczyć odpowiedzi.
Czytaj więcej → tutaj
🔨 Narzędzie AI dnia
Intercom - obsługa klientów w 100% przez AI
Niezależnie od biznesu / strony internetowej którą prowadzicie - dzięki współpracy z Intercom możemy Wam zaoferować aż 90% zniżki na korzystanie z platformy pozwalają na obsługę Waszych klientów w 100% przez AI.
Koniecznie sprawdźcie ofertę poniżej!
Intercom for Startups
Join Intercom’s Early Stage Program to receive a 90% discount.
Get a direct line to your customers. Try the only complete AI-first customer service solution.
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/af1e9e42-9d37-4c25-8888-997df6021d27/image.png?t=1721923235)
Bloomberg
Wyobraźmy sobie szefa kuchni, który nie może zdobyć potrzebnych składników. Zawsze przychodzą z opóźnieniem i kosztują fortunę. W końcu można pomyśleć: „W porządku, po prostu zbuduję ogród i sam wszystko wyhoduję”. Jasne, może minąć trochę czasu, zanim nasiona staną się roślinami, ale zanim się zorientujesz, jej ogród jest przepełniony produktami.
OpenAI chce wprowadzić podobny etos majsterkowania do swojej gry chipowej. Podobnie jak większość dużych firm zajmujących się sztuczną inteligencją, polega na półprzewodnikach Nvidii do trenowania i uruchamiania swoich modeli. Jest jednak tylko tyle układów scalonych, które można wykorzystać, a OpenAI obawia się, że może nadejść czas, kiedy nie będzie mieć wystarczającej mocy do trenowania GPT-5 i jego następców.
Dlatego też podobno prowadzi rozmowy z kilkoma producentami chipów, w tym z dostawcą Broadcom z Doliny Krzemowej, aby zbudować własne jednostki NPU od podstaw:
Alphabet zrobił coś podobnego kilka lat temu - opracowując własne jednostki przetwarzania tensorowego (TPU) do szkolenia i uruchamiania Gemini na własnych warunkach
OpenAI niedawno zatrudniło kilku absolwentów Alphabet, którzy pracowali nad inicjatywą TPU, przypuszczalnie w celu wykorzystania ich do pracy nad własnym chipem AI
To nie pierwszy raz, kiedy firma z siedzibą w SF próbuje zdywersyfikować dostawy chipów: Na początku tego roku dyrektor generalny Sam Altman próbował zebrać 7 bilionów dolarów na fundusz, który zmieniłby branżę półprzewodników, zmniejszając zależność startupów AI od Nvidii.
Nie będzie to łatwe: dziennikarz techniczny Stephen Witt powiedział na początku tego roku, że Nvidia wyprzedza konkurencję o około pięć do 10 lat. Dzieje się tak dlatego, że przed innymi postawiła radykalny zakład, że sztuczna inteligencja ostatecznie zdominuje branżę technologiczną.
Jeśli OpenAI nawiąże współpracę z producentem chipów, prawdopodobnie miną lata, zanim inwestycja się zwróci. Ostatecznie jednak może nie mieć zbyt dużego wyboru. „Czynnikiem ograniczającym sztuczną inteligencję jest pojemność: pojemność chipa, pojemność energetyczna, pojemność obliczeniowa” - powiedział Financial Times jeden z informatorów. „[OpenAI] nie zamierza po prostu siedzieć z założonymi rękami i pozwolić innym budować [to], gdy są na pierwszej linii frontu”.
Czytaj więcej → tutaj
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/65b3c7a6-aae0-4e2e-b257-4919bb742bc4/image.png?t=1721924972)
Mistral właśnie wypuścił Large 2, nowy model sztucznej inteligencji, który twierdzi, że dorównuje lub przewyższa wydajność najnowszych ofert OpenAI i Meta, mimo tego że ma znacznie mniej parametrów.
Szczegóły:
Large 2 może pochwalić się 123 miliardami parametrów, mniej niż jedna trzecia Llamy 3.1 405B firmy Meta, ale za to przewyższa ją w generowaniu kodu i matematyce.
Model posiada okno kontekstowe 128 000 tokenów i ulepszoną obsługę wielojęzyczną dla 12 języków i 80 języków kodowania.
Mistral twierdzi, że Large 2 minimalizuje halucynacje i generuje bardziej zwięzłe odpowiedzi niż wiodące modele AI.
Model jest dostępny do wypróbowania na Le Chat i dostępny do użytku na głównych platformach chmurowych, ale wymaga płatnej licencji do użytku komercyjnego.
Przy zaledwie jednej trzeciej rozmiaru Llama 3.1 405b z testami porównawczymi porównywalnymi z GPT-4, Mistral Large 2 jest bardzo imponujący. A dzięki dwóm otwartym modelom na poziomie GPT-4 wydanym w ciągu zaledwie dwóch dni, presja na liderów zamkniętej sztucznej inteligencji, takich jak OpenAI, Anthropic i Google znacząco wzrosła.
Czytaj więcej → tutaj
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/1fad1a70-65a8-4c05-961a-39dd683ad8d0/image.png?t=1721925560)
źródło: cointelegraph
Pięciu amerykańskich senatorów wysłało właśnie list do dyrektora generalnego OpenAI, Sama Altmana, domagając się szczegółowych informacji na temat wysiłków firmy w celu zapewnienia bezpieczeństwa sztucznej inteligencji po doniesieniach o pośpiesznych testach bezpieczeństwa GPT-4 Omni.
Szczegóły:
Senatorowie kwestionują protokoły bezpieczeństwa OpenAI, powołując się na doniesienia, że firma przyspieszyła testy bezpieczeństwa GPT-4 Omni, aby dotrzymać majowej daty premiery.
W liście zwrócono się do OpenAI o udostępnienie kolejnego modelu fundacji agencjom rządowym USA w celu przeprowadzenia testów wdrożeniowych, przeglądu, analizy i oceny.
Ustawodawcy pytają, czy OpenAI przeznaczy 20% zasobów obliczeniowych na badania nad bezpieczeństwem sztucznej inteligencji, zgodnie z obietnicą złożoną w lipcu 2023 r. podczas ogłaszania obecnie rozwiązanego „zespołu Superalignment”.
W związku z zarzutami dotyczącymi pośpiesznych testów bezpieczeństwa, potencjalnymi działaniami odwetowymi wobec sygnalistów i rozwiązaniem „zespołu Superalignment”, OpenAI znajduje się pod intensywną kontrolą. List ten oznacza również krytyczny moment dla całej branży sztucznej inteligencji - z potencjałem doprowadzenia do ściślejszego nadzoru rządowego i nowych standardów branżowych.
ZDJĘCIA DNIA (WYGENEROWANE PRZEZ 🤖)
Stambuł 3025
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/51120800-a70a-4a93-98ba-b0a4a485026f/image.png?t=1721923630)
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/0e7b7cc3-7f44-4dbf-9fad-f3370386e019/image.png?t=1721923639)
![](https://media.beehiiv.com/cdn-cgi/image/fit=scale-down,format=auto,onerror=redirect,quality=80/uploads/asset/file/b32f2a7e-1577-4b13-a6da-05c919c23461/image.png?t=1721923660)
Do zobaczenia za tydzień! 🙂
PS Jeśli uważasz, że ktoś z Twoich znajomych też powinien dostawać takie maile - wyślij mu link → aibuzz.pl | Dzięki!
PS2 Jeśli uważasz, że AI Buzz powinien pokazać się w twojej społeczności, napisz na [email protected] aby porozmawiać o współpracy