Wprowadzenie nowych nakryć głowy Apple, narzędzi Google AI i GPT-4

Nakrycia głowy Apple do rzeczywistości mieszanej zadebiutują na WWDC 2023

Zgodnie z najnowszym raportem Bloomberga, Apple zaprezentuje podobno nakrycia głowy z mieszaną rzeczywistością na tegorocznej konferencji Worldwide Developers Conference (WWDC), tradycyjnie odbywającej się w czerwcu 2023 roku.

Data odsłonięcia była wielokrotnie przesuwana z powodu trudności technologicznych. Początkowo miał wystartować wiosną, ale teraz zostanie ogłoszony na WWDC przed wejściem do sprzedaży pod koniec 2023 roku.

Uważa się, że zestaw słuchawkowy firmy, podobno nazywany „Reality Pro”, będzie bardzo potężnym urządzeniem, które przypomina gogle narciarskie i może transmitować treści 3D. Ma wiele możliwości, takich jak zaawansowane śledzenie dłoni, możliwość realistycznego renderowania rozmówców FaceTime, cyfrowa korona, która pozwala opuścić wirtualną rzeczywistość i nie tylko.

Zgodnie z najnowszymi dostępnymi informacjami, Apple zamierza sprzedać nakrycie głowy za około 3000 USD, co czyni go najdroższym elementem do noszenia wyprodukowanym przez firmę do tej pory.

Jak wszyscy wiemy, data premiery tak przełomowych produktów może ulec zmianie, ale tym razem Apple ma nadzieję udostępnić produkt do końca 2023 roku. Jeśli wszystko pójdzie zgodnie z planem, nakrycia głowy Apple MR najprawdopodobniej trafią na rynek międzynarodowy na WWDC, a gadżet może pojawić się w sklepach pod koniec 2023 roku.

Zestaw słuchawkowy rzeczywistości mieszanej Apple może nie zyskać popularności, tak jak inne produkty Apple, gdy tylko zadebiutował. Mimo to, zgodnie z licznymi opiniami technicznymi, zestaw słuchawkowy Apple z rzeczywistością mieszaną ma potencjał wzrostu i może stać się bardziej znaczącym generatorem przychodów dla Apple w najbliższej przyszłości.

Microsoft, Alphabet i inne firmy wydają miliardy dolarów na rozwój i wdrażanie technologii sztucznej inteligencji w celu zdobycia udziału w rynku w różnych branżach.

Aby konkurować z ChatGPT z OpenAI (Microsoft zainwestował miliardy dolarów w tę firmę), firma macierzysta Google, Alphabet, uruchomiła usługę AI obsługiwaną przez LaMDA, Bard AI.

Firma Google ogłosiła niedawno kilka integracji sztucznej inteligencji, aby umożliwić uczenie maszynowe produktów Workspace generowanie tekstu i grafiki. Zapowiedziano kilka przyszłych funkcji generatywnej sztucznej inteligencji dla aplikacji Google Workspace, w tym Dokumentów Google, Gmaila, Arkuszy i Prezentacji.

Funkcje obejmują:

  • Nowe sposoby burzy mózgów, podsumowań i generowania treści przez sztuczną inteligencję Dokumentów Google.
  • Zdolność Gmaila do tworzenia całych e-maili z szybkich wypunktowań użytkowników.
  • Zdolność Prezentacji Google do tworzenia obrazów AI, dźwięku i wideo w celu zilustrowania prezentacji.

Firma zademonstrowała, w jaki sposób klienci korzystający z chmury mogą wykorzystywać sztuczną inteligencję do wysyłania e-maili do współpracowników, tworzenia prezentacji i dokumentów szkoleniowych w zakresie sprzedaży oraz robienia notatek podczas spotkań. Deweloperzy mogą teraz tworzyć aplikacje wykorzystujące technologię Google dzięki wydaniu przez firmę niektórych podstawowych modeli sztucznej inteligencji.

ChatGPT zadebiutował w zeszłym roku, a Microsoft wypuścił swoją wyszukiwarkę obsługującą chatbota Bing w lutym 2023 roku. Od tego czasu Google wykazuje determinację, by wyprzedzić konkurentów w nowym wyścigu AI, ogłaszając serię aktualizacji AI swoich produktów.

Grupa „zaufanych testerów” z siedzibą w USA będzie miała dostęp do kilku nowych funkcji sztucznej inteligencji, które firma wprowadziła w tym miesiącu. Google twierdzi, że te i inne funkcje zostaną udostępnione publicznie jeszcze w tym roku, ale nie ogłosił dokładnej daty.

OpenAI ogłasza, że ​​GPT-4 może akceptować dane wejściowe tekstowe lub graficzne

Firma OpenAI opublikowała najnowszą wersję GPT-4 na swoim blogu badawczym. Według raportu, GPT-4 to spory system multimodalny, który może przyjmować obraz i tekst, jednocześnie generując tylko tekst.

Po miesiącach szeptów i spekulacji, OpenAI w końcu ujawniło GPT-4, rewolucyjne ulepszenie zdolności rozwiązywania problemów.

Open AI twierdzi, że GPT-4 jest „bardziej innowacyjny i oparty na współpracy niż kiedykolwiek wcześniej” oraz „bardziej dokładny w radzeniu sobie z trudnymi sytuacjami”. Chociaż może rozumieć zarówno tekst, jak i obraz, generowane są tylko odpowiedzi tekstowe.

Według OpenAI, GPT-4 przeszedł sześciomiesięczne szkolenie w zakresie bezpieczeństwa, które stwierdziło również, że w testach wewnętrznych „o 82% rzadziej odpowiada na prośby o treści objęte ograniczeniami” i „o 40% częściej udziela rzeczowych odpowiedzi niż GPT -3,5”.

W nieoficjalnej rozmowie OpenAI twierdziło, że istnieje „subtelna” różnica między GPT-4 a jego poprzednikiem GPT-3.5 (GPT-3.5 to model, który napędza ChatGPT). Sam Altman, dyrektor generalny OpenAI, stwierdził, że GPT-4 „nadal jest niedoskonały, wciąż ograniczony”, dodając, że „wydaje się bardziej niezwykły przy pierwszym użyciu niż po spędzeniu z nim więcej czasu”.

Systemy wciąż mają wiele takich samych problemów, w tym są mniej skuteczne niż ludzie w wielu rzeczywistych okolicznościach i działają na poziomie ludzkim na podstawie różnych kryteriów zawodowych i akademickich, ostrzega OpenAI.

Publiczność może uzyskać dostęp do zaktualizowanego GPT-4 za pośrednictwem ChatGPT Plus, członkostwa OpenAI za 20 USD miesięcznie ChatGPT, które napędza chatbota Bing firmy Microsoft. Będzie dostępny jako interfejs API, na którym programiści będą mogli budować.