Wprowadzenie nowych nakryć głowy Apple, narzędzi Google AI i GPT-4

Według najnowszych doniesień Bloomberga, firma Apple zamierza zaprezentować swoje innowacyjne gogle do rzeczywistości mieszanej podczas tegorocznej konferencji Worldwide Developers Conference (WWDC), która tradycyjnie odbywa się w czerwcu 2023 roku.

Data premiery tego urządzenia była kilkukrotnie przesuwana z powodu wyzwań technologicznych. Pierwotnie planowano wprowadzenie na rynek wiosną, jednak ostatecznie ogłoszenie odbędzie się na WWDC, a sprzedaż rozpocznie się pod koniec 2023 roku.

Słuchawki, określane nieoficjalnie jako „Reality Pro”, mają być zaawansowanym urządzeniem przypominającym gogle narciarskie, umożliwiającym wyświetlanie treści 3D. Ich funkcjonalność obejmuje precyzyjne śledzenie dłoni, realistyczne odwzorowywanie rozmów FaceTime, a także cyfrową koronę, pozwalającą płynnie przechodzić między światem wirtualnym a rzeczywistym, i wiele innych.

Zgodnie z najnowszymi informacjami, Apple planuje wprowadzić ten zestaw słuchawkowy na rynek w cenie około 3000 USD, co uczyni go najdroższym urządzeniem typu wearable w historii firmy.

Jak powszechnie wiadomo, daty premier przełomowych produktów mogą ulegać zmianom, lecz tym razem Apple wyraża nadzieję na udostępnienie swojego produktu do końca 2023 roku. Jeśli wszystko przebiegnie zgodnie z założeniami, gogle Apple MR zostaną zaprezentowane na WWDC, a w sklepach pojawią się pod koniec bieżącego roku.

Początkowo zestaw do rzeczywistości mieszanej od Apple może nie osiągnąć tak wielkiej popularności, jak inne produkty tej firmy. Mimo to, w opinii wielu ekspertów branżowych, ma on znaczny potencjał rozwojowy i w przyszłości może stać się istotnym źródłem przychodów dla Apple.

Konkurencyjne firmy, takie jak Microsoft i Alphabet, inwestują ogromne sumy w rozwój i implementację technologii sztucznej inteligencji, aby zyskać przewagę rynkową w różnych sektorach.

W odpowiedzi na ChatGPT od OpenAI (w którego Microsoft zainwestował miliardy), Alphabet, firma macierzysta Google, uruchomiła własną usługę AI opartą na LaMDA, znaną jako Bard AI.

Google niedawno zapowiedział szereg integracji sztucznej inteligencji, które umożliwią maszynowe uczenie produktów Workspace w zakresie generowania tekstu i grafiki. W przyszłości planowane jest wprowadzenie funkcji generatywnej sztucznej inteligencji do aplikacji Google Workspace, takich jak Dokumenty Google, Gmail, Arkusze i Prezentacje.

Wśród zapowiadanych funkcji znajdują się:

  • Nowe metody burzy mózgów, tworzenia podsumowań i generowania treści w Dokumentach Google, wspierane przez sztuczną inteligencję.
  • Zdolność Gmaila do generowania pełnych wiadomości e-mail na podstawie krótkich wytycznych od użytkowników.
  • Możliwość tworzenia obrazów, dźwięków i filmów za pomocą sztucznej inteligencji w Prezentacjach Google, w celu urozmaicenia prezentacji.

Firma zaprezentowała, jak użytkownicy chmury mogą wykorzystywać sztuczną inteligencję do automatyzacji wysyłki e-maili do współpracowników, tworzenia prezentacji i materiałów szkoleniowych, oraz sporządzania notatek podczas spotkań. Dzięki udostępnieniu przez Google niektórych podstawowych modeli sztucznej inteligencji, deweloperzy mogą teraz tworzyć własne aplikacje, wykorzystujące tę technologię.

ChatGPT zadebiutował w ubiegłym roku, a w lutym 2023 Microsoft wprowadził na rynek swoją wyszukiwarkę Bing z chatbotem. Od tego czasu Google podejmuje zdecydowane działania, by wyprzedzić konkurencję w nowym wyścigu AI, ogłaszając liczne aktualizacje swoich produktów oparte o sztuczną inteligencję.

Wybrana grupa testerów z siedzibą w Stanach Zjednoczonych otrzymała dostęp do nowych funkcji AI, wprowadzonych przez Google w tym miesiącu. Firma zapewnia, że te i inne innowacje zostaną udostępnione szerszej publiczności jeszcze w tym roku, choć dokładna data nie została jeszcze ogłoszona.

GPT-4 od OpenAI Obsługuje Dane Wejściowe Tekstowe i Obrazowe

Firma OpenAI udostępniła na swoim blogu badawczym najnowszą wersję swojego modelu językowego, GPT-4. Zgodnie z raportem, GPT-4 to zaawansowany system multimodalny, który akceptuje zarówno obrazy, jak i tekst, choć generuje jedynie odpowiedzi tekstowe.

Po wielu miesiącach spekulacji i nieoficjalnych informacji, OpenAI w końcu zaprezentowało GPT-4, przełomowe ulepszenie w zakresie zdolności rozwiązywania problemów.

OpenAI twierdzi, że GPT-4 jest „bardziej innowacyjny i oparty na współpracy niż kiedykolwiek wcześniej” oraz „dokładniej radzi sobie z trudnymi sytuacjami”. Choć model potrafi rozumieć zarówno tekst, jak i obraz, generowane odpowiedzi są wyłącznie tekstowe.

Według OpenAI, GPT-4 przeszedł sześciomiesięczne szkolenie w zakresie bezpieczeństwa, które wykazało, że w wewnętrznych testach „o 82% rzadziej odpowiada na żądania dotyczące treści objętych ograniczeniami” oraz „o 40% częściej udziela rzeczowych odpowiedzi niż GPT-3.5”.

W nieoficjalnej wypowiedzi przedstawiciele OpenAI zasugerowali, że różnica między GPT-4 a jego poprzednikiem, GPT-3.5 (model napędzający ChatGPT), jest „subtelna”. Sam Altman, dyrektor generalny OpenAI, stwierdził, że GPT-4 „nadal jest niedoskonały, wciąż ograniczony”, dodając, że „wydaje się bardziej niezwykły przy pierwszym użyciu niż po dłuższym obcowaniu z nim”.

Systemy wciąż borykają się z podobnymi problemami, w tym w wielu rzeczywistych sytuacjach działają gorzej niż ludzie, a także osiągają poziom ludzki tylko w niektórych zadaniach zawodowych i akademickich, ostrzega OpenAI.

Użytkownicy mogą uzyskać dostęp do zaktualizowanego GPT-4 za pośrednictwem ChatGPT Plus, płatnej subskrypcji OpenAI za 20 USD miesięcznie, lub korzystając z chatbota Bing firmy Microsoft. Model będzie również dostępny jako API, na którym deweloperzy będą mogli budować własne aplikacje.