Niedawne zaprezentowanie przez Meta zaawansowanych okularów ze sztuczną inteligencją, Meta Ray-Ban Display, napotkało na znaczące trudności techniczne podczas długo oczekiwanej prezentacji kluczowej, co rodzi pytania o gotowość urządzenia za 799 dolarów do masowej adopcji konsumenckiej. Choć promowane jako transformacyjny krok w kierunku „agentualnej sztucznej inteligencji”, zdolnej do proaktywnego działania w imieniu użytkowników, demonstracja na żywo zakończyła się wielokrotnymi awariami, podważając jego dopracowany debiut przed liczną publicznością.
Wydarzenie, które odbyło się w kwaterze głównej Meta w Dolinie Krzemowej, miało na celu zaprezentowanie kulminacji wieloletnich prac rozwojowych nad okularami, które wewnętrznie określano jako „Hypernova„. Początkowy segment miał podkreślić możliwości urządzenia w zakresie informacji zwrotnej wizualnej w czasie rzeczywistym i komunikacji tekstowej, sterowanej za pomocą subtelnych ruchów nadgarstka. Jednak ta część demonstracji szybko przerodziła się w serię niezamierzonych rezultatów, wpływając na postrzeganą wyrafinowanie technologii.
Kolejny segment obejmował wspólne próby wykorzystania funkcji LiveAI, zaprojektowanej do udzielania wskazówek krok po kroku w zadaniach takich jak gotowanie. Po otrzymaniu polecenia pomocy twórcy kulinarnej z przepisem, AI wykazywała się nieprzewidywalnym zachowaniem, pomijając kroki i nie odpowiadając na podstawowe polecenia. Ten nieoczekiwany występ spotkał się z komentarzami uczestników, w tym Lance’a Ulanoffa z Tech Radar, który zauważył widoczne zakłopotanie AI i niespójne działanie podczas demonstracji na żywo.
Napotkane wyzwania podkreślają szerszą kwestię branżową dotyczącą przeprowadzania demonstracji technologii na żywo. Jak zauważył Ulanoff, duże firmy technologiczne często decydują się na wstępnie nagrane filmy, aby zapewnić kontrolowaną prezentację, powołując się na nieprzewidywalną naturę wydarzeń na żywo, szczególnie gdy tysiące urządzeń i użytkowników jest podłączonych do tej samej sieci. Takie podejście kontrastuje z bardziej bezpośrednią strategią demonstracji na żywo Meta, która, pomimo ryzyka, ma na celu przekazanie poczucia bezpośredniości i autentyczności.
Dalsze problemy techniczne pojawiły się podczas demonstracji funkcjonalności Neural Band. Chociaż Mark Zuckerberg pomyślnie wymienił wiadomości tekstowe z dyrektorem technologicznym Meta, Andrew Bosworthem, próba zainicjowania połączenia wideo WhatsApp za pomocą okularów okazała się nieudana. Kolejna interakcja Zuckerberga z interfejsem urządzenia wskazywała na trudności w wykonaniu polecenia, co doprowadziło do dołączenia Boswortha na scenie, który przypisał problem łączności sieciowej, wywołując śmiech publiczności.
Pomimo tych przerw na scenie, Zuckerberg utrzymywał, że okulary stanowią znaczący postęp w dziedzinie osobistej technologii AI. Powtórzył długoterminową wizję Meta dotyczącą noszonych asystentów AI, którzy proaktywnie identyfikują i zaspokajają potrzeby użytkowników przy minimalnej interwencji. Chociaż dostrzegano wyzwania, obserwatorzy tacy jak Ulanoff docenili opanowanie Zuckerberga i jego wysiłki na rzecz załagodzenia sytuacji humorem, podkreślając nieodłączne ryzyko związane z prezentacjami produktów na żywo.
newsblog.pl
Maciej – redaktor, pasjonat technologii i samozwańczy pogromca błędów w systemie Windows. Zna Linuxa lepiej niż własną lodówkę, a kawa to jego główne źródło zasilania. Pisze, testuje, naprawia – i czasem nawet wyłącza i włącza ponownie. W wolnych chwilach udaje, że odpoczywa, ale i tak kończy z laptopem na kolanach.