Integracja przez Apple możliwości sztucznej inteligencji działającej na urządzeniu za pomocą nowego frameworka Foundation Models zaczyna manifestować się w praktycznych zastosowaniach, sygnalizując zwrot w kierunku bardziej prywatnych i opłacalnych funkcji AI dla użytkowników końcowych. Ten rozwój, zaprezentowany na WWDC 2025 i wdrażany obecnie wraz z aktualizacjami iOS 26, umożliwia deweloperom wykorzystanie lokalnych modeli AI, omijając tradycyjne koszty wnioskowania i zależność od chmury związane z zaawansowanymi funkcjami AI. Wbudowane funkcje frameworka, takie jak generowanie z przewodnikiem i wywoływanie narzędzi, umożliwiają nową falę ulepszeń aplikacji, skupionych głównie na poprawie doświadczenia użytkownika i usprawnieniu przepływów pracy.
Chociaż te lokalne modele są stosunkowo mniejsze niż ich odpowiedniki działające w chmurze od gigantów branżowych, takich jak OpenAI, Anthropic, Google czy Meta, ich znaczenie tkwi w dostępności i prywatności. Deweloperzy już integrują te modele ze swoimi aplikacjami, demonstrując ich użyteczność w ulepszaniu codziennych zadań, a nie w fundamentalnej zmianie podstawowych funkcjonalności. Takie podejście pozwala na natychmiastowe korzyści bez opóźnień lub obaw o prywatność danych, często związanych z przetwarzaniem AI zdalnie.
Kilka aplikacji prezentuje początkowe możliwości Apple Foundation Models. Aplikacja edukacyjna Lil Artist oferuje teraz kreator historii AI. To narzędzie pozwala użytkownikom wybrać postać i motyw, a AI generuje historię na podstawie tych danych, zasilaną w całości przez lokalny model urządzenia. Inny deweloper bada potencjał automatycznego sugerowania emoji dla wpisów w dzienniku planów na podstawie ich tytułów, co mogłoby poprawić organizację wizualną i komunikację w narzędziach planowania.
W sektorze finansowym aplikacja MoneyCoach wprowadziła dwie znaczące funkcje. Obecnie zapewnia użytkownikom spersonalizowane spostrzeżenia dotyczące wydatków, na przykład wskazując, czy wydatki na artykuły spożywcze przekroczyły średnią w danym tygodniu. Dodatkowo, automatyzuje kategoryzację wydatków, upraszczając proces rejestrowania transakcji finansowych. Podobnie, aplikacja do nauki słownictwa LookUp przyjęła modele AI Apple, aby stworzyć nowe tryby nauki. Jeden tryb generuje przykłady kontekstowe dla słów, zachęcając użytkowników do wyjaśnienia ich użycia w zdaniu. Aplikacja wykorzystuje również modele działające na urządzeniu do wizualizacji pochodzenia etymologicznego słów.
Narzędzia produktywności i organizacji również korzystają z tej zlokalizowanej integracji AI. Aplikacja Tasks automatycznie sugeruje tagi dla wpisów, pomaga w wykrywaniu i planowaniu powtarzających się zadań, a także może rozkładać dane wejściowe głosowe na zadania do wykonania bez konieczności połączenia z internetem. Aplikacja do prowadzenia dzienników Automattic, Day One, wykorzystuje modele Apple do wyodrębniania kluczowych informacji i sugerowania tytułów dla wpisów. Ponadto generuje spersonalizowane podpowiedzi zaprojektowane w celu zachęcenia do głębszej refleksji i dłuższego pisania na podstawie istniejącej treści. Te wczesne implementacje podkreślają praktyczne zalety AI działającej na urządzeniu w zwiększaniu zaangażowania użytkowników i efektywności w różnych kategoriach aplikacji.
newsblog.pl
Maciej – redaktor, pasjonat technologii i samozwańczy pogromca błędów w systemie Windows. Zna Linuxa lepiej niż własną lodówkę, a kawa to jego główne źródło zasilania. Pisze, testuje, naprawia – i czasem nawet wyłącza i włącza ponownie. W wolnych chwilach udaje, że odpoczywa, ale i tak kończy z laptopem na kolanach.