WWDC25: Apple zaprezentowało iOS 26. Największy redesign od czasów iOS 7 - nowy „Liquid Glass” interfejs!

Technologie
3410V
iOS26
Maciej Zabłocki | Dzisiaj, 19:46

Podczas keynote otwierającego WWDC 2025 Apple oficjalnie zaprezentowało system iOS 26, który – zgodnie z zapowiedziami – wprowadza największą wizualną zmianę od czasu iOS 7. Nowy interfejs, określany jako „Liquid Glass”, czerpie garściami z estetyki visionOS: pełno w nim przezroczystości, świetlnych efektów, dynamicznych warstw i materiałów przypominających szkło. Apple określa go jako swoją „najszerzej zakrojoną aktualizację designu w historii”.

Prezentację systemu poprzedziło wideo otwierające z Craigiem Federighim w bolidzie F1 – nawiązując do nowego CarPlay i filmu o Formule 1, który zadebiutuje na Apple TV+. Po tym, jak na scenie pojawili się Tim Cook i Craig, ogłoszono oficjalnie zmianę numeracji systemów – wszystkie platformy Apple w 2025 roku będą oznaczone numerem 26: iOS 26, iPadOS 26, macOS 26, watchOS 26, tvOS 26 oraz visionOS 26. Tak, jak spekulowano wcześniej - wszystko się potwierdziło. 

Dalsza część tekstu pod wideo

iOS26 i systemy 26
resize icon

Craig Federighi rozpoczął od prezentacji nowego interfejsu. iOS 26 wprowadza nową warstwę wizualną przypominającą „szklane kafelki” – z dynamicznymi tłami, płynnymi przejściami i przezroczystymi panelami. Toolbary chowają się automatycznie przy scrollowaniu, a nowy system ikon – mimo że odświeżony – zachowuje znajome kształty (i nie są one okrągłe, jak wcześniej spekulowano). Ekran blokady i home screen są bardziej ekspresyjne – tapety mogą dynamicznie reagować na treść, zegar dopasowuje swój układ do grafiki w tle, a zdjęcia mają wyraźny efekt 3D. Nawet albumy muzyczne na ekranie blokady są teraz animowane.

iOS26_1
resize icon

Przeprojektowano też interfejs Safari – z nowym, szklistym paskiem zakładek – oraz uproszczono aplikację Aparatu, w której przełączanie się między zdjęciami, a wideo odbywa się teraz przez prosty gest przesunięcia. Zaawansowane tryby, jak Cinematic czy Panorama, są dostępne w osobnym, rozwijanym menu (wystarczy na dole przesunąć dalej w prawo lub w lewo). Aplikacja Zdjęcia otrzymała z kolei uproszczony układ z podziałem na bibliotekę i albumy – co klienci z pewnością przyjmą z entuzjazmem, jako poprawkę do krytykowanych zmian z zeszłego roku.

W aplikacji Phone zaprezentowano nowy układ: ulubione kontakty są na górze, poniżej historia połączeń i wiadomości głosowych, a Apple Intelligence podpowiada streszczenia z voicemaili (niestety ta funkcja nadal nie będzie dostępna w Polsce). Ten sam styl interfejsu pojawia się również w CarPlay – teraz bardziej spójny, z nowymi widgetami, powiadomieniami na żywo i ciemnym trybem w aplikacjach. To wszystko ma trafić do wersji CarPlay Ultra – czyli systemu przejmującego cały interfejs samochodu.

Apple CarPlay
resize icon

Apple zapowiedziało też pierwsze kroki w kierunku integracji Apple Intelligence – nowej platformy AI. W iOS 26 zobaczyliśmy m.in. funkcje takie jak Genmoji, Image Playground, przetwarzanie tekstu i streszczenia powiadomień. Craig przyznał jednak wprost, że większe zmiany – takie jak nowa Siri – potrzebują więcej czasu i zadebiutują dopiero w przyszłym roku.

Po wprowadzeniu do systemu iOS 26 i nowego interfejsu Liquid Glass, Apple przeszło do funkcji komunikacyjnych. Darin Adler zaprezentował zmiany w aplikacji Telefon. Jedną z ważniejszych nowości jest zaawansowane rozpoznawanie połączeń przychodzących z nieznanych numerów. Dzięki Apple Intelligence, system automatycznie analizuje treść zgłoszenia i prezentuje na ekranie streszczoną informację o celu połączenia – zanim użytkownik zdecyduje, czy chce odebrać. To rozszerzenie dotychczasowego systemu voicemail, z pominięciem konieczności odsyłania rozmówcy na pocztę głosową. Na ekranie połączeń pojawił się też nowy, uproszczony layout.

iOS26_2
resize icon

Następnie Adler przeszedł do aplikacji Wiadomości, która również doczekała się kilku oczekiwanych usprawnień. Do grupowych czatów trafiają długo wyczekiwane ankiety – użytkownicy mogą teraz tworzyć pytania z wieloma opcjami, a uczestnicy rozmowy mogą dodawać własne odpowiedzi. W wiadomościach grupowych pojawiły się też wskaźniki pisania, które dotąd działały tylko w rozmowach jeden na jeden. Co więcej, możliwe jest teraz przesyłanie Apple Cash bezpośrednio w czacie grupowym.

Wprowadzono również nową funkcję wspólnych przestrzeni rozmów – tła konwersacji można dostosować, wybierając z gotowych dynamicznych motywów, własnych zdjęć, a nawet grafik generowanych przez Apple Intelligence. Te zmiany idą w parze z aktualizacjami Genmoji – użytkownicy mogą teraz tworzyć własne emoji, łącząc istniejące z dodatkowymi opisami (np. „mikrofon w cekinowej marynarce”). Image Playground, narzędzie do generowania obrazów, zyskało wsparcie dla zewnętrznych integracji – deweloperzy mogą korzystać z nowego API, a użytkownicy mają dostęp do nowych stylów, m.in. realistycznych grafik, np. do zaproszeń.

Apple Music
resize icon

W dalszej części prezentacji Leslie Ikemoto ogłosiła funkcję "Tłumacza na żywo". Tłumaczenia w czasie rzeczywistym zostały wbudowane bezpośrednio w aplikacje Wiadomości, FaceTime oraz Telefon. W przypadku wiadomości tekstowych tłumaczenie pojawia się nad klawiaturą, jeszcze przed wysłaniem. Podczas rozmów wideo, FaceTime może teraz nakładać na ekran napisy w czasie rzeczywistym, a w zwykłych połączeniach głosowych system tłumaczy wypowiedzi użytkownika po zakończeniu jego kwestii – co może być przydatne np. podczas rezerwowania usług w językach obcych.

Deweloperzy otrzymali dostęp do nowego API umożliwiającego integrację tłumaczenia na żywo we własnych aplikacjach, co otwiera drogę do tłumaczeń w grach, komunikatorach czy aplikacjach edukacyjnych. Po prezentacji zmian w komunikacji i AI, głos ponownie zabrał Craig Federighi, który zapowiedział nowości w usługach – w tym Apple Music, Mapach oraz Portfelu – i przekazał scenę dalej, do Kathy Lin odpowiedzialnej za inżynierię oprogramowania w działach usług.

Apple Gaming
resize icon

Po omówieniu systemowych nowości w iOS 26, Apple przeszło do segmentu usług. Kathy Lin zaprezentowała nowości w Apple Wallet, Apple Maps, Apple Music oraz – po raz pierwszy w tej formie – platformę gier pod nazwą Apple Games.

W aplikacji Portela wprowadzono możliwość tworzenia cyfrowej tożsamości na podstawie paszportu. Nie zastępuje ona dokumentu, ale może być wykorzystywana w sytuacjach wymagających potwierdzenia wieku lub tożsamości – np. na lotniskach czy w hotelach. Portfel potrafi teraz też analizować powiadomienia transakcyjne, niezależnie od tego, czy zakupy były realizowane przez Apple Pay. System automatycznie rozpoznaje treść, porządkuje zamówienia i śledzi przesyłki.

Mapy Apple zyskały funkcję „Odwiedzonych Miejsc" – nową, prywatną historię odwiedzanych lokalizacji. Wszystko działa lokalnie, z szyfrowaniem end-to-end, a dane można w każdej chwili usunąć. System uczy się też codziennych tras użytkownika i reaguje na zmiany w jego rutynie. Nowe opcje tras wieloetapowych mają wspierać codzienne planowanie – np. odwożenie dzieci do szkoły, kawa i dojazd do pracy. Na papierze brzmi to świetnie, ale w Polsce w najbliższym czasie nie będzie dostępne. 

CarPlay_new
resize icon

W Apple Music pojawiła się opcja tłumaczenia tekstów piosenek w czasie rzeczywistym – z przewodnikami wymowy w językach obcych. Dodano też funkcję AutoMix, która automatycznie łączy utwory z dopasowaniem tempa i beatów, tworząc efekt płynnego miksu – przydatne np. na imprezach. W bibliotece muzycznej można teraz przypinać ulubionych wykonawców, albumy i playlisty na samej górze, podobnie jak przypinanie wiadomości czy kontaktów w innych aplikacjach Apple.

Wreszcie przyszła kolej na gry. Apple zaprezentowało nową aplikację Apple Games – centralne miejsce do zarządzania rozgrywką. W zakładce biblioteki użytkownicy zobaczą wszystkie gry, które kiedykolwiek pobrali z App Store – z możliwością szybkiego powrotu. Zakładka „Play Together” umożliwia podgląd tego, w co grają znajomi, ich osiągnięcia i aktualną aktywność. Nowa funkcja Challenges pozwala na rzucanie znajomym wyzwań w ramach tych samych tytułów. Wszystko to spięte jest z Apple Arcade, które zyskało osobną zakładkę.

Zaraz potem Craig Federighi wrócił na scenę, by przedstawić kolejną ważną część ekosystemu Apple Intelligence – tzw. Visual Intelligence. To funkcja rozpoznająca zawartość obrazów na podstawie tego, co widzimy na ekranie lub w kadrze aparatu. Przykład: kierując kamerę na buty, użytkownik może otrzymać szczegółowe informacje o produkcie, linki do sklepów i podobne modele.

Podobnie działa to w przypadku zrzutów ekranu – jeśli zapiszesz grafikę z wydarzeniem, Apple Intelligence rozpozna datę, lokalizację i zaoferuje stworzenie zaproszenia w Kalendarzu. System działa też z zewnętrznymi źródłami. Podczas prezentacji pokazano, jak użytkownik może zrobić screenshot instrumentu (np. mandoliny) i poprosić OpenAI o polecenie piosenek, w których występuje ten instrument. Visual Intelligence integruje się także z API dla deweloperów, dzięki czemu aplikacje firm trzecich mogą korzystać z tych samych rozwiązań rozpoznawania kontekstu wizualnego.

Lada moment dostępna będzie deweloperska wersja beta iOS 26. Publiczna beta pojawi się w lipcu, a oficjalna premiera systemu zapowiedziana jest na wrzesień, razem z nowym iPhonem 17. Więcej szczegółów, informacji i wideo pokazowych znajdziecie na oficjalnej stronie Apple.

Źródło: WWDC25 / Apple

Komentarze (17)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper