Apple kapituluje? Google Gemini oficjalnie staje się mózgiem nowej Siri, a Tim Cook wyciąga czek
Mówiło się o tym po cichu, plotkowało przy porannej kawie w branżowych kuluarach, a Mark Gurman z Bloomberga pisał o tym scenariuszu już w listopadzie zeszłego roku. Teraz jednak otrzymaliśmy oficjalny stempel, który kończy spekulacje. Apple, firma słynąca z obsesyjnej wręcz kontroli nad własnym ekosystemem, przyznaje się do pragmatyzmu graniczącego z kapitulacją. Siri idzie na rehabilitację, a jej głównym terapeutą i protezą zostaje technologia odwiecznego rywala - Google.
W oficjalnym oświadczeniu, które można traktować jako rzadki moment pokory (lub chłodnej kalkulacji biznesowej), Apple potwierdziło, że nadchodząca, odświeżona wersja Siri będzie napędzana przez model językowy Google Gemini. To ruch, który jeszcze kilka lat temu wydawałby się nie do pomyślenia, ale w obliczu wyścigu zbrojeń AI, duma musi ustąpić miejsca surowej mocy obliczeniowej.
Spójrzmy prawdzie w oczy: dotychczasowe wysiłki Apple w dziedzinie sztucznej inteligencji przypominały próbę wygrania wyścigu Formuły 1 przy użyciu solidnego, ale jednak roweru miejskiego. Nowy, "szyty na miarę" model Gemini, który zasili Siri, to potwór osiągający aż 1,2 biliona parametrów. Dla porównania, obecny, autorski model Apple, który napędza asystenta, to zaledwie 1,5 miliarda parametrów.
Joint Statement: Apple and Google have entered into a multi-year collaboration under which the next generation of Apple Foundation Models will be based on Google's Gemini models and cloud technology. These models will help power future Apple Intelligence features, including a…
— News from Google (@NewsFromGoogle) January 12, 2026
Mark Gurman donosił wcześniej, że za ten technologiczny zastrzyk sterydów Apple jest gotowe płacić Google nawet miliard dolarów rocznie. W zamian Siri ma przestać być obiektem żartów, a stać się narzędziem, które faktycznie rozumie, co do niego mówimy. Nowa architektura Apple Intelligence to ciekawy przykład inżynierii hybrydowej. Nie oddano Google'owi wszystkiego. System został podzielony na trzy kluczowe komponenty, z których Gemini przejmuje dwa najbardziej wymagające:
- Query Planner (Planista zapytań): To decyzyjne centrum Siri. Gemini będzie decydować, jak najefektywniej spełnić prośbę użytkownika – czy użyć wyszukiwarki, sięgnąć do kalendarza, czy może wywołać zewnętrzną aplikację.
- Summarizer (Streszczacz): Narzędzie do mielenia tekstu i audio. Podsumowania powiadomień, stron w Safari czy notatek głosowych będą realizowane przez technologię Google.
Apple zachowuje dla siebie tzw. "Knowledge search system", czyli lokalne modele (tzw. Apple Foundation Models), które będą odpowiadać na trywialne pytania i zagadnienia ogólne, nie angażując w to potężnej chmury.
Tim Cook zapewnia, że prace idą zgodnie z planem, a pełna premiera przewidziana jest na ten rok. Wraz z aktualizacją iOS 26.4 (wiosna 2026) mamy otrzymać funkcje, które brzmią jak science-fiction tylko dla kogoś, kto przespał ostatnie dwa lata rozwoju AI, ale dla użytkowników iPhone'ów będą rewolucją:
- On-Screen Awareness: Siri w końcu "zobaczy", co wyświetlamy na ekranie i będzie mogła wchodzić w interakcję z tą treścią.
- Personal Context Awareness: Asystent przestanie być bezużyteczny. Będzie w stanie przekopać nasze wiadomości, by znaleźć ten jeden konkretny podcast, o którym pisał znajomy tydzień temu.
- In-app Actions: Wykonywanie konkretnych akcji wewnątrz aplikacji głosowo, bez konieczności dotykania ekranu.
Komunikat prasowy Apple to majstersztyk korporacyjnej dyplomacji: "Po starannej ewaluacji ustaliliśmy, że technologia Google zapewnia najbardziej kompetentny fundament dla modeli Apple". Tłumacząc z korporacyjnego na nasze: zrobili to lepiej, więc bierzemy to od nich.
Tim Cook nie zamyka jednak drzwi. W swoich wypowiedziach sugeruje, że intencją firmy jest integracja z "większą liczbą partnerów w czasie", co jest wyraźnym ukłonem w stronę standardu MCP i potencjalnej współpracy z graczami takimi jak Anthropic.