Apple kapituluje? Google Gemini oficjalnie staje się mózgiem nowej Siri, a Tim Cook wyciąga czek

Technologie
359V
Apple i Gemini
Maciej Zabłocki | Dzisiaj, 10:45

Mówiło się o tym po cichu, plotkowało przy porannej kawie w branżowych kuluarach, a Mark Gurman z Bloomberga pisał o tym scenariuszu już w listopadzie zeszłego roku. Teraz jednak otrzymaliśmy oficjalny stempel, który kończy spekulacje. Apple, firma słynąca z obsesyjnej wręcz kontroli nad własnym ekosystemem, przyznaje się do pragmatyzmu graniczącego z kapitulacją. Siri idzie na rehabilitację, a jej głównym terapeutą i protezą zostaje technologia odwiecznego rywala - Google.

W oficjalnym oświadczeniu, które można traktować jako rzadki moment pokory (lub chłodnej kalkulacji biznesowej), Apple potwierdziło, że nadchodząca, odświeżona wersja Siri będzie napędzana przez model językowy Google Gemini. To ruch, który jeszcze kilka lat temu wydawałby się nie do pomyślenia, ale w obliczu wyścigu zbrojeń AI, duma musi ustąpić miejsca surowej mocy obliczeniowej.

Dalsza część tekstu pod wideo

Spójrzmy prawdzie w oczy: dotychczasowe wysiłki Apple w dziedzinie sztucznej inteligencji przypominały próbę wygrania wyścigu Formuły 1 przy użyciu solidnego, ale jednak roweru miejskiego. Nowy, "szyty na miarę" model Gemini, który zasili Siri, to potwór osiągający aż 1,2 biliona parametrów. Dla porównania, obecny, autorski model Apple, który napędza asystenta, to zaledwie 1,5 miliarda parametrów.

Mark Gurman donosił wcześniej, że za ten technologiczny zastrzyk sterydów Apple jest gotowe płacić Google nawet miliard dolarów rocznie. W zamian Siri ma przestać być obiektem żartów, a stać się narzędziem, które faktycznie rozumie, co do niego mówimy. Nowa architektura Apple Intelligence to ciekawy przykład inżynierii hybrydowej. Nie oddano Google'owi wszystkiego. System został podzielony na trzy kluczowe komponenty, z których Gemini przejmuje dwa najbardziej wymagające:

  • Query Planner (Planista zapytań): To decyzyjne centrum Siri. Gemini będzie decydować, jak najefektywniej spełnić prośbę użytkownika – czy użyć wyszukiwarki, sięgnąć do kalendarza, czy może wywołać zewnętrzną aplikację.
  • Summarizer (Streszczacz): Narzędzie do mielenia tekstu i audio. Podsumowania powiadomień, stron w Safari czy notatek głosowych będą realizowane przez technologię Google.

Apple zachowuje dla siebie tzw. "Knowledge search system", czyli lokalne modele (tzw. Apple Foundation Models), które będą odpowiadać na trywialne pytania i zagadnienia ogólne, nie angażując w to potężnej chmury.

Tim Cook zapewnia, że prace idą zgodnie z planem, a pełna premiera przewidziana jest na ten rok. Wraz z aktualizacją iOS 26.4 (wiosna 2026) mamy otrzymać funkcje, które brzmią jak science-fiction tylko dla kogoś, kto przespał ostatnie dwa lata rozwoju AI, ale dla użytkowników iPhone'ów będą rewolucją:

  • On-Screen Awareness: Siri w końcu "zobaczy", co wyświetlamy na ekranie i będzie mogła wchodzić w interakcję z tą treścią.
  • Personal Context Awareness: Asystent przestanie być bezużyteczny. Będzie w stanie przekopać nasze wiadomości, by znaleźć ten jeden konkretny podcast, o którym pisał znajomy tydzień temu.
  • In-app Actions: Wykonywanie konkretnych akcji wewnątrz aplikacji głosowo, bez konieczności dotykania ekranu.

Komunikat prasowy Apple to majstersztyk korporacyjnej dyplomacji: "Po starannej ewaluacji ustaliliśmy, że technologia Google zapewnia najbardziej kompetentny fundament dla modeli Apple". Tłumacząc z korporacyjnego na nasze: zrobili to lepiej, więc bierzemy to od nich.

Tim Cook nie zamyka jednak drzwi. W swoich wypowiedziach sugeruje, że intencją firmy jest integracja z "większą liczbą partnerów w czasie", co jest wyraźnym ukłonem w stronę standardu MCP i potencjalnej współpracy z graczami takimi jak Anthropic.

Źródło: WCCFTech

Komentarze (6)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper