"시리야, 내일 회의 준비해줘." 캘린더를 확인하고, 관련 이메일을 찾고, 브리핑 노트까지 만들어주는 Siri. 공상과학이 아니에요. 2026년 3월, iOS 26.4와 함께 현실이 됩니다.

3초 요약
Apple + Google 계약 Gemini가 Siri 엔진으로 멀티스텝 태스크 처리 크로스앱 자동화 iOS 26.4 출시

이게 뭔데?

2026년 1월, Apple과 Google이 공동 성명을 발표했어요. 핵심은 이거예요 — 차세대 Apple Foundation Models를 Google의 Gemini 기술 위에 구축한다. 쉽게 말해, Siri의 두뇌가 Gemini로 바뀌는 거예요.

왜 이게 큰 뉴스냐면요. Apple은 원래 "우리가 다 만든다"는 회사잖아요. 칩도, OS도, 앱도. 그런 Apple이 AI만큼은 직접 만들기를 포기하고 Google 손을 잡았어요. Bloomberg 보도에 따르면 연간 약 10억 달러(약 1.4조 원) 규모의 계약이에요.

사실 Apple의 AI 고군분투는 어제오늘 일이 아니에요. 2024년 WWDC에서 "Apple Intelligence"를 발표하면서 Siri 대폭 업그레이드를 약속했지만, 내부 하이브리드 아키텍처(레거시 시스템 + LLM)가 테스트 케이스의 약 1/3에서 실패하면서 계속 지연됐어요. 결국 AI 총괄이었던 John Giannandrea가 보직 변경되고, Craig Federighi(소프트웨어 수장)와 Mike Rockwell(Vision Pro 리드)이 프로젝트를 인수했죠.

~$1B/년
Apple→Google 계약 규모
1.2T
파라미터 수 (8배 증가)
92%
복잡 명령 성공률

Tim Cook은 이렇게 설명했어요: "이건 협업이라고 생각하시면 돼요. 우리는 독자적으로 계속 자체 작업도 할 거지만, 개인화된 Siri를 구동하는 건 Google과의 협업이에요." 중요한 건, 사용자 입장에서는 아무것도 안 변해요. Google 로고 같은 건 안 보여요. Siri는 여전히 Siri예요 — 다만 속이 완전히 달라지는 거죠.

뭐가 달라지는 건데?

기존 Siri의 가장 큰 문제는 뭐였을까요? "알겠습니다, 웹 검색 결과입니다"로 끝나는 허무한 답변. Gemini 기반 Siri는 근본부터 달라요. 키워드를 파싱하는 게 아니라 맥락을 이해하는 통합 LLM 코어로 완전히 재구축됐어요.

기존 Siri Gemini 기반 Siri (iOS 26.4+)
이해력 키워드 매칭, 단순 명령 파싱 맥락·뉘앙스 이해, 대명사 추적
태스크 단일 앱, 단일 동작 멀티스텝, 크로스앱 자동화
개인 맥락 거의 없음 이메일·메시지·사진·캘린더 참조
화면 인식 불가 현재 화면 내용 인식 + 액션
응답 속도 1~3초 0.5초 이내
프라이버시 온디바이스 + 클라우드 온디바이스 + Private Cloud Compute 유지

Craig Federighi는 이렇게 말했어요: "이번 파트너십 덕분에 우리가 원래 발표했던 것보다 훨씬 더 큰 업그레이드를 제공할 수 있는 위치에 서게 됐습니다."

구체적으로 어떤 게 가능해지냐면요:

  • "에릭이 아이스 스케이팅 얘기한 이메일 찾아줘" — 키워드 없이 맥락만으로 이메일을 찾아요.
  • "이 주소를 에릭 연락처에 추가해" — 문자 메시지 화면을 보고 주소를 인식해서 연락처 앱에 저장해요.
  • "이 사진 좀 보정해서 메모 앱에 넣어줘" — 사진 편집 후 다른 앱으로 이동해서 작업을 완료해요.
  • "내 여권 번호 뭐야?" — 사진에 저장된 여권 이미지에서 번호를 읽어와요.

아직 풀챗봇은 아니에요

iOS 26.4의 Siri는 장기 기억이나 긴 대화 기능은 빠져 있어요. 진짜 챗봇 수준의 대화는 iOS 27(2026년 9월)에서 제공될 예정이에요. 또한 일부 고급 기능은 내부 테스트에서 품질 이슈가 발견되어 iOS 26.5(5월)로 밀릴 수 있다는 보도도 있어요.

근데 왜 하필 Google이야?

Apple이 검토한 후보는 여럿이었어요. OpenAI와는 이미 ChatGPT 연동을 하고 있었고, Anthropic(Claude)도 거론됐죠. 그런데 최종 선택은 Google이었어요. 이유가 있어요:

  • 기술력: Gemini 3가 GPT-4.5와 동급 또는 우위의 벤치마크 성적
  • 인프라: 수십 년간의 검색·YouTube 인프라, 자체 AI 칩(TPU), 수십억 쿼리 처리 실적
  • 프라이버시: Apple의 Private Cloud Compute에서 구동 가능한 아키텍처
  • 기존 관계: Safari 기본 검색 엔진 계약으로 이미 연간 수십억 달러를 주고받는 사이
  • 가격 경쟁력: OpenAI 대비 더 효율적인 비용 구조

이 딜의 여파로 OpenAI의 ChatGPT 모바일 점유율은 69.1%에서 45.3%로 하락했고, Gemini는 14.7%에서 25.1%로 급등했어요. Fortune은 이 딜을 "Google이 AI 경쟁에서 승기를 잡았다는 신호"로 분석했어요.

핵심만 정리: 시작하는 법

  1. 내 아이폰 호환 확인
    iPhone 15 Pro 이상이 필요해요. 이전 모델에서는 일부 기능만 지원될 수 있어요.
  2. iOS 26.4 업데이트
    2026년 3월 출시 예정이에요. 설정 → 일반 → 소프트웨어 업데이트에서 바로 받을 수 있어요.
  3. Apple Intelligence 활성화
    설정 → Apple Intelligence & Siri에서 기능을 켜세요. 언어 설정이 영어(미국)로 되어 있어야 초기에는 모든 기능이 동작해요.
  4. 간단한 멀티스텝 명령 테스트
    "내일 회의 일정 확인해서 관련 이메일 찾아줘" 같은 2단계 이상의 요청을 해보세요. 기존 Siri와의 차이를 바로 체감할 거예요.
  5. 크로스앱 자동화 활용
    "이 사진 보정해서 메모 앱에 넣어줘" 같은 앱간 연동 명령을 시도해보세요. Siri가 앱을 넘나들며 작업을 처리해요.

개발자라면 App Intents 대비하세요

서드파티 앱도 Siri의 크로스앱 자동화에 참여할 수 있어요. Apple의 App Intents 프레임워크를 통해 앱의 액션을 Siri에 노출하면, 사용자가 음성으로 여러분의 앱 기능을 호출할 수 있게 돼요.