"시리야, 내일 회의 준비해줘." 캘린더를 확인하고, 관련 이메일을 찾고, 브리핑 노트까지 만들어주는 Siri. 공상과학이 아니에요. 2026년 3월, iOS 26.4와 함께 현실이 됩니다.
이게 뭔데?
2026년 1월, Apple과 Google이 공동 성명을 발표했어요. 핵심은 이거예요 — 차세대 Apple Foundation Models를 Google의 Gemini 기술 위에 구축한다. 쉽게 말해, Siri의 두뇌가 Gemini로 바뀌는 거예요.
왜 이게 큰 뉴스냐면요. Apple은 원래 "우리가 다 만든다"는 회사잖아요. 칩도, OS도, 앱도. 그런 Apple이 AI만큼은 직접 만들기를 포기하고 Google 손을 잡았어요. Bloomberg 보도에 따르면 연간 약 10억 달러(약 1.4조 원) 규모의 계약이에요.
사실 Apple의 AI 고군분투는 어제오늘 일이 아니에요. 2024년 WWDC에서 "Apple Intelligence"를 발표하면서 Siri 대폭 업그레이드를 약속했지만, 내부 하이브리드 아키텍처(레거시 시스템 + LLM)가 테스트 케이스의 약 1/3에서 실패하면서 계속 지연됐어요. 결국 AI 총괄이었던 John Giannandrea가 보직 변경되고, Craig Federighi(소프트웨어 수장)와 Mike Rockwell(Vision Pro 리드)이 프로젝트를 인수했죠.
Tim Cook은 이렇게 설명했어요: "이건 협업이라고 생각하시면 돼요. 우리는 독자적으로 계속 자체 작업도 할 거지만, 개인화된 Siri를 구동하는 건 Google과의 협업이에요." 중요한 건, 사용자 입장에서는 아무것도 안 변해요. Google 로고 같은 건 안 보여요. Siri는 여전히 Siri예요 — 다만 속이 완전히 달라지는 거죠.
뭐가 달라지는 건데?
기존 Siri의 가장 큰 문제는 뭐였을까요? "알겠습니다, 웹 검색 결과입니다"로 끝나는 허무한 답변. Gemini 기반 Siri는 근본부터 달라요. 키워드를 파싱하는 게 아니라 맥락을 이해하는 통합 LLM 코어로 완전히 재구축됐어요.
| 기존 Siri | Gemini 기반 Siri (iOS 26.4+) | |
|---|---|---|
| 이해력 | 키워드 매칭, 단순 명령 파싱 | 맥락·뉘앙스 이해, 대명사 추적 |
| 태스크 | 단일 앱, 단일 동작 | 멀티스텝, 크로스앱 자동화 |
| 개인 맥락 | 거의 없음 | 이메일·메시지·사진·캘린더 참조 |
| 화면 인식 | 불가 | 현재 화면 내용 인식 + 액션 |
| 응답 속도 | 1~3초 | 0.5초 이내 |
| 프라이버시 | 온디바이스 + 클라우드 | 온디바이스 + Private Cloud Compute 유지 |
Craig Federighi는 이렇게 말했어요: "이번 파트너십 덕분에 우리가 원래 발표했던 것보다 훨씬 더 큰 업그레이드를 제공할 수 있는 위치에 서게 됐습니다."
구체적으로 어떤 게 가능해지냐면요:
- "에릭이 아이스 스케이팅 얘기한 이메일 찾아줘" — 키워드 없이 맥락만으로 이메일을 찾아요.
- "이 주소를 에릭 연락처에 추가해" — 문자 메시지 화면을 보고 주소를 인식해서 연락처 앱에 저장해요.
- "이 사진 좀 보정해서 메모 앱에 넣어줘" — 사진 편집 후 다른 앱으로 이동해서 작업을 완료해요.
- "내 여권 번호 뭐야?" — 사진에 저장된 여권 이미지에서 번호를 읽어와요.
아직 풀챗봇은 아니에요
iOS 26.4의 Siri는 장기 기억이나 긴 대화 기능은 빠져 있어요. 진짜 챗봇 수준의 대화는 iOS 27(2026년 9월)에서 제공될 예정이에요. 또한 일부 고급 기능은 내부 테스트에서 품질 이슈가 발견되어 iOS 26.5(5월)로 밀릴 수 있다는 보도도 있어요.
근데 왜 하필 Google이야?
Apple이 검토한 후보는 여럿이었어요. OpenAI와는 이미 ChatGPT 연동을 하고 있었고, Anthropic(Claude)도 거론됐죠. 그런데 최종 선택은 Google이었어요. 이유가 있어요:
- 기술력: Gemini 3가 GPT-4.5와 동급 또는 우위의 벤치마크 성적
- 인프라: 수십 년간의 검색·YouTube 인프라, 자체 AI 칩(TPU), 수십억 쿼리 처리 실적
- 프라이버시: Apple의 Private Cloud Compute에서 구동 가능한 아키텍처
- 기존 관계: Safari 기본 검색 엔진 계약으로 이미 연간 수십억 달러를 주고받는 사이
- 가격 경쟁력: OpenAI 대비 더 효율적인 비용 구조
이 딜의 여파로 OpenAI의 ChatGPT 모바일 점유율은 69.1%에서 45.3%로 하락했고, Gemini는 14.7%에서 25.1%로 급등했어요. Fortune은 이 딜을 "Google이 AI 경쟁에서 승기를 잡았다는 신호"로 분석했어요.
핵심만 정리: 시작하는 법
- 내 아이폰 호환 확인
iPhone 15 Pro 이상이 필요해요. 이전 모델에서는 일부 기능만 지원될 수 있어요. - iOS 26.4 업데이트
2026년 3월 출시 예정이에요. 설정 → 일반 → 소프트웨어 업데이트에서 바로 받을 수 있어요. - Apple Intelligence 활성화
설정 → Apple Intelligence & Siri에서 기능을 켜세요. 언어 설정이 영어(미국)로 되어 있어야 초기에는 모든 기능이 동작해요. - 간단한 멀티스텝 명령 테스트
"내일 회의 일정 확인해서 관련 이메일 찾아줘" 같은 2단계 이상의 요청을 해보세요. 기존 Siri와의 차이를 바로 체감할 거예요. - 크로스앱 자동화 활용
"이 사진 보정해서 메모 앱에 넣어줘" 같은 앱간 연동 명령을 시도해보세요. Siri가 앱을 넘나들며 작업을 처리해요.
개발자라면 App Intents 대비하세요
서드파티 앱도 Siri의 크로스앱 자동화에 참여할 수 있어요. Apple의 App Intents 프레임워크를 통해 앱의 액션을 Siri에 노출하면, 사용자가 음성으로 여러분의 앱 기능을 호출할 수 있게 돼요.




