"시리야, 지난주에 에릭이 보낸 아이스 스케이팅 관련 이메일 찾아줘."
이 한 문장이 실제로 작동하는 세상이 온다고 합니다. 올해 안에요.
솔직히 저는 Siri에 대한 기대를 오래전에 접은 사람입니다. "시리야, 타이머 3분"이 Siri와의 대화에서 가장 복잡한 요청이었으니까요. ChatGPT를 쓰면서 "아, 이게 AI 비서지"라는 걸 체감한 뒤로는 더욱 그랬습니다.
그런데 2026년, Apple이 진짜로 Siri를 갈아엎고 있습니다. 이름도 같고 "시리야"로 부르는 것도 같지만, 속은 완전히 다른 물건이 나올 예정이에요. 오늘은 지금까지 공개된 정보를 바탕으로, Apple Intelligence 2026이 정확히 뭘 바꾸는 건지 한 번에 정리해 드리겠습니다.
왜 지금 Apple Intelligence에 주목해야 하나?
지금 AI 비서 시장은 완전히 재편 중입니다. ChatGPT가 모바일 앱을 깔아야 쓸 수 있는 "별도 앱"이라면, Apple Intelligence는 OS 레벨에서 통합되는 AI입니다. 이게 무슨 차이냐면요 — ChatGPT를 쓰려면 앱을 열고, 프롬프트를 입력하고, 결과를 복사해서 다른 앱에 붙여넣어야 합니다. Apple Intelligence는 그냥 "시리야"라고 부르면 이메일에서 사진에서 메시지에서 알아서 찾고, 알아서 실행합니다.
제가 이 주제를 파기 시작한 계기는 단순합니다. 회사에서 아이폰 16 Pro를 쓰고 있는데, 설정 어딘가에 Apple Intelligence 메뉴가 생긴 걸 보고 "이거 뭐가 바뀐 거지?" 싶었거든요. 막상 켜보니 글쓰기 도구나 사진 편집 정도만 있어서 실망했는데, 알고 보니 진짜 핵심 업데이트는 아직 안 나온 거였습니다.
2026년에 추가되는 기능 — 뭐가 달라지나?
1. LLM 기반 Siri: 드디어 "대화"가 되는 시리
기존 Siri는 사실 LLM이 아니었습니다. 미리 정해진 의도(intent)를 매칭하는 방식이라, 조금만 질문이 빗나가면 "웹 검색 결과를 보여드릴게요"가 나왔죠. 이제 그게 바뀝니다.
새 Siri는 대규모 언어 모델(LLM)을 기반으로 동작합니다. Apple이 내부적으로 개발한 Apple Foundation Model을 온디바이스로 돌리고, 더 복잡한 요청은 Private Cloud Compute라는 Apple 서버에서 처리합니다. 그리고 여기에 더해 Google Gemini까지 통합됩니다.
이게 실제로 뭘 의미하냐면:
// 기존 Siri (2025년까지) 사용자: "에릭이 보낸 아이스 스케이팅 이메일 찾아줘" Siri: "검색 결과를 보여드릴게요" (Safari 열림) // LLM Siri (2026년) 사용자: "에릭이 보낸 아이스 스케이팅 이메일 찾아줘" Siri: "에릭이 1월 15일에 보낸 '이번 주말 스케이트 갈래?' 이메일을 찾았어요. 열어볼까요?"ChatGPT처럼 지속적인 대화(multi-turn conversation)도 가능해집니다. "거기에 답장 써줘. 토요일 오후에 된다고"라고 이어 말할 수 있는 거죠.
2. 화면 인식(On-Screen Awareness)
이건 제가 가장 기대하는 기능입니다. Siri가 현재 화면에 표시된 내용을 인식합니다.
예를 들어, 친구가 카카오톡으로 식당 주소를 텍스트로 보내줬다고 해봅시다. 기존에는 주소를 복사해서 지도 앱에 붙여넣어야 했죠. 새 Siri에서는 카카오톡 화면이 열린 상태에서 "여기로 길 찾아줘"라고 말하면 됩니다. Siri가 화면에 있는 주소를 인식하고, 지도 앱으로 바로 안내해줍니다.
개발자 관점에서 보면, 이건 사실상 멀티모달 AI가 OS 레벨에서 동작하는 겁니다. GPT-4V가 스크린샷을 분석하는 것과 비슷한 원리인데, Apple은 이걸 실시간으로, 그것도 프라이버시를 지키면서 하겠다는 거예요.
3. 개인 맥락 인식(Personal Context)
Apple이 가장 강조하는 차별점입니다. Siri가 사용자의 이메일, 메시지, 사진, 파일, 캘린더 등을 연결해서 개인화된 응답을 제공합니다.
"다음 주 출장 일정 정리해줘"라고 하면, 캘린더에서 출장 일정을 찾고, 관련 이메일에서 호텔 예약 정보를 뽑고, 사진에서 여권 사진을 찾아주는 식입니다. 이 모든 처리가 온디바이스 또는 Private Cloud Compute에서 이루어지기 때문에, 데이터가 Apple 서버 외부로 나가지 않는다고 합니다.
솔직히 이 부분은 아직 실제 동작을 확인하지 못해서 반신반의합니다. Apple이 프라이버시를 강조하는 건 좋은데, "모든 걸 온디바이스로"라고 하면서 실제로는 클라우드를 타는 경우가 있으니까요. 이건 나와봐야 알 것 같습니다.
4. 앱 간 작업 자동화(App Intents 확장)
"집으로 가는 길 찾아서 에릭한테 도착 예정 시간 공유해줘."
이 한 문장으로 지도 앱에서 경로를 찾고, 메시지 앱으로 ETA를 보내는 걸 Siri가 한 번에 처리합니다. 기존에는 이런 크로스 앱 작업이 거의 불가능했는데, App Intents 프레임워크가 확장되면서 서드파티 앱도 이 기능을 지원할 수 있게 됩니다.
개발자분들이 주목할 부분은 여기입니다. 본인이 만든 앱에 App Intents를 구현하면, Siri가 자연어로 그 앱의 기능을 호출할 수 있게 되거든요.
// App Intents 예시 — Siri에서 앱 기능을 자연어로 호출 import AppIntents struct OrderCoffeeIntent: AppIntent { static var title: LocalizedStringResource = "커피 주문하기" static var description = IntentDescription("자주 마시는 커피를 주문합니다") @Parameter(title: "커피 종류") var coffeeType: String @Parameter(title: "사이즈") var size: CoffeeSize func perform() async throws -> some IntentResult { let order = try await CoffeeService.placeOrder( type: coffeeType, size: size ) return .result(dialog: "\(order.name) \(order.size) 주문 완료!") } }
5. World Knowledge Answers (WKA) — Apple의 AI 검색
이건 공식적으로 많이 알려지지 않은 기능인데, Apple 내부에서 "World Knowledge Answers"라고 부르는 생성형 AI 검색 엔진을 준비 중입니다. Perplexity나 ChatGPT의 웹 검색과 비슷한 포지션인데, Safari와 Spotlight 검색에 통합될 예정입니다.
"올해 가장 인기 있는 노트북 추천해줘"라고 Siri에게 물으면, 웹을 검색해서 요약된 답변을 생성형 AI로 만들어주는 방식입니다. Google에 직접 경쟁하는 건 아니고 (오히려 Gemini를 써야 하는 입장이니까), Perplexity 같은 AI 검색 서비스와 경쟁하게 될 것 같습니다.
Google Gemini 통합 — 왜 Apple이 구글 손을 잡았나?
이게 2026년 Apple Intelligence에서 가장 논쟁적인 부분입니다.
Apple은 자체 Apple Foundation Model을 갖고 있지만, 복잡한 추론 작업에서는 한계가 있었습니다. 그래서 Google의 Gemini 모델을 통합하기로 결정했습니다. 1.2조 개 파라미터 규모의 Gemini 모델이 Private Cloud Compute를 통해 동작한다고 합니다.
여기서 핵심은 프라이버시 구조입니다. Apple이 강조하는 건 "Google이 사용자 데이터에 접근할 수 없다"는 점이에요. Private Cloud Compute라는 Apple 자체 서버 인프라에서 Gemini가 돌아가기 때문에, 사용자의 이메일이나 사진 데이터가 Google로 전송되지 않는다고 합니다.
구분 Apple Foundation Model Google Gemini (통합) 처리 위치 온디바이스 (iPhone/Mac) Private Cloud Compute 용도 간단한 요약, 텍스트 생성 복잡한 추론, 멀티모달 분석 프라이버시 기기 밖으로 안 나감 Apple 서버에서 처리, Google 접근 불가 속도 빠름 (로컬 처리) 상대적으로 느림 (네트워크 필요) 파라미터 비공개 (소규모 추정) 1.2T 파라미터 솔직히 말하면, "Google이 데이터에 접근 못 한다"는 주장은 기술적으로는 가능하지만, 장기적으로 비즈니스 관계가 어떻게 변할지는 지켜봐야 합니다. 지금은 Apple이 통제권을 쥐고 있지만, Google 입장에서 1.2조 파라미터 모델을 공짜로 굴려주지는 않을 테니까요.
출시 일정 — 언제 쓸 수 있나?
여기가 좀 복잡합니다. Apple이 원래 계획을 몇 번이나 수정했거든요.
버전 예상 시기 주요 기능 iOS 26.4 2026년 3~4월 LLM Siri 첫 도입, 기본 대화 기능 iOS 26.5 2026년 5월 화면 인식, 개인 맥락 인식 일부 iOS 27 2026년 9월 (WWDC 이후) 전체 기능 완성, 챗봇 모드, WKA 원래는 iOS 26.4에서 Gemini 기반 기능까지 한꺼번에 나올 예정이었는데, 최근 보도에 따르면 일부 기능이 iOS 26.5나 iOS 27로 밀렸습니다. Apple답다면 Apple다운 행보입니다. "될 때까지 안 내놓는다"는 전략이니까요.
한국어 지원은 어떨까요? 현재 Apple Intelligence는 iOS 26.1부터 한국어로 글쓰기 도구와 이미지 생성 기능을 지원하고 있습니다. LLM Siri의 한국어 지원 시점은 아직 공식 발표가 없지만, 영어 출시 후 3~6개월 뒤에 추가될 가능성이 높습니다.
장점 3가지
1. OS 레벨 통합 — 별도 앱이 필요 없다
이게 Apple Intelligence의 가장 큰 무기입니다. ChatGPT나 Gemini 앱을 따로 설치하고 전환할 필요 없이, 어디서든 "시리야"로 바로 접근 가능합니다. 락스크린에서, 홈 화면에서, 앱 안에서 — 맥락이 끊기지 않는 AI 경험은 현재 다른 어떤 모바일 AI도 못 하고 있습니다.
2. 프라이버시 아키텍처
온디바이스 처리 + Private Cloud Compute라는 이중 구조는 프라이버시 관점에서 현재 가장 앞선 설계입니다. 개인 데이터를 Google이나 OpenAI 서버로 보내지 않고도 고성능 AI를 쓸 수 있다는 건 기업 사용자에게 특히 매력적입니다.
3. 앱 생태계 확장성
App Intents를 통해 서드파티 앱이 Siri와 자연스럽게 연동될 수 있습니다. 이건 개발자에게 큰 기회입니다. "시리야, 배민에서 지난번 주문 다시 시켜줘" 같은 게 기술적으로 가능해지는 거니까요.
단점 3가지
1. 지원 기기 제한
Apple Intelligence의 전체 기능은 iPhone 15 Pro 이상에서만 동작합니다. iPhone 15 기본 모델이나 그 이전 기기는 대부분의 기능을 쓸 수 없어요. AI 기능 때문에 폰을 바꿔야 하나 고민하게 만드는 부분입니다.
2. 출시 일정의 불확실성
2024년 WWDC에서 발표한 기능이 2026년 봄에야 나옵니다. 거의 2년이 걸린 거예요. 그 사이에 ChatGPT, Claude, Gemini 앱은 계속 진화했고, 사용자들은 이미 다른 AI 도구에 익숙해졌습니다. "너무 늦은 건 아닌가"라는 우려가 현실적입니다.
3. 타사 AI 대비 성능 미지수
Apple Foundation Model의 실제 성능은 아직 아무도 확인하지 못했습니다. Gemini를 통합하긴 하지만, ChatGPT나 Claude와 직접 비교했을 때 어느 수준일지 알 수 없습니다. 특히 코딩이나 복잡한 분석 작업에서는 전용 LLM 앱이 여전히 우위일 가능성이 높습니다.
누구에게 추천하나?
이런 분이라면 추천 여부 이유 iPhone 15 Pro 이상 사용자 추천 추가 비용 없이 자동 업데이트로 사용 가능 프라이버시를 중시하는 분 강력 추천 온디바이스 처리 + Private Cloud Compute 이미 ChatGPT/Claude 파워유저 보류 기존 워크플로우보다 나은지 확인 필요 Android 사용자 해당 없음 Apple 생태계 전용 iOS 앱 개발자 강력 추천 App Intents 통합으로 앱 가치 상승 기회
정리하며 — 기대 반, 걱정 반
솔직히 말해서, Apple Intelligence 2026은 "기대 반, 걱정 반"입니다.
기대하는 이유는 명확합니다. AI가 OS에 녹아들면 사용 경험이 완전히 달라집니다. 앱을 열고 프롬프트를 치는 게 아니라, 그냥 말로 하면 되니까요. 특히 화면 인식과 앱 간 자동화가 제대로 작동하면, 지금까지 ChatGPT로는 절대 할 수 없었던 일들이 가능해집니다.
걱정되는 이유도 있습니다. Apple은 늘 "우리는 완벽할 때 내놓는다"고 하지만, 이번에는 시장이 너무 빠르게 움직이고 있습니다. 2년 전에 발표한 기능을 이제야 출시하는 사이에, 경쟁자들은 이미 다음 세대로 넘어갔거든요.
그래도 한 가지 확실한 건 있습니다. Apple이 LLM Siri를 출시하는 순간, 전 세계 수억 명의 아이폰 사용자가 "AI 비서"를 일상에서 쓰게 됩니다. 지금까지 ChatGPT를 써본 적 없는 사람들도요. 그 파급력만큼은 다른 어떤 AI 서비스도 흉내 낼 수 없을 겁니다.
iOS 26.4 베타가 나오면 바로 써보고 후속 리뷰를 올릴 예정입니다. 기대 사항이나 궁금한 점이 있으시면 댓글로 남겨주세요.
내부 링크:
- NotebookLM 실전 활용법: PDF 50개를 10분 만에 요약하는 방법 (Apple의 WKA와 비교할 수 있는 Google의 AI 요약 도구)
- Claude Opus 4.6 vs GPT-5.3 Codex — 같은 날 출시된 두 AI, 뭐가 다를까? (Apple이 통합을 검토한 LLM들의 성능 비교)