이 문제에 정통한 소식통에 따르면 Apple은 ChatGPT를 포함하되 이에 국한되지 않는 차세대 운영 체제에서 "Apple Intelligence"에 대해 사용자가 선호하는 타사 인공 지능 모델을 선택할 수 있도록 허용할 계획입니다. Bloomberg 기자 Mark Gurman은 Apple이 올 가을 출시된 iOS 27, iPadOS 27 및 macOS 27용 시스템 수준 인터페이스를 개발 중이라고 보고했습니다. 이를 통해 외부 챗봇이 Apple의 AI 기능 중 다수에 액세스하고 구동할 수 있습니다.

기존 계획에서는 이러한 타사 모델을 시스템 내에서 "확장 프로그램"이라고 합니다. Siri의 대화 기능을 대신할 수 있을 뿐만 아니라 쓰기 도구 및 이미지 놀이터(이미지 생성)와 같은 Apple Intelligence 기능에 대한 기본 모델 지원도 제공합니다. 이는 사용자가 시스템의 쓰기 지원, 이미지 생성 및 기타 기능을 호출할 때 Apple 자체 모델과 다른 제조업체의 모델 사이를 자유롭게 전환하여 보다 개방적인 AI 기능 조합을 형성할 것으로 예상된다는 것을 의미합니다.
보고서에서는 또한 Apple이 사용자가 다양한 AI 모델에 대해 서로 다른 Siri 음성을 지정할 수 있도록 테스트하고 있다고 지적했습니다. 예를 들어, Apple이 자체 개발한 모델을 기반으로 Siri를 구동하는 경우 하나의 음성 세트를 사용할 수 있으며, ChatGPT 또는 기타 타사 모델을 기반으로 Siri를 실행하는 경우 다른 음성으로 전환하여 사용자가 일상 사용에서 현재 실행 중인 AI 세트를 직관적으로 구분할 수 있습니다.
노출된 정보에 따르면, 향후 사용자는 관련 서비스 제공자가 App Store 애플리케이션을 통해 이 확장 메커니즘에 적극적으로 적응하고 "선택"하는 경우 "액세스를 선택한 AI 모델 서비스 제공자"에서 시작할 수 있습니다. 호환되는 AI 앱이 설치되면 사용자는 이를 시스템 설정에서 선호하는 AI 모델로 설정하여 Apple Intelligence의 모든 곳에서 기본 선택으로 설정할 수 있습니다.
Mark Gurman은 Apple이 이미 Google 및 Anthropic과 같은 회사와 모델 통합 솔루션을 테스트하고 있다고 말했습니다. 그 중에서도 Google의 모델은 Apple의 다가오는 Siri 개편을 위한 핵심 기반 기술 중 하나로 간주되며, 이번 확장 계획은 이러한 협력을 시스템의 더 넓은 AI 사용 시나리오로 더욱 확장합니다. 현재 Apple은 OpenAI의 ChatGPT를 Apple Intelligence에 통합했지만 공식적으로 연결된 유일한 타사 모델이었습니다. 이러한 "단일 공급업체" 상태는 분명히 더 이상 Apple이 미래에 추구할 최종 방향이 아닙니다.
위 계획이 예정대로 진행되면 iOS 27 및 동일한 시리즈 시스템은 "내장형 ChatGPT 액세스 전용"에서 "병렬 다중 모델, 사용자 선택 가능"의 개방형 아키텍처로 전환됩니다. 이는 사용자에게 더 큰 자유를 제공할 뿐만 아니라 터미널 측 AI 생태계에서 Apple의 플랫폼 역할을 더욱 강화할 것입니다. 자체 통합 클라우드 서비스를 직접 제공하지 않고, 시스템 수준 진입을 통해 다양한 AI 모델 제조업체에 통합 액세스 채널을 제공할 예정이다.