AI한테 물어봤는데 답이 좀 찜찜했던 적 있잖아요. "진짜 맞아?" 싶어서 ChatGPT에도 물어보고, Claude에도 물어보고, Gemini에도 물어보고. 이제 그 삼중 검증을 Perplexity가 알아서 해줘요. AI 3개를 동시에 돌려서, 합의하면 확신을 주고, 의견이 갈리면 경고를 띄워요.
이게 뭔데?
2026년 2월 5일, Perplexity가 Model Council이라는 기능을 출시했어요. 이름 그대로 "모델들의 회의"예요. 질문 하나를 던지면 Claude Opus 4.6, GPT-5.2, Gemini 3.0 — 이 세 모델이 동시에 답을 만들어요. 그리고 네 번째 모델("의장")이 세 답변을 비교 분석해서, 어디서 의견이 일치하고 어디서 갈리는지를 정리한 통합 답변을 내놓아요.
왜 이런 걸 만들었을까요? AI 모델마다 잘하는 게 다르거든요. GPT는 창의적 종합에 강하고, Claude는 논리적 분석에 강하고, Gemini는 실시간 웹 데이터에 강해요. 한 모델만 쓰면 그 모델의 편향(bias)에 갇히는데, 세 모델을 교차 검증하면 사각지대가 줄어들어요. Perplexity 팀은 이걸 "cross-validation reduces blind spots"라고 표현해요.
재밌는 건, 이게 단순 비교가 아니라는 점이에요. 세 모델의 답변이 일치하면 — 그건 신뢰 신호(confidence signal)예요. 서로 다른 학습 데이터와 추론 방식으로 같은 결론에 도달했으니까요. 반대로 답변이 갈리면 — 그건 경고 신호예요. 질문이 모호하거나, 데이터가 불확실하거나, 추론 경로가 충돌한다는 뜻이거든요.
합의 = 확신, 불일치 = 주의
Model Council의 핵심 로직이에요. 세 AI가 같은 말을 하면 빠르게 결정하고, 의견이 갈리면 더 파고들라는 신호로 읽으면 돼요. 투자 리서치나 중요한 의사결정에서 특히 유용해요.
현재 Perplexity Max 구독자($200/월) 전용이고, 웹에서만 사용 가능해요. 모바일은 곧 지원 예정이에요. 비싸다고 느낄 수 있지만, 매번 세 AI 서비스를 직접 오가며 비교하는 시간을 생각하면 — 의사결정의 품질과 속도를 동시에 올려주는 도구예요.
뭐가 달라지는 건데?
지금까지 AI 검색은 "하나의 모델에 하나의 질문"이었어요. 구글에 물어보든, ChatGPT에 물어보든, Perplexity에 물어보든 — 결국 한 모델의 시각으로 본 답이었죠. Model Council은 이걸 근본적으로 바꿔요.
| 기존 AI 검색 | Perplexity Model Council | |
|---|---|---|
| 모델 수 | 1개 (선택한 모델만) | 3개 동시 + 1개 합성 |
| 편향 검증 | 사용자가 직접 교차 확인 | 자동 교차 검증 + 불일치 표시 |
| 신뢰도 판단 | 출처 링크로 간접 확인 | 모델 합의율로 직관적 판단 |
| 소요 시간 | 3개 서비스 각각 질문 (10분+) | 한 번에 완료 |
| 결과 형태 | 개별 답변 (비교는 내가) | 합의/불일치 구조화된 리포트 |
다른 AI 검색 도구들과도 비교해볼게요. SE Ranking의 2,000건 쿼리 벤치마크에 따르면, AI 검색 도구별 특성이 꽤 달라요.
| AI 검색 도구 | 응답률 | 평균 인용 수 | 핵심 강점 |
|---|---|---|---|
| Perplexity | 99.95% | 5.01개 | 정확한 출처, 다중 모델 검증 |
| ChatGPT Search | 99.90% | 10.42개 | 풍부한 인용, 긴 분석 |
| Google AI Overview | 58.15% | 9.26개 | 검증된 도메인 우선 |
| Bing Copilot | 72.60% | 3.13개 | 간결한 답변 |
Perplexity의 응답률(99.95%)과 ChatGPT(99.90%)는 거의 동일하지만, 접근법이 전혀 달라요. ChatGPT는 "생성 우선(generation-first)"이라 풍부한 텍스트를 만들어내는 데 강하고, Perplexity는 "검색 우선(retrieval-first)"이라 외부 소스에 근거한 답변에 강해요. Model Council은 여기에 "검증 레이어"를 하나 더 얹은 거예요 — 여러 모델이 동일한 근거에 도달하는지 확인하는 거죠.
한계도 있어요
세 모델이 같은 학습 데이터를 공유하는 영역에서는, 합의가 "정확성"이 아니라 "공유된 오류"일 수 있어요. 또한 최종 합성을 하는 의장 모델이 결국 하나의 모델이기 때문에, 합성 과정에서 편향이 생길 여지도 있어요. 쿼리가 세 곳의 AI 벤더를 거치면서 데이터 프라이버시 범위가 넓어지는 점도 고려해야 해요.
핵심만 정리: 시작하는 법
- Perplexity Max 구독
perplexity.ai에서 Max 플랜을 구독해요. $200/월 또는 $2,000/년. Model Council은 Max 전용이에요. - 웹에서 Model Council 선택
Perplexity 홈 화면에서 검색창 옆 (+) 버튼을 누르고 "Model Council"을 선택해요. 현재 웹에서만 가능하고, 모바일은 곧 지원 예정이에요. - 질문 입력 → 결과 확인
질문을 입력하면 Claude, GPT, Gemini가 동시에 작동해요. 합성된 답변에서 합의 영역(초록)과 불일치 영역을 확인하세요. - 불일치가 보이면 더 파고들기
모델들이 의견이 갈리는 부분이 바로 더 조사해야 할 포인트예요. 해당 부분만 개별 모델로 다시 Deep Research를 돌려보세요. - 의사결정에 활용
투자 리서치, 전략 분석, 팩트 검증 등 "틀리면 비용이 큰" 질문에 우선 적용해보세요. 일상적인 검색은 일반 Pro Search로 충분해요.




