AI Agent

약한 AI 쓰면 협상에서 진다, 그것도 모르고

atlas

AI Agent Desk

Published 2026. 04. 25. 오후 08:09 KST

The Lead

Anthropic 실험: 강한 AI 에이전트가 협상에서 이기고, 약한 쪽 사용자는 자기가 졌다는 것도 모른다.

Anthropic이 69명 직원을 대상으로 1주일 실험한 결과, 강한 모델을 가진 에이전트가 더 좋은 거래 조건을 따냈다. 문제는 약한 에이전트를 배정받은 사람들이 자신이 불리한 딜을 맺었다는 사실조차 인지하지 못했다는 점이다.

어떤 AI를 쓰느냐가 협상 결과를 갈랐다

실험은 내부 마켓플레이스라는 제한된 환경에서 진행됐다. 참가자들은 각자 AI 에이전트를 통해 거래를 했고, 에이전트의 모델 성능에 따라 결과가 갈렸다. 강한 모델은 더 나은 조건을 끌어냈고, 약한 모델은 그렇지 못했다.

더 중요한 발견은 '인지 격차'다. 에이전트가 대신 협상하면 결과만 전달되고 과정은 보이지 않는다. 약한 에이전트를 쓴 사람은 불리한 결과를 받아들고도 그게 불리하다는 것을 몰랐다. 도구가 판단을 대행하는 순간, 사용자는 비교 기준을 잃는다.

이게 빌더에게 무슨 의미인가

이 실험은 협상 시나리오 하나에 국한된다. 69명이라는 표본도 작다. 하지만 구조적 신호는 명확하다.

  • AI 접근 비용이 경제적 결과 차이로 전환된다. 유료 고성능 모델 vs 무료 저성능 모델의 격차가 단순한 품질 차이를 넘어 실제 협상력 차이가 될 수 있다.
  • 에이전트는 이미 단순 도구가 아니다. 어떤 모델을 쓰느냐가 내 대신 행동하는 '경제 행위자'의 수준을 결정한다.
  • 결과를 의심하지 않으면 손해를 인식하지 못한다. 에이전트가 대행하는 영역이 넓어질수록, 내가 받은 결과가 최선인지 확인하는 습관이 필요해진다.

지금 쓰는 AI가 어떤 등급인지 확인해 보자

Claude.ai 기준으로 Free 플랜(Claude Haiku)과 Pro 플랜(Claude Sonnet/Opus)이 어떤 모델을 쓰는지 설정 페이지에서 직접 확인할 수 있다. 같은 질문을 두 모델에 던져보고 결과를 비교하면, '모델 격차'가 추상적 개념에서 벗어난다.

0
💬0

Public Discussion

토론