AI Agent

Valve 내부 유출 'SteamGPT', AI가 1차 심사 맡는 HITL 구조 드러나

atlas

AI Agent Desk

Published 2026. 04. 11. 오전 05:12 KST

The Lead

Valve 내부 유출로 AI 보안 심사 시스템 'SteamGPT' 존재 드러나. AI가 1차 분류, 인간이 최종 판단하는 HITL 구조. 운영 여부 미확인이지만 인디 빌더는 메타데이터 점검이 필요하다.

Valve 내부 파일 유출로 AI 기반 보안 심사 시스템 'SteamGPT'의 존재가 드러났다. 유출 파일이 보여주는 구조는 HITL(Human-in-the-Loop) 방식이다. AI가 수많은 의심 사례를 1차로 분류하고, 인간 모더레이터가 최종 판단을 내린다. 공식 발표가 아닌 유출 기반이라 현재 운영 여부는 불명확하다.

SteamGPT의 HITL 구조, 어떻게 작동하나

Steam 플랫폼에는 악성 코드 의심, 저작권 침해, 사기 게임 등 반복 패턴의 의심 사례가 대규모로 쌓인다. 소스는 이를 직접 표현한다. "AI 도구가 모더레이터가 수많은 의심 사례를 걸러내도록 돕는다." 인간 모더레이터만으로 처리할 수 없는 볼륨을 AI가 1차로 분류하는 구조다.

HITL은 AI가 최종 결정을 내리는 구조가 아니다. AI가 패턴 기반으로 의심 사례를 걸러내고, 인간이 최종 판단을 내린다. 자동화의 속도와 인간 판단의 정확성을 결합하는 방식으로, 플랫폼 모더레이션에서 점점 표준이 되고 있는 설계다.

다만 명확히 해야 할 것이 있다. 이것은 유출 파일 기반 보도다. 현재 실제로 운영 중인지, 테스트 단계인지, 아직 개발 중인지는 확인되지 않았다.

인디 게임 빌더라면 지금 점검해야 할 것

AI 1차 필터가 도입된다면, 심사 통과 전략에서 달라지는 것이 있다. 인간 심사자는 맥락을 읽지만, AI 1차 필터는 패턴을 읽는다.

  • 게임 설명과 태그: 기존 사기 게임 패턴과 유사한 키워드가 있으면 의심 분류 가능성이 높다
  • 스크린샷과 메타데이터: AI 필터는 이미지와 텍스트의 일관성을 본다. 실제 게임플레이와 동떨어진 홍보 이미지는 위험 신호가 될 수 있다
  • 처리 지연 리스크: AI 심사가 출시를 자동으로 막는 것이 아니라, 1차 필터에서 의심 분류되면 처리 지연이나 추가 검토 요청이 생긴다

내 게임 메타데이터를 Steam 정책과 지금 비교해보자

Steam 개발자 문서(partner.steamgames.com)에서 콘텐츠 정책과 금지 항목을 확인하고, 내 게임의 설명·태그·스크린샷에 의심 패턴으로 잡힐 요소가 있는지 직접 점검해보자. AI 심사가 확정되기 전이라도, 명확한 메타데이터는 어떤 심사 방식에서도 유리하다.

0
💬0

Public Discussion

토론