(PMO/정보보안팀 Tony님)


AI로 개발하고, AI를 방어한다

LLM과 VLM을 핵심 인프라로 사용하는 우리의 개발 환경에서 보안 위협을 구조적으로 제거하고, 안전한 AI 개발 가이드를 정착시키기까지의 여정

우리는 LLM으로 코드를 짜고, VLM으로 문서를 처리합니다. AI가 개발의 중심이 된 만큼, AI 자체가 공격 경로가 됩니다. 이 글은 우리 팀이 마주한 위협을 정직하게 분석하고, "보안을 내재화한 AI 개발 가이드"를 어떻게 만들었는지 공유합니다.


01. 우리는 어떤 환경에서 일하는가

우리 제품의 핵심은 AI OCR입니다. 고객이 제출한 문서를 VLM이 읽고 LLM이 해석해 구조화된 데이터로 변환하며, 이 과정에서 신분증, 의료 차트 등 민감한 데이터가 대량으로 처리됩니다. 또한 개발자들은 GitHub Copilot, Claude 등을 일상적으로 사용하며 AI와 함께 협업하고 있습니다. 하지만 AI가 생산성의 중심이 된 바로 그 지점이 가장 넓은 공격 표면이 됩니다.

주목해야 할 수치가 있습니다. 간접 프롬프트 인젝션 공격의 성공률은 91%에 달하며, 프롬프트 인젝션은 OWASP LLM Top 10(2025)에서 1위를 차지했습니다. 그럼에도 전용 방어 솔루션을 도입한 기업은 35%에 불과합니다. OpenAI와 영국 NCSC는 이 위협이 완전히 차단될 수 없다고 공식 인정했습니다.


02. 우리가 마주하고 있는 위협들

우리 환경을 위협하는 것은 두 가지입니다. 하나는 AI OCR 파이프라인에 대한 외부 공격, 다른 하나는 AI 개발 도구를 통한 내부 취약점입니다. 두 가지 모두 "AI가 텍스트를 명령으로 실행한다"는 동일한 구조적 결함을 이용합니다.

간접 프롬프트 인젝션 [치명적]