(PMO/정보보안팀 Tony님)
LLM과 VLM을 핵심 인프라로 사용하는 우리의 개발 환경에서 보안 위협을 구조적으로 제거하고, 안전한 AI 개발 가이드를 정착시키기까지의 여정
우리는 LLM으로 코드를 짜고, VLM으로 문서를 처리합니다. AI가 개발의 중심이 된 만큼, AI 자체가 공격 경로가 됩니다. 이 글은 우리 팀이 마주한 위협을 정직하게 분석하고, "보안을 내재화한 AI 개발 가이드"를 어떻게 만들었는지 공유합니다.
우리 제품의 핵심은 AI OCR입니다. 고객이 제출한 문서를 VLM이 읽고 LLM이 해석해 구조화된 데이터로 변환하며, 이 과정에서 신분증, 의료 차트 등 민감한 데이터가 대량으로 처리됩니다. 또한 개발자들은 GitHub Copilot, Claude 등을 일상적으로 사용하며 AI와 함께 협업하고 있습니다. 하지만 AI가 생산성의 중심이 된 바로 그 지점이 가장 넓은 공격 표면이 됩니다.
주목해야 할 수치가 있습니다. 간접 프롬프트 인젝션 공격의 성공률은 91%에 달하며, 프롬프트 인젝션은 OWASP LLM Top 10(2025)에서 1위를 차지했습니다. 그럼에도 전용 방어 솔루션을 도입한 기업은 35%에 불과합니다. OpenAI와 영국 NCSC는 이 위협이 완전히 차단될 수 없다고 공식 인정했습니다.
우리 환경을 위협하는 것은 두 가지입니다. 하나는 AI OCR 파이프라인에 대한 외부 공격, 다른 하나는 AI 개발 도구를 통한 내부 취약점입니다. 두 가지 모두 "AI가 텍스트를 명령으로 실행한다"는 동일한 구조적 결함을 이용합니다.