“AI와 API 보안을 ADC에 맡겨야 하는 이유”

2025-04-29

[인터뷰] 이진원 F5 APCJ 선임 보안 솔루션 아키텍트

“마이크로서비스아키텍처(MSA) 도입으로 기업의 앱 자체의 모습이 변했다. 하지만 앱의 모습이 바뀌었다고 ADC가 필요없어진 건 아니다. 오히려 ADC는 앱과 웹을 연결하고, 앱의 API 통신 트래픽을 모니터링할 수 있는 가장 효과적인 위치에 있다. 기업이 내외부의 생성형 AI를 활용하는데, 모던 앱과 AI 활용의 보안에서 ADC보다 좋은 위치에 있는 건 없다.”

이진원 F5 APCJ 선임 솔루션 아키텍트(상무)는 최근 <바이라인네트워크>와 인터뷰에서 기업의 AI 및 API 보안 문제를 설명하며 이같이 밝혔다.

이진원 상무는 “API 보안은 그 중요도에 비해 회색지대에 있기 때문에 간과되기 쉽다”며 “우리가 사용하는 모든 앱의 대부분은 API로 이뤄지고 있으므로, 그 보안을 간과하면 큰 문제를 초래할 수 있다”고 말했다.

이 상무는 “생성형 AI의 경우도 생산성 향상 효과는 누구나 잘 인지하고 있지만, 그 이면에 숨겨진 보안 위험성은 잘 생각하지 못할 수 있다”며 “AI 보안 위협은 API 보안과 연결되며 함께 고민해야 할 문제”라고 강조했다.

F5는 이달초 차세대 애플리케이션전송컨트롤러(ADC)를 출시하면서, 기존 ADC에 보안을 통합한 ‘ADC 3.0’이라고 설명했다. ‘F5 ADSP(F5 Application Delivery and Security Platform)’라 불리는 이 플랫폼은 고성능 로드밸런싱과 트래픽 관리를 제공하면서, 고급 앱 및 API 보안 기능을 함께 제공한다.

이 플랫폼은 API 기반으로 설계돼 모든 애플리케이션에서 벌어지는 API 통신을 관리한다. 고성능 로드 밸런싱, 멀티클라우드 네트워킹, 완전한 웹 애플리케이션 및 API 보안, AI 게이트웨이 등의 기능을 제공한다. 전체 환경에 일관된 정책을 적용할 수 있다.

F5 AI 게이트웨이는 애플리케이션, API 및 대규모 언어 모델(LLM) 간의 연계를 간소화하고 기업의 AI 도입을 촉진할 수 있도록 지원한다. 컨테이너 기반의 이 솔루션은 성능, 가시성, 보안 기능을 최적화함으로써 비용 절감을 실현한다. AI 게이트웨이는 데이터 출력 품질을 개선하고 뛰어난 사용자 경험을 제공하며, 운영 및 보안 팀이 AI 서비스를 원활하게 도입할 수 있도록 지원한다.

기업의 현대 애플리케이션은 컨테이너 기반의 마이크로서비스아키텍처(MSA)를 주로 채택하고 있다. 각 독립된 마이크로서비스가 서로 연동돼 API 호출로 작동한다. 최근 생성형 AI가 기업 애플리케이션에 녹아들면서, 모던 앱은 내외부로 복잡한 API 연결망을 갖게 됐다.

F5의 2025 애플리케이션 전략 보고서에 따르면 96%의 기업들이 AI 모델을 배포하고 있는 것으로 나타났다. 보고서는 또한 3년 내에 전체 애플리케이션의 80%가 AI를 활용할 것으로 예측하고 있다. AI 도입이 확산되고 있지만, 대부분의 기업은 AI 애플리케이션에 내재된 방대한 데이터, 복잡한 트래픽 패턴, 그리고 새로운 보안 위협을 효과적으로 처리할 준비가 돼 있지 않다.

이진원 상무는 “모던 앱 내부의 여러 컨테이너가 다른 컨테이너를 호출하고, 기업 내 데이터에 접근할 때도 API를 활용하고 있다”며 “외부의 사용자가 앱을 이용하면서 발생하는 익스터널 API와, 서비스와 서비스가 내부에서 발생시키는 인터널 API 모두를 다 이해하고 가시성을 가져야 보안이 가능하다”고 설명했다.

그는 “여기에 AI까지 들어가면, 더 복잡해진다”며 “이전엔 관문만 지키면 되는 보안이었지만, 이제 외부 AI 모델이 기업 내부 데이터에 접근해야 하는 상황”이라고 덧붙였다.

F5의 SDSP는 기업 내외부의 통신에서 가교 위치에 있다. 애플리케이션이 작동하는 과정에서 벌어지는 모든 트래픽이 ADC를 오가는 가운데, 그 트래픽의 80%는 API 통신이다. 기업의 생성형 AI 활용도 결국 모델의 API를 불러와 이뤄지게 되므로 ADC에서 이 부분까지 관리할 수 있다면 보안 강화를 위한 효과적 대책을 마련하게 된다는 게 F5의 아이디어다.

다만, 트래픽 처리와 API 보안, AI 게이트웨이까지 한 지점에서 수행하면 오버헤드를 일으키지 않을까. 이에 대해 이진원 상무는 “과거와 달리 트래픽의 90%가 SSH 암호화되고 있기 때문에 어디선가 복호화를 처리해줘야 한다”며 “복호화 포인트를 여기저기로 분산하기보다 한쪽에서 수행하는 게 보안 디자인 관점에서 더 나을 수 있다”고 설명했다.

기업의 생성형 AI 활용을 도식화하면, 사용자가 활용하는 프론트엔드 앱, 대형언어모델(LLM)과 LLM 오케스트레이션 엔진으로 구성된 AI 서비스 등이 있다. AI 서비스는 모델 학습을 위한 데이터세트에 접근해서 지식을 쌓고, 사용자의 질문에 LLM 오케스트레이션 엔진을 통해 기업 내부 저장소의 데이터에 접근해서 역량을 증강한다.

이때 기업의 AI 생태계에 내재된 잠재적인 보안 위협은 3종류다. 일단, 사용자와 프론트엔드 앱 사이의 트래픽이다. 다른 하나는 프론트엔드 앱과 AI 서비스, 그리고 훈련 데이터와 기업 내부 데이터 사이의 API 트래픽이다. 마지막 하나는 AI 서비스 요소들이 각각의 요청에 응답한 값의 트래픽이다.

이진원 상무는 “질문을 넣는 창 자체는 판단하는 로직을 갖지 않지만 일종의 웹애플리케이션이기 때문에 보안 위협에 노출될 수 있다”며 “그 뒤의 AI 서비스가 학습 데이터와 참조 데이터를 접근하는 구조 속에서 API 보안을 강구해야 한다”고 설명했다.

이 상무는 “그리고 LLM 보안인데, OWSP에서 정의한 여러 AI 보안 위협 유형인 프롬프트 인젝션, 민감 데이터 노출 같은 새로운 위협에 대비해야 한다”고 덧붙였다.

프롬프트 창의 보안은 기존의 웹방화벽이나 분산서비스공격(DDOS) 방어, 봇 탐지 등의 기술로 대응할 수 있다. API와 LLM 보안의 경우 별도 보안 요소가 필요하고, F5의 ADSP가 활용될 수 있다.

AI 게이트웨이는 AI 제공자나 생태계에서 오가는 API 연결을 보호하고 관리하는 역할이다. 멀티 LLM 라우팅, 비용 가시성, 데이터 보호, 리스크 완화 제어 등의 기능이 제공된다. 사용자의 요청에 가장 적합한 모델을 활용하게 하고, 요청과 답변의 토큰 수를 제어해 비용을 통제하며, 잘못된 정보의 입력과 출력을 방지하는 기능이다.

이 상무는 “AI의 가드레일을 우회해 할 수 없는 답을 하게 만드는 걸 비즈니스 로직 어택이라고 볼 수 있다”며 “상황마다 질문의 옳고 그름을 판단하는 게 달라지는데, 일반적으로 폭력이나 성폭력, 폭탄제조법처럼 일반적 기준에서 허용불가능한 건 라마 가드란 데이터베이스를 연동할 수 있고, 특정 기업 상황마다 다른 기준은 AI 게이트웨이에서 제공하는 소프트웨어개발도구(SDK)를 이용해 필요한 모듈을 개발할 수 있다”고 설명했다.

AI를 포함한 현대 앱에서 보안 정책은 어떻게 가져가는 게 효율적일까. 이 상무는 굵직한 보안 정책을 ADC로 적용하면서 보안팀에서 관리하고, 마이크로서비스 각각에 대한 세부적인 특정 정책을 별도로 구성하길 추천했다.

API 관리는 오래전부터 존재해온 영역이다. F5는 왜 굳이 API 보안을 강조하고 있을까. 이는 기업 IT 조직의 역할 구분과 시스템 관리책임 소재에서 비롯된 것이다.

그는 “기존의 API 관리 솔루션이나 API 게이트웨이의 경우 보안으로 점점 영역을 넓히고 있지만, 엄밀히 말해 API 보안이란 화두의 등장 자체가 기존 API 솔루션에서 보안의 약점을 드러냈다는 걸 의미한다”며 “매니지먼트나 게이트웨이는 디자인적으로 라우팅이나 버전 관리 같은 역할에 집중돼 있고 개발운영팀에서 관리하므로, 보안팀이 들어가서 보안 정책을 수정하거나 업데이트하기 어렵다”고 말했다.

그는 “API 관리를 개발자가 하는 상황에서 보안 전문가는 API 가시성을 갖지 못하다보니 많은 기업이 API 보안을 회색지대라고 부른다”며 “보안 전문가가 실제로 관리하고 모니터하면서 가시성을 가져갈 수 있는 전문화된 방식이 필요하다는 것이고, 새로운 걸 추가하기보다 기존의 ADC를 활용한다면 네트워크를 복잡하게 만들지 않고도 보안과 가시성을 만들 수 있다고 F5는 생각한다”고 강조했다.

AI 보안은 어느새 성큼 현실로 다가온 문제다. 실제로 심각한 AI 보안 침해 사례가 나타나고 있다.

이 상무는 “유명 글로벌 보안 기업에서 사용하던 IT 자동화 도구가 해킹 당한 사례가 있다”며 “직원의 IT 요청을 받아 자동으로 처리하는 AI 챗봇 솔루션을 이용했는데, 필수적으로 매우 높은 권한을 가진 키로 회사 내부 데이터에 접근하게 했다”고 말했다.

이어 “해커가 시스템에 들어가 AI에게 할당된 API 키를 훔쳤고, 모든 데이터에 접근했다”며 “생성형 AI는 필연적으로 생산성 향상 때문에 데이터 접근 권리를 갖게 되지만, 그 다음에 일어날 보안 문제를 간과하기 쉽다”고 덧붙였다.

글. 바이라인네트워크

<김우용 기자>yong2@byline.network

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.