박람회를 다녀오게 된 배경

현재 회사에서 불법주정차 통합 플랫폼을 개발하고 있다.

우리 회사는 매년 SECON에서 큰 부스를 차지하고 중요도를 높게 평가하는 회사이다.

타사 제품들과 현재 통합 관제 플랫폼의 현황을 분석하기 위해 다녀왔다.

올해는 현장에서 느낀 것들이 꽤 많아서, 까먹기 전에 정리해보려 한다.

아래 영상은 박람회 현장에서 개인적으로 촬영한 영상들이다.

2026 SECON 세계 보안 박람회 현장 영상

CCTV 통합관제 컨퍼런스

박람회장 외에 컨퍼런스가 따로 개최되어 참석했다.

  1. 지방자치단체 영상정보처리기기 통합관제센터 설치·운영 고시 개정안 발표
  2. 재난·안전 분야 CCTV 등 영상정보 활용 강화 (재난 및 안전관리 기본법 개정 조문)
  3. AI 기반 지방정부 CCTV 관제지원시스템 구축 추진현황 및 사업방향
  4. 동작구 CCTV 통합관제센터 사례
  5. AI 기반 불법통행 오토바이 단속관리 서비스 / 하남시 스마트시티 통합플랫폼 레퍼런스
  6. 제주 드론통합관제플랫폼 현황과 드론 활용 서비스 사례

인상 깊었던 건, 법·제도 정비(세션 1, 2)와 AI 기반 관제 실증(세션 3~6)이 동시에 진행되고 있다는 점이다.

기술만 앞서가는 게 아니라 법적 근거가 함께 마련되고 있다는 신호라고 느꼈다.

박람회장에서 느낀 것들

통합관제 플랫폼, 상향 평준화되고 있다

다양한 업체의 솔루션을 둘러보며 느낀 건, 대부분의 통합관제 플랫폼이 아래 3가지 핵심 기능으로 수렴하고 있다는 것이다.

  1. 오픈 API 기반 CCTV 연동 — 지도 위에 CCTV 위치 마커를 출력하고, 클릭하면 해당 카메라 정보와 영상을 송출
  2. VLM(Vision Language Model)을 통한 이미지 분석 — 영상에서 상황을 인지하고 다음 프로세스를 추천
  3. LLM Agent 연동 — 관련 정보를 응답하고 지도와 인터랙션

이 세 가지가 업계 표준처럼 자리 잡아가고 있었다.

결국 차별화는 이 기반 위에서 "얼마나 깊고 정확한 맥락 분석이 가능한가", 그리고 "얼마나 매끄러운 UX를 제공하는가"에서 갈릴 것이라 본다.

AI를 활용하려는 시도가 정말 많았다

거의 모든 통합관제 플랫폼을 제작하는 업체에서는 AI를 접목하려는 시도가 보였다.

Agent를 연동해 인터랙션을 구현하려고 했고, 카메라와 VLM을 결합한 인물 분석 및 트래킹, LLM을 통한 데이터 필터링 및 분석이 많았다.

카메라 업체의 경우, 열화상 카메라 등 카메라 성능과 기능에 대한 어필을 많이 했고,

출입관리 시스템에서는 얼굴 인식, 카드 기반 인증 등의 기능들이 주류였다.

아쉬웠던 점 — 음성 인터페이스

음성으로 통합관제 플랫폼 내 에이전트를 컨트롤하고 원하는 화면을 표출할 수 있다면 훨씬 임팩트 있었을 것이다.

관제사가 손은 다른 작업을 하면서 "카메라 47번 줌인", "A구역 최근 1시간 영상 재생" 같은 명령을 음성으로 내릴 수 있다면?

실무 효율이 꽤 올라갈 것 같다.

VLM이란 무엇인가

여기서 잠깐, 박람회에서 많이 언급되었던 VLM에 대해 짚고 넘어가자.

VLM(Vision Language Model)은 이미지나 영상을 이해하고 자연어로 설명·판단할 수 있는 AI 모델이다.

기존 컴퓨터 비전(YOLO 등)이 "사람 감지", "차량 감지" 처럼 사전 학습된 특정 태스크만 수행했다면,

VLM은 영상을 보고 맥락을 파악하여 자연어로 상황을 설명할 수 있다.

예를 들어 기존 CV(Computer Vision)는 "person 95%, car 87%"라고 출력하지만,

VLM은 "도로 중앙에 보행자가 서 있으며, 좌측에서 차량이 접근 중입니다. 사고 위험이 있습니다"라고 말해준다.

이 차이가 관제 시스템에서는 엄청나다. 관제사가 영상을 직접 확인하지 않아도 상황을 파악할 수 있게 되니까.

개인적인 아이디어 — 음성 + VLM 관제

박람회를 보며 구상해본 미래 관제 시나리오가 있다.

음성 기반 카메라 인터랙션: 관제 플랫폼에서 현장 카메라의 기능(줌, 각도 이동, 캡처, 녹화)을 음성으로 컨트롤하고, 얻은 영상 정보를 실시간으로 관제 시스템에 전달한다.

멀티 에이전트 업무 분장: 각 기능별로 에이전트의 역할을 분리하면 에이전트별로 업무를 동시다발적으로 진행시킬 수 있고, 관제사의 손이 자유로워지고 멀티태스킹이 가능해진다.

VLM 기반 자동 대응 프로세스: VLM이 영상을 분석해 문제를 인지하고, 해결 방안을 자동으로 리스트업한다. 각 항목을 단계별로 수행한다.

최초인지 → 초기대응 → 진행/종료 → 상황종결 → 사후확인

이 전체 흐름이 자동화되고, 각 단계에서 AI가 분석과 피드백까지 수행하며,

피드백을 바탕으로 프로세스 자체를 개선해 나가는 것.

이것이 국가가 그리는 통합관제의 최종 청사진이 아닐까 싶다.

국내 통합관제, 지금 어디쯤일까?

이 질문에 답하기 위해 통합관제 시스템의 진화를 레벨로 나눠 정리해봤다.

결론부터 말하면, 국내 통합관제는 Level 2에서 Level 3으로 넘어가는 과도기에 있다고 본다.

통합관제 시스템 진화 로드맵

Level 1 — 수동 관제

"사람이 보고, 사람이 판단하고, 사람이 기록한다"

관제사가 CCTV 모니터를 직접 주시하고, 이상 상황을 발견하면 전화나 무전으로 유관 기관에 연락한다.

상황 일지는 수기나 엑셀로 작성하고, 사후 분석은 거의 없다.

관제사 1인당 모니터가 수십 대인데, 사람의 집중력에는 한계가 있으니 사각지대가 생길 수밖에 없다.

Level 2 — 규칙 기반 자동 감지 (현재 주류)

"센서와 규칙이 1차 필터 역할을 한다"

수위 센서, 연기 감지기 같은 IoT 센서가 임계값을 넘으면 알림을 보내고,

YOLO 같은 CV 모델이 "사람 감지", "차량 감지"를 해준다.

하지만 판단과 대응은 여전히 사람의 몫이다.

오탐(False Positive)이 많아 알림 피로가 심하고, 맥락 없이 "감지했다"는 정보만으로는 부족하다.

대부분의 지자체가 이 단계를 운용 중이다.

Level 3 — AI 맥락 분석 + 전 과정 자동화 (현재 진입 중)

"AI가 상황을 이해하고 설명하며, 전 과정이 데이터로 연결된다"

여기서부터가 VLM과 LLM이 본격적으로 활용되는 단계다.

  • 최초 인지: CV가 이상 감지 → VLM이 "하천 수위가 경계 단계를 넘었으며, 인근 도로에 차량 5대가 통행 중입니다" 수준으로 맥락 분석
  • 초기 대응: 상황 유형별 대응 매뉴얼 자동 제시, 유관 기관 자동 알림
  • 진행/종료: AI가 실시간 모니터링하며 악화/호전을 자동 판단
  • 상황 종결: 상황 보고서 자동 생성, 대응 KPI 자동 산출
  • 분석/피드백: 과거 유사 사례와 비교하여 프로세스 개선안 AI가 제안

박람회에서 본 대부분의 AI 관제 솔루션이 이 레벨을 목표로 하고 있었다.

동작구, 하남시 같은 선도 지자체가 실증을 진행 중이고, 법·제도 정비도 병행되고 있다.

Level 4 — 예측 기반 선제 대응

"일어나기 전에 안다"

과거 데이터, 기상 데이터, 실시간 센서를 종합한 재난 예측 모델이 도입된다.

"내일 오후 3시경, A지역 집중호우 예상. 과거 3회 유사 조건에서 B하천 범람 발생. 사전 통제 권고."

관제가 "대응"에서 "예방"으로 전환되는 시점이다.

Level 5 — 멀티모달 통합 인지

"눈(영상), 귀(음향), 피부(센서)를 모두 가진 AI"

CCTV 영상, 음향 센서(비명, 폭발음), IoT(진동, 온도, 가스), SNS 실시간 텍스트, 112/119 신고 음성을 단일 AI가 통합 분석한다.

"CCTV에서 연기 감지 + 음향 센서에서 폭발음 + SNS에서 '폭발' 키워드 3건 → 단순 화재가 아닌 폭발 사고로 판단."

단일 소스의 오탐을 교차 검증으로 줄이고, 박람회에서 아쉬웠던 음성 인터페이스가 이 레벨에서 본격 도입된다.

Level 6 — 자율 대응 시스템

"AI가 직접 행동한다"

AI의 판단으로 사람 승인 없이 즉각 실행할 수 있는 영역이 확대된다.

교통 신호 자동 변경, 전광판 안내 메시지 자동 송출, 드론 자동 출동, 긴급 재난 문자 자동 발송.

사람은 예외 상황과 고위험 의사결정에만 개입한다.

다만, 법적·윤리적 프레임워크가 선행되어야 가능한 단계다.

Level 7 — 디지털 트윈 기반 시뮬레이션

"도시 전체의 복제본 위에서 재난을 미리 겪어본다"

도시 전체를 3D 디지털 트윈으로 구축하고, 재난 시나리오를 실시간 시뮬레이션한다.

"이 지점에서 가스 폭발이 일어나면 반경 200m 내 건물 3동 영향, 대피 경로 A가 30초 빠르지만 노약자 고려 시 B 경로 권고."

실제 재난 발생 시 디지털 트윈 위에 실시간 상황을 오버레이하고, 과거 재난을 리플레이하며 대응 훈련도 가능하다.

Level 8 — 기관 간 완전 연동 + 시민 참여

"소방, 경찰, 지자체, 병원, 시민이 하나의 네트워크"

소방, 경찰, 지자체, 병원, 군, 전력, 가스, 수도 등 모든 유관 기관의 시스템이 실시간 연동된다.

"A병원 응급실 포화 → B병원으로 환자 이송 경로 변경, 해당 경로 신호 체계 자동 조정."

시민의 스마트폰도 센서 역할을 한다. 지진 감지, 현장 영상 업로드, 위치 기반 개인화 대피 안내.

재난이 발생하면 도시 전체가 하나의 유기체처럼 반응하는 환경이다.

Level 9 — 자가 진화 시스템

"시스템이 스스로 학습하고, 스스로 개선한다"

매 재난 대응 후 AI가 자동으로 프로세스를 분석·개선하고 자체 모델을 업데이트한다.

다른 도시, 다른 국가의 사례를 학습해서 로컬 시스템에 반영하기도 한다.

"일본 OO시에서 유사 지진 대응 시 대피 시간 40% 단축. 우리 도시에 적용 시뮬레이션 결과 35% 단축 예상."

도시 인프라가 변하면 대응 계획을 자동 갱신하고, 계절이나 시간대, 행사에 따라 관제 모드를 자동 전환한다.

Level 10 — 재난 제로 환경

"재난이 일어나지 않는 도시"

도시 설계 단계부터 AI가 재난 시뮬레이션을 반영한다.

"이 위치에 건물을 지으면 풍동 효과로 화재 확산 위험 37% 증가. 20m 이격 시 위험 4%로 감소."

인프라 자체가 자가 진단한다. 건물 구조체 센서, 도로 하부 센서, 배관 센서가 균열과 노후화를 감지해서 붕괴나 파열 전에 보수한다.

자율주행 차량은 긴급 상황 시 자동으로 경로를 회피하고, 개인 웨어러블이 심정지나 낙상을 감지하면 즉시 응급 체계가 연동된다.

더 이상 재난에 "대응"하는 시스템이 아니라, 재난을 "방지"하는 시스템. 피해가 0에 수렴하는 환경이다.

레벨 간 핵심 전환점

정리하면 이렇다.

  • L1→L2: 사람의 눈 → 센서/CV가 1차 감지 (대부분의 지자체가 완료)
  • L2→L3: 단순 감지 → AI가 맥락을 이해하고 설명 (현재 과도기, 박람회 트렌드)
  • L3→L4: 사후 대응 → 사전 예측
  • L4→L5: 단일 소스 → 멀티모달 통합 인지 (음성 인터페이스 본격 도입)
  • L5→L6: AI 제안 → AI 직접 실행 (법적 프레임워크 선행 필요)
  • L6→L7: 현실 관제 → 디지털 트윈 시뮬레이션
  • L7→L8: 단일 기관 → 도시 전체 연동
  • L8→L9: 수동 개선 → 자가 진화
  • L9→L10: 재난 대응 → 재난 방지

마치며

이번 SECON을 다녀와서 확인한 건, 업계 전체가 L2에서 L3으로의 전환에 집중하고 있다는 것이다.

VLM과 LLM Agent를 관제 시스템에 접목하는 건 이제 실험이 아니라 제품화 단계에 들어서고 있다.

다만, 대부분의 솔루션이 비슷한 기능 세트(지도 + CCTV + AI 분석)로 수렴하고 있어서 차별화 포인트가 중요해질 것이다.

개인적으로는 음성 인터페이스자동 대응 프로세스의 깊이(최초인지부터 사후확인까지의 완결성)가 그 차별화 축이 될 수 있다고 본다.

현재 진행 중인 불법주정차 통합 플랫폼 프로젝트도 이 맥락에서 보면,

L2 수준의 단속 시스템에 L3 요소(데이터 기반 분석, 카테고리 체계화, 시범 운영 후 피드백)를 도입하는 과정이다.

여기서의 경험이 향후 더 넓은 재난 관제 영역으로 확장될 수 있는 기반이 되지 않을까.

박람회를 다녀오니 시야가 좀 더 넓어진 느낌이다.