국방 AI 혁신…합성데이터에 주목 [긱스]
페이지 정보
작성자최고관리자 댓글댓글 0건 조회조회 475회 작성일 24-06-27 00:06본문
KIDA 국방데이터연구단, 국방 데이터 활용 논의
젠젠에이아이, 합성데이터로 전시 상황 재현
인피닉, 국방 AI 탐지·결심 지원 시스템 개발
국방 분야에서도 인공지능(AI) 도입과 활용을 위해선 관련 데이터가 필수다. 하지만 보안 등의 이유로 국방 분야에선 데이터 확보가 쉽지 않다. 그래서 관련 데이터를 인위적으로 만들어서 활용하는 방법이 최근 주목받고 있다. 업계에선 이를 '합성 데이터'라고 부른다. '바른 과학기술사회 실현을 위한 국민연합'(과실연) AI미래포럼과 한국국방연구원(KIDA) 국방데이터연구단이 지난 20일 주최한 ‘2024년 5차 국방 데이터 혁신 네트워크’에서는 국방 분야에서 활용할 수 있는 합성데이터에 대해서 논의했다. AI 기술 스타트업 젠젠에이아이, AI 플랫폼 전문기업 인피닉이 관련 내용을 발표했다. 이번 행사는 한국IT서비스학회와 모두의연구소가 후원했다.DALL·E
젠젠에이아이, AI로 전시 상황 재현
조호진 젠젠에이아이 대표는 "젠젠에이아이는 도메인 특화 생성형 AI를 자체 개발하고 모빌리티 분야와 방위산업 분야에서 합성 데이터를 만들어서 공급하고 있는 기업"이라고 말했다. 조 대표는 자율주행과 국방 분야를 비교했다. 그는 "자율주행의 합성데이터는 이전부터 시도가 많이 있었다"며 "국내에선 도로에서 수집하는 실제 데이터가 많기 때문에 관련 평가에서 두 가지(자율주행과 국방)를 같이 비교하는 것이 이해하기 쉬울 것 같다"고 설명했다.
그는 "자율주행에서는 차량에 카메라를 달고 실제 데이터를 수집하고 있는데 국가별로 관련 법규와 표지판, 언어도 다르고 사고가 발생할 수 있는 많은 예외 상황이 있다"며 "자율주행은 민간의 재산이나 안전과 관련된 분야이기 때문에 빅데이터 수집이 중요하고"고 말했다. 이어 "자율주행에서 가장 앞선 미국 테슬라도 자율주행 차량이 동물을 제대로 인식하지 못해 사고가 난다"고 덧붙였다.
젠젠에이아이는 자율주행 분야에서 차량 이미지는 유지하면서 맑은 날씨, 비 오는 날, 눈 오는 날, 안개 낀 날, 동물 데이터 등 이미지를 생성해 자동차 제조사나 부품 공급사에 공급하고 있다. 조 대표는 "한 고객사의 중국 사업 프로젝트를 위해 현지에서 수집하기 어려운 중국어 표지판을 고화질, 저화질, 주간과 야간 등 다양한 상황을 설정해 제공했고 정확도는 99% 정도 나왔다"고 말했다. 그는 "이런 기술과 적용 방법이 방위산업에도 가능하다"고 말했다.
조 대표는 "합성 데이터는 이전부터 여러 가지 형태로 존재했고 시장조사업체 가트너는 지금은 우리가 실제 데이터에 많이 의존하고 있지만 조만간 합성 데이터의 사용 비중이 실제 데이터의 몇 배 이상으로 증가할 것이라고 전망했다"고 말했다.
그는 "디지털 트윈 등 다른 기술도 있지만 렌더링 수준이 떨어졌고 이런 결과물로 AI가 학습을 하면 성능도 좋지 않다"고 말했다. 조 대표는 "렌더링을 아무리 영화 수준까지 잘 해도 관련 성능은 20~30% 정도 떨어진다는 연구 결과도 있다"고 덧붙였다. 그는 "그래서 젠젠에이아이는 실제 센서 데이터에서 데이터 분포의 특성을 이용해 가능한 사실적인 데이터를 만들려고 한다"고 강조했다.
조 대표는 "아무리 많은 데이터를 투입해도 오히려 성능이 떨어지는 경우가 있기 때문에 데이터는 가능하면 적용할 곳과 관련이 있어야 하고 양도 충분히 하고 질적으로도 좋아야 한다"고 말했다. 이어 "사람 데이터가 들어가는 경우에는 유럽에선 GDPR(개인정보보호법) 때문에 수집을 못하는 문제가 있어 실제 데이터 수집 없이 이런 데이터를 잘 만드는 것도 중요하다"고 지적했다.
젠젠에이아이는 크게 세 가지 기술을 이용해 빅데이터를 생성을 한다. 첫 번째는 기존에 없는 이미지나 비디오를 텍스트 프롬프트나 이미지 컨디셔닝을 이용해 생성하는 기술이다. 두 번째는 변환 기술이다. 수집된 실제 데이터 등을 계절, 시간, 날씨, 카메라의 종류, 센서의 종류 등의 설정을 바꾸면서 다른 형태의 데이터로 변환하는 것이다. 세 번째는 기존 이미지나 비디오에 쉽게 구하기 어려운 표적이나 물체 등을 합성하는 기술이다.
조 대표는 "사람이 현실에서 수집할 때는 6개월에서 1년 정도 걸리는 데이터를 젠젠에이아이는 GPU를 사용해 생성하면 2주에서 4주 정도 걸린다"고 말했다. 이어 "기간만 더 주어지면 훨씬 더 많은 데이터를 더 다양하고 더 좋은 품질로 생성할 수 있다"고 덧붙였다.
그는 "작년부터 방위산업에 제공하는 데이터는 대공, 대함, 대지 표적에 대해 IR(적외선) 이미지 등 다양하다"며 "표적 명중 평가에 사용되는 폭발 영상, 화염의 연기 등도 생성이 가능하고 바다의 파도 높낮이도 생성된 데이터로 제공할 수 있다"
조 대표는 "도시나 산악 배경으로도 관련 데이터 생성이 가능하고 큰 기체부터 멀리 있는 작은 기체도 만들 수 있다"며 "최근에는 전시 상황에 대한 요청도 많이 들어와 K1 탱크가 폭파된 영상도 생성하고 관련 이미지에서 다양한 형태늬 나무로 위장막을 만들 수도 있다"고 설명했다.
DALL·E
인피닉, AI로 지휘관 판단 지원
박준형 인피닉 대표는 "인피닉은 AI 플랫폼 기업으로 국방 프로젝트도 하면서 합성 데이터를 사용하고 있다"고 설명했다. 인피닉은 AI 관련 데이터 수집·가공 전문업체다. 차량 주변 등의 환경 정보를 정확하게 파악하는 센서 기술 ‘센서 퓨전’, AI 개발 플랫폼 ‘AI 스튜디오’, 영상 데이터 민감정보 비식별화 솔루션 ‘하이디 에이아이(HEIDI AI)’ 등을 개발했다.
인피닉은 최근 AI 솔루션을 새로운 먹거리로 삼아 회사 역량을 집중하고 있다. 특히 국방 AI 사업을 강화하고 있다. 지난해 국방부의 ‘방산혁신기업100’에 선정됐다. 방산혁신기업100은 우주·반도체·AI·로봇·드론 등 국방 신산업 분야를 중심으로 정부가 지난해부터 2026년까지 100여 개의 관련 유망 벤처기업을 육성하는 지원 사업이다. 프로젝트에 선정된 기업은 5년간 최대 50억원 규모의 다양한 지원을 받는다.
박 대표는 "인피닉은 국방에서 AI 기반의 탐지-결심 지원 시스템을 개발을 하고 있다"며 "현재 엣지 3대, 드론 3대를 각각 운영하고 총 9개의 자원도 다루고 있다"고 설명했다. 그는 "엣지 자원을 통해 감시 정찰에서 기본적으로 전방의 상황을 탐지·식별하고 식별된 정보와 엣지에서 라이더를 통해 구성을 한 실시간 맵을 메인 시스템으로 보낸다”
고 말했다. 이어 "이 정보을 통합을 해서 결심 지원을 하고 다양한 상황 보고서도 만들어 지휘관의 지휘 결심도 돕는 시스템이라고 볼 수 있다"고 덧붙였다.
인피닉이 이런 AI 시스템을 구축하면서 고려한 데이터 관련 사항은 크게 네 가지다. 첫 번째는 작은 객체를 탐지하기 위한 데이터가 필요하다. 작은 객체를 탐지를 잘하는 모델이 따로 있다. 두 번째는 정찰 자원에 대한 고려가 필요하다. 박 대표는 "만약 투입 정찰 자원이 드론 다음에 육상에서 움직이는 무인 정찰 로봇이면 AI 측면에서는 다양한 시각에서 데이터를 각각 확보해 분석할 수 있어야 한다"고 설명했다. 세 번째는 식별이다. 박 대표는 "전방 상황에서 맑은 날 30%도 되지 않고 눈에 보이게 이동하는 적도 없다"고 말했다. 네 번째는 다양한 환경 요인에 대한 고려다.
박 대표는 "합성 데이터의 핵심은 실제 데이터의 특성을 모방하는 것"이라며 "수학적 모델을 쓸지, 딥러닝을 쓸지 차이는 있지만 결국은 실제 데이터에서 출발을 해야 한다"고 지적했다. 이어 "결국은 원 데이터와 관련 데이터의 정보를 결합해서 만들어낸다"고 덧붙였다.
박 대표는 합성 데이터는 크게 두 자기 형태가 있다고 설명했다. 증강 형태와 생성 형태다. 박 대표는 "증강형도 장단점이 있는데 오리지널 데이터가 있는 경우에는 AI 딥러닝 기반으로 증강하는 것이 작업 효율성이 높다"고 말했다. 하지만 국방 분야에선 원 데이터가 거의 없다. 박 대표는 "인피닉은 합성 데이터를 직접 만들기 위해 3D 모델을 활용하는 '전장 환경 제너레이터'를 별도로 개발했다"고 밝혔다.
김주완 기자 kjwan@hankyung.com