Home > Current Issue > Vol. 22, No. 2


Automatic Extraction Method of Control Point Based on Geospatial Web Service 지리공간 웹 서비스 기반의 기준점 자동추출 기법 연구

Author: Young Rim Lee*Affiliation: *Member, Agency for Defense Development
Address: yrlee@add.re.kr

Journal Information
Journal ID (publisher-id): KOGSIS
Journal : Journal of the Korean Society for Geospatial Information System
ISSN: 1598-2955 (Print)
ISSN: 2287-6693 (Online)
Publisher: Korean Society for Geospatial Information System
Article Information
Received Day: 08 Month: 04 Year: 2014
Accepted Day: 10 Month: 06 Year: 2014
Print publication date: Month: 06 Year: 2014
Volume: 22 Issue: 2
First Page: 17 Last Page: 24
Publisher Id: KOGSIS_2014_v22n2_17
DOI: https://doi.org/10.7319/kogsis.2014.22.2.017

Abstract

This paper proposes an automatic extraction method of control point based on Geospatial Web Service. The proposed method consists of 3 steps. 1) The first step is to acquires reference data using the Geospatial Web Service. 2) The second step is to finds candidate control points in reference data and the target image by SURF algorithm. 3) By using RANSAC algorithm, the final step is to filters the correct matching points of candidate control points as final control points. By using the Geospatial Web Service, the proposed method increases operation convenience, and has the more extensible because of following the OGC Standard. The proposed method has been tested for SPOT-1, SPOT-5, IKONOS satellite images and has been used military standard data as reference data. The proposed method yielded a uniform accuracy under RMSE 5 pixel. The experimental results proved the capabilities of continuous improvement in accuracy depending on the resolution of target image, and showed the full potential of the proposed method for military purpose.

Abstract, Translated

본 논문에서는 지리공간 웹 서비스 기반의 기준점 자동 추출 기법을 제안한다. 제안하는 기법은 3단계로 구성된다.1) 첫 번째 단계에서는 지리공간 웹 서비스를 통해 대상영상의 촬영지역에 해당하는 기준자료를 자동으로 획득하고, 2) 두 번째 단계에서는 획득된 기준자료와 대상영상에 SURF 알고리즘을 적용하여 후보 기준점을 찾는다. 3)마지막 단계에서는 RANSAC 알고리즘을 이용하여 추출된 후보 기준점 중 정 정합점을 최종 기준점으로 산출한다. 제안하는 기법은 기준자료를 획득하기 위해 지리공간 웹 서비스를 활용하였다. 이를 통하여 제안하는 기법은 기준영상과 고도자료의 관리 및 획득 시 사용자 편의성을 증대 시켰고, 표준을 따르기 때문에 높은 확장성을 가진다.본 논문에서는 제안하는 기법을 SPOT-1, SPOT-5, IKONOS 위성영상에 적용하여 실험을 수행하였다. 실험지역에 적용한 결과, 제안하는 기법은 대상영상의 촬영센서, 촬영일자, 해상도 변화에도 RMSE 5화소 미만의 일관된 정확도를 산출하였고, 대상영상의 해상도가 좋아짐에 따라 정확도의 지속적인 향상 가능성을 확인하였다. 또한 기준영상과 고도자료로 군 표준 자료를 사용함으로써 제안하는 기법의 군사적 활용가능성을 확인하였다.


Keywords: Control Point, Automatic Extraction, WMS(Web Map Service), WCS(Web Coverage Service), Geospatial Web Service, 기준점, 자동추출, 웹맵서비스, 웹커버리지서비스, 지리공간 웹 서비스

1. 서 론

지구관측센서의 해상도가 급격히 향상되고 영상의 종류도 다양해지고 있다. 이러한 다양한 영상들이 군사적으로, 공공적으로 활용되기 위해서는 지리공간상의 좌표가 부여되어야 하며 이를 위한 기하보정이 필수적으로 수행되어야 한다. Direct Georeferencing을 제외한 엄밀기하보정을 위해서는 지상기준점 확보가 필요하며 이러한 지상기준점 좌표 획득은 작업자의 전문성, 많은 시간과 노력이 요구된다.(Gianinetto and Scaioni, 2008) 따라서 자동으로 대상영상에서 지상기준점을 관측하는 방법이 필요하다.

기존의 연구에서는 영상간 정합을 통하여 자동으로 기준점(control point)을 추출하였다. 이에 사용된 정합방법은 크게 영역기반 정합과 특징점 기반 정합으로 분류된다. 영역기반 정합을 사용한 Kang et al.(2003)과 Kim and Im(2003)의 연구에서는 기 구축된 지리좌표를 가진 협소한 영역의 기준 패치 영상 데이터베이스를 활용하여 기준영상을 가져와 대상영상과 영역기반 정합을 통하여 기준점을 추출하였다. Baillarin et al. (2005) 연구에서는 지리좌표를 가지는 정사영상을 대상영상의 촬영 센서의 위치, 자세, 고도 등의 기하학적 모델과 해당지역의 지형에 맞추어 가공하고, 이렇게 재가공한 영상(simulated image)을 기준영상으로 사용하여 대상영상과 영역기반 정합을 수행하였다. 일반적으로 영역기반 정합은 기준영상과 대상영상 간 촬영시점, 촬영각도, 촬영센서 등 영상 특성이 유사해야만 올바른 기준점을 추출할 수 있다.

특징점 기반 영상정합은 대상영상과 기준영상의 특징점(feature)을 추출한 후, 특징점을 불변하는 서술자(descriptor)로 표현하여 서술자간 유사정도를 비교하거나 특징점 간의 공간적 관계(공간적 분포 혹은 특징점간 거리)가 유사한 특징점을 기준점으로 추출하는 방법이다.(Zitova and Flusser, 2003) Bouchiha and Besbes (2013)연구에서는 SURF(Speed-Up Robust Features) 알고리즘(Bay et al., 2006)을 통하여 특징점을 추출하고, 서술자를 생성하여 두 영상간 서술자 비교를 통하여 가장 유사한 서술자를 기준점으로 추출하였다. Han et al.(2011)의 연구에서는 SIFT(Scale Invariant Feature Transform) 알고리즘(Lowe, 2004)을 통하여 특징점을 추출하고 특징점 간 공간적 관계를 제안하는 유사성 평가방법으로 비교하여 기준점을 추출하였다. Guo et al. (2010)의 연구에서는 향상된 버전의 해리스 코너(Harris Corner) 알고리즘을 통해 특징점을 추출하고, 대상영상과 기준영상의 특징점 간 영역기반 정합을 수행하여 기준점을 추출하였다. 기준점 추출의 전체 과정을 자동화한다는 관점에서 이러한 기존의 연구는 대상영상의 촬영영역에 대한 기준영상을 자동으로 획득하는 방법이 제시되어 있지 않다. 또한 기존 연구에서는 기준영상으로 일반 영상을 사용하여 기존 방법을 평가하였을 뿐, 군 표준 지형영상을 대상으로는 수행되지 않았다. 이 때문에 군사적 활용을 목적으로 하는 시스템에서는 기존 방법의 적용가능성을 판단하기 어렵다.

본 논문은 지리공간 웹 서비스(Geospatial Web Service)를 활용하여 사람의 개입 없이 자동으로 기준점을 추출하는 기법을 제안한다. 본 논문에서 제안하는 기법은 크게 4단계로 구성된다. 첫 번째 단계는 자동 기준자료 획득을 위한 지리공간 웹 서버 구축단계이고, 두 번째 단계는 대상영상의 촬영지역에 해당하는 기준영상과 고도자료를 지리공간 웹 서비스를 통해 자동으로 획득하는 단계이다. 세 번째 단계는 영상의 크기와 방향성에 강건한 SURF 알고리즘을 이용하여 후보 기준점을 추출하는 단계 이고, 네 번째 단계는 RANSAC(RANdom SAmple Consensus) 알고리즘(Fischler and Bolles, 1981)을 통하여 이전 단계에서 추출된 많은 수의 후보 기준점 중 최종 기준점을 추출하는 단계이다. 본 논문에서 제안하는 기법을 통하여 산출된 기준점의 정확도 평가를 위해서 자동 추출된 기준점을 활용한 센서 모델 정확도와 기존 수작업에 의해 산출된 기준점을 활용한 센서 모델 정확도를 비교해 봄으로써 본 논문에서 제안하는 기법의 활용가능성을 평가하였다.


2. 지리공간 웹 서비스 기반 자동 기준점 추출

본 논문에서 제안하는 기법은 Fig. 1과 같은 처리 과정에 따라 수행되고, 크게 4단계로 구성된다.

1) 지리공간 웹 서버 구축 단계: 본 단계는 기준자료를 지리공간 웹 서비스를 통하여 획득 가능하도록 지리공간 웹 서버를 구축하고, 지리공간 웹 서버에 기준자료를 등록하는 단계이다.
2) 기준자료 획득 단계 : 본 단계는 대상영상의 촬영영역에 대해 지리공간 웹 서버로부터 해당 영역의 기준영상과 고도자료를 요청하여 획득하는 단계이다.
3) 영상 정합 단계 : 이 단계에서는 대상영상과 기준영상 간 특징점 기반 정합을 수행한다. 이 단계는 두 영상간 정합점에 대해서 대상영상의 영상좌표, 기준영상의 지리좌표(위경도), 고도자료로부터의 고도값을 하나의 세트로 기준점을 산출한다.
4) 기준점 추출 단계 : 이 단계에서는 RANSAC 알고리즘을 통하여 후보 기준점들 중에 오정합 점을 제거하여 최종 기준점을 추출한다.


Figure 1. 
Process of the proposed method

2.1 지리공간 웹 서버 구축

지리공간 웹 서버 구축 단계는 본 논문에서 제안하는 기법의 사전 준비 단계로써, 지리공간 웹 서버을 구축하고, 기준자료 등록을 수행하는 단계이다.

우선, 기준자료란 기준영상과 고도자료로 구분된다. 기준영상이란 기존에 정밀 지리보정된 고해상도 정사영상으로써 기준점의 지리좌표를 제공하는 역할을 한다. 고도자료는 지표면을 3차원으로 수치 모델링한 자료로써 지형의 표고 값을 표현한 자료이다.

이러한 기준자료를 저장, 관리, 제공하기 위한 방법으로 본 논문에서는 지리공간 웹 서버를 사용하였다. 지리공간 웹 서버란 다양한 지리공간 정보에 대하여 웹을 통한 자유로운 검색, 접근, 이용이 가능하도록 클라이언트에게 서비스를 제공하는 서버를 말한다.(Chang et al., 2007) 본 논문에서는 지리공간 웹 서버로 Geoserver를 활용하였다. Geoserver는 지리공간 데이터를 편집하고 공유할 수 있는 JAVA 기반 오픈 소스 GIS 소프트웨어이다.(Open Source Project, 2009) Geoserver는 OGC(Open Geospatial Consortium)표준인 웹맵서비스(Web Map Service, WMS)와 웹커버리지서비스(Web Coverage Service, WCS)를 통하여 다양한 지리공간 데이터를 클라이언트에게 제공한다. WMS란 서버가 보유한 지형공간정보에 대해 클라이언트의 요청에 따라 동적으로 맵을 생성하여 클라이언트에게 제공하는 서비스를 말하고, WCS는 서버가 보유한 지형공간정보(지형고도자료, 지리 보정된 영상 등)를 클라이언트가 활용하고 도시하기 유용한 형태로 클라이언트에게 제공하는 서비스를 말한다.(Open Geospatial Consortium, 2006; Open Geospatial Consortium, 2008) OGC는 WMS와 WCS 인터페이스에 대해 국제 표준을 제시하고, 우리나라 한국정보통신기술협회의 정보통신 표준 위원회에서는 국제표준을 수용한 국내 표준을 제정하였다.(Telecommunications Technology Association, 2009)

본 논문에서 제안하는 기법은 지리공간 웹 서버의 WMS와 WCS를 활용하여 기준자료를 획득한다. 이러한 처리는 기준점 정합을 위해서 사용자가 작은 크기의 기준점 영상패치를 일일이 수작업으로 생성하는 작업을 자동화하여 사용자의 편의성과 효율성을 증대시킨다. 또한 사용자가 기준영상과 고도자료를 직접 구축하고 관리하지 않아도 기 구축된 가용한 지리공간 웹 서버의 주소만 알면, 제안하는 기법은 기준영상을 원하는 크기와 해상도로 자동으로 가져올 수 있고, 원하는 지역의 고도자료를 자동으로 가져올 수 있다. 이를 통하여 본 논문에서 제안하는 기법은 특정 기준자료 서버에 종속적이지 않고 높은 확장성을 가진다.

2.2 기준자료 추출

기준영상 추출 단계에서는 WMS와 WCS를 통하여 지리공간 웹 서버에 기준영상과 고도자료를 요청하여 자동으로 획득한다.

기준영상 추출 단계에서는 Geoserver에게 Fig. 4(a)와 같이 HTTP URL(Uniform Resource Locator)을 통하여 기준영상을 요청한다. URL은 서버 주소와 요청 자료의 속성키와 값 쌍(Key Value Pair)으로 구성되어 있다.(Open Goespatial Consortium, 2006) 기준자료 추출 단계에서는 URL을 통하여 대상영상과 동일영역, 동일크기로 기준영상을 Geoserver에 요청한다. 요청을 받은 Geoserver는 기준영상을 대상영상과 동일한 해상도를 가지도록 맵을 생성하고 요청 받은 포맷으로 전달한다. 기준자료 추출단계에서는 대상영상의 영역에 대해 Fig. 5(a)와 같이 HTTP URL을 통하여 고도자료를 Geoserver에 요청하여 획득한다.

2.3 영상 정합

영상 정합 단계는 영상 밝기 조정과 영상 정합으로 구성된다. 영상 정합의 첫 단계에서는 대상영상과 기준영상의 밝기를 조정한다. 영상간 특징점 기반 정합을 할 때, 대상영상과 기준영상간의 밝기 차이가 심하면 정합 정확도가 떨어진다는 연구결과가 발표되었으며(Juan and Gwun, 2009)(Fig. 2 참고), 이를 해결하기 위하여 영상 정합 단계에서는 대상영상과 기준영상에 히스토그램 스트레칭을 적용하여 두 영상의 전체적인 밝기를 조정한다.


Figure 2. 
Matching results before/after applying the histogram stretching

그 다음 단계로 두 영상간 정합을 수행한다. 본 논문에서 제안하는 기법이 적용되는 영상은 위성영상으로 대상영상과 기준영상의 촬영센서, 촬영일시, 촬영고도, 촬영각, 영상 해상도가 각기 다르다. 이러한 영상 간 동일점(정합점)을 찾기 위해서는 크기, 회전, 시점 등의 변화에도 강건하게 동일점을 찾는 정합 알고리즘이 필요하다. 이러한 조건일 때 기존 연구에서는 특징점 기반 알고리즘인 SIFT알고리즘 혹은 SURF 알고리즘을 적용하였다.(Guo et al., 2010; Yi et al., 2008) 두 알고리즘을 비교했을 때 SURF 알고리즘이 적분영상 사용, 단순 간결한 검출자와 서술자의 사용으로 연산처리 속도가 빠른 장점이 있다. 따라서 본 연구에서는 영상 정합을 위하여 SURF 알고리즘을 적용하였다.

영상 정합 단계에서는 영상 정합 수행 결과로 두 영상간 정합점에 대해서 대상영상의 영상좌표, 기준영상의 지리좌표(위경도), 고도자료의 고도값을 하나의 세트로 후보 기준점을 산출한다.

2.4 기준점 추출

영상 정합 단계에서 추출된 후보 기준점들 중에는 Fig. 3과 같이 오정합점들이 있다. 오정합점을 거르고 정 정합점을 선택하기 위해 본 연구에서는 기준점 추출 단계에 RANSAC 기법을 적용하였다. RANSAC은 측정 노이즈가 심한 원본 데이터로부터 모델 파라미터를 예측하는 방법이다.(Fischler and Bolles, 1981) RANSAC은 전체 원본 데이터 중에서 모델 파라미터를 결정하는데 필요한 최소의 데이터를 임의로 샘플링 하면서 반복적으로 해를 계산하여 가장 많은 데이터의 지지를 받는 최적의 해를 찾는다.


Figure 3. 
An example of a incorrect matching point

기준점 추출 단계는 기준점 추출을 위해 RANSAC 기법을 적용하여 다음과 같은 순서로 동작한다.

1) 영상의 보조 자료를 활용하여 대상영상을 기하 보정할 수 있는 센서 모델을 세운다.
2) 전체 후보 기준점들 중 임의로 정해진 수의 기준점을 샘플링한다.
3) 샘플링된 기준점을 센서 모델에 대입하여 모델 파라미터를 추정한다.
4) 추정된 모델에 전체 기준점의 영상좌표를 대입한다.
5) 추정된 모델로부터 산출된 지리좌표와 기준점의 지리좌표간 차이를 구한다.
6) 차이 값이 일정 임계치 보다 크면 정합 오류점으로 판단하고, 임계치 값 보다 작으면 정 정합점으로 판단한다.
7) 2에서 6 단계를 반복적으로 수행하여 정 정합점의 수가 가장 많은 모델 파라미터를 구하고, 그에 해당하는 정 정합점들을 산출한다.
8) 7 단계에서 산출된 정 정합점들을 최종 기준점으로 산출한다.

위 과정을 수행하기 위해서는 샘플링 데이터의 수, 정 정합점과 정합 오류 점을 판단하는 임계치, 반복 횟수를 설정해야 한다. 기준점 추출 단계에서는 샘플링 데이터의 수를 7개로 설정하였고, 임계치 값은 모델로부터 1화소 이상 차이 나지 않도록 대상영상의 공간해상도로 설정하였다. 반복 횟수는 아래의 식에 따라 설정하였다.(Fischler and Bolles, 1981)

Eq. (1)에서 p는 전체 기준점 중에 정 정합점이 있을 확률이고, n는 샘플링 데이터의 수이고, α는 적어도 한번은 정 정합점만 샘플 데이터로 뽑힐 확률이다. 기준점 추출 단계에서는 p는 20%로, d는 7로, α는 90%로 설정하였다. Eq. (1)을 통하여 반복 횟수는 18만번으로 설정하였다.

위의 모든 과정을 거쳐 기준점 추출 단계에서는 최종 기준점을 추출한다.


3. 실험 및 평가
3.1 기준영상

본 논문에서는 실험을 위하여 기준영상으로 CIB (Controlled Image Base)-1 영상을 활용하였고, 우리나라 전역에 대한 1m 해상도의 CIB-1 영상을 Geoserver에 등록하여 기준영상 데이터베이스를 구축하였다.

CIB-1 영상은 군사 표준으로 제작된 정사보정된 흑백영상으로써 다양한 무기체계를 지원하기 위하여 제작되었다.(Military specification, 1995) CIB-1 영상의 특징은 1m 공간 해상도를 가진 디지털영상으로 정사영상이고, 수평 기준계로 WGS 84를 적용하였고, 밝기가 보정되어 있고, RPF(Raster Product Format) 포맷으로 되어 있으며, 우리 군에서 지형정보의 기반 자료로 사용되고 있다.

기준자료 획득 단계에서는 기준영상을 Fig. 4(a)과 같이 HTTP URL로 요청하고 Fig. 4(b)와 같은 기준영상을 획득한다.

3.2 지형고도자료

본 논문에서는 실험을 위하여 수치 표고 자료로써 DTED(Digital Terrain Elevation data) 레벨 2를 활용하였고, 우리나라 전역에 대한 DTED 자료를 Geoserver에 등록하여 기준고도자료를 구축하였다.

DTED는 군사적 활용의 지원을 위해 미국의 지리공간정보국(National Geospatial intelligence Agency, NGA)이 개발하였으며, 일정 격자간격의 표면 고도 정보를 포함하고 있다. DTED 레벨 2의 격자간격은 1초(arcsec), 약 30m 공간해상도를 갖고 있으며, 수평 기준계로는 WGS 84를 적용되었고, 수직 기준계는 평균해수면(MSL)을 적용하였다. (Military specification, 2000)

기준자료 획득 단계에서는 고도자료를 Fig. 5(a)와 같이 WCS를 통하여 HTTP URL로 요청하고, Fig. 5(b)와 같은 고도자료를 획득한다.


Figure 4. 
WMS Request and Returned Iamge


Figure 5. 
WCS Request and Returned data

3.3 실험영상

실험에 사용된 영상은 대전, 진주 지역을 촬영한 3장의 위성영상으로 각기 다른 촬영센서, 촬영일자, 해상도를 가진다. Table 1은 실험영상의 특성을 보여준다. 본 논문에서 제안하는 기법이 촬영일자 변화, 촬영센서 변화, 해상도 변화에도 일정한 결과를 산출하는지를 확인하기 위하여 실험영상을 촬영센서, 촬영일자, 해상도가 각기 다른 영상으로 선택하였다.

Table 1. 
The characteristics of test images
Location Satellite Pixel Resolution Processing level Acquisition Date View Angle Note
Target
Image1
Daejeon SPOT-1 10m 1A 1998.11.29 5.599 PAN
Target
Image2
Jinju SPOT-5 2.5m 1A 2003.04.15 6.866 PAN
Target
Image3
Daejeon IKONOS 1m Radiometrically corrected 2001.11.19 - PAN

제안하는 기법의 평가를 위하여 본 실험에서는 실험영상마다 검사점을 기존 연구에서 차용 혹은 직접 추출하였다. 대상영상1의 검사점은 Sin(1993) 연구에서 사용된 검사점을 차용하였고, 대상영상2의 검사점은 Choi and Sin(2003) 연구에서 사용된 검사점을 차용하였다. 대상영상3의 검사점은 ArcGIS 소프트웨어를 이용하여 실험영상과 기준영상에서 화소 단위로 수동으로 직접 취득하였으며, 고도값은 DTED 레벨2 자료로 부터 취득된 지리좌표에 해당하는 지점의 값을 취득하였다.

3.4 기준점 추출 정확도 평가

제안하는 기법을 적용하여 대상영상1에 대해서는 32개의 기준점을, 대상영상2에 대해서는 32개 기준점을, 대상영상3에 대해서는 35개 기준점을 자동으로 산출하였다. 비교 평가를 위해 본 실험에서는 동일한 실험영상과 기준영상에서 수동으로 기준점을 추출하였다. 수동으로 추출하는 기준점의 영상좌표와 지리좌표는 ArcGIS 소프트웨어를 이용하여 실험영상과 기준영상에서 화소 단위로 직접 취득하였으며, 고도값은 취득된 지리좌표에 해당하는 지점의 값을 DTED 레벨2 자료로 부터 취득하였다.

본 실험에서는 자동 추출한 기준점을 사용하여 실험영상의 센서 모델링을 수행하고, 수동으로 추출된 기준점을 사용하여 실험영상의 센서 모델링을 수행하였다. 이 때 정확한 비교를 위하여 본 실험에서는 수동 추출된 기준점의 수와 동일하게 제안하는 기법으로 산출된 기준점들 중 10개점을 선택하여 사용하였다. 본 실험에서는 대상영상1은 35개 검사점을, 대상영상2는 36개 검사점을, 대상영상3은 22개 검사점을 사용하여 각기 다른 기준점으로 추정된 두 센서 모델(자동추출 기준점 사용 센서모델, 수동추출 기준점 사용 센서모델)의 정확도를 확인하였다.

실험 결과는 Table 2와 같다. 제안하는 기법에서 산출된 기준점을 사용하였을 때 대상영상1에 대한 정확도는 RMSE 4.96화소이고, 대상영상2에 대한 정확도는 RMSE 3.62화소이고, 대상영상3에 대한 정확도는 RMSE 3.46화소이다. 본 실험에서는 전반적으로 RMSE 5 화소 미만의 정확도를 보인다. 산출된 기준점을 확인한 결과, 이는 산출된 기준점이 Fig. 6과 같이 4화소 정도의 오차를 포함하고 있기 때문이다.

Table 2. 
Experimental results
Number of the automatically extracted control points Number of the check points RMSE (pixel)
Automatically extracted control points Manually extracted control points
Target Image1 32 35 4.96 1.51
Target Image2 32 36 3.62 2.01
Target Image3 35 22 3.46 3.50


Figure 6. 
The position error of a control point

이러한 오차의 주요한 원인은 두 가지로 판단된다. 첫 번째 원인은 영상 정합시 사용되는 SURF 알고리즘의 영향 때문이다. SURF 알고리즘은 박스 필터를 적용하여 특징점을 식별한다. 이러한 방식은 대상영상과 같이 자연과 인공물이 동시에 촬영된 영상, 즉 경계가 모호하고 비슷한 화소의 연속으로 구성되어 있는 영상에서는 정확하게 동일점을 찾지 못하는 것으로 판단된다. 두 번째 원인은 1m 공간해상도인 기준영상을 대상영상의 해상도에 맞춰 재배열(resampling)하기 때문이다. 예를 들어 1m 공간해상도인 기준영상을 2.5m 공간해상도인 대상영상의 해상도에 맞추면, 가로 세로 2.5개의 화소들이 1화소로 표현된다. 이때 지리좌표도 수렴됨으로써 오차를 가지게 되는 것으로 판단된다.

자동으로 산출된 기준점을 사용하여 추정된 센서 모델의 정확도와 수동으로 추출된 기준점의 정확도를 비교 했을 때, 대상영상의 해상도가 향상됨에 따라 수동 추출한 기준점을 이용한 센서 모델의 정확도는 나빠지는 반면 자동 산출된 기준점을 이용한 센서 모델의 정확도는 점점 좋아지는 경향을 보인다. 특히 해상도가 1m인 대상영상의 경우에는 자동 산출된 기준점을 이용한 센서 모델의 정확도가 수동 추출한 기준점을 이용한 센서 모델의 정확도 보다 더 좋은 것을 확인하였다. 이는 대상영상의 해상도 향상에 따라 수동으로 기준점을 추출할 때는 측정 오차가 증가하기 때문이고, 이와 반대로 자동으로 기준점을 추출할 때는 기준영상의 재배열에 따른 오차가 줄어들기 때문으로 판단된다.

제안하는 기법은 실험에 사용된 영상의 촬영센서, 촬영 일자, 해상도 변화에도 5화소 미만의 일관된 정확도를 산출하였다. 또한, 본 실험에서는 제안하는 기법을 통해 자동으로 산출된 기준점이 수동으로 추출된 기준점과 비교했을 때 정확도 면에서 크게 떨어지지 않음을 확인하였고, 대상영상의 해상도가 좋아질수록 점진적으로 정확도가 향상되어 대상영상 해상도가 1m인 경우에 정확도면에서 차이나지 않음을 확인하였다.


4. 결 론

본 논문에서는 지리공간 웹 서비스 기반의 기준점 자동추출 기법을 설계 및 구현하였다. 본 논문은 공간해상도가 1m, 2.5m, 10m인 영상을 대상 영상으로, 군 표준인 1m 공간 해상도를 가지는 CIB 영상을 기준으로 실험을 수행하였다. 그 결과로 자동 추출된 기준점을 통해 센서 모델링을 수행했을 때 RMSE 5화소 미만의 정확도를 도출하였다. 수동으로 추출된 기준점을 통해 센서 모델링을 수행했을 때의 정확도와 비교했을 때 크게 떨어지지 않음을 확인하였다. 그 뿐 아니라 수동으로 추출된 기준점의 정확도는 대상영상의 해상도 향상시 정확도 향상에 한계가 있지만, 제안하는 기법으로 자동 추출된 기준점의 정확도는 대상영상의 해상도 증가시 정확도가 지속적으로 향상됨을 확인하였다.

실험에 사용된 영상의 촬영센서, 촬영일자, 해상도의 변화에도 일관된 정확도 산출과 대상영상의 해상도 향상시 지속적인 정확도 향상 가능성을 확인함으로써 제안한 기법을 통하여 자동으로 기준점 추출의 가능성을 입증하였다. 또한 기준영상으로 군 표준 자료를 사용함으로써 제안된 기법의 군사적 활용가능성을 확인하였다.

향후 연구로는 좀 더 나은 정확도 향상을 위해 오정합점 제거 알고리즘 개량과 산출된 기준점에 대해 대상영상과 기준영상 간 영역기반 2차 정합을 수행할 예정이다.


References
1. S Baillarin, A Bouillon, M Bernard, M Chikhi, Using a three dimensional spatial database to orthorectify automatically remote sensing images, In Proceedings of the ISPRS Hangzhou 2005 Workshop, ISRPS, (2005), p89-94.
2. H Bay, T Tuytelaars, L. V Gool, SURF:speeded-up robust features, computer vision-ECCV 2006, Lecture, Springer, (2006), 3951, p404-417.
3. R Bouchiha, K Besbes, Automatic remote-sensing image registration using SURF, International Journal of Computer Theory and Engineering, IACSIT, (2013), 5(1), p88-92, [https://doi.org/10.7763/IJCTE.2013.V5.653] .
4. Y. S Chang, J. H Oh, K. O Kim, The trend of geospatial web technologies, Electronics and Telecommunications Trends, ETRI, (2007), 22(3), p124-135.
5. S. Y Choi, D. S Sin, Modeling of SPOT-5 HRG stereo pair, Agency for Defense Development Report, ADD, (2003), p26-27.
6. M. A Fischler, R. C Bolles, Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography, Communcations of the ACM, ACM, (1981), 24(6), p381-395, [https://doi.org/10.1145/358669.358692] .
7. M Gianinetto, M Scaioni, Automated geometric correction of high-resolution pushbroom satellite data, Photogrammetric Engineering & Remote Sensing, ASPRS, (2008), 74(1), p107-116, [https://doi.org/10.14358/PERS.74.1.107] .
8. H Guo, C Cheng, Y Yang, An automated registration of RS image based on SURF and piecewise linear transformation, Conference on Environmental Science and Information Application Technology, ESIAT, (2010), p133-136.
9. Y. K Han, Y. M Kim, Y. G Byun, J. W Choi, D. Y Han, Y. I Kim, Automatic registration of high-resolution images in urban areas uing local properties of features, Milwaukee 2011 ASPRS Annual Conference Proceedings, ASPRS, (2011).
10. L Juan, O Gwun, A comparison of SIFT, PCA-SIFT and SURF, International Journal of Image Processing, CSC Journals, (2009), 3(4), p143-152.
11. M. H Kang, S. N Bang, Y. W Lee, Automatic measuring of GCP’s image coordinates using control point patch and auxiliary points matching, Jounal of the Korean Society for Geospatial Information System, KOGSIS, (2003), 11(2), p29-37.
12. T. J Kim, Y. J Im, Automatic satellite image registration by combination of matching and random sample consensus, IEEE Transactions on geosciences and remote sensing, IEEE, (2003), 41(5), p1111-1117.
13. D. G Lowe, Distinctive image features from scale-invariant keypoints, the International Journal of Computer Vision, Kluwer Academic Publishers, (2004), 60(2), p91-110, [https://doi.org/10.1023/B:VISI.0000029664.99615.94] .
14. Military specification, MIL-C-89041, Controlled image base(CIB), the Department of Defense in United States, (1995).
15. Military specification, MIL-PRF-89020B, Performance specification digital terrain elevation data(DTED), the Department of Defense in United States, (2000).
16. Open Goespatial Consortium, OpenGIS web map server implementation Specification, OGC, (2006).
17. Open Geospatial Consortium, Web coverage service(WCS) implementation standard, OGC, (2008).
18. Open Source Project, Geoserver, Core Contributors - Boundless and GeoSolution, http://www.geoserver.org/, (2009).
19. D. S Shin, Analysis of the triplet satellite image, Agency for Defense Development Report, ADD, (1993), p30-31.
20. Telecommunications Technology Association, TTAK.OT-10.0253, Web map service Ver.1.3, Telecommunications Technology Association, (2009).
21. Z Yi, C Zhiguo, X Yang, Multi-spectral remote image registration based on SIFT, ELECTRONICS LETTERS, the Institution of Engineering and Technology, (2008), 44(2), p107-108, [https://doi.org/10.1049/el:20082477] .
22. B Zitova, J Flusser, Image registration methods: a survey, image and vision computing, ELSEVIER, (2003), 21(11), p977-1000, [https://doi.org/10.1016/S0262-8856(03)00137-9] .