<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="/resources/xsl/jats-html.xsl"?>
<article article-type="research-article" dtd-version="1.1" xml:lang="ko" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
	<journal-meta>
		<journal-id journal-id-type="publisher-id">jkits</journal-id>
		<journal-title-group>
		<journal-title>한국지식정보기술학회 논문지</journal-title>
		<journal-title xml:lang="en">Journal of Knowledge Information Technology and Systems</journal-title>
		</journal-title-group>
		<issn pub-type="ppub">1975-7700</issn>
		<publisher>
		<publisher-name>한국지식정보기술학회</publisher-name>
		<publisher-name xml:lang="en">Korea Knowledge Information Technology Society</publisher-name>
		</publisher>
	</journal-meta>
	<article-meta>
		<article-id pub-id-type="publisher-id">jkits_2019_14_02_145</article-id>
		<article-id pub-id-type="doi">10.34163/jkits.2019.14.2.005</article-id>
		<article-categories>
			<subj-group>
				<subject>Research Article</subject>
			</subj-group>
		</article-categories>
		<title-group>
			<article-title>UAV 항공사진측량 기술과 Faster R-CNN알고리즘을 활용한 연안양식장 탐색에 관한 연구</article-title>
			<trans-title-group xml:lang="en">
				<trans-title>A Study on Detection of Ocean Farms in Coastal Area by Using UAV Photogrammetry and Faster-RCNN Algorithm</trans-title>
			</trans-title-group>
		</title-group>
		<contrib-group>
			<contrib contrib-type="author" xlink:type="simple">
				<name-alternatives>
					<name name-style="eastern">
						<surname>이</surname><given-names>재빈</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Lee</surname><given-names>Jaebin</given-names>
					</name>
					</name-alternatives>
				<xref ref-type="aff" rid="A1"><sup>1</sup></xref>
			</contrib>
					<contrib contrib-type="author" xlink:type="simple">
				<name-alternatives>
					<name name-style="eastern">
						<surname>최</surname><given-names>종명</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Choi</surname><given-names>Jongmyung</given-names>
					</name>
					</name-alternatives>
				<xref ref-type="aff" rid="A2"><sup>2</sup></xref>
			<xref ref-type="fn" rid="fn001"><sup>*</sup></xref>
			</contrib>
		</contrib-group>
		<aff-alternatives id="A1">
			<aff><sup>1</sup><italic>목포대학교 토목공학과 교수, 차세대 드론 상용화 연구소</italic></aff>
			<aff xml:lang="en"><italic>Dept. of Civil Eng., Next-generation Drone Commercialization Lab., Mokpo National University</italic></aff>
		</aff-alternatives>
				<aff-alternatives id="A2">
			<aff><sup>2</sup><italic>목포대학교 컴퓨터공학과 교수, 차세대 드론 상용화 연구소</italic></aff>
			<aff xml:lang="en"><italic>Dept. of Computer Eng., Next-generation Drone Commercialization Lab., Mokpo National University</italic></aff>
		</aff-alternatives>
			<author-notes>
			<fn id="fn001"><label>*</label><p>Corresponding author is with the Department of
Computer Engineering, Mokpo National University, 1666 Youngsan-ro Muan Jeonnam, 58554, KOREA.</p><p><italic>E-mail address</italic>: <email>jmchoi@mokpo.ac.kr</email></p></fn>
		</author-notes>
		<pub-date pub-type="ppub">
			<month>4</month>
			<year>2019</year>
		</pub-date>
		<volume>14</volume>
		<issue>2</issue>
		<fpage>145</fpage>
		<lpage>156</lpage>
		<history>
			<date date-type="received">
				<day>25</day>
				<month>2</month>
				<year>2019</year>
			</date>
			<date date-type="rev-recd">
				<day>27</day>
				<month>3</month>
				<year>2019</year>
			</date>
			<date date-type="accepted">
				<day>12</day>
				<month>4</month>
				<year>2019</year>
			</date>
		</history>
		<permissions>
			<copyright-statement>&#x00A9; 2019 KKITS All rights reserved</copyright-statement>
			<copyright-year>2019</copyright-year>
		</permissions>
		<abstract>
			<title>요약</title>
			<p>최근 해양측량 분야에서 활발하게 무인항공기(unmanned aerial vehicles, UAV)를 활용한 연구결과들이 제시되고 있지만, 여전히 다양한 기체 및 카메라, 다양한 지역에 대한 연구결과가 요구되며 특히 해양 관리를 위해 가치 있는 지형정보를 추출하고 활용하기 위한 연구가 필요한 시점이다. 국내에서 수산물 생산은 양식 생산이 2017년 기준으로 61.8%를 차지하며 매년 증가하고 있다. 따라서 수산물 양식을 체계적으로 관리, 지원, 감시할 필요성이 증가하고 있다. 특히 전라남도의 경우 생계형 무면허, 무허가 불법어업이 도내에서 증가하고 있으며 ‘12년 대비 ’16년에는 180%로 매우 증가하였다. 이에 따라 전라남도 수산자원과는 불법 양식장에 대한 특별단속을 매년 시행하고 있으나 해양환경의 특성상 현지조사만으로는 단속과 관리에 한계가 존재한다. 본 연구에서는 현지조사에 의지하여 수행되던 양식장 현황 조사 및 감시 업무의 효율성을 증대시키기 위해 무인항공기와 자동영상인식 기술을 활용한 방법론을 제안하였다. 이를 위해 무인항공기를 활용하여 전라남도 완도 연안에 분포하고 있는 전복 양식장과 김 양식장에 대해 UAV 항공사진측량을 시행하였다. 제작된 정사영상에 Faster R-CNN 기법을 적용하여 해양환경에서 양식장 시설물을 자동으로 탐지하기 위한 방법론을 개발하였다. 연구결과 연안 해양지역의 양식장 시설관리에 소형 무인항공기가 효과적으로 활용될 수 있음을 확인하였으며, Faster R-CNN 기법을 이용한 자동 양식장 객체 인식 방법론의 구축이 가능하였다.
</p>
		</abstract>
		<trans-abstract xml:lang="en">
			<title>ABSTRACT</title>
			<p>Recently, many researches using unmanned aerial vehicles(UAV) has been proposed for applications in coastal areas. However, there is still a need for consecutive researches on various types of UAVs, sensors and regions. Especially, it is necessary to study the practical use of the UAV photogrammetry in marine surveying. In Korea, aquaculture production accounts for 61.8% of total aquatic-product production in 2017 and is increasing year by year. Therefore, there is a growing need to systematically manage, support and monitor aquatic products. In particular, unlicensed and illegal fisheries are increasing in Jeollanam-do. In 2016, the number of unlicensed and illegal fisheries has increased to 180% comparing in 2012. The Jeollanam-do fisheries resources division is implementing special crackdown on illegal aquaculture farmers every year. However, due to the nature of the marine environment, surveillance and enforcement are limited by field surveys alone. In this study, we propose a methodology by using UAV photogrammetry and automatic image recognition technology to increase efficiency of monitoring aquaculture farms. For this purpose, UAV photogrammetry was performed on abalone and seaweed ocean farms in Wando, Jeollanam-do. Then, we developed a methodology for automatically detecting the farm facilities in the marine environment by applying the Faster-RCNN (Regional Convolution Neural Network) to the generated orthophotos. Through the study, it is identified that small UAVs can be effectively used for the surveillance and management of the ocean farms in coastal areas. Also, the automatic method for recognizing aquaculture object using Faster R-CNN technique can be developed.</p>
		</trans-abstract>
		<kwd-group kwd-group-type="author" xml:lang="en">
			<kwd>UAVs</kwd>
			<kwd>aerial photogrammetry</kwd>
			<kwd>Coastal areas</kwd>
			<kwd>Ocean farms</kwd>
			<kwd>Facility detection</kwd>
			<kwd>Faster R-CNN</kwd>
		</kwd-group>
	</article-meta>
</front>
<body>
<sec id="sec001" sec-type="intro">
	<title>1. 서 론</title>
<p>해양측량 분야는 해안선 측량, 해안선 변화 모니터링, 수심측량, 갯벌 측량, 적조 모니터링, 양식장 모니터링, 해양 시설물 측량 등의 해양지역에 대한 지형 공간정보를 제작하고, 관련 정보를 수집·활용하는 분야를 포함한다. 최근 무인항공기(unmanned aerial vehicles, UAV)의 장점을 바탕으로 해양측량 분야에서도 UAV를 활용하고자 하는 시도가 점차 증대되고 있다. 특히 UAV 항공사진측량을 활용하여 해안선이나 조간대에 대한 정밀한 지형정보를 제작하기 위한 연구결과들이 성공적으로 발표되었다<xref ref-type="bibr" rid="B001">[1]</xref>-<xref ref-type="bibr" rid="B006">[6]</xref>. 하지만 UAV를 활용하여 해양의 효과적인 관리를 수행하기 위해서는 단지 고정밀의 정사영상이나 수치표고모델(digital surface model, DSM)과 같은 지형정보의 제작뿐만 아니라 해양 관리를 위해 필요한 객체정보를 추출하고 활용하기 위한 다양한 연구가 필요한 시점이다<xref ref-type="bibr" rid="B004">[4]</xref>.</p>
<p>국내에서 수산물 생산은 양식 생산이 2017년 기준으로 61.8%를 차지하며 매년 증가하고 있다. 따라서 수산물 양식을 체계적으로 관리, 지원, 감시할 필요성 또한 증가하고 있다. 전라남도의 경우 2,165개의 섬(전국의 64.5%), 6,743㎞의 해안선(전국의 45%)을 가지고 있으며 18,819가구 43,818명의 어업종사자(전국 128,352명의 34%)가 상주하고 있다. 어장개발 면적도 해면 173,000㏊(전국의 69%), 내수면 12,000㏊(전국의 21%)에 이른다. 해양수산물 생산과 수출 전국 1위이며 그 규모는 국내생산 1,444,000톤, 21,809억(전국의 52%), 수출 144,000,000불(전국의 7.5%)에 이른다<xref ref-type="bibr" rid="B007">[7]</xref>. 하지만 경제 불황의 장기화 여파와 해양 수산업의 경우 투자 대비 단기 고소득이 가능하다는 불법의식으로 인하여 생계형 무면허, 무허가 불법어업이 도내에서 증가하고 있으며 지난 5년간 단속 건수는 ‘12년 330건, ‘13년 291건, ‘14년 277건, ‘15년 397건, ‘16년 399건으로 매년 증가세를 보인다. 특히 무면허 양식어업이 ‘12년 대비 ‘16년에는 180%로 매우 증가하였다<xref ref-type="bibr" rid="B008">[8]</xref>. 이에 따라 전라남도 수산자원과는 불법 양식장에 대한 특별단속을 매년 시행하고 있으나 해양환경의 특성상 현지조사로는 단속과 관리에 한계가 있다.</p>
<p>위와 같이 직접적인 현지조사를 통한 불법 양식장 단속의 한계점을 극복하기 위해서, 본 논문에서 는 무인항공기를 이용한 해양측량과 딥러닝의 Faster R-CNN을 통해 양식장의 위치와 종류를 자동으로 탐색할 방법을 소개한다. Faster R-CNN은 객체를 인식할 수 있는 딥러닝 모델의 하나로, 빠르고 비교적 정확하게 객체를 인식할 수 있는 알고리즘이며, 다양한 분야에 활용되고 있다. 특히 드론 영상에서 해양에서 사물을 인식하는 것은 양식장 식별, 해양 오염물질 식별, 조난자 식별 등 다양한 분야에서 활용될 수 있을 것으로 기대된다. &#x003C;<xref ref-type="fig" rid="f001">그림 1</xref>&#x003E;은 본 연구의 진행 흐름을 보여준다.</p>
<fig id="f001" orientation="portrait" position="float">
	<label>그림 1.</label>
	<caption>
		<title>연구의 흐름도</title>
		<p>Figure 1. Flowchart of the study</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f001.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>논문은 2장에서 관련 연구를 소개하고, 3장에서는 무인항공기를 이용한 연안 양식장 항공사진측량 방법을 소개한다. 4장에서는 Faster R-CNN을 통해서 양식장을 식별하는 방법을 소개하며, 마지막으로 5장에서 결론과 향후 연구과제를 제시한다.</p>
</sec>
<sec id="sec002">
<title>2. 관련 연구</title>
<p>UAV를 활용하여 해양환경에서 양식장을 관리하는 연구는 크게 2개 분야의 연구와 관련 있다. 첫째는 원격탐사를 이용한 양식장 관리와 관련된 연구이며, 둘째는 UAV에서 찍은 영상에서 해양의 양식장을 인식하기 위한 딥러닝을 활용한 응용연구이다. 2.1절에서는 원격탐사에 관련된 관련 연구를 소개하고, 2.2와 2.3절은 딥러닝을 이용해서 해양의 양식장을 인식하기 위한 관련 연구를 소개한다.</p>
<sec id="sec002-1">
<title>2.1 원격탐사를 이용한 해양 양식장 관리 연구</title>
<p>해양환경 아래에서 광역의 지역에 대해 고정밀의 정사영상을 제작할 수 있는 원격탐사 기법은 양식장의 실태를 조사하고 관리하기 위해 매우 효율적인 수단으로 활용될 수 있다. 이에 따라 대표적인 원격탐사 기법인 위성영상이나 유인 항공기를 활용하여 양식장에 대해 관리를 수행하기 위한 연구사례들이 발표되었다.</p>
<p>박성은 등<xref ref-type="bibr" rid="B009">[9]</xref>은 한려해상국립공원 내 가두리양식장의 변화탐지를 위해 위성영상을 활용하여 국립공원 내 양식장 현황과 변화과정을 분석하는 연구를 수행하였다. 특히 공식적으로 집계되는 생산량 대비 비공식 통계로 산출되는 생산량이 과다함을 지적하면서 양식장의 정확한 면적의 산출이 필요하다고 보고하였다. 추후 폐기물 발생과 이에 따른 환경오염을 고려할 때 해상·해안 국립공원 지역에 원격탐사 기술을 활용한 정기적인 모니터링과 GIS 데이터베이스 구축을 통해 효율적인 관리대책의 필요성을 제시하였다.</p>
<p>조명희<xref ref-type="bibr" rid="B010">[10]</xref>는 고해상도인 공간 해상도 25cm의 항공사진을 이용하여 김, 전복, 어류의 양식장이 모두 갖춰져 있는 전라남도 완도군을 대상으로 양식장 DB 구축을 위한 항공 영상 보정, 어장 공간 DB 구축, 시설량 판독을 수행하였다. 연구결과 어류 양식장의 효과적인 관리를 위하여 양식장의 정확한 위치와 시설량 산출에 항공 영상을 이용하는 방안을 성공적으로 제안하였으며 현장조사를 통해 시설량을 산출하는 것보다 고해상도 항공사진을 이용하여 판독하는 것이 효과적이라고 보고하였다. 또한, 연구결과 김, 전복 양식장의 면허지 이탈시설 및 무면허 시설을 관측할 수 있었으며 이에 대한 지속적인 단속과 관리가 필요함을 지적하였다.</p>
<p>전통적인 원격탐사 기법이 해양 양식장 모니터링에 효과적인 수단이지만 여전히 경제성과 적시성 면에서 한계점을 가지고 있다. 이에 반해 UAV는 기체를 원하는 시점에 원하는 지역으로 조정하여 소규모 지역을 경제적으로 촬영하기가 쉬우며 구름의 영향을 받지 않는 고도에서 촬영할 수 있으므로 해양환경에서보다 쉽게 활용할 수 있다. 해양환경에서 UAV가 가지는 다양한 장점에도 불구하고 현재까지 연안 해양의 양식장관리에 UAV를 활용한 연구사례는 미비한 실정이다. 따라서 본 연구에서는 연안 환경에서 운용에 적합한 회전익 UAV와 카메라를 활용하여 연안에 분포한 양식장들에 대하여 정사영상을 구축하고 활용성을 평가하였다.</p>
</sec>
<sec id="sec002-2">
<title>2.2 딥러닝을 활용한 객체 인식률 향상 연구</title>
<p>딥러닝을 활용하여 객체를 인식하는 연구는 객체 인식 기술을 향상시키기 위한 연구와 이를 활용하는 연구로 구분할 수 있다. 2.2절은 객체 인식을 향상시키기 위한 기존 연구들을 소개한다.</p>
<p>항공사진측량에서 객체를 인식하기 위해 초기 연구에서는 이미지의 히스토리그램을 활용하는 방법<xref ref-type="bibr" rid="B011">[11]</xref> 등을 활용하였지만 객체 인식 기술이 발전되지 않아서 기술 발전 속도가 느린 편이었다. 그러나 2012년 딥러닝 (deep learning)의 CNN(convolutional neural network)을 활용한 기술이 개발됨으로써 이미지 인식률이 획기적으로 향상하게 되었다<xref ref-type="bibr" rid="B012">[12]</xref>. <xref ref-type="bibr" rid="B012">[12]</xref>에서는 ImageNet의 LSVRC-2010에 있는 120만 개의 이미지를 1000개의 클래스로 분류하도록 훈련하였으며, ILSVRC-2012에서 15.3%의 top-5 테스트 에러라는 높은 이미지 분류 능력을 보여주었다. 이 신경망은 6천만 개의 파라미터, 65만 개의 뉴런, 5개의 컨볼루션 레이어, max-pooling 레이어, fully-connected 레이어 등으로 구성되어 있다.</p>
<p>CNN 알고리즘이 이미지를 분류하기 위해서 높은 성능을 보임에 따라 사진을 이용해서 물체를 분석할 수 있는 연구에 널리 활용되었다. 그런데 사진에 포함된 모든 객체를 인식하기 위해서는 CNN은 적합하지 않기 때문에 사진을 여러 개의 영역으로 나눠서 객체를 인식하기 위한 연구가 진행되었고, 이것이 R-CNN(Region based CNN) 연구이다<xref ref-type="bibr" rid="B013">[13]</xref>. &#x003C;<xref ref-type="fig" rid="f002">그림 2</xref>&#x003E;는 R-CNN의 기본적인 동작 방식을 보여준다.</p>
<fig id="f002" orientation="portrait" position="float">
	<label>그림 2.</label>
	<caption>
		<title>R-CNN 시스템 동작방식</title>
		<p>Figure 2. R-CNN System Overview</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f002.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>R-CNN은 많은 Region에 대해서 각각 CNN을 적용하기 때문에 속도가 매우 느리고, 이러한 이유로 실시간으로 객체를 인식할 수 없다는 문제점이 있다. 이것을 개선해서 입력 이미지에 대해서 먼저 CNN을 적용하고, CNN 피처 맵에서 객체 영역을 찾는 방법이 Fast R-CNN<xref ref-type="bibr" rid="B014">[14]</xref> 방법이다. Fast R-CNN은 R-CNN과 비교하면 훈련은 9배 빠르고, 테스트는 213배 빠른 성능을 보인다. &#x003C;<xref ref-type="fig" rid="f003">그림 3</xref>&#x003E;은 Fast R-CNN의 동작 방식을 보여준다.</p>
<fig id="f003" orientation="portrait" position="float">
	<label>그림 3.</label>
	<caption>
		<title>Fast R-CNN 시스템 동작 방식</title>
		<p>Figure 3. Fast R-CNN System Overview</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f003.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>Fast R-CNN보다 속도를 한 단계 향상한 Faster R-CNN<xref ref-type="bibr" rid="B015">[15]</xref>은 Fast R-CNN과 비교하면 약 10배 정도 속도를 개선하였다. Fast R-CNN에서 속도에 문제가 되는 영역을 추출하는 Selective Search 알고리즘을 RPN(Region Proposal Network)로 변경함으로써 속도를 향상할 수 있었다. &#x003C;<xref ref-type="fig" rid="f004">그림 4</xref>&#x003E;은 Faster R-CNN에서 RPN을 적용하는 것을 보여준다.</p>
<fig id="f004" orientation="portrait" position="float">
	<label>그림 4.</label>
	<caption>
		<title>Faster R-CNN의 RPN 적용</title>
		<p>Figure 4. RPN in Faster R-CNN</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f004.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
</sec>
<sec id="sec002-3">
<title>2.3 UAV에서 해양 객체 인식 연구</title>
<p>UAV에서 해양 양식장을 인식하기 위한 연구는 현재까지 거의 진행되지 않았으며, 일부 연구에서 UAV에서 객체를 인식하는 연구<xref ref-type="bibr" rid="B017">[17]</xref>와 해양에서 포유류 등을 인식하는 연구들<xref ref-type="bibr" rid="B018">[18]</xref>이 진행되고 있다.</p>
<p>Jangwon Lee<xref ref-type="bibr" rid="B017">[17]</xref>은 드론에서 R-CNN 기반으로 준 실시간으로 많은 객체를 인식할 수 있는 시스템을 소개한다. 드론에서는 딥러닝으로 많은 계산을 수행할 수 없기 때문에 원격지의 클라우드를 이용해서 R-CNN 딥러닝을 계산을 진행할 수 있도록 하였다. 이 연구는 실내에서 실험을 진행하였으며, 일상생활 물건을 인식할 수 있는 기능을 제공하지만 몇 가지 한계를 갖는다. 첫째는 실내에서 실험을 진행하였기 때문에 높은 고도에서 찍은 시간을 이용해서 상대적으로 큰 사물을 인식할 수 없다는 점이다. 둘째는 큰 사물의 경우에 옆면, 정면 등의 이미지 셋 데이터가 많이 존재하지만, 상공에서 찍은 이미지 셋 데이터가 부족하다는 문제는 해결하지 못하고 있다.</p>
<p>Frederic Maire<xref ref-type="bibr" rid="B018">[18]</xref>의 연구는 CNN을 이용해서 듀공을 찾기 위한 연구를 진행하였다. 듀공의 서식지를 중심으로 항공에서 찍은 고해상도의 사진 데이터를 세그먼트 단위로 분할해서 해당 세그먼트에 듀공이 있는지 여부를 파악하는 방법을 사용하였다. 이와 유사하게 해양 생물에 대해서 객체 인식 기술을 적용하는 연구들이 진행되었지만, 양식장과 관련된 연구는 현재까지는 진행된 사례가 없었다.</p>
</sec>
</sec>
<sec id="sec003">
<title>3. UAV 연안 양식장 항공사진측량</title>
<sec id="sec003-1">
<title>3.1 연구대상 지역</title>
<p>연구대상 지역은 전라남도 진도군 연안 지역으로 전복, 김, 다시마 양식 시설이 주로 운영되고 있다. 진도군의 경우 총 27,247ha 넓이의 어장에서 연간 180,594톤(3,063억원) 규모의 수산물이 생산되고 있으며 어장 개발면적의 80%가 양식업에 활용되고 있다<xref ref-type="bibr" rid="B016">[16]</xref>. 연구의 수행을 위해 진도군 연안에 전복, 김, 다시마 양식장 시설이 고루 분포한 3개의 대상지역을 선정하였다.</p>
</sec>
<sec id="sec003-2">
<title>3.2 UAV 항공사진 촬영</title>
<p>UAV를 이용하여 항공사진을 취득하기 위한 기술은 1) 촬영대상 지역의 선정 2) 현지조사 3) 비행계획 수립 4) 촬영허가 취득 5) 지상기준점 측량 6) UAV 항공 영상촬영의 단계를 거쳐 이루어진다.</p>
<p>항공사진 촬영을 위해 먼저 해양환경에서 활용하기 위한 적정한 기체성능과 카메라 사양을 가지는 UAV를 선택하였다. 해양 프로젝트에 활용할 수 있는 기체는 크게 전문적인 지도제작에 활용되는 UAV와 일반적인 레저를 목적으로 활용되는 상용 UAV로 구분될 수 있다. 전문 지도제작용 UAV의 경우 1회 촬영범위가 넓으며, 거치 하중이 크다는 장점에 따라 광학 카메라뿐만 아니라 사용 목적에 따라 다양한 센서(Hyper, Infra Red, LIDAR sensor 등)를 교환하여 탑재할 수 있다. 하지만 상대적으로 고가이며 기체의 이착륙에 충분한 공간의 확보가 필요하다는 점, 돌풍이나 호우에 의해 기체를 잃어버리면 회수가 어렵다는 해양환경의 특성상 위험부담이 크다. 이는 해양 분야에서 UAV의 활용도가 내륙지역보다 떨어지게 되는 주요 요인이 되고 있다. 이에 비교해 상용 회전익 UAV의 경우에는 상대적으로 저가이며 수직이착륙할 수 있다는 점과 조정이 간편하다는 점 또한 갑작스러운 기상 변화에 즉각적인 회수가 가능하다는 점에서 장점이 있다고 할 수 있다.</p>
<p>이러한 배경을 바탕으로 저가의 회전익 UAV를 활용하여 연안측량의 가능성을 평가하고자 하였다. 연구에서 항공사진을 촬영하기 위하여 활용된 UAV는 현재 보편적으로 이용 가능한 DJI사의 Phantom4 모델이며 본 기체를 활용하여 전라남도 진도군 연안 지역에 분포한 양식장에 대해 정사영상 및 양식장 지도를 작성하고 현황 조사를 시행하였다. 다음의 &#x003C;<xref ref-type="fig" rid="f005">그림 5</xref>&#x003E;는 연구에서 활용한 UAV인 DJI의 Phantom4 모델의 모습이다.</p>
<fig id="f005" orientation="portrait" position="float">
	<label>그림 5.</label>
	<caption>
		<title>DJI Phantom 4</title>
		<p>Figure 5. DJI Phantom 4</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f005.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>&#x003C;<xref ref-type="table" rid="t001">표 1</xref>&#x003E;은 연구에서 활용한 UAV와 카메라의 제원을 보여준다.</p>
<table-wrap id="t001">
<label>표 1.</label>
<caption>
<title>UAV와 카메라 제원</title>
<p>Table 1 Specification of UAV and camera</p>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr>
<td>Weight</td>
<td align="center">1380g</td>
</tr>
<tr>
<td>Max. speed</td>
<td align="center">20m/s</td>
</tr>
<tr>
<td>Max. flight time</td>
<td align="center">28min.</td>
</tr>
<tr>
<td>GPS mode</td>
<td align="center">GPS/GLONASS</td>
</tr>
<tr>
<td>Pixels</td>
<td align="center">12.4M(4000by3000)</td>
</tr>
<tr>
<td>FOV</td>
<td align="center">94°</td>
</tr>
<tr>
<td>Focal length</td>
<td align="center">20mm.</td>
</tr>
<tr>
<td>Shutter speed</td>
<td align="center">8sec. - 1/8000sec.</td>
</tr>
</tbody>
</table>
</table-wrap>
<p>UAV를 활용한 항공사진 촬영은 2017년 7월 13일과 2017년 8월 1일에 수행되었으며 총 3회에 걸쳐 수행하였다. Virtual reference system(VRS) differential global positioning system(DGPS) 측량을 통해 해당 지역에 총 11점에 대해 기준점 측량을 시행하고 정확도 보정과 평가를 위해 각각 지상 기준점(6점)과 검사점(5점)으로 활용하였다. 해당 지역에 대한 1회 촬영시간은 평균 20분이 소요되었으며 1회 촬영 시간당 약 0.5 <italic>km</italic>²의 촬영블록에 대해 종중복 80%, 횡중복 40% 이상으로 촬영하였다. UAV의 비행고도는 평균 100m의 비행고도로 촬영하였으며 촬영블록 당 450장 정도의 항공사진을 취득하였다(&#x003C;<xref ref-type="fig" rid="f006">그림 6</xref>&#x003E;).</p>
<fig id="f006" orientation="portrait" position="float">
	<label>그림 6.</label>
	<caption>
		<title>실험대상 지역</title>
		<p>Figure 6. Research area</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f006.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
</sec>
<sec id="sec003-3">
<title>3.3 양식장 정사영상 제작</title>
<p>취득된 항공 영상들의 처리를 위해 상용소프트웨어인 PIX4D(<uri>https://pix4d.com/</uri>) 소프트웨어를 활용하였으며 SfT(Structure from Motion)알고리즘을 기반으로 다음의 4단계를 통해 DSM과 정사영상을 제작하였다.</p>
<p>1) 자동매칭을 통해 항공사진 간의 중복지역에서 접합점들을 결정하고 번들 조정을 통해 외부표정요소들을 결정한다.</p>
<p>2) 결정된 외부표정요소들과 항공사진을 활용하여 매칭 점들을 재탐색하고 이로부터 조밀한 point clouds를 생성한다.</p>
<p>3) Point clouds를 활용하여 TIN을 생성한다.</p>
<p>4) 생성된 TIN을 활용하여 DSM과 정사영상을 제작한다.</p>
<p>본 연구에서는 Faster R-CNN 알고리즘으로 자동 양식장 개체 추출의 효용성을 평가하기 위해 실험대상 지역 중 전복 양식장과 김 양식장 개체가 고르게 분포하고 있는 대상지역 1에 대해 정사영상을 생성하였다(&#x003C;<xref ref-type="fig" rid="f007">그림 7</xref>&#x003E;). 대상지역 2와 대상지역 3에서 취득된 항공사진들은 다양한 지역에 분포하는 전복 양식장과 김 양식장에 대한 정보를 Faster R-CNN 알고리즘에 훈련하기 위해 활용하였다.</p>
<fig id="f007" orientation="portrait" position="float">
	<label>그림 7.</label>
	<caption>
		<title>연안지역 양식장 정상영상(GRS80, Central TM)</title>
		<p>Figure 7. Orthophoto of Sea Farm(GRS80, Central TM)</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f007.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>생성된 정사영상에 대해 공간 해상도, 촬영범위, 위치정확도에 대한 평가를 수행하였으며 이는 다음의 &#x003C;<xref ref-type="table" rid="t002">표 2</xref>&#x003E;에 제시되어있다. 생성된 정사영상 지도의 공간 해상도는 5cm로써 기존의 원격탐사 기법보다 매우 높은 수준의 공간해상력을 가지는 데이터의 생성이 가능하였다. 또한, 20분 촬영시간에 대한 1회 촬영범위는 0.782km2 수준으로 지형 공간 정보 제작을 위한 일반적인 작업 효율을 만족시킨다고 할 수 있다. 위치정확도의 경우 정밀도를 나타내는 RMSE가 0.1m 이하로써 지형 공간정보 구축에 만족할 만한 수준의 정확도를 가지는 데이터의 생성이 가능함을 확인할 수 있다</p>
<table-wrap id="t002">
<label>표 2</label>
<caption>
<title>정확도 및 효용성 평가</title>
<p>Table 2..Assessment of accuracy and feasibility</p>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr align="center">
<td>Evaluation items</td>
<td>Results</td>
</tr>
<tr align="center">
<td>Orthophoto GSD(cm)</td>
<td>5.00</td>
</tr>
<tr align="center">
<td>Coverage area(<italic>km</italic>²)</td>
<td>0.782</td>
</tr>
<tr align="center">
<td>RMSE(m)</td>
<td>±0.088</td>
</tr>
</tbody>
</table>
</table-wrap>
</sec>
</sec>
<sec id="sec004">
<title>4. Faster R-CNN 알고리즘을 활용한 연안 양식장 객체추출</title>
<p>Faster R-CNN을 적용해서 양식장 객체를 인식하기 위한 방법론을 구현한 환경은 다음과 같다. 구현 환경은 GPU를 갖춘 윈도우 컴퓨터 시스템이며, Anaconda 5.2 버전에서 파이썬 3.6을 사용하였으며, 딥러닝을 위한 프레임워크로는 Tensorflow 1.12를 사용하였다. &#x003C;<xref ref-type="table" rid="t003">표 3</xref>&#x003E;는 개발 환경에 대한 정보를 보여준다.</p>
<table-wrap id="t003">
<label>표 3</label>
<caption>
<title>객체 인식을 위한 구현 환경</title>
<p>Table 3. Implementation Environment for Object Detection</p>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr align="center">
<td>항목</td>
<td>환경</td>
</tr>
<tr align="center">
<td>CPU</td>
<td>인텔 i7-7700HQ CPU 2.8GHz, 2808MHz, 4코어</td>
</tr>
<tr align="center">
<td>GPU</td>
<td>NVIDIA GeForce GTX 1060</td>
</tr>
<tr align="center">
<td>메모리</td>
<td>16G</td>
</tr>
<tr align="center">
<td>운영체제</td>
<td>윈도우 10</td>
</tr>
<tr align="center">
<td>프로그래밍언어</td>
<td>Python 3.6 / Anaconda 5.2</td>
</tr>
<tr align="center">
<td>딥러닝 프레임워크</td>
<td>Tensorflow 1.12</td>
</tr>
<tr align="center">
<td>Faster-RCNN 모델</td>
<td>Faster RCNN V2 model</td>
</tr>
</tbody>
</table>
</table-wrap>
<p>드론 사진에서 양식장을 인식하는 것은 &#x003C;<xref ref-type="fig" rid="f008">그림 8</xref>&#x003E;과 같은 절차를 거쳐서 진행하였다.</p>
<fig id="f008" orientation="portrait" position="float">
	<label>그림 8.</label>
	<caption>
		<title>객체인식 실험 절차</title>
		<p>Figure 8. Object Detection Experiment Process</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f008.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>드론에서 찍은 양식장 사진을 선택하고, 이미지에서 빛 반사 제거, 사진의 고도 조정 등의 전처리를 거쳤으며, 이미지에서 양식장을 선택해서 abalone_farm, laver_farm 등의 라벨을 붙여서 훈련용 데이터와 테스트 데이터를 생성하였다. 이미지 라벨링 이후에 Faster-RCNN 모델을 이용하여 객체 인식 훈련을 수행하였으며, 훈련 이후에 지도 사진에서 객체 인식 테스트를 진행하였다. &#x003C;<xref ref-type="fig" rid="f009">그림 9</xref>&#x003E;은 Faster R-CNN을 이용해서 양식장을 인식한 결과를 보여준다. &#x003C;<xref ref-type="fig" rid="f009">그림 9</xref>&#x003E;에서 볼 수 있듯이 전복, 김 양식장 객체들을 찾을 수 있지만, 일부는 인식하지 못하는 경우도 발생한다. 또한, 전복 양식장의 경우에 각각 한 줄을 양식장으로 인식할지 혹은 전체를 하나의 양식장으로 인식할지 등은 전략적으로 결정해서 훈련할 때 라벨을 붙여야 한다. &#x003C;<xref ref-type="table" rid="t004">표 4</xref>&#x003E;는 양식장 인식의 검출률(recall)에 대한 내용을 보여준다. 검출률은 다음과 같은 공식으로 계산하였다.</p>
<disp-formula-group>
	<disp-formula id="dm01">
<mml:math id="dm01-1"><mml:mi mathvariant="normal">&#xAC80;</mml:mi><mml:mo>&#xCD9C;</mml:mo><mml:mi mathvariant="normal">&#xC728;</mml:mi><mml:mo>=</mml:mo><mml:mfrac><mml:mi>&#xC778;&#xC2DD;&#xB41C;&#xC591;&#xC2DD;&#xC7A5;&#xC218;</mml:mi><mml:mrow><mml:mi>&#xC804;&#xBCF5;&#xC591;&#xC2DD;&#xC7A5;&#xC218;</mml:mi><mml:mo>+</mml:mo><mml:mi>&#xAE40;&#xC591;&#xC2DD;&#xC7A5;&#xC218;</mml:mi></mml:mrow></mml:mfrac></mml:math>
	</disp-formula>
</disp-formula-group>
<p>이미지 한 장에는 많은 양식장이 포함되어 있기 때문에 검출률을 계산할 때는 이미지에 포함된 모든 양식장을 포함해서 계산하였다. 또한 앞에서 언급했듯이 전복 양식장에서 한 줄 단위로 인식할 것인지 묶음을 하나의 양식장으로 인식할 것인지를 결정해야 하는데, 인식되지 않은 전복 양식장은 한 줄을 각각 계산하였다.</p>
<table-wrap id="t004">
<label>표 4</label>
<caption>
<title>객체 인식 정확도</title>
<p>Table 4. Object Detection Correct Ratio</p>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr align="center">
<td>항목</td>
<td>값</td>
</tr>
<tr align="center">
<td>훈련용 이미지</td>
<td>120</td>
</tr>
<tr align="center">
<td>테스트용 이미지</td>
<td>3</td>
</tr>
<tr align="center">
<td>검출률</td>
<td>54.5%</td>
</tr>
</tbody>
</table>
</table-wrap>
</sec>
<sec id="sec005" sec-type="Conclusions">
<title>5. 결론 및 향후 연구과제</title>
<p>본 연구에서는 UAV를 활용하여 연안 지역에 대한 항공사진측량을 시행하고 해상 양식장에 대한 정사영상을 생성하였으며, Faster R-CNN 기법을 이용하여 양식장 시설물을 자동으로 인식하기 위한 방법론을 개발하였다. 이를 위해 첫째, 수직이 착륙이 가능한 저가의 상용 UAV를 활용하여 항공사진측량을 하였으며 해양환경에서 효과적으로 높은 정확도를 가지는 연안 양식장 정사영상의 생성이 가능함을 확인하였다. 둘째, UAV 항공사진측량으로부터 생성된 정사영상에 Faster R-CNN 알고리즘을 적용하여 양식장 시설물을 자동으로 인식하였으며 양식장 현황을 파악하는 데 효과적으로 활용될 수 있음을 제시하였다. 본 연구를 통해 UAV을 이용한 항공사진측량 시스템이 연안 지역의 양식장에 대해 충분한 공간 해상도를 가지는 지형 공간정보를 효과적으로 생성할 수 있음을 제시할 수 있었다. 이는 현장조사에 의존하고 있는 양식장 감시 및 관리 업무를 자동화, 광역화하는데 이바지할 수 있으리라 기대된다.</p>
<fig id="f009" orientation="portrait" position="float">
	<label>그림 9.</label>
	<caption>
		<title>양식장 인식</title>
		<p>Figure 9. Ocean Farm Detection</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f009.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>하지만 다음과 같은 한계점을 가지고 있으며, 이는 향후 추가 연구를 통해서 해결할 필요가 있다고 판단된다. 첫째, 해양환경에서 UAV 항공사진측량의 정확도를 확보하기 위한 지상기준점 확보방안에 관한 다양한 연구가 필요하다고 판단된다. 둘째, 해양환경의 특성에 따른(해수면에 반사되는 햇빛, 매칭객체의 부족 등) 영상 매칭 오류에 관한 추가 연구도 필요하다고 판단된다. 특히, 실시간으로 객체(양식장 등)를 인식해야 할 필요성이 있을 때는 이러한 문제를 실시간으로 해결할 수 있는 알고리즘 개발이 필수적이다. 셋째, 해상환경에서 객체(양식장 혹은 다른 해상객체)를 인식하기 위해서는 이와 관련된 이미지 데이터의 구축이 필수적이다. 본 논문에서는 김 양식장과 전복 양식장에 대해서 일부 테스트를 하였지만, 해상도가 다르거나 고도가 다른 경우에 식별하지 못하는 문제점이 관찰되었다. 따라서 해상객체를 효과적으로 인식하기 위해서는 드론에서 찍은 충분한 이미지 데이터 베이스의 구축이 필요하다. 마지막으로 데이터 취득을 위한 탑재 센서를 다양화하려는 노력도 필요하다. 현재는 광학 센서를 기반으로 항공사진측량이 시도되고 있지만, 해양환경에서의 활용성이 높다고 판단되는 Hyper spectral 센서, LiDAR 센서, Infra Red 센서 등을 탑재하여 데이터를 취득하고 목적에 적합하게 데이터를 처리․생성하기 위한 연구개발이 추가로 이루어져야 할 것이다.</p>
</sec>
</body>
<back>
<ref-list>
<title>References</title>
<!-- [1] B-J. Kim, J-K. Choi, and Y-K. Lee, Investigating applicability of unmanned aerial vehicle to the tidal flat zone, Korean Journal of Remote Sensing, Vol. 31, No. 5, pp. 461-471, 2015.-->
<ref id="B001">
<label>[1]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Kim</surname><given-names>B-J.</given-names></name>
<name><surname>Choi</surname><given-names>J-K.</given-names></name>
<name><surname>Lee</surname><given-names>Y-K.</given-names></name>
</person-group>
<year>2015</year>
<article-title>Investigating applicability of unmanned aerial vehicle to the tidal flat zone</article-title>
<source>Korean Journal of Remote Sensing</source>
<volume>31</volume><issue>5</issue>
<fpage>461</fpage><lpage>471</lpage>
<pub-id pub-id-type="doi">10.7780/kjrs.2015.31.5.10</pub-id>
</element-citation>
</ref>
<!-- [2] K-S. Lee, J-M. Choi and C-H. Cho, Method to extract coastline changes using unmanned aerial vehicle, Journal of Korean Geographical Society, Vol. 50, No. 5, pp. 473-483, 2015.-->
<ref id="B002">
<label>[2]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Lee</surname><given-names>K-S.</given-names></name>
<name><surname>Choi</surname><given-names>J-M.</given-names></name>
<name><surname>Cho</surname><given-names>C-H.</given-names></name>
</person-group>
<year>2015</year>
<article-title>Method to extract coastline changes using unmanned aerial vehicle</article-title>
<source>Journal of Korean Geographical Society</source>
<volume>50</volume><issue>5</issue>
<fpage>473</fpage><lpage>483</lpage>
</element-citation>
</ref>
<!-- [3] D-H. Kim, H-J. Yoon, and S-Y. Oh, Application of unmanned aerial image application red tide monitoring on the aquaculture fields in the coastal waters of the South Sea, Korea, Korean Journal of Remote Sensing, Vol. 32, No. 2, pp. 87-96, 2016.-->
<ref id="B003">
<label>[3]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Kim</surname><given-names>D-H.</given-names></name>
<name><surname>Yoon</surname><given-names>H-J.</given-names></name>
<name><surname>Oh</surname><given-names>S-Y.</given-names></name>
</person-group>
<year>2016</year>
<article-title>Application of unmanned aerial image application red tide monitoring on the aquaculture fields in the coastal waters of the South Sea, Korea</article-title>
<source>Korean Journal of Remote Sensing</source>
<volume>32</volume><issue>2</issue>
<fpage>87</fpage><lpage>96</lpage>
<pub-id pub-id-type="doi">10.7780/kjrs.2016.32.2.2</pub-id>
</element-citation>
</ref>
<!-- [4] J-B. Lee, and Y. Huh, A study on modeling tidal flats and extracting tidal creeks using drones aerial photogrammetry, Journal of the Korean Society for Geospatial Information Science, Vol. 25, No. 3, pp. 43-52, 2017.-->
<ref id="B004">
<label>[4]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Lee</surname><given-names>J-B.</given-names></name>
<name><surname>Huh</surname><given-names>Y.</given-names></name>
</person-group>
<year>2017</year>
<article-title>A study on modeling tidal flats and extracting tidal creeks using drones aerial photogrammetry</article-title>
<source>Journal of the Korean Society for Geospatial Information Science</source>
<volume>25</volume><issue>3</issue>
<fpage>43</fpage><lpage>52</lpage>
<pub-id pub-id-type="doi">10.7319/kogsis.2017.25.3.043</pub-id>
</element-citation>
</ref>
<!-- [5] A. Papakonstantinou, K. Topouzelis, and G. Pavlogeorgatos, Coastline zones identification and 3D coastal mapping using UAV spatial Data, ISPRS International Journal Geo-Information, Vol. 5, No. 6, pp. 75-88, 2016.-->
<ref id="B005">
<label>[5]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Papakonstantinou</surname><given-names>A.</given-names></name>
<name><surname>Topouzelis</surname><given-names>K.</given-names></name>
<name><surname>Pavlogeorgatos</surname><given-names>G.</given-names></name>
</person-group>
<year>2016</year>
<article-title>Coastline zones identification and 3D coastal mapping using UAV spatial Data</article-title>
<source>ISPRS International Journal Geo-Information</source>
<volume>5</volume><issue>6</issue>
<fpage>75</fpage><lpage>88</lpage>
<pub-id pub-id-type="doi">10.3390/ijgi5060075</pub-id>
</element-citation>
</ref>
<!-- [6] I. L. Turner, M. D. Harley, and C. D. Drummond, UAVs for coastal surveying, Coastal Engineering, Vol. 114, pp. 19-24. 2016.-->
<ref id="B006">
<label>[6]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Turner</surname><given-names>I. L.</given-names></name>
<name><surname>Harley</surname><given-names>M. D.</given-names></name>
<name><surname>Drummond</surname><given-names>C. D.</given-names></name>
</person-group>
<year>2016</year>
<article-title>UAVs for coastal surveying</article-title>
<source>Coastal Engineering</source>
<volume>114</volume>
<fpage>19</fpage><lpage>24</lpage>
<pub-id pub-id-type="doi">10.1016/j.coastaleng.2016.03.011</pub-id>
</element-citation>
</ref>
<!-- [7] Marine fisheries basic statistics of Jeollanam-do, http://www.jeonnam.go.kr/contentsView.do?menuId=jeonnam0503030000, Apr. 2018.-->
<ref id="B007">
<label>[7]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2018</year>
<month>Apr.</month>
<source>Marine fisheries basic statistics of Jeollanam-do, <uri>http://www.jeonnam.go.kr/contentsView.do?menuId=jeonnam0503030000</uri></source>
</element-citation>
</ref>
<!-- [8] Illegal fishing Prevention strategy of Jeollanam-do, http://www.jeonnam.go.kr/M5551/boardView.do?seq=1864719&menuId=jeonnam0503 010000&boardId=M5551, Mar. 2017.-->
<ref id="B008">
<label>[8]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2017</year>
<month>Mar.</month>
<source>Illegal fishing Prevention strategy of Jeollanam-do, <uri>http://www.jeonnam.go.kr/M5551/boardView.do?seq=1864719&#x26;menuId=jeonnam0503 010000&#x26;boardId=M5551</uri></source>
</element-citation>
</ref>
<!-- [9] S-E. Park, W-J. Choi, W-C. Lee, J-H. Koo, R-h Jung, and J-S. Park, Construction of the fishing grounds information management system using GIS, Journal of the Korean Association of Geographic Information Studies, Vol. 7, No. 3, pp. 90-98, 2004.-->
<ref id="B009">
<label>[9]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Park</surname><given-names>S-E.</given-names></name>
<name><surname>Choi</surname><given-names>W-J.</given-names></name>
<name><surname>Lee</surname><given-names>W-C.</given-names></name>
<name><surname>Koo</surname><given-names>J-H.</given-names></name>
<name><surname>Jung</surname><given-names>R-h.</given-names></name>
<name><surname>Park</surname><given-names>J-S.</given-names></name>
</person-group>
<year>2004</year>
<article-title>Construction of the fishing grounds information management system using GIS</article-title>
<source>Journal of the Korean Association of Geographic Information Studies</source>
<volume>7</volume><issue>3</issue>
<fpage>90</fpage><lpage>98</lpage>
</element-citation>
</ref>
<!-- [10] M-H. JO, Measuring the Quantities of Aquaculture farming facilities for seaweed, ear shell and fish using high resolution aerial images - a case of the Wando region, Jeollanamdo -, Journal of the Korean Association of Geographic Information Studies, Vol. 14, No. 2, pp. 147-161, 2011.-->
<ref id="B010">
<label>[10]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>JO</surname><given-names>M-H.</given-names></name>
</person-group>
<year>2011</year>
<article-title>Measuring the Quantities of Aquaculture farming facilities for seaweed, ear shell and fish using high resolution aerial images - a case of the Wando region, Jeollanamdo -</article-title>
<source>Journal of the Korean Association of Geographic Information Studies</source>
<volume>14</volume><issue>2</issue>
<fpage>147</fpage><lpage>161</lpage>
<pub-id pub-id-type="doi">10.11108/kagis.2011.14.2.147</pub-id>
</element-citation>
</ref>
<!-- [11] N. Dalal and B. Triggs, Histograms of oriented gradients for human detection, Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Vol. 1, pp. 886-893, 2005.-->
<ref id="B011">
<label>[11]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Dalal</surname><given-names>N.</given-names></name>
<name><surname>Triggs</surname><given-names>B.</given-names></name>
</person-group>
<year>2005</year>
<source>Histograms of oriented gradients for human detection</source>
<conf-name>Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Vol. 1</conf-name>
<fpage>886</fpage><lpage>893</lpage>
<pub-id pub-id-type="doi">10.1109/cvpr.2005.177</pub-id>
</element-citation>
</ref>
<!-- [12] A. Krizhevsky, I. Sutskever, and G. E. Hinton, ImageNet classification with deep convolutional neural networks, Proceedings of the 25th International Conference on Neural Information Processing Systems, Vol. 1, pp. 1097-1105, 2012.-->
<ref id="B012">
<label>[12]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Krizhevsky</surname><given-names>A.</given-names></name>
<name><surname>Sutskever</surname><given-names>I.</given-names></name>
<name><surname>Hinton</surname><given-names>G. E.</given-names></name>
</person-group>
<year>2012</year>
<source>ImageNet classification with deep convolutional neural networks</source>
<conf-name>Proceedings of the 25th International Conference on Neural Information Processing Systems, Vol. 1</conf-name>
<fpage>1097</fpage><lpage>1105</lpage>
</element-citation>
</ref>
<!-- [13] R. Girshick, J. Donahue, T. Darrell, and J. Malik, Rich feature hierarchies for accurate object detection and semantic segmentation, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 580-587, 2014.-->
<ref id="B013">
<label>[13]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Girshick</surname><given-names>R.</given-names></name>
<name><surname>Donahue</surname><given-names>J.</given-names></name>
<name><surname>Darrell</surname><given-names>T.</given-names></name>
<name><surname>Malik</surname><given-names>J.</given-names></name>
</person-group>
<year>2014</year>
<source>Rich feature hierarchies for accurate object detection and semantic segmentation</source>
<conf-name>Proceedings of IEEE Conference on Computer Vision and Pattern Recognition</conf-name>
<fpage>580</fpage><lpage>587</lpage>
<pub-id pub-id-type="doi">10.1109/cvpr.2014.81</pub-id>
</element-citation>
</ref>
<!-- [14] R. Girshick, Fast R-CNN, Proceedings of IEEE International Conference on Computer Vision, pp. 1440-1448, 2015.-->
<ref id="B014">
<label>[14]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Girshick</surname><given-names>R.</given-names></name>
</person-group>
<year>2015</year>
<source>Fast R-CNN</source>
<conf-name>Proceedings of IEEE International Conference on Computer Vision</conf-name>
<fpage>1440</fpage><lpage>1448</lpage>
</element-citation>
</ref>
<!-- [15] S. Ren, K. He, R. Girshick, and J. Sun, Faster R-CNN: towards real-time object detection with region proposal networks, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 39, No. 6, pp. 1137-1149, 2015.-->
<ref id="B015">
<label>[15]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Ren</surname><given-names>S.</given-names></name>
<name><surname>He</surname><given-names>K.</given-names></name>
<name><surname>Girshick</surname><given-names>R.</given-names></name>
<name><surname>Sun</surname><given-names>J.</given-names></name>
</person-group>
<year>2015</year>
<article-title>Faster R-CNN: towards real-time object detection with region proposal networks</article-title>
<source>IEEE Transactions on Pattern Analysis and Machine Intelligence</source>
<volume>39</volume><issue>6</issue>
<fpage>1137</fpage><lpage>1149</lpage>
<pub-id pub-id-type="doi">10.1109/tpami.2016.2577031</pub-id>
</element-citation>
</ref>
<!-- [16] Marine fisheries basic statistics of Jindo, https://www.jindo.go.kr/home/sub.cs?m=277, 2018-->
<ref id="B016">
<label>[16]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2018</year>
<source>Marine fisheries basic statistics of Jindo, <uri>https://www.jindo.go.kr/home/sub.cs?m=277</uri></source>
</element-citation>
</ref>
<!-- [17] J-W. Lee, J. Wang, D. Crandall, S. Sabanovic, and G. Fox, Real-time, cloud-based object detection for unmanned aerial vehicles, Proceedings of IEEE International Conference on Robotic Computing, pp. 36-43, 2017.-->
<ref id="B017">
<label>[17]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Lee</surname><given-names>J-W.</given-names></name>
<name><surname>Wang</surname><given-names>J.</given-names></name>
<name><surname>Crandall</surname><given-names>D.</given-names></name>
<name><surname>Sabanovic</surname><given-names>S.</given-names></name>
<name><surname>Fox</surname><given-names>G.</given-names></name>
</person-group>
<year>2017</year>
<source>Real-time, cloud-based object detection for unmanned aerial vehicles</source>
<conf-name>Proceedings of IEEE International Conference on Robotic Computing</conf-name>
<fpage>36</fpage><lpage>43</lpage>
<pub-id pub-id-type="doi">10.1109/irc.2017.77</pub-id>
</element-citation>
</ref>
<!-- [18] F. Maire, L. M. Alvarez, and A. Hodgson, Automating marine mammal detection in aerial images captured during wildlife surveys: a deep learning approach, Australasian Joint Conference on Artificial Intelligence, pp. 379-385, 2015.-->
<ref id="B018">
<label>[18]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Maire</surname><given-names>F.</given-names></name>
<name><surname>Alvarez</surname><given-names>L. M.</given-names></name>
<name><surname>Hodgson</surname><given-names>A.</given-names></name>
</person-group>
<year>2015</year>
<source>Automating marine mammal detection in aerial images captured during wildlife surveys: a deep learning approach</source>
<conf-name>Australasian Joint Conference on Artificial Intelligence</conf-name>
<fpage>379</fpage><lpage>385</lpage>
<pub-id pub-id-type="doi">10.1007/978-3-319-26350-2_33</pub-id>
</element-citation>
</ref>
</ref-list>
<ack>
<title>감사의 글</title>
<p>본 논문은 2017학년도 목포대학교 교내연구과제 지원에 의하여 연구되었습니다.</p>
</ack>
<bio>
<p><graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f010.jpg"></graphic><bold>Jaebin Lee</bold> received the bachelor’s degree in the Department of Civil Engineering from the Yonsei University in 2000. He received the M.S. degree and the Ph.D. degree in the Department of Civil and Environment Engineering from Seoul National University in 2002 and 2008, respectively. From 2008 to 2009, he was a researcher at ETH Zurich, Swiss. He has been a professor in the Department of Civil Engineering at Mokpo National University since 2009. His current research interests include UAV photogrammetry, Airborne bathymetry Lidar surveying in coastal area.</p>
<p><italic>E-mail address</italic>: <email>lee2009@mokpo.ac.kr</email></p>
<p><graphic xlink:href="../ingestImageView?artiId=ART002459566&amp;imageName=jkits_2019_14_02_145_f011.jpg"></graphic><bold>Jongmyung Choi</bold> received the Bachelor's degree, Master's degree, and Ph. D. in computer science from Soongsil University, South Korea, in 1992, 1996, and 2003 respectively. He is currently a professor in the Department of Computer Engineering, Mokpo National University, South Korea, since 2004. He did research as a visiting scholar at Georgia Institute of Technology, USA, from 2010 to 2011. His research interests are human computer interaction, deep learning, secure systems, and healthcare.</p>
<p><italic>E-mail address</italic>: <email>jmchoi@mokpo.ac.kr</email></p>
</bio>
</back>
</article>
