<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="/resources/xsl/jats-html.xsl"?>
<article article-type="research-article" dtd-version="1.1" xml:lang="ko" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
	<journal-meta>
		<journal-id journal-id-type="publisher-id">jksarm</journal-id>
		<journal-title-group>
		<journal-title xml:lang="ko">한국기록관리학회지</journal-title>
		<journal-title>Journal of Korean Society of Archives and Records Management</journal-title>
		</journal-title-group>
		<issn pub-type="ppub">1598-1487</issn>
		<issn pub-type="epub">2671-7247</issn>
		<publisher>
		<publisher-name xml:lang="ko">한국기록관리학회 </publisher-name>
		<publisher-name>Korean Society of Archives and Records Management</publisher-name>
		</publisher>
	</journal-meta>
	<article-meta>
		<article-id pub-id-type="publisher-id">jksarm_2020_20_02_67</article-id>
		<article-id pub-id-type="doi">10.14404/JKSARM.2020.20.2.067</article-id>
		<article-categories>
			<subj-group>
				<subject>Research Article</subject>
			</subj-group>
		</article-categories>
		<title-group>
			<article-title>국내 지자체 사진 기록물의 효율적 관리를 위한 메타데이터 설계 및 기계학습 기반 자동 인덱싱 방법 연구</article-title>
			<trans-title-group xml:lang="en">
				<trans-title>Metadata Design and Machine Learning-Based Automatic Indexing for Efficient Data Management of Image Archives of Local Governments in South Korea</trans-title>
			</trans-title-group>
		</title-group>
		<contrib-group>
			<contrib contrib-type="author" xlink:type="simple">
				<name-alternatives>
					<name name-style="eastern">
						<surname>김</surname>
						<given-names>인아</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Kim</surname>
						<given-names>InA</given-names>
					</name>
				</name-alternatives>
				<xref ref-type="aff" rid="A1"><sup>1</sup></xref>
			</contrib>	
			<contrib contrib-type="author" xlink:type="simple">
				<name-alternatives>
					<name name-style="eastern">
						<surname>강</surname>
						<given-names>영선</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Kang</surname>
						<given-names>Young-Sun</given-names>
					</name>
				</name-alternatives>
				<xref ref-type="aff" rid="A2"><sup>2</sup></xref>
			</contrib>	
			<contrib contrib-type="author" xlink:type="simple" corresp="yes">
				<name-alternatives>
					<name name-style="eastern">
						<surname>이</surname>
						<given-names>규철</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Lee</surname>
						<given-names>Kyu-Chul</given-names>
					</name>
				</name-alternatives>
				<xref ref-type="aff" rid="A3"><sup>3</sup></xref>
			</contrib>
			</contrib-group>
			<aff id="A1"><sup>1</sup><sub>제 1 저자</sub> 충남대학교 컴퓨터융합학부 박사과정 <email>dodary0214@gmail.com</email></aff>
			<aff id="A2"><sup>2</sup> ㈜레드윗 연구원 <email>ctyvx784@gmail.com</email></aff>
			<aff id="A3"><sup>3</sup><sub>교신저자</sub> 충남대학교 컴퓨터융합학부 교수 <email>kclee@cnu.ac.kr</email></aff>
			<author-notes>
		<p><bold>ORCID</bold></p>
			<p>InA Kim <uri>https://orcid.org/0000-0002-6454-634X</uri></p>
			<p>Young-Sun Kang <uri>https://orcid.org/0000-0003-3215-4007</uri></p>
			<p>Kyu-Chul Lee <uri>https://orcid.org/0000-0003-0857-807X</uri></p>
			<p>&#x25AA;이 연구는 충남대학교 학술연구비에 의해 지원되었음.</p>
			<p>&#x25AA;본 논문은 강영선의 석사학위논문 「기계학습 기반 사진 인덱싱과 온톨로지 구축을 통한 지자체 사진 기록물의 효과적인 검색방법」(2019)의 데이터를 활용하여 재구성한 것임</p>
		</author-notes>
		<pub-date pub-type="ppub">
			<month>5</month>
			<year>2020</year>
		</pub-date>
		<volume>20</volume>
		<issue>2</issue>
		<fpage>67</fpage>
		<lpage>83</lpage>
		<history>
			<date date-type="received">
				<day>21</day>
				<month>4</month>
				<year>2020</year>
			</date>
			<date date-type="rev-recd">
				<day>23</day>
				<month>4</month>
				<year>2020</year>
			</date>
			<date date-type="accepted">
				<day>12</day>
				<month>5</month>
				<year>2020</year>
			</date>
		</history>
		<permissions>
			<copyright-statement>&#x00A9;한국기록관리학회</copyright-statement>
			<license>
				<license-p>This is an Open Access article distributed under the terms of the Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 (<ext-link ext-link-type="uri" xlink:href="https://creativecommons.org/licenses/by-ncnd/4.0/"></ext-link>) which permits use, distribution and reproduction in any medium, provided that the article is properly cited, the use is non-commercial and no modifications or adaptations are made.</license-p>
			</license>
		</permissions>
		<abstract>
		<title>초 록</title>
<p>국내의 많은 지방자치단체에서는 지역에서 발생하는 사건들에 대한 시청각 기록물을 사람들이 쉽게 열람할수 있도록 온라인 서비스를 제공하고 있다. 그러나 지자체들의 현재 사진 기록물 관리 방식은 표준적인메타데이터가 부재하고 사진의 정보를 활용하지 않기 때문에 지자체 간 호환성과 검색 편의성이 낮은문제점을 가진다. 이와 같은 문제점을 개선하기 위해, 본 논문에서는 국내 지자체 사진 기록물의 효율적 관리를 위한 메타데이터 설계와 기계학습 기반 자동 인덱싱 기술을 제안한다. 먼저, 본 논문에서는 국내 지자체 사진 기록물에 특화된 메타데이터를 설계하여 지자체 간 사진 기록물의 호환성을 높이고, 사진의 기본 정보와 특성을 나타낼 수 있는 요소들을 메타데이터 항목에 포함함으로써 사진 기록물의 효율적인 관리를 가능하게 한다. 또한, 기계학습 기술을 기반으로 사진의 사건과 카테고리를 반영하는 정보인 사진속 텍스트와 객체를 자동 인덱싱하여, 사진 기록물 검색 시 사용자 검색의 편의성을 높인다. 마지막으로, 본 논문에서는 제안한 방법을 사용하여 국내 지자체 사진 기록물에서 텍스트와 객체를 자동으로 추출하고, 추출한 내용과 기본 정보를 본 논문에서 설계한 사진 기록물 메타데이터 항목에 저장하는 프로그램을 개발하였다.</p>
		</abstract>
		<trans-abstract xml:lang="en">
<title>ABSTRACT</title>
<p>Many local governments in Korea provide online services for people to easily access the audio-visual archives of events occurring in the area. However, the current method of managing these archives of the local governments has several problems in terms of compatibility with other organizations and convenience for searching of the archives because of the lack of standard metadata and the low utilization of image information. To solve these problems, we propose the metadata design and machine learning-based automatic indexing technology for the efficient management of the image archives of local governments in Korea. Moreover, we design metadata items specialized for the image archives of local governments to improve the compatibility and include the elements that can represent the basic information and characteristics of images into the metadata items, enabling efficient management. In addition, the text and objects in images, which include pieces of information that reflect events and categories, are automatically indexed based on the machine learning technology, enhancing users’ search convenience. Lastly, we developed the program that automatically extracts text and objects from image archives using the proposed method, and stores the extracted contents and basic information in the metadata items we designed.</p>
		</trans-abstract>
		<kwd-group kwd-group-type="author">
			<kwd>사진 기록물</kwd>
			<kwd>메타데이터</kwd>
			<kwd>딥러닝</kwd>
			<kwd>자동 인덱싱</kwd>
			</kwd-group>
		<kwd-group kwd-group-type="author" xml:lang="en">
			<kwd>Image Archive</kwd>
			<kwd>Metadata</kwd>
			<kwd>OCR</kwd>
			<kwd>Deep Learning</kwd>
		<kwd>Automatic Indexing</kwd>
		</kwd-group>
	</article-meta>
</front>
<body>
<sec id="sec001" sec-type="intro">
	<title>1. 서 론</title>
<p>디지털 아카이브(Digital Archive)는 다양한 도메인 및 매체에 저장된 자료들을 디지털 형식으로 변환하여 저장하며, 이를 통해 자료를 영구적으로 보관하고 효율적인 검색 및 관리를 가능하게 하는 기반 기술이다. 디지털로 변환된 자료를 저장하는 것은 자료의 효율적 검색 및 관리와 높은 관련성을 가진다. 정보 기술의 발전으로 디지털 정보의 생산과 유통이 증가하면서 다양한 자료들에 대한 디지털 보존에 대한 관심 또한 증가하였으며, 영국, 미국 등 많은 나라에서 디지털 아카이브에 관한 연구가 진행되었다. 특히 사진 데이터는 ODF(Open Document Format), OOXML(Office Open XML) 등 특정 규격과 많은 텍스트로 구성된, 일반적인 전자문서 기록물과 다른 구성과 제한적인 정보를 가지기 때문에, 사진에 대한 저장 및 검색에 대한 많은 서비스와 연구들이 진행되고 있다. 예를들어, 구글(Google)의 아트 &#x0026; 컬쳐 프로젝트(Art &#x0026; Culture Project)는 세계의 유화, 조각, 가구 등 40,000점이 넘는 작품의 고해상도 사진을 효율적으로 제공하는 서비스를 개발하여 제공하고 있으며, 세계의 많은 대형 박물관에서는 온라인에서 박물관의 소장 사진들을 사용자가 볼 수 있는 서비스를 제공하기도 한다.</p>
<p>국내에서는 국내 공공기관에서 보유한 공공 기록물의 역사적 가치에 대한 중요성이 확대되면서, 일반 사용자가 쉽고 편리하게 기록물을 관람할 수 있도록 문서, 행정자료, 시청각물에 대한 공유 서비스를 제공하는 공공기관들이 증가하고 있다. 특히, 지방자치단체의 경우 각 지역에서 발생하는 특정 사건들에 대한 시청각 기록물을 보관하고, 사람들이 쉽게 기록물들을 열람할 수 있도록 온라인 서비스를 제공하고 있다. 예를 들어, 국내 지방자치단체인 수원시의 포토 뱅크, 군산시의 온라인 홍보 포털, 서귀포시의 온라인 사진 DB는 대중에게 기관에서 보유한 사진 기록물을 검색할 수 있는 온라인 서비스를 제공하고 있다.</p>
<p>이처럼 검색 엔진이나 박물관과 같이 서비스에 대한 수요가 높은 분야에서는 사진 기록물을 관리하기 위한 메타데이터 표준, 효율적인 검색을 위한 사진 매칭 기술 등이 활발하게 구축되고 있다. 그러나 지방자치단체에서 보유한 사진 기록물은 오히려 특정 시기에 발생한 사건, 특정 인물과 시설 등을 포함하고 있어, 이에 따른 자동적이고 정교한 관리가 필요하지만, 공공 사진 기록물 분야에서의 관리 기술은 아직 초기 단계이다. 본 논문에서 앞서 언급한 지자체들의 온라인 사진 기록물 제공 사이트를 분석한 결과, 국내 지자체들은 사진 기록물 관리에 대해 다음과 같이 세 가지 문제점을 가진다. 첫 번째로, 국내 지자체들은 사진 기록물을 관리하는 표준적인 메타데이터 기준이 없으므로, 각 지자체에서 서로 다른 메타데이터 항목을 기준으로 사진 기록물을 저장한다. 이는 서로 다른 기관에서의 사진 기록물 호환을 어렵게 한다. 두 번째로, 지자체에서는 사진 기록물 담당자가 특정 기준 없이 파일명을 기준으로 사진을 저장하는 경우가 많으며, 담당자에 따라 저장하는 파일명 규칙이 달라질 수 있다. 지자체는 특정 사건, 인물, 회의, 지역 행사 등과 관련된 사진을 주로 보유하고 있는데, 일관되지 않은 사진 기록물의 파일명들은 사용자의 입력 키워드와 정확 매칭(Exact Matching)을 통해 검색되므로, 사용자 의도에 맞는 사진 기록물 검색을 어렵게 하며 정확도를 떨어뜨린다. 마지막으로, 지자체 담당자가 새로운 사진 기록물을 등록할 때마다 메타데이터를 수동으로 입력하기 때문에, 이로 인한 시간적, 인적 소모가 발생한다.</p>
<p>본 논문은 현재 국내 지자체들의 사진 기록물 관리의 문제점을 개선하기 위해서, 지자체의 사진 기록물을 효율적으로 저장하고 관리하는 기술을 설계하고 구현한다. 본 논문의 제안하는 기술은 국내 지자체 사진 기록물의 특성을 반영하는 표준적인 사진 기록물 메타데이터를 설계함으로써 여러 지자체 간 사진 기록물 호환성을 높이고, 사진의 기본 정보와 특성을 나타낼 수 있는 요소들을 메타데이터 항목에 포함하여 사진 기록물의 효율적인 관리를 가능하게 한다. 또한, 본 논문은 광학식 문자 인식 기술인 OCR(Optical Character Recognition)과 딥러닝 기반 객체 인식(Deep Learning-based Object Detection) 알고리즘인 Faster R-CNN(Regions-CNN)을 사용하여 사진에서 텍스트와 객체를 추출함으로써 사진 기록물을 저장할 때 중요 메타데이터를 자동으로 저장하도록 한다. 이렇게 저장된 사진의 텍스트와 객체는 사진의 특성을 나타내는 주요 정보로써 활용되어, 보다 사용자 의도에 맞게 사진 기록물을 검색할 수 있도록 하고 검색의 편의성을 높인다.</p>
<p>본 논문의 구성은 다음과 같다. 2장에서는 공공기관 전자기록물 메타데이터 관련 연구와 시청각 기록물 메타데이터 관련 연구를 살펴보고 본 연구의 차별점을 논하며, 3장에서는 국내·외 사진 기록물의 표준적인 메타데이터를 분석하고 국내 지자체의 사진 기록물 특성을 반영한 메타데이터 설계 방법을 기술한다. 4장에서는 OCR과 딥러닝 기반 객체 인식 알고리즘을 사용하여 사진 기록물에 포함된 텍스트와 객체를 자동 인덱싱하는 방법을 기술하고, 구현한 지자체 사진 기록물 저장 프로그램 결과물을 설명한다. 마지막으로 5장에서 본 연구의 결론과 향후 연구 방향을 논한다.</p>
</sec>
<sec id="sec002">
<title>2. 관련 연구</title>
<sec id="sec002-1">
<title>2.1 공공기관 전자기록물 메타데이터 관련 연구</title>
<p>공공기관의 전자기록물을 위한 메타데이터 관련 연구가 진행되었다(<xref ref-type="bibr" rid="B004">차승준, 최윤정, 이규철, 2009</xref>; <xref ref-type="bibr" rid="B005">황윤영, 임혁수, 이규철, 2005</xref>). 먼저 첫 번째 연구는 웹 기록물의 한 종류인 심층 웹 기록물 아카이빙에 대한 메타데이터 항목을 정의하였다. 해당 연구는 브라이트 플래닛(Bright Planet)과 국외 연방정부에서 정의하는 웹 기록물 보존 방안을 분석하고 국내 국가기록원과 행정안전부 웹 사이트에 포함된 자원을 분석하여, 더블린 코어(Dublin Core) 메타데이터를 중심으로 장기보존포맷을 위한 심층 웹 기록물 메타데이터, KoDeWeb(Korea Deep Web)을 설계하였다.</p>
<p>두 번째 연구는 해외의 전자기록물 메타데이터를 분석하여 국내의 전자기록물 영구보존을 위한 메타데이터 항목을 설계하였다. 해당 연구에서는 기록물 관리 표준인 ISO 15489와 호주 빅토리아주에서 제안한 메타데이터를 분석하였다. ISO 15489는 기록물 관리에 대한 국제표준으로써 효율적으로 기록에 담긴 정보를 검색할 수 있도록 기록관리 정책과 절차를 표준화한 메타데이터이다. 또한, 호주 빅토리아주의 VEO(VERS Encapsulated Object)는 호주 빅토리아주에서 생성, 관리되는 전자기록물을 영구보존하기 위한 메타데이터이다. 연구는 ISO 15489, 호주의 VEO, 국내 기록물철 등록부, 기록물 등록 대장의 전자기록물 메타데이터 항목을 비교하고, 국내 메타데이터 항목에서 부족한 부분을 보완하여 기록물을 영구보존하고 활용하기 위한 국내 전자기록물 메타데이터 항목을 재정의하였다.</p>
<p>그러나 이러한 연구들은 전자기록물, 웹 기록물 보존에 관한 메타데이터 연구로써, 사진 기록물의 정보를 저장 할 수 있는 세분화된 메타데이터 항목을 보유하고 있지 않으므로 국내 지자체 사진 기록물에 적용하기에는 어려움이 있다.</p>
</sec>
<sec id="sec002-2">
<title>2.2 공공기관 시청각 기록물 메타데이터 관련 연구</title>
<p>공공기관의 시청각 기록물을 위한 메타데이터 관련 연구도 진행되었다(<xref ref-type="bibr" rid="B002">김근형 외, 2013</xref>; <xref ref-type="bibr" rid="B003">신동헌, 정세영, 김선현, 2009</xref>). 첫 번째 연구는 2004년 국가표준으로 제정된 교육 정보 메타데이터 표준 KEM(Korea Education Metadata)의 개선을 위해 더블린 코어(Dublin Core) 메타데이터 요소를 활용하여, 학습자원에 대한 기능별 메타데이터 요소를 확장할 수 있도록 교육 정보 메타데이터를 재설계한 연구이다. 해당 연구는 국내·외 교육자료 콘텐츠 현황을 조사하고, 각 콘텐츠 유형별로 채택하고 있는 메타데이터의 특성들을 분석하였다. 더블린코어 메타데이터 표준을 준수하는 ISO/IEC 19788 MLR 표준을 기반으로 &#x003C;<xref ref-type="table" rid="t001">표 1</xref>&#x003E;과 같이 교육, 학습, 훈련 콘텐츠 등 분야별로 필요한 메타데이터 요소를 멀티 파트 형태로 개발하여 확장할 수 있도록 설계하였다.</p>
<table-wrap id="t001">
<label>&#x003C;표 1&#x003E;</label>
<caption>
<title>교육정보 메타데이터 항목 중 일부</title>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr style="background: lightgrey" valign="middle" align="center">
<td>순번</td>
<td>구분</td>
<td></td>
<td>순번</td>
<td>구분</td>
</tr>
<tr valign="middle" align="center">
<td>1</td>
<td>Title(제목)</td>
<td></td>
<td>8</td>
<td>Source(출처)</td>
</tr>
<tr valign="middle" align="center">
<td>2</td>
<td>Creator(저자)</td>
<td></td>
<td>9</td>
<td>Language(언어)</td>
</tr>
<tr valign="middle" align="center">
<td>3</td>
<td>Subject(주제)</td>
<td></td>
<td>10</td>
<td>Relation(관련자료)</td>
</tr>
<tr valign="middle" align="center">
<td>4</td>
<td>Identifier(식별자)</td>
<td></td>
<td>11</td>
<td>Publisher(발행처)</td>
</tr>
<tr valign="middle" align="center">
<td>5</td>
<td>Description(설명)</td>
<td></td>
<td>12</td>
<td>Right(이용조건)</td>
</tr>
<tr valign="middle" align="center">
<td>6</td>
<td>Type(자료유형)</td>
<td></td>
<td>13</td>
<td>Format(형식)</td>
</tr>
<tr valign="middle" align="center">
<td>7</td>
<td>Date(날짜)</td>
<td></td>
<td>14</td>
<td>Contributor(기여자)</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p>출처: <xref ref-type="bibr" rid="B002">김근형 외, 2013</xref>.</p>
</table-wrap-foot>
</table-wrap>
<p>두 번째 연구는 국방과학연구소에서 보유한 아날로그 형태의 시청각 기록물을 디지털로 변환하여 관리하기 위한 ‘영상기록관리시스템’을 구축하였다. 해당 연구는 디지털로 변환한 시청각 기록물 관리를 위해 기록물 관리법과 다른 공공기관에서 실제 구축하여 운영 중인 시청각 기록물 관리 메타데이터 항목을 분석하였으며, 이를 통해 시청각 기록물을 장기적으로 보존하고 이용자 활용을 효율적으로 하기 위한 메타데이터 항목을 설계하였다. &#x003C;<xref ref-type="table" rid="t002">표 2</xref>&#x003E;는 이 중 사진 기록물에 대한 메타데이터 항목이다.</p>
<table-wrap id="t002">
<label>&#x003C;표 2&#x003E;</label>
<caption>
<title>기록사진 관련 메타데이터 항목</title>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr style="background: lightgrey" valign="middle" align="center">
<td>순번</td>
<td>구분</td>
<td></td>
<td>순번</td>
<td>구분</td>
</tr>
<tr valign="middle" align="center">
<td>1</td>
<td>촬영일자</td>
<td></td>
<td>14</td>
<td>주요인물</td>
</tr>
<tr valign="middle" align="center">
<td>2</td>
<td>원본형태</td>
<td></td>
<td>15</td>
<td>보도매체</td>
</tr>
<tr valign="middle" align="center">
<td>3</td>
<td>의뢰부서</td>
<td></td>
<td>16</td>
<td>촬영자</td>
</tr>
<tr valign="middle" align="center">
<td>4</td>
<td>크기</td>
<td></td>
<td>17</td>
<td>등록번호</td>
</tr>
<tr valign="middle" align="center">
<td>5</td>
<td>칼라</td>
<td></td>
<td>18</td>
<td>관리번호</td>
</tr>
<tr valign="middle" align="center">
<td>6</td>
<td>지역구분</td>
<td></td>
<td>19</td>
<td>생산년도</td>
</tr>
<tr valign="middle" align="center">
<td>7</td>
<td>공개구분</td>
<td></td>
<td>20</td>
<td>수량</td>
</tr>
<tr valign="middle" align="center">
<td>8</td>
<td>키워드</td>
<td></td>
<td>21</td>
<td>수량단위</td>
</tr>
<tr valign="middle" align="center">
<td>9</td>
<td>촬영장소</td>
<td></td>
<td>22</td>
<td>파일변환일자</td>
</tr>
<tr valign="middle" align="center">
<td>10</td>
<td>주제분류</td>
<td></td>
<td>23</td>
<td>파일명</td>
</tr>
<tr valign="middle" align="center">
<td>11</td>
<td>제목</td>
<td></td>
<td>24</td>
<td>파일형태</td>
</tr>
<tr valign="middle" align="center">
<td>12</td>
<td>내용(전체)</td>
<td></td>
<td>25</td>
<td>파일크기</td>
</tr>
<tr valign="middle" align="center">
<td>13</td>
<td>의뢰자</td>
<td></td>
<td colspan="2"></td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p>출처: <xref ref-type="bibr" rid="B003">신동헌, 정세영, 김선현, 2009</xref>.</p>
</table-wrap-foot>
</table-wrap>
<p>그러나 이러한 연구들은 국방과 교육이라고 하는 특정 집단과 도메인에 맞추어 메타데이터를 설계하여, 도메인에 특화된 메타데이터 항목을 가지고 있다. 또한, 파일 형태, 크기, 촬영자와 같이 사진 기록물에서 필요로 하는 메타데이터 항목도 포함되어있으나, 지자체 사진 기록물의 경우 사진 속 사건과 사진이 속한 카테고리 특성을 반영할 수 있는 텍스트와 객체 등이 포함되어있는데, 이러한 사진 기록물의 정보들을 저장하고 활용하기에 부족함이 있다.</p>
</sec>
</sec>
<sec id="sec003">
<title>3. 국내 지자체 사진 기록물 메타데이터 설계</title>
<p>1장에서 기술한 것과 같이, 현재 국내 지자체는 지자체가 보유한 사진 기록물의 특성을 반영하는 표준적인 메타데이터가 없으며, 이로 인해 서로 다른 지자체끼리 사진 기록물의 호환과 효율적인 사진 기록물의 관리가 어렵다는 문제점을 가진다. 본 장에서는 현재 국내·외에서 사용되는 사진 기록물 메타데이터 표준과 국내 지자체 사진 기록물 메타데이터의 특성을 분석하여 기술하고, 이를 바탕으로 국내 지자체 사진 기록물을 효율적으로 관리할 수 있는 메타데이터 항목들을 설계한다.</p>
<sec id="sec003-1">
<title>3.1 국내·외 사진 기록물 메타데이터 표준 분석</title>
<p>본 논문은 국외에서 사용되는 미디어 기록물 메타데이터 표준인 IPTC(International Press TelecommunicationsCouncil), 사진 기록물 파일 형식인 EXIF(EXchangable Image File format)의 메타데이터 항목과 국내의 공공기관인 국가기록원에서 활용되는 시청각 기록물 메타데이터 항목을 분석하여, 국내 지자체 사진 기록물에 필요한 메타데이터 항목들을 선택하였다.</p>
<p>먼저 IPTC는 텍스트, 사진, 다른 미디어 타입에 적용할 수 있는 메타데이터 속성의 집합이다(<xref ref-type="bibr" rid="B016">IPTC, 2017</xref>). IPTC는 1990년에 사진에 적용할 수 있는 IIM(Infromation Interchange Model) 메타데이터 속성 표준을 정의하였으며, 이후 어도비(Adobe)는 포토샵(Photoshop)에 IIM을 채택하고 IRB(Image Resource Block) 메타데이터 저장 기술을 개발하여 사진 파일에 IIM 메타데이터를 사용하였으며, XML/RDF 기반의 XMP(Extensible Metadata Platform)를 개발하였다. 2004년에 IPTC와 Adobe가 공동으로 XMP 용 IPTC 코어 스키마(IPTC Core Schema for XMP)를 개발하였으며, 2007년 IPTC는 사진 촬영 분야의 필요 속성을 반영한 IPTC 확장 스키마(IPTC Extension Schema)를 개발하고 IPTC 코어 스키마를 수정하였다. 이후, 두 사양 모두 IPTC 사진 메타데이터 표준(IPTC Photo Metadata Standard)이라는 단일 문서로 발표되었다.</p>
<p>IPTC 코어 스키마는 &#x003C;<xref ref-type="table" rid="t003">표 3</xref>&#x003E;과 같이 총 23개의 메타데이터 항목을 가지고 있다. 본 논문은 이 중 국내 지자체에 필요하지 않은 메타데이터 항목을 구분하고 필요한 메타데이터 항목을 선택하였다. 먼저, 코어 스키마 메타데이터 항목에서 ‘City(도시)’, ‘Country(나라)’, ‘Country Code(나라 코드)’, ‘Province or State(지방 혹은 주)’는 사진에 있는 특정 도시, 나라, 지방, 주와 같은 요소들이 입력되는 메타데이터 항목이며, 해당 항목들은 사진의 세부적인 요소들을 설명하기에 적합하나 사진에 보여지는 부분들을 국내 지자체에서 수동으로 파악하여 입력하기에는 어려움이 있을 것으로 판단되어 국내 지자체 메타데이터 항목에서 제외하였다. 또한, ‘Copyright Notice(저작권 고지)’, ‘Creator’s Contact Info(생성자 연락처)’, ‘Creator’s jobtitle(생성자 직책)’, ‘Credit Line(사진 공급자가 요구하는 신용도)’, ‘Description Writer(설명 생성자)’, ‘Instructions(지시 사항)’, ‘Intellectual Genre(지적 장르)’, ‘Job Id(작업 흐름도 식별자)’, ‘Rights Usage Terms(권리 사용 조건)’, ‘Scene Code(장면 코드)’, ‘Subject Code(주제 코드)’는 실제 국내 지자체에서 역할이 세부적으로 구분되지 않아 역할자의 세부 정보 입력이 어렵거나, 지자체에 다루는 정보의 범위를 벗어난다고 판단하여 국내 지자체 메타데이터 항목에서 제외하였다. 본 논문은 IPTC 코어 스키마에서 나머지 ‘Title(제목)’, ‘Creator(촬영자)’, ‘Date Created(촬영일)’, ‘Sublocation(설명 장소)’, ‘Description(설명)’은 지자체가 다루는 사진 기록물의 메타데이터 범위에서 벗어나지 않고 사진에서 필요한 가장 기본적인 메타데이터 항목으로 판단하여 선정하였다. 또한, ‘Keywords(키워드)’는 코어 스키마에서 사진 기록물의 주제, 내용 등을 나타낼 수 있는 일반적인 단어들을 포함하므로, 메타데이터 항목으로 선정하였다. 본 논문에서는 ‘Keywords’ 항목을 OCR 라이브러리를 이용하여 자동으로 추출한 사진의 텍스트를 저장하는 항목으로 활용하며, 이에 대한 자세한 방법은 4장에서 기술할 것이다.</p>
<table-wrap id="t003">
<label>&#x003C;표 3&#x003E;</label>
<caption>
<title>IPTC 코어 스키마 1.2 메타데이터 항목</title>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr style="background: lightgrey" valign="middle" align="center">
<td>순번</td>
<td>구분</td>
<td></td>
<td>순번</td>
<td>구분</td>
</tr>
<tr valign="middle" align="center">
<td>1</td>
<td>City</td>
<td></td>
<td>13</td>
<td>Instructions</td>
</tr>
<tr valign="middle" align="center">
<td>2</td>
<td>Copyright Notice</td>
<td></td>
<td>14</td>
<td>Intellectual Genre</td>
</tr>
<tr valign="middle" align="center">
<td>3</td>
<td>Country</td>
<td></td>
<td>15</td>
<td>Job Id</td>
</tr>
<tr valign="middle" align="center">
<td>4</td>
<td>Country Code</td>
<td></td>
<td>16</td>
<td>Keywords</td>
</tr>
<tr valign="middle" align="center">
<td>5</td>
<td>Creator</td>
<td></td>
<td>17</td>
<td>Province or State</td>
</tr>
<tr valign="middle" align="center">
<td>6</td>
<td>Creator’s Contact Info</td>
<td></td>
<td>18</td>
<td>Rights Usage Terms</td>
</tr>
<tr valign="middle" align="center">
<td>7</td>
<td>Creator’s jobtitle</td>
<td></td>
<td>19</td>
<td>Scene Code</td>
</tr>
<tr valign="middle" align="center">
<td>8</td>
<td>Credit Line</td>
<td></td>
<td>20</td>
<td>Source</td>
</tr>
<tr valign="middle" align="center">
<td>9</td>
<td>Data Created</td>
<td></td>
<td>21</td>
<td>Subject Code</td>
</tr>
<tr valign="middle" align="center">
<td>10</td>
<td>Description</td>
<td></td>
<td>22</td>
<td>Sublocation</td>
</tr>
<tr valign="middle" align="center">
<td>11</td>
<td>Description Writer</td>
<td></td>
<td>23</td>
<td>Title</td>
</tr>
<tr valign="middle" align="center">
<td>12</td>
<td>Headline</td>
<td></td>
<td colspan="2"></td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p>출처: <xref ref-type="bibr" rid="B016">IPTC, 2017. (http://www.iptc.org)</xref></p>
</table-wrap-foot>
</table-wrap>
<p>IPTC 확장 스키마는 &#x003C;<xref ref-type="table" rid="t004">표 4</xref>&#x003E;와 같이 총 34개의 메타데이터 항목을 가지며, 많은 항목들은 ‘Additional Model Information(추가 모델 정보)’, ‘Code of Organisation Featured in the Image(사진 조직 코드)’와 같이 지자체 사진기록물에서 보유하지 않아 세부적으로 기술하기 어려운 항목이므로 메타데이터 항목으로 고려하지 않았다. 그러나 ‘Person Shown in the Image(사진 속 사람)’는 사진에 포함된 사람을 저장하는 항목으로, 본 논문에서는 지자체 사진 기록물에 포함된 시장, 국회의원과 같이 특정이 가능한 사람을 저장하기 위한 메타데이터 항목으로써 선정하였으며, 마찬가지로 ‘Artwork/Object in the Image(사진 속 아트워크/객체)’는 사진에 포함된 객체를 저장 하는 항목으로, 책상, 동물, 건물 등 사진의 특성을 반영하는 정보를 나타낼 수 있는 메타데이터 항목으로 선정하였다. ‘Person Shown in the Image’ 항목의 경우 메타데이터 입력 시 사진에 포함된 특정 사람을 수동으로 입력하며, ‘Artwork/Object in the Image’ 항목의 경우 본 논문에서 딥러닝 기반 객체 인식 알고리즘을 사용하여 자동으로 추출한 사진의 객체를 저장하는 항목으로 활용된다. 이에 대한 자세한 방법은 4장에서 기술할 것이다.</p>
<table-wrap id="t004">
<label>&#x003C;표 4&#x003E;</label>
<caption>
<title> IPTC 확장 스키마 1.5 메타데이터 항목</title>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr valign="middle" align="center">
<td style="background: lightgrey">순번</td>
<td style="background: lightgrey">구분</td>
<td style="background: black"></td>
<td style="background: lightgrey">순번</td>
<td style="background: lightgrey">구분</td>
</tr>
<tr valign="middle" align="center">
<td>1</td>
<td>Additional Model Information</td>
<td style="background: black"></td>
<td>18</td>
<td>Linked Encoded Rights Expression</td>
</tr>
<tr valign="middle" align="center">
<td>2</td>
<td>Artwork/Object in the Image</td>
<td style="background: black"></td>
<td>19</td>
<td>Location Created</td>
</tr>
<tr valign="middle" align="center">
<td>3</td>
<td>Code of Organisation Featured in the Image</td>
<td style="background: black"></td>
<td>20</td>
<td>Location Shown in the Image</td>
</tr>
<tr valign="middle" align="center">
<td>4</td>
<td>Copyright Owner</td>
<td style="background: black"></td>
<td>21</td>
<td>Max Avail Height</td>
</tr>
<tr valign="middle" align="center">
<td>5</td>
<td>CV-Term About Image</td>
<td style="background: black"></td>
<td>22</td>
<td>Max Avail Width</td>
</tr>
<tr valign="middle" align="center">
<td>6</td>
<td>Digital Image GUID</td>
<td style="background: black"></td>
<td>23</td>
<td>Minor Model Age Disclosure</td>
</tr>
<tr valign="middle" align="center">
<td>7</td>
<td>Digital Source Type</td>
<td style="background: black"></td>
<td>24</td>
<td>Model Age</td>
</tr>
<tr valign="middle" align="center">
<td>8</td>
<td>Embedded Encoded Rights Expression</td>
<td style="background: black"></td>
<td>25</td>
<td>Model Release Id</td>
</tr>
<tr valign="middle" align="center">
<td>9</td>
<td>Event</td>
<td style="background: black"></td>
<td>26</td>
<td>Model Release Status</td>
</tr>
<tr valign="middle" align="center">
<td>10</td>
<td>Genre</td>
<td style="background: black"></td>
<td>27</td>
<td>Name of Organisation Featured in the Image</td>
</tr>
<tr valign="middle" align="center">
<td>11</td>
<td>Image Creator</td>
<td style="background: black"></td>
<td>28</td>
<td>Person Shown in the Image</td>
</tr>
<tr valign="middle" align="center">
<td>12</td>
<td>Image Rating</td>
<td style="background: black"></td>
<td>29</td>
<td>Person Shown in the Image with Details</td>
</tr>
<tr valign="middle" align="center">
<td>13</td>
<td>Image Region</td>
<td style="background: black"></td>
<td>30</td>
<td>PLUS Version</td>
</tr>
<tr valign="middle" align="center">
<td>14</td>
<td>Image Registry Entry</td>
<td style="background: black"></td>
<td>31</td>
<td>Product Shown in the Image</td>
</tr>
<tr valign="middle" align="center">
<td>15</td>
<td>Image Supplier</td>
<td style="background: black"></td>
<td>32</td>
<td>Property Release Id</td>
</tr>
<tr valign="middle" align="center">
<td>16</td>
<td>Image Supplier Image ID</td>
<td style="background: black"></td>
<td>33</td>
<td>Property Release Status</td>
</tr>
<tr valign="middle" align="center">
<td>17</td>
<td>Licensor</td>
<td style="background: black"></td>
<td>34</td>
<td>Web Statement of Rights</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p>출처: <xref ref-type="bibr" rid="B016">IPTC, 2017. (http://www.iptc.org)</xref></p>
</table-wrap-foot>
</table-wrap>
<p>또 다른 국외의 메타데이터로 일본 전자산업진흥협회(JEIDA)에 의해 개발된 포맷인 EXIF를 고려하였다(<xref ref-type="bibr" rid="B014">EXIF, 2002</xref>). 이 포맷은 디지털카메라로 촬영된 사진 파일을 위한 메타데이터 포맷으로, 촬영한 사진의 정보를 저장하는데 사용된다. 사진을 촬영했을 때 촬영일시, 카메라 정보, 카메라 설정, 저작권 정보, 위치 정보로 구성된 EXIF 메타데이터가 사진과 함께 자동으로 등록된다. 본 논문에서는 사진 기록물의 기본적인 내용과 특징을 나타내는 메타데이터 항목으로써 IPTC를 고려한 것과 달리, 사진 기록물 원본 파일에 대한 정보를 나타내는 메타데이터 항목으로써 EXIF를 고려하였다. EXIF는 &#x003C;<xref ref-type="table" rid="t005">표 5</xref>&#x003E;와 같이 총 31개의 메타데이터 항목을 가진다. 본 논문에서는 이 중 ‘제조사(Manufacturer)’, ‘Model(모델)’, ‘Orientation(방향)’과 같은 세부 정보를 나타내는 메타데이터 항목을 제외하고, ‘Date and Time(촬영일)’, ‘Image Unique ID(사진 고유 ID)’, ‘Pixel X dimension(가로 사이즈)’, ‘Pixel Y dimension(세로 사이즈)’, ‘Compressed Bits Per Pixel(픽셀 당 압축 비트)’, ‘Compression(압축 포맷)’과 같이 지자체에서 파일에 대해 참고적으로 활용할 수 있도록 사진 기록물 파일에 대한 기본적인 정보를 나타내는 메타데이터 항목들을 선정했다.</p>
<table-wrap id="t005">
<label>&#x003C;표 5&#x003E;</label>
<caption>
<title>EXIF 메타데이터 항목</title>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr style="background: lightgrey" valign="middle" align="center">
<td>순번</td>
<td>구분</td>
<td></td>
<td>순번</td>
<td>구분</td>
</tr>
<tr valign="middle" align="center">
<td>1</td>
<td>Manufacturer</td>
<td></td>
<td>17</td>
<td>Components configuration</td>
</tr>
<tr valign="middle" align="center">
<td>2</td>
<td>Model</td>
<td></td>
<td>18</td>
<td>Compressed bits per pixel</td>
</tr>
<tr valign="middle" align="center">
<td>3</td>
<td>Orientation</td>
<td></td>
<td>19</td>
<td>Exposure bias</td>
</tr>
<tr valign="middle" align="center">
<td>4</td>
<td>Software</td>
<td></td>
<td>20</td>
<td>Max. aperture value</td>
</tr>
<tr valign="middle" align="center">
<td>5</td>
<td>Date and time</td>
<td></td>
<td>21</td>
<td>Metering mode</td>
</tr>
<tr valign="middle" align="center">
<td>6</td>
<td>YCbCr positioning</td>
<td></td>
<td>22</td>
<td>Flash</td>
</tr>
<tr valign="middle" align="center">
<td>7</td>
<td>Compression</td>
<td></td>
<td>23</td>
<td>Focal length</td>
</tr>
<tr valign="middle" align="center">
<td>8</td>
<td>X resolution</td>
<td></td>
<td>24</td>
<td>Maker Note</td>
</tr>
<tr valign="middle" align="center">
<td>9</td>
<td>Y resolution</td>
<td></td>
<td>25</td>
<td>FlashPix version</td>
</tr>
<tr valign="middle" align="center">
<td>10</td>
<td>Resolution unit</td>
<td></td>
<td>26</td>
<td>Color space</td>
</tr>
<tr valign="middle" align="center">
<td>11</td>
<td>Exposure time</td>
<td></td>
<td>27</td>
<td>Pixel X dimension</td>
</tr>
<tr valign="middle" align="center">
<td>12</td>
<td>F-number</td>
<td></td>
<td>28</td>
<td>Pixel Y dimension</td>
</tr>
<tr valign="middle" align="center">
<td>13</td>
<td>Exposure program</td>
<td></td>
<td>29</td>
<td>File source</td>
</tr>
<tr valign="middle" align="center">
<td>14</td>
<td>Exif version</td>
<td></td>
<td>30</td>
<td>Interoperability index</td>
</tr>
<tr valign="middle" align="center">
<td>15</td>
<td>Date and time (original)</td>
<td></td>
<td>31</td>
<td>Interoperability version</td>
</tr>
<tr valign="middle" align="center">
<td>16</td>
<td>Date and time (digitized)</td>
<td></td>
<td colspan="2"></td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p>출처: <xref ref-type="bibr" rid="B014">EXIF, 2002. (https://www.exif.org/)</xref></p>
</table-wrap-foot>
</table-wrap>
<p>또한, 국내 공공기관에서 사용 중인 시청각 기록물이 지자체 사진 기록물과 유사한 부분을 가지기 때문에, 본 논문에서는 국가기록원의 시청각 기록물 메타데이터를 분석하였다. 국가기록원은 공공 기록물을 체계적이고 안전하게 보존·관리하기 위해 「공공 기록물 관리에 관한 법률 시행령」 제 3조에 따른 공공기관의 처리과 및 기록관의 관리지침을 발간하였는데, 해당 관리지침은 &#x003C;<xref ref-type="table" rid="t006">표 6</xref>&#x003E;과 같이 총 54개의 국가기록원 시청각 관리 시스템의 기록물 메타데이터 표준을 포함하고 있다(<xref ref-type="bibr" rid="B001">국가기록원, 2018</xref>). 그러나 국가기록원의 메타데이터 항목들은 시청각 기록물의 영구보존을 위한 것으로써, ‘건 목록 ID’, ‘테잎번호’, ‘소산위치’, ‘보존기간’, ‘디지털화 요청자’와 같이 기록물 보존을 위한 세부적인 정보를 나타내는 항목을 포함하고 있다. 이와 같은 메타데이터 항목들은 IPTC 메타데이터 항목과 마찬가지로 국내 지자체에서 특정화하기에 어려운 세부적인 내용들을 포함하기 때문에, 본 논문에서는 사진 기록물의 기본 정보를 나타내는 ‘제목’, ‘내용’, 사진을 업로드한 사람을 의미하는 ‘생성자’, 사진 파일의 ‘가로 사이즈’, ‘세로 사이즈’, ‘원본 파일 위치’, ‘원본 파일 사이즈’, ‘사진 압축 포맷’을 메타데이터 항목으로 선정하였다.</p>
<table-wrap id="t006">
<label>&#x003C;표 6&#x003E;</label>
<caption>
<title>국가기록원 시청각 관리 시스템 기록물 메타데이터 항목</title>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr style="background: lightgrey" valign="middle" align="center">
<td>순번</td>
<td>구분</td>
<td></td>
<td>순번</td>
<td>구분</td>
</tr>
<tr valign="middle" align="center">
<td>1</td>
<td>건 목록 ID</td>
<td></td>
<td>28</td>
<td>업로드 상태</td>
</tr>
<tr valign="middle" align="center">
<td>2</td>
<td>제목</td>
<td></td>
<td>29</td>
<td>트렌스코딩 상태</td>
</tr>
<tr valign="middle" align="center">
<td>3</td>
<td>테잎번호</td>
<td></td>
<td>30</td>
<td>트렌스코딩 시작시각</td>
</tr>
<tr valign="middle" align="center">
<td>4</td>
<td>소산위치</td>
<td></td>
<td>31</td>
<td>트렌스코딩 완료시각</td>
</tr>
<tr valign="middle" align="center">
<td>5</td>
<td>보존기간</td>
<td></td>
<td>32</td>
<td>QC 상태</td>
</tr>
<tr valign="middle" align="center">
<td>6</td>
<td>디지털화 요청자</td>
<td></td>
<td>33</td>
<td>QC 상세정보 주소</td>
</tr>
<tr valign="middle" align="center">
<td>7</td>
<td>세부목록 시작시각</td>
<td></td>
<td>34</td>
<td>아카이브 상태</td>
</tr>
<tr valign="middle" align="center">
<td>8</td>
<td>세부목록 완료시각</td>
<td></td>
<td>35</td>
<td>아카이브 시작시각</td>
</tr>
<tr valign="middle" align="center">
<td>9</td>
<td>세부목록 완료상태</td>
<td></td>
<td>36</td>
<td>아카이브 완료시각</td>
</tr>
<tr valign="middle" align="center">
<td>10</td>
<td>세부목록 최종작업자</td>
<td></td>
<td>37</td>
<td>아카이브 요청시각</td>
</tr>
<tr valign="middle" align="center">
<td>11</td>
<td>사진 파일명</td>
<td></td>
<td>38</td>
<td>리스토어 상태</td>
</tr>
<tr valign="middle" align="center">
<td>12</td>
<td>사진 파일 위치</td>
<td></td>
<td>39</td>
<td>리스토어 시작시각</td>
</tr>
<tr valign="middle" align="center">
<td>13</td>
<td>사진 ID</td>
<td></td>
<td>40</td>
<td>리스토어 완료시각</td>
</tr>
<tr valign="middle" align="center">
<td>14</td>
<td>사진 파일 사이즈</td>
<td></td>
<td>41</td>
<td>리스토어 요청시각</td>
</tr>
<tr valign="middle" align="center">
<td>15</td>
<td>가로 사이즈</td>
<td></td>
<td>42</td>
<td>DTL 그룹</td>
</tr>
<tr valign="middle" align="center">
<td>16</td>
<td>세로 사이즈</td>
<td></td>
<td>43</td>
<td>DTL 카테고리</td>
</tr>
<tr valign="middle" align="center">
<td>17</td>
<td>원본 파일 위치</td>
<td></td>
<td>44</td>
<td>DTL 존재유무</td>
</tr>
<tr valign="middle" align="center">
<td>18</td>
<td>원본 보존 여부</td>
<td></td>
<td>45</td>
<td>대표 사진</td>
</tr>
<tr valign="middle" align="center">
<td>19</td>
<td>사진 압축 포맷</td>
<td></td>
<td>46</td>
<td>내용</td>
</tr>
<tr valign="middle" align="center">
<td>20</td>
<td>등록 시작시각</td>
<td></td>
<td>47</td>
<td>실물확인</td>
</tr>
<tr valign="middle" align="center">
<td>21</td>
<td>등록 종료시각</td>
<td></td>
<td>48</td>
<td>실물확인 사유</td>
</tr>
<tr valign="middle" align="center">
<td>22</td>
<td>생성자</td>
<td></td>
<td>49</td>
<td>스토리지 경로</td>
</tr>
<tr valign="middle" align="center">
<td>23</td>
<td>수정자</td>
<td></td>
<td>50</td>
<td>생성시각</td>
</tr>
<tr valign="middle" align="center">
<td>24</td>
<td>삭제자</td>
<td></td>
<td>51</td>
<td>수정시각</td>
</tr>
<tr valign="middle" align="center">
<td>25</td>
<td>시스템 관리번호</td>
<td></td>
<td>52</td>
<td>삭제여부</td>
</tr>
<tr valign="middle" align="center">
<td>26</td>
<td>콘텐츠 ID</td>
<td></td>
<td>53</td>
<td>삭제시각</td>
</tr>
<tr valign="middle" align="center">
<td>27</td>
<td>기본목록 ID</td>
<td></td>
<td>54</td>
<td>삭제요청 상태</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p>출처: <xref ref-type="bibr" rid="B001">국가기록원, 2018</xref>.</p>
</table-wrap-foot>
</table-wrap>
</sec>
<sec id="sec003-2">
<title>3.2 기존 지자체 사진 기록물 메타데이터 분석</title>
<p>본 논문은 국내·외 사진 기록물 메타데이터 표준을 분석하고, 지자체가 보유한 사진 기록물에서 필요한 메타데이터 항목을 분석하기 위해 지자체들의 사진 기록물 메타데이터를 살펴보았다. 국내에는 많은 지자체가 온라인에 사진 기록물을 서비스하고 있는데, 본 논문은 이 중 사진 기록물을 카테고리화하여 보관하고 여러 메타데이터 항목으로 관리하는 수원시 포토 뱅크, 군산시 홍보 포털, 서귀포시 온라인 사진 DB의 사진 기록물을 분석하였다. </p>
<p>수원시 포토 뱅크의 경우 인물, 일반행정, 각종 행사, 문화·예술·체육·관광, 항공사진·지역개발, 농축산업·특산물·산림으로 구성된 상위 카테고리와 상세화된 하위 카테고리로 구성되어있다. 수원시의 사진 기록물은 특정 행사 관련된 사진 기록물이 여러 개일 경우 그룹화되어 저장되며, 대표 사진의 ‘제목’, ‘사진번호(원화 번호)’, ‘촬영일’, ‘촬영자’, ‘촬영장소’, ‘출처’, ‘분류(카테고리)’, ‘설명’과 같은 메타데이터 항목과, 같은 그룹의 사진들을 관련 사진으로 가진다. &#x003C;<xref ref-type="fig" rid="f001">그림 1</xref>&#x003E;은 수원시 포토 뱅크의 사진 기록물 메타데이터 예시이며, 해당 사진은 사진 상세정보에 메타데이터들을 가지고, 하위에 동일 행사에서 촬영된 관련 사진들이 같이 나타난다.</p>
<fig id="f001" orientation="portrait" position="float">
	<label>&#x003C;그림 1&#x003E;</label>
	<caption>
		<title>수원시 포토 뱅크 사진 기록물 메타데이터 예시</title>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002588460&amp;imageName=jksarm_2020_20_02_67_f001.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
<p>출처: <xref ref-type="bibr" rid="B012">수원시 포토 뱅크(http://photo.suwon.go.kr/)</xref></p>
</fig>
<p>군산시 홍보 포털은 시정, 국정, 행사, 관광 등으로 구성된 분야를 가지고 있으며, 각 분야 별로 사진, 동영상, E-BOOK 시청각 기록물을 관리하고 있다. 이 중 사진 기록물은 ‘그룹 사진 제목’, ‘카테고리’, ‘등록 건수’, ‘덧글’, ‘등록일’을 메타데이터 항목으로 가진다. 사진 기록물의 ‘카테고리’는 인물·역사, 행사·축제, 생활·교육, 산업 ·경제, 문화·관광, 복지·체육, 생태·환경, 도시·시설, 여행·음식, 항공사진, 기타·일반으로 구성되어, 각 사진 기록물은 이 중 해당하는 카테고리로 분류된다. 또한, ‘등록 건수’는 해당 사진과 같은 그룹에 함께 등록된 사진의 개수를 의미한다. &#x003C;<xref ref-type="fig" rid="f002">그림 2</xref>&#x003E;는 군산시 홍보 포털의 사진 기록물 메타데이터 예시를 보여주는데, 해당 사진 기록물들은 상위 카테고리 ‘시정, 국정’에 속하며, 다른 메타데이터가 같이 기록되어 있다.</p>
<fig id="f002" orientation="portrait" position="float">
	<label>&#x003C;그림 2&#x003E;</label>
	<caption>
		<title>군산시 홍보 포털 사진 기록물 메타데이터 예시</title>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002588460&amp;imageName=jksarm_2020_20_02_67_f002.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
<p>출처: <xref ref-type="bibr" rid="B011">군산시 홍보 포털(https://uprbank.kr/)</xref></p>
</fig>
<p>서귀포시의 온라인 사진 DB는 사진 기록물을 정치, 경제, 사회·행사, 시정·행정, 관광지·축제, 옛 사진, 아름다운 서귀포, 보건·복지·환경, 체육, 기타로 분류하고 있으며, 각 카테고리는 하위 항목으로 다시 나누어져 있다. 사진 기록물의 메타데이터는 ‘분류’, ‘원화 번호’, ‘촬영자’, ‘촬영일’, ‘촬영장소’로 구성돼있으며, 여기서 ‘분류’ 항목은 상위 카테고리와 하위 카테고리를 의미한다.</p>
<p>언급한 수원시 포토 뱅크, 군산시 홍보 포털, 서귀포시 온라인 사진 DB의 메타데이터 항목들은 해당 지자체들에서 사진 기록물을 관리할 때 필요한 메타데이터 항목으로 판단할 수 있다. 본 논문에서는 이를 기반으로 국내 지자체 사진 기록물 메타데이터 설계에 필요한 항목으로써 ‘제목’, ‘촬영자’, ‘촬영일’, ‘촬영장소’, ‘그룹 사진제목’, ‘원화번호’, ‘등록자’, ‘설명’, ‘분류(카테고리)’를 선정하였다. 군산시 지자체 메타데이터 중 등록일의 경우 사진이 기록물로 등록된 날짜를 의미하는데, 이는 실제 사진이 촬영된 날짜가 중요하다고 판단되어 촬영일로 대체하였다. 또한, 등록 건수와 덧글의 경우 게시판의 기능에 따라 달라질 수 있으므로 제외하였다.</p>
</sec>
<sec id="sec003-3">
<title>3.3 국내 지자체 사진 기록물 메타데이터 설계</title>
<p>본 논문에서는 국내·외 사진 기록물 메타데이터 표준과 국내 지자체 군산시와 서귀포시의 사진 기록물 메타데이터를 분석하여 필요한 항목들을 추출하였으며, 이를 &#x003C;<xref ref-type="table" rid="t007">표 7</xref>&#x003E;과 같이 매핑함으로써 이 중 국내 지자체 사진 기록물에 필요한 메타데이터 항목들을 선정하였다. 설계한 국내 지자체 사진 기록물의 메타데이터 항목들은 &#x003C;<xref ref-type="table" rid="t008">표 8</xref>&#x003E;에 기술되어있으며, 필수적으로 입력되어야 하는 항목과 옵션으로 입력되는 항목으로 구분된다.</p>
<table-wrap id="t007">
<label>&#x003C;표 7&#x003E;</label>
<caption>
<title>국내·외 사진 기록물 메타데이터 매핑</title>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr style="background: lightgrey" valign="middle" align="center">
<td>IPTC</td>
<td>EXIF</td>
<td>국가기록원</td>
<td>국내 지자체</td>
</tr>
<tr valign="middle" align="center">
<td>Title</td>
<td>－</td>
<td>제목</td>
<td>제목</td>
</tr>
<tr valign="middle" align="center">
<td>Creator</td>
<td>-</td>
<td>－</td>
<td>촬영자</td>
</tr>
<tr valign="middle" align="center">
<td>Date Created</td>
<td>Date and Time</td>
<td>－</td>
<td>촬영일</td>
</tr>
<tr valign="middle" align="center">
<td>Sublocation</td>
<td>－</td>
<td>－</td>
<td>촬영장소</td>
</tr>
<tr valign="middle" align="center">
<td>－</td>
<td>－</td>
<td>－</td>
<td>그룹 사진 제목</td>
</tr>
<tr valign="middle" align="center">
<td>－</td>
<td>Image Unique ID</td>
<td>－</td>
<td>원화번호</td>
</tr>
<tr valign="middle" align="center">
<td>-</td>
<td>－</td>
<td>생성자</td>
<td>등록자</td>
</tr>
<tr valign="middle" align="center">
<td>Keywords</td>
<td></td>
<td>－</td>
<td>－</td>
</tr>
<tr valign="middle" align="center">
<td>－</td>
<td>Pixel X dimension</td>
<td>가로 사이즈</td>
<td>－</td>
</tr>
<tr valign="middle" align="center">
<td>－</td>
<td>Pixel Y dimension</td>
<td>세로 사이즈</td>
<td>－</td>
</tr>
<tr valign="middle" align="center">
<td>－</td>
<td>－</td>
<td>사진 파일 위치</td>
<td>－</td>
</tr>
<tr valign="middle" align="center">
<td>－</td>
<td>Compressed Bits per Pixel</td>
<td>사진 파일 사이즈</td>
<td>－</td>
</tr>
<tr valign="middle" align="center">
<td>－</td>
<td>Compression</td>
<td>사진 압축 포맷</td>
<td>－</td>
</tr>
<tr valign="middle" align="center">
<td>Description</td>
<td>-</td>
<td>내용</td>
<td>설명</td>
</tr>
<tr valign="middle" align="center">
<td>－</td>
<td>－</td>
<td>－</td>
<td>분류(카테고리)</td>
</tr>
<tr valign="middle" align="center">
<td>Person Shown in the Image</td>
<td>－</td>
<td>－</td>
<td>－</td>
</tr>
<tr valign="middle" align="center">
<td>Artwork/Object in the Image</td>
<td>－</td>
<td>－</td>
<td>－</td>
</tr>
</tbody>
</table>
</table-wrap>
<table-wrap id="t008">
<label>&#x003C;표 8&#x003E;</label>
<caption>
<title>국내 지자체 사진 기록물 메타데이터</title>
</caption>
<table frame="box" rules="all" width="100%">
<tbody>
<tr style="background: lightgrey" valign="middle" align="center">
<td>구분</td>
<td>메타데이터 항목</td>
<td>메타데이터 설명</td>
</tr>
<tr valign="middle">
<td valign="middle" rowspan="13" align="center">필수 항목</td>
<td>제목(Name)</td>
<td>사진 이름</td>
</tr>
<tr valign="middle">
<td>촬영자(Creator)</td>
<td>촬영자 이름. 사진사가 식별되지 않는 경우 회사/단체 이름</td>
</tr>
<tr valign="middle">
<td>촬영일(Date Created)</td>
<td>사진 촬영 날짜</td>
</tr>
<tr valign="middle">
<td>촬영장소(Location Created)</td>
<td>사진 촬영장소</td>
</tr>
<tr valign="middle">
<td>그룹명(Group Name)</td>
<td>특정 장소, 인물, 이벤트에
대한 사진 그룹 이름</td>
</tr>
<tr valign="middle">
<td>원화 번호(Original Name)</td>
<td>카메라 촬영 시 생성되는 원본 파일 이름</td>
</tr>
<tr valign="middle">
<td>생성자(Registrant)</td>
<td>사진 기록물 등록자</td>
</tr>
<tr valign="middle">
<td>키워드(Keywords)</td>
<td>사진에 포함된 여러 텍스트</td>
</tr>
<tr valign="middle">
<td>가로 사이즈(Width size)</td>
<td>사진 파일 가로 사이즈</td>
</tr>
<tr valign="middle">
<td>세로 사이즈(Height size)</td>
<td>사진 파일 세로 사이즈</td>
</tr>
<tr valign="middle">
<td>사진 파일 위치(Image File Location)</td>
<td>사진 파일 경로</td>
</tr>
<tr valign="middle">
<td>사진 파일 사이즈(Image File Size)</td>
<td>사진 파일 크기</td>
</tr>
<tr valign="middle">
<td>사진 압축 포맷(Image Compressed Format)</td>
<td>사진 파일 압축 형식</td>
</tr>
<tr valign="middle">
<td valign="middle" rowspan="4" align="center">옵션 항목</td>
<td>설명(Description)</td>
<td>사진에 대한 설명</td>
</tr>
<tr valign="middle">
<td>카테고리(Category)</td>
<td>사진이 속한 카테고리</td>
</tr>
<tr valign="middle">
<td>사진에 표시된 사람(Person Shown in the Image)</td>
<td>사진에 포함된 여러 사람 이름</td>
</tr>
<tr valign="middle">
<td>사진 속 객체(Object in the Image)</td>
<td>사진에 포함된 여러 객체 이름</td>
</tr>
</tbody>
</table>
</table-wrap>
</sec>
</sec>
<sec id="sec004">
<title>4. 지자체 사진 기록물 텍스트 및 객체 자동 인덱싱</title>
<p>수원시, 군산시, 서귀포시에서 보유한 사진 기록물들은 지자체와 관련된 행사·축제, 시정·행정, 인물·역사, 생태·환경 등의 카테고리로 구성되며, 다른 지자체의 사진 기록물도 이와 유사한 카테고리를 가지고 있다. 이렇게 구성된 지자체 사진 기록물은 사진에 포함된 정보들이 사진의 중요한 특성을 나타내는 경우가 많다. 특히 지자체 사진 기록물은 지자체의 특성상 특정 행사, 행정, 건물 등을 촬영한 사진의 비율이 높은 편인데, 사진에 행사/행정의 플랜카드, 건물의 이름과 같은 텍스트가 포함된 경우 이러한 텍스트가 사진 속 사건을 나타내는 유의미한 정보가 된다. 예를 들어, 어떤 사진에 ‘2019 인천경기기자협회 체육대회’가 적힌 플랜카드가 포함돼있다면, 해당 텍스트는 사진이 촬영된 구체적인 행사 정보를 나타낸다. 또한, 사진에 포함된 객체들은 그 사진이 속한 카테고리의 특성을 반영하는 경우가 많다. 예를 들어, 어떤 사진에 ‘사람’ 객체의 수가 많고 ‘책상’, ‘넥타이’와 같은 객체가 포함돼있다면, 그 사진은 시정·행정 카테고리에 속할 확률이 높다.</p>
<p>본 논문은 이와 같은 사진의 텍스트와 객체를 3장에서 설계한 사진 기록물의 메타데이터 항목에 저장함으로써 사진 관리의 효율성과 검색의 편의성을 높이도록 한다. 본 장에서는 OCR 알고리즘과 딥러닝 기반 객체 인식 알고리즘을 사용하여 각각 사진의 텍스트와 객체를 자동으로 추출하고, 이를 사진 기록물의 메타데이터로 인덱싱하는 방법을 기술한다.</p>
<sec id="sec004-1">
<title>4.1 OCR 기반 사진 기록물 텍스트 자동 인덱싱</title>
<p>국내 지자체 사진 기록물에 포함된 텍스트는 사진 속 사건을 나타내는 유의미한 정보가 되며, 본 논문은 OCR 라이브러리를 사용하여 사진 기록물에 포함된 전체 텍스트를 추출한다.</p>
<p>OCR은 PDF, 출력된 스캔 문서나 아날로그 자료, 상품 카탈로그 사진, 혹은 사진에서 텍스트가 있는 영역을 인식하고, 이미지 처리(Image Processing), 딥러닝(Deep Learning) 기술을 사용하여 디지털화 가능한 텍스트를 추출 하는 기술이다(<xref ref-type="bibr" rid="B008">Mori, Hirobumi, &#x0026; Hiromitsu, 1999</xref>). OCR은 <xref ref-type="bibr" rid="B023">Tesseract</xref>, 구글 OCR, 마이크로소프트 OCR, <xref ref-type="bibr" rid="B019">Abbyy OCR</xref> 등 다른 성능을 가진 여러 회사의 라이브러리가 존재한다. 먼저 많이 활용되는 OCR 라이브러리로 <xref ref-type="bibr" rid="B023">Tesseract</xref>가 있는데, <xref ref-type="bibr" rid="B023">Tesseract</xref>는 아파치(Apache) 라이센스로 릴리즈된 무료 OCR 라이브러리이다. 다른 라이브러리인 구글 OCR은 구글 클라우드 비전 API(<xref ref-type="bibr" rid="B021">Google Cloud Vision API</xref>)의 여러 기능 중 OCR 기능을 제공하고 있으며, 무료 API 호출 횟수는 월 1,000건으로 제한되어있다. 또한, 마이크로소프트 OCR은 구글과 마찬가지로 마이크로소프트 컴퓨터 비전 API(<xref ref-type="bibr" rid="B022">Microsoft Computer Vision API</xref>)의 여러 기능 중 OCR 기능을 제공하고 있으며, 무료 API 호출 건수는 월 5,000건으로 제한된다. 마지막으로, 사진 혹은 PDF 파일을 편집 가능 문서로 변환하는 OCR 소프트웨 어인 <xref ref-type="bibr" rid="B019">Abbyy OCR</xref>이 있다.</p>
<p>언급한 네 개의 OCR 라이브러리 중 마이크로소프트 OCR과 <xref ref-type="bibr" rid="B019">Abbyy OCR</xref> 라이브러리는 일반 사진 내 한글 텍스트를 제대로 인식하지 못하므로, 본 논문은 지자체 사진 기록물 텍스트 추출을 위한 라이브러리로 <xref ref-type="bibr" rid="B023">Tesseract</xref>와 구글 OCR 라이브러리를 고려하였다. 각 라이브러리를 사용하여 실제 지자체 사진 기록물의 텍스트를 추출한 결과, <xref ref-type="bibr" rid="B023">Tesseract</xref>의 경우 사진 기록물 종류와 상태에 따라 한글 텍스트 인식률 변화가 심하여 실제 활용성이 떨어지는 문제점을 가지고 있었다. 반면에 구글 OCR의 경우 테스트한 사진 기록물들에서 모두 높은 한글 텍스트 인식률을 보여주었기 때문에, 본 논문은 지자체 사진 기록물의 텍스트 추출을 위해 구글 OCR 라이브러리를 사용하였다.</p>
<p>구글에서 제공하는 OCR 라이브러리는 사진이 입력되었을 때, 사진의 픽셀을 그룹핑하는 과정에서 텍스트로 추정되는 영역을 바운딩 박스(Bounding Box)로 설정하고 텍스트를 감지하여 추출하며, 이렇게 추출된 텍스트는 JSON 형태로 반환된다. &#x003C;<xref ref-type="fig" rid="f003">그림 3</xref>&#x003E;은 텍스트 추출을 실행한 결과이며, 수원시 포토 뱅크의 사진 기록물에서 구글 OCR 라이브러리를 사용하여 우측과 같이 텍스트를 추출하였다.</p>
<fig id="f003" orientation="portrait" position="float">
	<label>&#x003C;그림 3&#x003E;</label>
	<caption>
		<title>OCR 라이브러리를 이용한 수원시 포토 뱅크 사진 기록물 텍스트 인식 예시</title>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002588460&amp;imageName=jksarm_2020_20_02_67_f003.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
<p>출처: (왼쪽) <xref ref-type="bibr" rid="B012">수원시 포토 뱅크(http://photo.suwon.go.kr/)</xref></p>
</fig>
<p>텍스트는 띄어쓰기가 된 단어 단위로 추출되는데, 텍스트를 그대로 인식하여 정상 단어로 구성할 수 없는 글자들도 포함되어있다. 이러한 텍스트들은 메타데이터로 바로 저장하여 활용하기에는 어려움이 있기에, 형태소 분석 라이브러리를 사용하여 OCR 라이브러리에 의해 추출된 텍스트에서 명사 단위의 단어들을 다시 추출하는 과정을 수행한다. 이렇게 추출된 단어들은 사진 기록물의 메타데이터로 저장되는데, 사진 기록물 검색 시 해당 단어들을 활용하기 위해서, 3장에서 설계한 지자체 사진 기록물 메타데이터 항목 중 ‘키워드(Keywords)’ 항목에 추출한 단어들을 저장한다. &#x003C;<xref ref-type="fig" rid="f004">그림 4</xref>&#x003E;는 &#x003C;<xref ref-type="fig" rid="f003">그림 3</xref>&#x003E;에서 인식한 텍스트를 명사 단위의 단어로 추출하여 ‘키워드’에 저장하는 예시이다.</p>
<fig id="f004" orientation="portrait" position="float">
	<label>&#x003C;그림 4&#x003E;</label>
	<caption>
		<title>수원시 포토 뱅크 사진 기록물 텍스트 인식 예시 자동 인덱싱 예시</title>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002588460&amp;imageName=jksarm_2020_20_02_67_f004.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
</sec>
<sec id="sec004-2">
<title>4.2 객체 인식 알고리즘 기반 사진 기록물 객체 자동 인덱싱</title>
<p>국내 지자체 사진 기록물에 포함된 객체는 사진 기록물이 속한 카테고리의 특성을 나타내는 유의미한 정보가 되며, 본 논문은 딥러닝 기반 객체 인식 알고리즘을 사용하여 사진 기록물에 포함된 객체들을 추출한다.</p>
<p>객체 인식은 디지털 사진과 영상에서 특정 클래스의 의미 객체 인스턴스를 감지하는 컴퓨터 비전 및 이미지 처리와 관련된 기술로써, 딥러닝 알고리즘을 사용한 여러 객체 인식 알고리즘들이 활용되고 있다. 본 논문에서는 지자체 사진 기록물의 객체 인식을 위해 특히 많이 활용되는 딥러닝 기반 객체 인식 알고리즘인 Faster R-CNN(Regions-CNN), YOLO(You Only Look Once), SSD(Single Shot Detector)를 고려하였다.</p>
<p>Faster R-CNN(Regions-CNN)은 슬라이딩 윈도우(Sliding Window) 방식을 사용하여 특징(Feature)을 추출하는 RPN(Region Proposal Network)으로 사진 파일을 변형하여 객체를 인식하는 알고리즘이다(<xref ref-type="bibr" rid="B010">Ren et al., 2015</xref>). 하나의 사진을 여러 샘플로 분할하고, 분할한 각 샘플을 네트워크에 입력하여 검출하기 때문에 낮은 인식 속도를 가지며, 높은 인식 정확도를 가진다. 다른 객체 인식 알고리즘인 YOLO(You Only Look Once)는 단일 컨볼루션 네트워크(Single Convolutional Network)를 사용하여 여러 바운딩 박스에 대한 클래스 분류 가능성(Class Probability)을 계산하는 방식을 사용한다(<xref ref-type="bibr" rid="B009">Redmon et al., 2016</xref>). 바운딩 박스의 예측 분류 점수와 바운딩 박스에 실제 객체의 포함을 나타내는 신뢰도, 두 개의 출력 값을 결합하여 바운딩 박스 안에 객체가 있을 확률을 계산한다. YOLO는 전체 사진을 고려하여 클래스를 예측하기 때문에 거짓 양성(False Positive) 오류를 피할 수 있지만, 작은 객체에 대해 인식 정확도가 떨어지는 문제점을 가진다. 마지막으로, 또 다른 객체 인식 알고리즘 SSD(Single Shot Detector)는 사진의 변형 없이 입력 사진에 대해 CNN을 실행하고 특징 맵(Feature Map)을 계산한다(<xref ref-type="bibr" rid="B007">Liu et al., 2016</xref>). YOLO의 문제점을 개선하기 위해 멀티스케일 특징 맵(Multi-scale Feature Map)이라는 보조 수단을 사용하는데, 특징 맵을 여러 크기로 나누어 큰 맵에서는 작은 객체를, 작은 맵에서는 큰 객체를 인식할 수 있도록 한다.</p>
<p>본 논문에서는 여러 사진 프레임이 빠르게 변환되는 영상이 아닌 사진 기록물을 대상으로 하므로, 객체 인식 속도보다 인식 정확도를 기준으로 사용 모델을 선정하였다. 언급한 세 개의 객체 인식 알고리즘은 인식 속도와 정확도에서 차이를 보이는데, 객체 인식 속도의 경우 YOLO가 가장 빠른 인식 속도를 가지고 있으며, Faster R-CNN는 가장 느린 인식 속도를 보인다(<xref ref-type="bibr" rid="B006">Huang et al., 2017</xref>). 그러나 &#x003C;<xref ref-type="fig" rid="f005">그림 5</xref>&#x003E;와 같이 객체 인식 정확도는 Faster R-CNN이 가장 높은 인식 정확도를 보이며, SSD와 YOLO는 Faster R-CNN에 비하여 작은 크기의 객체에 대해 낮은 인식 정확도를 가지므로, Faster R-CNN을 사진 기록물 객체 인식을 위한 모델로 선정하였다.</p>
<fig id="f005" orientation="portrait" position="float">
	<label>&#x003C;그림 5&#x003E;</label>
	<caption>
		<title>Faster R-CNN과 SSD 기반 사진 기록물 객체 인식 예시</title>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002588460&amp;imageName=jksarm_2020_20_02_67_f005.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
<p>출처: <xref ref-type="bibr" rid="B012">수원시 포토 뱅크(http://photo.suwon.go.kr/)</xref></p>
</fig>
<p>또한, 본 논문은 지자체 사진 기록물에서 특정화된 객체 인스턴스를 인식하는 것이 아닌, ‘사람’, ‘책상’과 같은 일반적인 객체를 정확하게 인식하는 것이 목적이므로, 사전에 COCO(Common Objects in Context) 데이터 셋으로 학습된 Faster R-CNN 모델을 사용하였다. COCO 데이터 셋은 총 122,218장의 사진에서 80개의 객체 클래스로 구성 되어있는 학습 데이터이다. COCO 데이터 셋의 객체 클래스는 사람, 물품(Accessory), 동물(Animal), 탈것(Vehicle), 음식(Food), 가구(Furniture), 가전제품(Appliance)과 같은 상위 카테고리 밑에 다양한 클래스로 구성되어 지자체 사진 기록물에 포함된 객체를 인식하기에 적합하였다.</p>
<p>본 논문은 사진 기록물에서 명확한 객체만을 추출하기 위해 모델의 인식 임계값을 0.99로 설정하였으며, Faster R-CNN 모델을 사용하여 사진 기록물에서 객체들을 전부 추출하였다. 이렇게 추출된 객체들은 사진 기록물의 메타데이터로 저장되는데, 사진 기록물 검색 시 해당 객체들을 활용하기 위해서 본 논문은 3장에서 설계한 지자체 사진 기록물 메타데이터 항목 중 ‘사진 속 객체(Object in the Image)’ 항목에 추출한 객체들을 저장한다. &#x003C;<xref ref-type="fig" rid="f006">그림 6</xref>&#x003E;은 수원시 포토 뱅크 사진 기록물에 포함된 객체를 자동 인덱싱하는 과정을 보여준다. 수원시 사진 기록물에서 학습된 Faster R-CNN 모델을 통해 인식된 객체는 ‘사람’ 13명과 ‘넥타이’ 2개이며, 인식된 객체는 ‘사진 속 객체’ 항목에 저장된다.</p>
<fig id="f006" orientation="portrait" position="float">
	<label>&#x003C;그림 6&#x003E;</label>
	<caption>
		<title>Faster R-CNN을 사용한 수원시 포토 뱅크 사진 기록물 자동 인덱싱 예시</title>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002588460&amp;imageName=jksarm_2020_20_02_67_f006.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
<p>출처: <xref ref-type="bibr" rid="B012">(왼쪽) 수원시 포토 뱅크(http://photo.suwon.go.kr/)</xref></p>
</fig>
</sec>
<sec id="sec004-3">
<title>4.3 국내 지자체 사진 기록물 저장 프로그램</title>
<p>본 논문에서는 OCR 라이브러리와 딥러닝 기반 객체 인식 알고리즘을 사용하여 국내 지자체 사진 기록물에서 텍스트와 객체를 추출하고, 추출한 내용과 기본 사진 정보를 본 논문에서 설계한 지자체 사진 기록물 메타데이터 항목으로 구성된 데이터베이스 테이블에 저장하는 프로그램을 구현하였다.</p>
<p>&#x003C;<xref ref-type="fig" rid="f007">그림 7</xref>&#x003E;은 본 논문에서 구현한 프로그램에 수원시 포토 뱅크의 사진 기록물을 입력하여 저장하는 화면을 보여준다. 사진 기록물 저장 시, 메타데이터는 필수 입력 항목과 옵션 입력 항목으로 나누어지며, 흰색으로 표시된 항목은 사용자가 수동으로 입력하는 항목, 회색으로 표시된 항목은 프로그램에서 자동으로 입력되는 항목을 의미한다. 파일을 찾아 오픈하면, 사진 기록물 파일에 기본으로 저장된 촬영일, 가로·세로 사이즈, 파일 사이즈, 사진 압축 포맷 등은 자동으로 저장된다. 그와 동시에 구글 OCR 라이브러리로 사진 기록물에서 텍스트를 추출하여 ‘키워드’ 항목으로 저장하고, 딥러닝 기반 객체 인식 알고리즘으로 객체를 추출하여 ‘사진 속 객체’ 항목에 저장한다.</p>
<fig id="f007" orientation="portrait" position="float">
	<label>&#x003C;그림 7&#x003E;</label>
	<caption>
		<title>국내 지자체 사진 기록물 저장 프로그램 화면</title>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002588460&amp;imageName=jksarm_2020_20_02_67_f007.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
</sec>
</sec>
<sec id="sec005" sec-type="Conclusions">
<title>5. 결론 및 향후 연구</title>
<p>본 논문에서는 국내 지자체 사진 기록물의 효율적 관리를 위한 메타데이터 설계와 기계학습 기반 자동 인덱싱 기술을 제안하였다. 국내·외 사진 기록물에 활용되는 표준적인 메타데이터와 수원시, 군산시, 서귀포시에서 실제 활용되는 메타데이터를 분석하여 국내 지자체 사진 기록물의 특성을 반영한 메타데이터를 설계함으로써, 기존에 존재하던 지자체 간 사진 기록물의 낮은 호환과 비효율적 관리 문제를 개선하였다. 또한, 본 논문에서는 OCR 라이브러리와 딥러닝 기반 객체 인식 알고리즘을 사용하여 각각 사진 기록물의 텍스트와 객체를 자동 인덱싱하는 기술을 설계하였다. 자동 인덱싱된 텍스트와 객체는 사진 속 사건과 카테고리 특성을 반영하여, 보다 사용자 의도에 가까운 사진 기록물 검색이 이루어지도록 한다. 마지막으로, 본 논문에서는 설계한 메타데이터와 자동 인덱싱 기술을 적용한 사진 기록물 저장 프로그램을 구현하였다. 기존 지자체 사진 기록물 관리는 표준적인 메타데이터의 부재와 사진 정보를 활용하지 않기 때문에 호환성과 편의성 측면에서 문제점을 가지고 있으나, 본 논문에서 설계한 메타데이터와 기계학습 기반 자동 인덱싱 기술은 이러한 문제점들을 상당 부분 개선할 수 있을 것으로 기대된다.</p>
<p>본 논문에서는 기계학습을 기반으로 사진 속 텍스트와 객체를 설계한 특정 메타데이터 항목에 저장하며, 사진 기록물 검색 시 사용자가 입력한 키워드와 인덱싱된 텍스트, 객체 명을 비교하게 된다. 그러나 이와 같은 정보들은 행사명, 장소명과 같은 핵심적인 키워드 외에는 독립적으로 유의미한 정보를 나타낸다고 보기 어려우므로 검색시 많은 텍스트와 객체들이 사용자 키워드와 매칭되지 않을 수 있다. 이와 같은 사진 기록물의 정보들은 서로 연결됨으로써 검색의 정확도와 편의성을 높일 수 있으며, 본 논문은 향후 연구로 지자체 사진 기록물에 특성화된 온톨로지(Ontology)를 설계하여 메타데이터를 저장하는 연구를 진행할 예정이다. 사진 기록물의 메타데이터와 자동 인덱싱된 텍스트 및 객체들은 온톨로지로 저장되어 서로 연결되고 유의미한 정보를 추론하는 데 활용될 수 있으며, 이를 통해 지자체 사진 기록물 검색의 정확도를 향상할 수 있을 것으로 기대된다.</p>
</sec>
</body>
<back>
<ref-list>
<title>참고문헌</title>
<!-- 국가기록원 (2018). 2018년 기록물 관리지침, 대전: 국가기록원.-->
<ref id="B001">
<label>1</label>
<element-citation publication-type="other">
<collab>국가기록원</collab>
<year>(2018)</year>
<source>2018년 기록물 관리지침</source>
		<publisher-loc>대전</publisher-loc>
		<publisher-name>국가기록원</publisher-name>
<comment>National Archives of Korea (2018). Records Management Guidelines</comment>
</element-citation>
</ref>
<!-- 김근형, 정영미, 이봉환, 조용상, 송은지, 최희성, 설세희 (2013). 미디어 생태계에서 교육 분야에 최적화된 메타데이터 표준 연구, 대구: 한국교육학술정보원.-->
<ref id="B002">
<label>2</label>
<element-citation publication-type="book">
<person-group>
<name name-style="eastern"><surname>김</surname><given-names>근형</given-names></name>
<name name-style="eastern"><surname>정</surname><given-names>영미</given-names></name>
<name name-style="eastern"><surname>이</surname><given-names>봉환</given-names></name>
<name name-style="eastern"><surname>조</surname><given-names>용상</given-names></name>
<name name-style="eastern"><surname>송</surname><given-names>은지</given-names></name>
<name name-style="eastern"><surname>최</surname><given-names>희성</given-names></name>
<name name-style="eastern"><surname>설</surname><given-names>세희</given-names></name>
</person-group>
<year>(2013)</year>
<article-title>.</article-title>
<source>미디어 생태계에서 교육 분야에 최적화된 메타데이터 표준 연구</source>
<publisher-loc>대구</publisher-loc>
<publisher-name>한국교육학술정보원</publisher-name>
<comment>Kim, Geun-hyung, Jung, Young-Mi, Lee, Bonghwan, Cho, Yong-sang, Song, Eun-Ji, Choi, Hee-Sung, &#x26; Seol, Sehee (2013). Research on metadata standards optimized for education in the media ecosystem, Korea Education and Research Information Service</comment>
</element-citation>
</ref>
<!-- 신동헌, 정세영, 김선현 (2009). 시청각(사진/동영상) 기록물 관리를 위한 시스템 구축과 운영 사례 연구. 한국기록관리학회지, 9(1), 33-50. https://doi.org/10.14404/JKSARM.2009.9.1.033-->
<ref id="B003">
<label>3</label>
<element-citation publication-type="journal">
<person-group>
<name name-style="eastern"><surname>신</surname><given-names>동헌</given-names></name>
<name name-style="eastern"><surname>정</surname><given-names>세영</given-names></name>
<name name-style="eastern"><surname>김</surname><given-names>선현</given-names></name>
</person-group>
<year>(2009)</year>
<article-title>시청각(사진/동영상) 기록물 관리를 위한 시스템 구축과 운영 사례 연구</article-title>
<source>한국기록관리학회지</source>
<volume>9</volume><issue>1</issue>
<fpage>33</fpage><lpage>50</lpage>
<pub-id pub-id-type="doi">10.14404/JKSARM.2009.9.1.033</pub-id>
<comment>Shin, Dong-Hyeon, Jung, Se-Young, &#x26; Kim, Seon-Heon (2009). A Case Study of the Audio-Visual Archives System Development and Management. Journal of Korean Society of Archives and Records Management, 9(1), 33-50. <uri>https://doi.org/10.14404/JKSARM.2009.9.1.033</uri></comment>
</element-citation>
</ref>
<!-- 차승준, 최윤정, 이규철 (2009). 공공기관 심층 웹기록물 아카이빙을 위한 메타데이터 설계. 한국전자거래학회지, 14(4), 181-193.-->
<ref id="B004">
<label>4</label>
<element-citation publication-type="journal">
<person-group>
<name name-style="eastern"><surname>차</surname><given-names>승준</given-names></name>
<name name-style="eastern"><surname>최</surname><given-names>윤정</given-names></name>
<name name-style="eastern"><surname>이</surname><given-names>규철</given-names></name>
</person-group>
<year>(2009)</year>
<article-title>공공기관 심층 웹기록물 아카이빙을 위한 메타데이터 설계</article-title>
<source>한국전자거래학회지</source>
<volume>14</volume><issue>4</issue>
<fpage>181</fpage><lpage>193</lpage>
<comment>Cha, Seung-Jun, Choi, Yun-Jeong, &#x26; Lee, Kyu-Chul (2009). Metadata Design for Archiving Public Deep Web Records. The Journal of Society for e-Business Studies, 14(4), 181-193</comment>
</element-citation>
</ref>
<!-- 황윤영, 임혁수, 이규철 (2005). 국가 전자기록물 영구보존을 위한 메타데이터 설계. 한국정보과학회 학술발표논문집, 35(1), 88-90.-->
<ref id="B005">
<label>5</label>
<element-citation publication-type="paper">
<person-group>
<name name-style="eastern"><surname>황</surname><given-names>윤영</given-names></name>
<name name-style="eastern"><surname>임</surname><given-names>혁수</given-names></name>
<name name-style="eastern"><surname>이</surname><given-names>규철</given-names></name>
</person-group>
<year>(2005)</year>
<article-title>국가 전자기록물 영구보존을 위한 메타데이터 설계</article-title>
<source>한국정보과학회 학술발표논문집</source>
<volume>35</volume><issue>1</issue>
<fpage>88</fpage><lpage>90</lpage>
<comment>Hwang, Yun-Young, Lim, Hyusk-Soo, &#x26; Lee, Kyu-Chul (2005). A Design of Metadata for Government Electronic Records Long-Term Preservation. Proceedings of the Korean Information Science Society Conference</comment>
</element-citation>
</ref>
<!-- Huang, J., Rathod, V., Sun, C., Zhu, M., Korattikara, A., Fathi, A., ... & Murphy, K. (2017). Speed/accuracy Trade-offs for Modern Convolutional Object Detectors. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 7310-7311. https://doi.org/10.1109/cvpr.2017.351-->
<ref id="B006">
<label>6</label>
<element-citation publication-type="paper">
<person-group>
<name name-style="eastern"><surname>Huang</surname><given-names>J.</given-names></name>
<name name-style="eastern"><surname>Rathod</surname><given-names>V.</given-names></name>
<name name-style="eastern"><surname>Sun</surname><given-names>C.</given-names></name>
<name name-style="eastern"><surname>Zhu</surname><given-names>M.</given-names></name>
<name name-style="eastern"><surname>Korattikara</surname><given-names>A.</given-names></name>
<name name-style="eastern"><surname>Fathi</surname><given-names>A.</given-names></name>
<name name-style="eastern"><surname>Murphy</surname><given-names>K.</given-names></name>
</person-group>
<year>(2017)</year>
<article-title>Speed/accuracy Trade-offs for Modern Convolutional Object Detectors</article-title>
<conf-name>Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition</conf-name>
<comment>7310-7311</comment>
<pub-id pub-id-type="doi">10.1109/cvpr.2017.351</pub-id>
</element-citation>
</ref>
<!-- Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C. Y., & Berg, A. C. (2016). Ssd: Single Shot Multibox Detector. In European Conference on Computer Vision, 21-37. https://doi.org/10.1007/978-3-319-46448-0_2-->
<ref id="B007">
<label>7</label>
<element-citation publication-type="paper">
<person-group>
<name name-style="eastern"><surname>Liu</surname><given-names>W.</given-names></name>
<name name-style="eastern"><surname>Anguelov</surname><given-names>D.</given-names></name>
<name name-style="eastern"><surname>Erhan</surname><given-names>D.</given-names></name>
<name name-style="eastern"><surname>Szegedy</surname><given-names>C.</given-names></name>
<name name-style="eastern"><surname>Reed</surname><given-names>S.</given-names></name>
<name name-style="eastern"><surname>Fu</surname><given-names>C. Y.</given-names></name>
<name name-style="eastern"><surname>Berg</surname><given-names>A. C.</given-names></name>
</person-group>
<year>(2016)</year>
<article-title>Ssd: Single Shot Multibox Detector</article-title>
<conf-name>European Conference on Computer Vision</conf-name>
<fpage>21</fpage><lpage>37</lpage>
<pub-id pub-id-type="doi">10.1007/978-3-319-46448-0_2</pub-id>
</element-citation>
</ref>
<!-- Mori, S., Nishida, H., & Yamada, H. (1999). Optical Character Recognition. John Wiley & Sons, Inc.-->
<ref id="B008">
<label>8</label>
<element-citation publication-type="book">
<person-group>
<name name-style="eastern"><surname>Mori</surname><given-names>S.</given-names></name>
<name name-style="eastern"><surname>Nishida</surname><given-names>H.</given-names></name>
<name name-style="eastern"><surname>Yamada</surname><given-names>H.</given-names></name>
</person-group>
<year>(1999)</year>
<source>Optical Character Recognition</source>
<publisher-name>John Wiley &#x26; Sons, Inc.</publisher-name>
</element-citation>
</ref>
<!-- Redmon, J., Divvala, S., Girshick, R., & Farhadi, A. (2016). You Only Look Once: Unified, Real-time Object Detection. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 779-788. https://doi.org/10.1109/cvpr.2016.91-->
<ref id="B009">
<label>9</label>
<element-citation publication-type="paper">
<person-group>
<name name-style="eastern"><surname>Redmon</surname><given-names>J.</given-names></name>
<name name-style="eastern"><surname>Divvala</surname><given-names>S.</given-names></name>
<name name-style="eastern"><surname>Girshick</surname><given-names>R.</given-names></name>
<name name-style="eastern"><surname>Farhadi</surname><given-names>A.</given-names></name>
</person-group>
<year>(2016)</year>
<article-title>You Only Look Once: Unified, Real-time Object Detection</article-title>
<conf-name>Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition</conf-name>
<fpage>779</fpage><lpage>788</lpage>
<pub-id pub-id-type="doi">10.1109/cvpr.2016.91</pub-id>
</element-citation>
</ref>
<!-- Ren, S., He, K., Girshick, R., & Sun, J. (2015). Faster R-cnn: Towards Real-time Object Detection with Region Proposal Networks. In Advances in Neural Information Processing Systems, 91-99. https://doi.org/10.1109/tpami.2016.2577031-->
<ref id="B010">
<label>10</label>
<element-citation publication-type="paper">
<person-group>
<name name-style="eastern"><surname>Ren</surname><given-names>S.</given-names></name>
<name name-style="eastern"><surname>He</surname><given-names>K.</given-names></name>
<name name-style="eastern"><surname>Girshick</surname><given-names>R.</given-names></name>
<name name-style="eastern"><surname>Sun</surname><given-names>J.</given-names></name>
</person-group>
<year>(2015)</year>
<article-title>Faster R-cnn: Towards Real-time Object Detection with Region Proposal Networks</article-title>
<conf-name>Advances in Neural Information Processing Systems</conf-name>
<fpage>91</fpage><lpage>99</lpage>
<pub-id pub-id-type="doi">10.1109/tpami.2016.2577031</pub-id>
</element-citation>
</ref>
<ref-list>
<title>[ 웹사이트 ]</title>
<!-- 군산시 홍보 포털. 검색일자: 2020. 4. 20. https://uprbank.kr/-->
<ref id="B011">
<label>11</label>
<element-citation publication-type="webpage" publication-format="web">
<source>군산시 홍보 포털</source>
<date-in-citation>검색일자: 2020. 4. 20.</date-in-citation>
<comment><uri>https://uprbank.kr/</uri></comment>
<comment>Gunsan Photo Bank. Retrieved April 20, 2020, from <uri>https://uprbank.kr/</uri></comment>
</element-citation>
</ref>
<!-- 수원시 포토 뱅크. 검색일자: 2020. 4. 20. http://photo.suwon.go.kr/-->
<ref id="B012">
<label>12</label>
<element-citation publication-type="webpage" publication-format="web">
<source>수원시 포토 뱅크</source>
<date-in-citation>검색일자: 2020. 4. 20.</date-in-citation>
<comment><uri>http://photo.suwon.go.kr/</uri></comment>
<comment>Suwon Photo Bank. Retrieved April 20, 2020, from <uri>http://photo.suwon.go.kr/</uri></comment>
</element-citation>
</ref>
<!-- 서귀포시 사진 DB. 검색일자: 2020. 4. 20. http://photo.seogwipo.go.kr/-->
<ref id="B013">
<label>13</label>
<element-citation publication-type="webpage" publication-format="web">
<source>서귀포시 사진 DB</source>
<date-in-citation>검색일자: 2020. 4. 20.</date-in-citation>
<comment><uri>http://photo.seogwipo.go.kr/</uri></comment>
<comment>Seogwipo Photo DB. Retrieved April 20, 2020, from <uri>http://photo.seogwipo.go.kr/</uri></comment>
</element-citation>
</ref>
<!-- Exif (2002). Exchangeable Image File Format for Digital Still Cameras: Exif Version 2.2. Retrieved April 20, 2020, from https://www.exif.org/-->
<ref id="B014">
<label>14</label>
<element-citation publication-type="webpage" publication-format="web">
<collab>Exif</collab>
<year>(2002)</year>
<source>Exchangeable Image File Format for Digital Still Cameras: Exif Version 2.2</source>
<date-in-citation>Retrieved April 20, 2020</date-in-citation>
<comment>from <uri>https://www.exif.org/</uri></comment>
</element-citation>
</ref>
<!-- Google Art & Culture. Retrieved April 20, 2020, from https://artsandculture.google.com/-->
<ref id="B015">
<label>15</label>
<element-citation publication-type="webpage" publication-format="web">
<source>Google Art &#x26; Culture</source>
<date-in-citation>Retrieved April 20, 2020</date-in-citation>
<comment>from <uri>https://artsandculture.google.com/</uri></comment>
</element-citation>
</ref>
<!-- IPTC (2017). IPTC Photo Metadata Standard. Retrieved April 20, 2020, from http://www.iptc.org-->
<ref id="B016">
<label>16</label>
<element-citation publication-type="webpage" publication-format="web">
<collab>IPTC</collab>
<year>(2017)</year>
<article-title>.</article-title>
<source>IPTC Photo Metadata Standard</source>
<date-in-citation>Retrieved April 20, 2020</date-in-citation>
<comment>from <uri>http://www.iptc.org</uri></comment>
</element-citation>
</ref>
<!-- Musée national des Arts asiatiques-Guimet. Retrieved April 20, 2020, from https://www.guimet.fr/collections/afghanistan-pakistan/-->
<ref id="B017">
<label>17</label>
<element-citation publication-type="webpage" publication-format="web">
<source>Musée national des Arts asiatiques-Guimet</source>
<date-in-citation>Retrieved April 20, 2020</date-in-citation>
<comment>from <uri>https://www.guimet.fr/collections/afghanistan-pakistan/</uri></comment>
</element-citation>
</ref>
<!-- The British Museum. Retrieved April 20, 2020, from https://www.britishmuseum.org/-->
<ref id="B018">
<label>18</label>
<element-citation publication-type="webpage" publication-format="web">
<source>The British Museum</source>
<date-in-citation>Retrieved April 20, 2020</date-in-citation>
<comment>from <uri>https://www.britishmuseum.org/</uri></comment>
</element-citation>
</ref>
</ref-list>
<ref-list>
<title>[ 컴퓨터 소프트웨어 및 데이터 세트 ]</title>
<!-- Abbyy OCR. [Computer Software]. 서울, 대한민국: 레티아-->
<ref id="B019">
<label>19</label>
<element-citation publication-type="other">
<source>Abbyy OCR</source>
<comment>[Computer Software]. 서울, 대한민국: 레티아</comment>
<comment>Abbyy OCR. [Computer Software]. Seoul, KR: ReTIA</comment>
</element-citation>
</ref>
<!-- COCO data set [Data File]. Retrieved April 20, 2020, from http://cocodataset.org/-->
<ref id="B020">
<label>20</label>
<element-citation publication-type="other">
<source>COCO data set</source>
<comment>[Data File]</comment>
<date-in-citation>Retrieved April 20, 2020</date-in-citation>
<comment>from <uri>http://cocodataset.org/</uri></comment>
</element-citation>
</ref>
<!-- Google Cloud Vision API [Computer Software]. California, U.S.A: Google-->
<ref id="B021">
<label>21</label>
<element-citation publication-type="other">
<source>Google Cloud Vision API</source>
<comment>[Computer Software]. California, U.S.A: Google</comment>
</element-citation>
</ref>
<!-- Microsoft Computer Vision API [Computer Software]. Washington, U.S.A: Microsoft-->
<ref id="B022">
<label>22</label>
<element-citation publication-type="other">
<source>Microsoft Computer Vision API</source>
<comment>[Computer Software]. Washington, U.S.A: Microsoft</comment>
</element-citation>
</ref>
<!-- Tesseract (Version 4.1.1) [Computer Software]. California, U.S.A: Google-->
<ref id="B023">
<label>23</label>
<element-citation publication-type="other">
<source>Tesseract (Version 4.1.1)</source>
<comment>[Computer Software]. California, U.S.A: Google</comment>
</element-citation>
</ref>
</ref-list>
</ref-list>
</back>
</article>
