<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="/resources/xsl/jats-html.xsl"?>
<article article-type="research-article" dtd-version="1.1" xml:lang="ko" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
	<journal-meta>
		<journal-id journal-id-type="publisher-id">jkits</journal-id>
		<journal-title-group>
		<journal-title>한국지식정보기술학회 논문지</journal-title>
		<journal-title xml:lang="en">Journal of Knowledge Information Technology and Systems</journal-title>
		</journal-title-group>
		<issn pub-type="ppub">1975-7700</issn>
		<publisher>
		<publisher-name>한국지식정보기술학회</publisher-name>
		<publisher-name xml:lang="en">Korea Knowledge Information Technology Society</publisher-name>
		</publisher>
	</journal-meta>
	<article-meta>
		<article-id pub-id-type="publisher-id">jkits_2019_14_01_93</article-id>
		<article-id pub-id-type="doi">10.34163/jkits.2019.14.1.010</article-id>
		<article-categories>
			<subj-group>
				<subject>Research Article</subject>
			</subj-group>
		</article-categories>
		<title-group>
			<article-title>태양광 전력 기반의 컨벌루션 신경망 설계와 숫자 인식률 개선</article-title>
			<trans-title-group xml:lang="en">
				<trans-title>Design of Convolution Neural Network Based On Solar Energy and Enhancement of Number Recognition</trans-title>
			</trans-title-group>
		</title-group>
		<contrib-group>
			<contrib contrib-type="author" xlink:type="simple">
				<name-alternatives>
					<name name-style="eastern">
						<surname>권</surname><given-names>오성</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Kwon</surname><given-names>Oh-Sung</given-names>
					</name>
					</name-alternatives>
				<xref ref-type="fn" rid="fn001"><sup>*</sup></xref>
			</contrib>
			</contrib-group>
		<aff-alternatives id="A1">
			<aff><italic>공주교육대학교 컴퓨터교육과 교수</italic></aff>
			<aff xml:lang="en"><italic>Department of Computer Education, Gongju National University of Education</italic></aff>
		</aff-alternatives>
		<author-notes>
			<fn id="fn001"><label>*</label><p>Corresponding author is with the Department of Computer Education, Gongju National University of Education, Bonghwang-Dong Gongju-Si Chungnam-Do,
KOREA. <italic>E-mail address</italic>: <email>oskwon@gjue.ac.kr</email></p></fn>
		</author-notes>
		<pub-date pub-type="ppub">
			<month>2</month>
			<year>2019</year>
		</pub-date>
		<volume>14</volume>
		<issue>1</issue>
		<fpage>93</fpage>
		<lpage>101</lpage>
		<history>
			<date date-type="received">
				<day>7</day>
				<month>1</month>
				<year>2018</year>
			</date>
			<date date-type="rev-recd">
				<day>8</day>
				<month>2</month>
				<year>2019</year>
			</date>
			<date date-type="accepted">
				<day>8</day>
				<month>2</month>
				<year>2019</year>
			</date>
		</history>
		<permissions>
			<copyright-statement>&#x00A9; 2019 KKITS All rights reserved</copyright-statement>
			<copyright-year>2019</copyright-year>
		</permissions>
		<abstract>
			<title>요약</title>
			<p>태양광 전력 체계의 활용이 일반화되고 있다. 본 논문에서는 자동차 번호판 등 숫자 인식 장치에 적용 가능한 시스템의 구성을 제안하고 제안하는 숫자 인식 방법의 성능을 보이고자 한다. 딥러닝 방식 중에서 CNN(Convolution Neural Network)은 인간의 시각 시스템처럼 영상의 특징 추출을 피라미드 형식으로 구체화하면서 정합하는 인공 신경망 구조이다. 최근 들어 이러한 특성은 다양한 영상 분석 응용에서 좋은 결과를 보이고 있다. 본 논문에서는 CNN의 입력으로 오프라인 필기 이미지를 사용하였다. CNN은 입력 영상이 담고 있는 노이즈, 에지, 획 정보 등을 추출하기 위한 2D 이미지 컨벌루션 연산을 진행하며, 이 과정은 신경망 구성을 복수의 은닉 레이어로 구성하였다. 이미지의 특징 추출과 그룹핑을 거쳐서 정량화된 중간 결과는 완전 접속 형태로 구성된 신경망의 입력으로 제공된다. 완전 접속 신경망은 학습 과정을 거쳐서 기 구축한 학습 모델을 이용하여 최적의 정합을 찾아 그 라벨로 분류하여 출력한다. 우리가 구현한 CNN의 숫자 인식 성능을 객관적으로 측정하기 위하여 전세계적으로 인증되고 있는 MNIST 데이터셋을 사용하였다. 그 중에서 60,000개의 자료를 학습에 사용하였고 10,000개 샘플을 측정용 자료로 구분하여 측정하였다. 실험의 편의를 위하여 학습 사이클을 2회 반복으로 제한한 후에 인식 실험을 진행하였다. 일반적으로 한정된 형태의 학습 샘플은 오인식이나 미인식의 결과를 도출하기도 한다. 이를 개선하기 위하여 학습에 사용될 이미지 자료의 형태에 몇 가지 왜곡 변형 필터를 적용하여 입력 자료를 확장하고 재학습을 진행하도록 한 후에 각각의 인식률을 측정하였다. 비교 실험한 결과 변형적용 후 인식률은 98.04% 로 개선 효과를 얻었다.</p>
		</abstract>
		<trans-abstract xml:lang="en">
			<title>ABSTRACT</title>
			<p>Applications of solar power are also increasingly common. In this paper, we explained the characteristics of our new discriminator based on solar energy and CNN for number recognition. Our CNN(Convolution Neural Network) is one in deep learning models with the function of human visual perception. The neural network model carries out the image feature matching process to recognize entered digital images. Our proposed CNN structure was designed with multiple hidden layers to retrieve the features of handwritten numeral images. The CNN structure performs 2D image convolution operation to extract noise, edge and stroke information from the numeral images. These feature information from the convolution layers is served as a new input stream of FCN(Fully Connected Network) for the classification of the features. The FCN performs a classification procedure based on the protypes already deployed for numeral image matching. We used MNIST(Modified National Institute of Standards and Technology) data set to achieve objective recognition measurement. The 60,000 samples of MNIST data set were applied for the learning process of our CNN recognizer, while we used the 10,000 samples for the performance measurement of our CNN recognizer. The measurement experiments were carried out after the repeating the training process of CNN only two times. The several misrecognition results were observed in our performance test, therefore we performed the additional training step to enhance the recognition rate of our CNN. Our additional method is the distortion of our input samples. we performed serveral distortion function such as a scaling, a rotation, and an elastic. In the final measurement of CNN recognizer, we observed that the recognition rate after the applying distortion process was improved by about 98.04%. </p>
		</trans-abstract>
		<kwd-group kwd-group-type="author" xml:lang="en">
			<kwd>Solar Energy</kwd>
			<kwd>Convolution Neural Network</kwd>
			<kwd>Handwritten Numeral Images</kwd>
			<kwd>Fully Connected Network</kwd>
			<kwd>Feature Matching</kwd>
			<kwd>Misrecognition</kwd>
		</kwd-group>
	</article-meta>
</front>
<body>
<sec id="sec001" sec-type="intro">
<title>1. 서 론</title>
<p>자동차 번호판 인식과 같은 숫자 판독기의 활용이 일반화되고 있다. 본 논문에서는 이러한 숫자 판독기 중에서 태양광 전력과 같은 제한된 전력 공급 하에서도 구동 가능한 시스템의 구성을 보이고, 그 상황에서 가동하는 숫자 이미지의 인식 성능을 검증하고자 한다. 본 논문에서 설명 하고자 하는 저전력 숫자 판별 시스템은 별도의 전력 공사없이도 손쉽게 설치하여 운영할 수 있는 장점이 있다. 본 논문에서는 제안하는 저전력 소모 분석기의 구성과 숫자 인식 방식으로 채택한 CNN의 구성과 숫자 인식 방법의 성능을 보인다.</p>
<p>숫자를 포함하는 문자 인식은 국내·외적으로 인공지능 및 패턴 인식(Pattern Recognition)의 중요한 응용 분야로 자리잡았다. 일반적으로, 문자 인식 기술은 크게 필기와 처리가 함께 진행되는 온라인(On-Line)과 시간 차이를 갖고 처리되는 오프라인(Off-Line) 인식으로 구별된다. 온라인 인식은 주로 모바일 필기 입력 수단으로 사용되고 오프라인 인식은 사람의 필기로 작성된 경우와 인쇄 문서를 인식하는 경우로 나뉜다. 본 논문에서는 오프라인 인식 중에서 숫자 필기를 대상으로 하며 문서 구조 분석 없이 입력 숫자만을 인식하는 기술을 다루고자 한다.</p>
<p>일반적으로 문자 인식은 오프라인보다 필기 획입력 시간과 획의 시종점 정보가 함께 수집되는 온라인 인식의 인식률이 높다고 할 수 있다. 온라인 인식은 시간에 따른 입력 궤적 좌표의 변화를 분석한다고 볼 수 있고, 오프라인은 필기 결과 이미지의 픽셀 분포를 분석하는 것이라 할 수 있다. 결국, 오프라인 인식은 일반 영상 처리 기술이 그대로 적용된다고 볼 수 있다. 본 논문에서는 오프라인 숫자 필기 인식을 위하여 다양한 영상 처리 기법, 특징 추출, 분석 엔진 등을 다루고자 한다<xref ref-type="bibr" rid="B001">[1]</xref>.</p>
<p>본 논문의 주제인 숫자는 영자, 한글, 한자 등의 일반 문자와 다르게 인식 대상이 10개로 한정되기 때문에 비교적 분석이 용이하이다<xref ref-type="bibr" rid="B001">[1]</xref>. 이런 이유로 새롭게 분석 방법을 설계하고 효과적인 디버깅이 가능하다. 본 논문에서도 이러한 숫자필기를 대상으로 인식기를 설계하고 인식 실험을 진행하였다.</p>
<p>제안하는 본 논문의 숫자 필기 인식기는 오프라인 입력 이미지를 디지털 이미지 분석 기술로 전처리하고 구별자로 활용할 수 있는 특징 추출 단계를 수행한다. 제안하는 방식은 일반적으로 이미지 분석에 성능을 인정받고 있는 컨벌루션 신경망(CNN, Convolution Neural Network)을 기반으로 설계하고 구현하였다. 이미지 전처리와 특징 추출 과정은 제안하는 신경망 구조의 전반부 레이어로 구성하였다. CNN의 학습 능력을 향상시키기 위해서 는 다양한 형태의 학습 샘플의 확보가 필요하다. 이를 위하여 입력된 학습 샘플을 몇 가지 변형 함수를 사용하여 추가적으로 생성하고 재학습하는 방법으로 학습 효과를 높이는 방식을 사용하였다.</p>
<p>논문의 구성은 관련 연구를 CNN과 딥러닝의 개념과 적용한 예를 중심으로 살펴보고, 다음은 제안하는 저전력 CNN의 구성을 제안하고, 그 작동 방식을 설명한다. 덧붙여 인식기 객관적인 성능 평가를 MNIST 문자 세트를 입력으로 하여 측정하고 분석하였다.</p>
</sec>
<sec id="sec002">
<title>2. 관련 연구</title>
<p>태양광 전력을 사용하는 시스템의 경우는 태양 조도에 따라 시간별 발전량 변화를 보인다. <xref ref-type="bibr" rid="B002">[2]</xref>의 연구는 태양광 전력 사용 시 배터리에 충전되는 발전 전력량 변이 추이를 실험하였고 &#x003C;<xref ref-type="fig" rid="f001">그림 1</xref>&#x003E;은 일 기준 전압량 변이를 추적한 그래프이다<xref ref-type="bibr" rid="B002">[2]</xref>. 그래프에서 보듯이 시간별 큰 변이를 보이므로 본 논문과 같이 태양광 전력을 기반으로 하는 시스템의 경우는 이를 감안하여 솔루션을 설계할 필요가 있다.</p>
<fig id="f001" orientation="portrait" position="float">
	<label>그림 1.</label>
	<caption>
		<title>태양광 전력량 일 변화</title>
		<p>Figure 1. Solar Energy Interface for CNN board</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f001.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>문자인식에 관련한 다양한 연구가 발표되어 왔으며, 주로 인공신경망(Artificial Neural Network), 은닉마르코프모델(Hidden Markov Model), 퍼지 논리(fuzzy logic), 컨벌루션 신경망(CNN,Convolution Neural Network) 등의 시도가 있었다<xref ref-type="bibr" rid="B003">[3]</xref>. 이러한 인식 방법의 차이에도 불문하고 프로그램의 수행 절차는 거의 비슷한 절차를 거친다.</p>
<p>문자 인식 연구에서 인식 프로그램의 객관적인 성능 평가를 위해서 전세계 연구자들 사이에 MNIST(Modified National Institute of Standards and Technology) 데이터셋을 사용한다. 이 데이터베이스는 Yann LeCun에 의해서 작성되었다. &#x003C;<xref ref-type="fig" rid="f002">그림 2</xref>&#x003E;는 MNIST 데이터셋의 샘플 자료의 예이다<xref ref-type="bibr" rid="B004">[4]</xref>.</p>
<fig id="f002" orientation="portrait" position="float">
	<label>그림 2.</label>
	<caption>
		<title>MNIST 데이셋 샘플</title>
		<p>Figure 2. Samples of MNIST Data Set</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f002.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>오프라인 필기 인식의 경우에는 입력 자료의 전처리를 거쳐 불필요한 노이즈를 제거하는 처음 절차를 수행한다. 다음은 인식에 사용될 특징을 추출하는 과정을 거친다. 문자별 분류를 위한 특징값은 사전 학습을 거쳐 구축되고 입력 자료는 이렇게 기 저장된 모델과 정합하여 일치 여부를 판별하는 것으로 인식을 진행하게 된다<xref ref-type="bibr" rid="B005">[5]</xref>-<xref ref-type="bibr" rid="B009">[9]</xref>.</p>
<p>문자 인식에는 인공 신경망 방식이 초장기부터 사용되었다. 인공 신경망은 신경 세포의 시냅스 강도의 변화를 인공 뉴런 노드 간의 가중치값(weight)을 조절하는 프로그램 절차식을 만들고, 충분한 반복 과정으로 최적의 가중치를 수렴하도록 하는 학습 및 인식 모델이다<xref ref-type="fig" rid="f009">[9]</xref>. &#x003C;<xref ref-type="fig" rid="f003">그림 3</xref>&#x003E;은 인공 신경망 중에서 인간의 시각 처리 방식을 보여준다<xref ref-type="bibr" rid="B015">[15]</xref>. 그림은 처리 전반부에 이미지 컨벌루션 연산으로 특징을 추출하고 후반부는 일반적인 다층 신경망 구조체로 복잡한 비선형 분류를 시행하는 CNN 구성을 보여준다<xref ref-type="bibr" rid="B011">[11]</xref>-<xref ref-type="bibr" rid="B013">[13]</xref><xref ref-type="bibr" rid="B015">[15]</xref>.</p>
<fig id="f003" orientation="portrait" position="float">
	<label>그림 3.</label>
	<caption>
		<title>CNN의 동작 원리</title>
		<p>Figure 3. CNN Operation Principle</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f003.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>CNN 전반부의 특징 지도(Feature Map) 작성은 선 지정된 커널(Kernel)의 컨벌루션 연산으로 진행되고, 학습으로 얻어진 연결 가중치(Weights)가 적용되어 인식에 필요한 특징들이 만들어지는 과정이다<xref ref-type="bibr" rid="B011">[11]</xref>.</p>
<p>인식 성능은 문자를 잘 구별하는 특징값 집합을 얼마나 효과적으로 잘 확보하는 가에 의해서 결정되며, 이러한 특징값 계산 과정이 인식 프로그램의 학습 과정이다. 이러한 특징값을 자동으로 구축하는 방안을 마련하는 다양한 연구들이 진행되어 왔으며, 과거와 달리 CNN과 같은 딥러닝 모델은 이러한 특징을 스스로 구축할 수 있도록 설계된 구조이다.</p>
</sec>
<sec id="sec003">
<title>3. 숫자 인식을 위한 컨볼루션 신경망</title>
<sec id="sec003-1">
<title>3.1 저전력 인식 시스템의 구성</title>
<p>본 논문에서 제안하는 숫자 인식에 의한 분석 장치는 태양광과 같은 불안정한 전력 체계 하에서 도 동작할 수 있도록 &#x003C;<xref ref-type="fig" rid="f004">그림 4</xref>&#x003E;와 같이 설계하였다. 이를 위하여 태양광 패널과 배터리로 구성된 전력 생성부와 분석 소프트웨어를 구동 할 처리기로는 일반 PC보다 상대적으로 저전력 구동이 가능한 아두이노(Arduino)와 라즈베리(raspberry Pi)로 구성된 복합 보드 모듈이다. 장착 센서는 카메라 센서와 가속 감지 모듈로 구성하였다. 차량 출입 등에 따른 떨림을 감지하기 위해서 가속 감지 센서와 이를 처리하는 아두이노 보드가 작동한다. 아두이노 처리 보드는 상시로 전력이 공급되고 있는 상태이며, 가속 센서의 검출값이 임계치 이상이면 차량 출입이 감지되었다고 판단하여 라즈베리 보드에 전력을 공급하여 처리기를 구동시키도록 디자인하였다. 저전력 초소형 센서 처리기로 일반적으로 사용되는 아두이노 보드를 적용하여 전력 소모를 최소하하는 구조이다. 라즈베리 보드의 인식 모듈의 이미지 전처리 부분은 캡쳐 이미지 상의 물체 포함 유무를 2 차로 재검하고 이를 통과하는 경우 본 논문에서 설명하고 제안하는 숫자 분석 엔진을 구동한다. 제안하는 숫자 분석 엔진은 cpu 사용을 최소화하기 위하여 다단계 분류로 분석량을 최소화하는 컨벌루션 신경망컨벌루션 신경망을 채택하였다.</p>
<fig id="f004" orientation="portrait" position="float">
	<label>그림 4.</label>
	<caption>
		<title>CNN을 위한 태양광 전력 체계</title>
		<p>Figure 4. Solar Energy Interface for CNN board</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f005.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>본 논문의 숫자 필기 인식기는 MNIST 샘플 데이터 세트로부터 학습과 테스트용 자료를 입력하는 부분, 뉴런간 연결부 가중치를 계산하는 학습부, 실제 학습 원형과 테스팅 자료를 정합하는 부분으로 구성하였다. &#x003C;<xref ref-type="fig" rid="f005">그림 5</xref>&#x003E;는 구현 프로그램의 인터페이스이다.</p>
<fig id="f005" orientation="portrait" position="float">
	<label>그림 5.</label>
	<caption>
		<title>숫자 인식기 인터페이스</title>
		<p>Figure 5. Interface of Number Recognition Program</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f004.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>CNN의 전체 구성의 전반부는 &#x003C;<xref ref-type="fig" rid="f006">그림 6</xref>&#x003E;과 같이 입력 이미지 레이어와 연속된 컨벌루션 레이어 1과 레이어 2가 연속되고 특징 추출과 그룹핑 과정으로 이루어진다. 추출된 중간 결과는 후반 FCN(Fully Connected Neural Network)에 의해 최종 분류되도록 설계하였다 <xref ref-type="bibr" rid="B003">[3]</xref><xref ref-type="bibr" rid="B014">[14]</xref>.</p>
<fig id="f006" orientation="portrait" position="float">
	<label>그림 6.</label>
	<caption>
		<title>제안하는 CNN 숫자 인식기</title>
		<p>Figure 6. Our Proposed CNN for Numeral Recognizer</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f006.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>컨벌루션(Convolution) 연산은 입력된 디지털 이미지를 인식하기 위한 영상 특징 추출 과정이다. 연산은 이미지 픽셀(pixel)과 에지(edge)의 형태와 분포를 발견하기 위하여 정해진 크기의 검출 템플레이트(template)를 적용한다. 본 논문에서는 에지검출로 많이 알려진 소벨(sobel) 연산 템플레이트를 사용하였다. 에지 추출은 본 논문의 전체 시스템 구성 중에서 첫 번째 레이어의 커널(kernel) 메트릭스로 구현되었다.</p>
<p>본 논문에서는 &#x003C;<xref ref-type="fig" rid="f006">그림 6</xref>&#x003E;의 템플레이트와 같은 이미지 검출 커널을 5×5 크기로 확장하여 디자인하여 CNN의 첫 번째 레이어 군의 커널(kernel) 연산으로 적용하였다.</p>
</sec>
<sec id="sec003-2">
<title>3.2 신경망 학습 방식</title>
<p>신경망의 학습은 설계 기능에 부합하도록 노드 간 연결 파라메터를 수정하는 반복 과정이다. 즉, 주어진 입력에 원하는 출력이 생산되도록 신경망 내부의 가중치와 임계치를 반복적으로 보완하여 최적의 상태로 수렴시키는 절차라고 할 수 있다<xref ref-type="bibr" rid="B003">[3]</xref>.</p>
<p>제안하는 시스템의 학습은 MNIST의 저장 샘플을 사용하였으며 네트워크의 가중치와 바이어스(bias) 값을 학습한다. 학습의 효율을 높이기 위하여 학습 샘플을 반복하거나 적용 순서를 랜덤화하는 방안이 있다. 본 논문에서는 입력 샘플을 다음의 방식으로 변형하여 학습 샘플을 부가적으로 생성하고 학습하도록 하였다. 적용 함수는 크기(Scaling), 회전(rotation), 탄력 변형(elastic distortion) 연산을 사용하였다<xref ref-type="bibr" rid="B010">[10]</xref>. 왜곡의 심화정도는 랜덤 함수를 사용하여 다양성을 확보하도록 하였고 x, y축 양 방향으로 적용하여 그 결과를 작성하였다.</p>
</sec>
</sec>
<sec id="sec004" sec-type="results">
<title>4. 구현 및 실험 결과</title>
<p>3 장에서 설명한 숫자 인식기의 성능을 측정하였다. 실험은 인식기의 학습 능력을 다양한 방식으로 측정하고 이 학습 능력에 따른 숫자 인식률 또한 실험 자료의 구성 방식에 따른 변화를 구하였다.</p>
<sec id="sec004-1">
<title>4.1 학습도 측정</title>
<p>학습은 입력 이미지를 라벨 정보와 일치하도록 노드간 연결 파라메터를 수정하는 과정으로 신경망 내부의 가중치와 임계치를 반복적으로 보완하여 최적의 상태로 수렴시킨다. 입력된 학습 샘플군을 반복적으로 적용하여 학습시키는 과정으로 발생하는 미인식 샘플 개수를 줄여나갔다. 학습 시입력 샘플은 무작위로 추출하여 학습하도록 하였으며, 3.2절의 이미지 변형 방식으로 변형을 생성하여 학습량을 늘렸다. 학습 반복 횟수가 늘어남에 따라 미인식 샘플의 개수는 감소하였다. 실험 결과, 1 번째 학습에서 19,247→7,962→5,682→ ... →1,724 ...로 반복하면서 급격히 줄어드는 것을 볼 수 있었다.</p>
<p>다음 실험은 앞서와 동일 방식으로 진행하는 데, 학습 샘플에 변형을 주지 않는 경우를 관찰하였다. 예상대로 미인식 샘플 수가 1번째 적용에서 7,247개 였으며 2867→1865→...→232 ... 로 줄어드는 속도 역시 빠른 것을 확인할 수 있었다. 두 가지 경우 모두 학습 그래프의 경향은 유사하나 변형을 주지 않은 경우에서 보다 용이한 학습 경향을 보였다. 두 경우 모두 학습 샘플을 무작위로 추출하여 적용하기 때문에 학습 정도와 결과는 매번 동일하지 않았다.</p>
<p>다음은 변형된 학습 샘플 조건으로 학습 적용 반복하며 누적하지 않고 매번 공백상태에서 학습하며 미인식 개수를 측정하여 결과를 얻었다. 관찰 결과, 매번 다소간 차이를 보이는 것을 관찰할 수 있었고 이 현상은 무작위 순번에 의한 차이로 볼 수 있었고 큰 틀에서는 비슷한 경향임을 확인할 수 있었다.</p>
</sec>
<sec id="sec004-2">
<title>4.2 숫자 인식률 측정</title>
<p>앞절의 학습으로 구축된 인식 원형을 사용하여 숫자 필기 자료의 인식 실험을 시행하였다. 우선, 학습량을 늘리는 경우 인식률의 변화를 측정하였다. 학습량의 증가는 동일한 학습 샘플의 반복 적용 횟수를 의미하며, 그에 따른 인식률의 추이를 나타낸다. 실험 결과, 학습주기를 반복할수록 인식률이 향상됨을 알 수 있다. 검사용 입력 샘플에 변형을 포함시킨 경우와 변형을 포함하지 않는 샘플을 대상으로 인식 실험을 진행한 두 경우의 인식률의 추이를 실험하였다. &#x003C;<xref ref-type="fig" rid="f007">그림 7</xref>&#x003E;은 그 결과 그래프이며 점선은 무변형 샘플 학습의 경우이고 실선은 변형 샘플 학습을 나타낸다. 그림에서 보듯이 실선 그래프가 초반부 (1~3회 반복)애서는 인식률이 상대적으로 낮다가 그 이후 인식률 향상 폭이 보다 커지는 것을 관찰할 수 있다. 이러한 현상은 학습에서 변형을 포함하는 샘플을 사용하게 되면 그렇지 않은 경우 보다 많은 학습 반복을 요구하는 데, 이를 충족하지 못하는 경우 오히려 학습 효과가 떨어져 인식률 저하로 나타날 수 있음을 보여준다. 최종적으로 98.04의 인식률을 얻을 수 있었다. 이러한 인식률은 자동차 번호판과 같은 정자체인 경우보다 향상될 것으로 보인다.</p>
<p>&#x003C;<xref ref-type="fig" rid="f008">그림 8</xref>&#x003E;는 &#x003C;<xref ref-type="fig" rid="f007">그림 7</xref>&#x003E;과 유사한 실험으로 볼 수 있으며 인식률 실험용 샘플에 다양한 변형이 가해진 상태로 인식을 진행하도록 한 경우의 인식률 측정이다. &#x003C;<xref ref-type="fig" rid="f008">그림 8</xref>&#x003E;에서 점선은 무변형 샘플 학습의 경우이고 실선은 변형 샘플 학습을 나타낸다.</p>
<fig id="f007" orientation="portrait" position="float">
	<label>그림 7.</label>
	<caption>
		<title>학습 진행 심화에 따른 변형 없는 실험 샘플 입력의 인식률 변화</title>
		<p>Figure 7. Progress of Recognition Rate According to the Learning Levels with Distortion-Free Testing Samples</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f007.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<p>이 경우, 변형 포함 샘플로 학습한 후에 인식을 측정한 실선 그래프의 추이가 초반부터 점선 그래프보다 높은 인식률을 보임을 알 수 있다. 점선은 &#x003C;<xref ref-type="fig" rid="f008">그림 8</xref>&#x003E;과 마찬가지로 변형없이 입력 샘플 형태만 학습을 진행한 후에 인식을 진행한 경우이다. 이러한 두 가지 실험 결과를 볼 때, 변형 포함 학습이 입력 충분한 학습을 진행하는 경우 모든 입력 유형에서 변형 없는 학습의 경우보다 높은 인식률을 보이는 것을 확인하였다.</p>
<p>&#x003C;<xref ref-type="fig" rid="f008">그림 8</xref>&#x003E;은 학습 실험을 진행하면서 소요된 샘플 전체 인식 시간을 나타낸다. 수직축은 소요 시간을 초로 나타내며 수평축은 학습의 반복 횟수이다. 학습이 반복된 상태에서 인식 실험이 진행되면 인식 소요 시간이 단축됨을 확인할 수 있었으며, 일정 횟수 이후로 인식 시간의 큰 변이가 없음을 관찰할 수 있었다. 라즈베리파이 3B 보드에서 샘플1 개당 평균 0.32초 내외로 인식할 수 있음을 확인할 수 있었다.</p>
<p>&#x003C;<xref ref-type="fig" rid="f009">그림 9</xref>&#x003E;은 학습 실험을 하면서 소요된 입력 샘플 1 개당 MSE(Mean Squared Error) 시간을 나타낸다. 수직축은 소요 시간을 초로 나타내며 수평축은 학습의 반복 횟수이다. 학습이 반복되면서 인식 소요 시간이 점차 단축됨을 확인할 수 있었다. 이러한 현상은 변형 없는 샘플이 입력으로 주어진 경우나 그렇지 않은 경우인 &#x003C;<xref ref-type="fig" rid="f009">그림 9</xref>&#x003E;와 같이 모두 같은 결과를 보였다. 실험에서 변형 샘플을 나타내는 실선인 경우가 0.3초와 0.47초정도 사이에서 초반부 높게 나타나는 원인은 변형 샘플 학습이 보다 많은 학습 샘플을 요구하기 때문이다. 학습이 진행될수록 시간이 안정됨을 확인할 수 있었다.</p>
<fig id="f008" orientation="portrait" position="float">
	<label>그림 8.</label>
	<caption>
		<title>학습 진행 심화에 따른 변형된 샘플 입력의 시간 소모 변화</title>
		<p>Figure 8. Progress of Consumed Time Necessary to Recognition According to the Learning Levels with Distortion Testing Samples</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f008.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
<fig id="f009" orientation="portrait" position="float">
	<label>그림 9.</label>
	<caption>
		<title>학습 진행 심화에 따른 변형 없는 샘플 입력의 MSE 시간 변화</title>
		<p>Figure 9. MSE Time Progress According to the Learning Levels with Distortion-Free Samples</p>
	</caption>
	<graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f009.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
</fig>
</sec>
</sec>
<sec id="sec005" sec-type="Conclusions">
<title>5. 결 론</title>
<p>본 논문에서는 숫자 필기 자료를 인식할 수 있는 컨벌루션 연산을 기반으로 분석하는 신경망 구조체인 CNN을 구현하고 실험하였다.</p>
<p>CNN의 전반부는 입력 이미지로부터 분석 특징을 추출하는 컨벌루션 연산을 수행하도록 하였고 이를 분류하기 위한 신경망을 후처리로 구성하였다. 분류 특징은 입력 영상의 에지의 분포와 형태 정보이며 2D 이미지 컨벌루션은 이를 정량적으로 표현할 수 있다. 컨벌루션은 몇 단계의 은닉 계층 구조로 구성되며 몇 단계의 그룹핑을 거쳐서 정량화된 결과는 완전 접속 형태로 구성된 신경망의 입력으로 제공되고 최종 인식 라벨을 출력하는 과정이다.</p>
<p>인식은 학습 과정으로 얻어진 신경망 가중치 집합에 의한다. 신경망 가중치 분포값은 충분한 학습 샘플을 사용하여 계산된다. 본 논문에서는 인식 성능을 높이기 위하여 다양한 학습 샘플 운영 방안을 실험하고 그 결과를 제시하였다.</p>
<p>실험 결과의 객관성을 확보하기 위하여 MNIST의 숫자 필기 데이터베이스를 사용하였다. 학습용 샘플을 그대로 사용하여 인식 실험한 결과 98.04 %의 인식률을 얻었으며, 학습 샘플 변형으로 학습량을 늘려서 실험한 결과 학습 횟수를 충분히 확보하지 못한 경우 오히려 인식률이 저하되기도 했으나, 충분한 반복 학습을 진행한 결과 0.49 % 이상의 안정적인 인식률 향상을 관찰할 수 있었다.</p>
<p>인식에 소요된 시간은 샘플 1 개당 평균 0.23초 내외로 인식할 수 있음을 확인할 수 있었고, 실험에 사용된 자료를 MNIST 필기 자료가 아닌 인쇄체로 학습한 경우 보다 적은 학습과 인식 소요 시간을 기대 할 수 있을 것으로 판단된다.</p>
<p>추가적인 연구로는 CNN의 특징 추출이 국소적인 에지 분포를 분석하고 이를 결합하는 방식이어서 필기 획의 기울기 등 왜곡이 발생하는 경우 미인식을 발생하기 쉬운 특성이 있다. 보다 상위의 메타 정보를 안정적으로 형성하는 방안의 연구가 필요하다.</p>
</sec>
</body>
<back>
<ref-list>
<title>References</title>
<!-- [1] A. Sharma, Y. Barole, K. Kerhalkar, and P. K.R., Neural network based handwritten digit recognition for managing examination score in paper based test, International Journal of Advanced Resherch in Electrical Electronics and Instrumentation Engineering, Vol. 5, No. 3, pp. 1682-1685, 2016.-->
<ref id="B001">
<label>[1]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Sharma</surname><given-names>A.</given-names></name>
<name><surname>Barole</surname><given-names>Y.</given-names></name>
<name><surname>Kerhalkar</surname><given-names>K.</given-names></name>
<name><surname>K.R.</surname><given-names>P.</given-names></name>
</person-group>
<year>2016</year>
<article-title>Neural network based handwritten digit recognition for managing examination score in paper based test</article-title>
<source>International Journal of Advanced Resherch in Electrical Electronics and Instrumentation Engineering</source>
<volume>5</volume><issue>3</issue>
<fpage>1682</fpage><lpage>1685</lpage>
</element-citation>
</ref>
<!-- [2] O-S. Kwon, Comparison of energy and power characteristics according to the types of solar panels and batteries, Journal of Knowledge Information Technology and Systems(JKITS), Vol. 13, No. 1, pp. 161-168, 2018.-->
<ref id="B002">
<label>[2]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Kwon</surname><given-names>O-S.</given-names></name>
</person-group>
<year>2018</year>
<article-title>Comparison of energy and power characteristics according to the types of solar panels and batteries</article-title>
<source>Journal of Knowledge Information Technology and Systems(JKITS)</source>
<volume>13</volume><issue>1</issue>
<fpage>161</fpage><lpage>168</lpage>
<pub-id pub-id-type="doi">10.34163/jkits.2018.13.1.016</pub-id>
</element-citation>
</ref>
<!-- [3] M. J. Embrechts, B. J. Hargis, and J. D. Linton, An augmented efficient backpropagation training strategy for deep autoassociative neural networks, ESANN proceedings, European Symposium on Artificial Neural Networks-Computational Intelligence and Machine Learning, pp. 28-30, 2010.-->
<ref id="B003">
<label>[3]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Embrechts</surname><given-names>M. J.</given-names></name>
<name><surname>Hargis</surname><given-names>B. J.</given-names></name>
<name><surname>Linton</surname><given-names>J. D.</given-names></name>
</person-group>
<year>2010</year>
<source>An augmented efficient backpropagation training strategy for deep autoassociative neural networks</source>
<comment>ESANN proceedings</comment>
<conf-name>European Symposium on Artificial Neural Networks-Computational Intelligence and Machine Learning</conf-name>
<fpage>28</fpage><lpage>30</lpage>
<pub-id pub-id-type="doi">10.1109/ijcnn.2010.5596828</pub-id>
</element-citation>
</ref>
<!-- [4] P. Y. Simard, D. Steinkraus, and J. C. Platt, Best practices for convolutional neural networks applied to visual document analysis, Proceedings of the 7th International Conference on Document Analysis and Recognition (ICDAR), pp. 958-963, 2003.-->
<ref id="B004">
<label>[4]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Simard</surname><given-names>P. Y.</given-names></name>
<name><surname>Steinkraus</surname><given-names>D.</given-names></name>
<name><surname>Platt</surname><given-names>J. C.</given-names></name>
</person-group>
<year>2003</year>
<source>Best practices for convolutional neural networks applied to visual document analysis</source>
<conf-name>Proceedings of the 7th International Conference on Document Analysis and Recognition (ICDAR)</conf-name>
<fpage>958</fpage><lpage>963</lpage>
<pub-id pub-id-type="doi">10.1109/icdar.2003.1227801</pub-id>
</element-citation>
</ref>
<!-- [5] H. Arakawa, On-line recognition of handwritten characters-alphanumerics, Hiragana, Katakand, Kanji, Pattern Recognition, Vol. 16, No. 1, pp. 9-16, 1983.-->
<ref id="B005">
<label>[5]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Arakawa</surname><given-names>H.</given-names></name>
</person-group>
<year>1983</year>
<article-title>On-line recognition of handwritten characters-alphanumerics, Hiragana, Katakand, Kanji</article-title>
<source>Pattern Recognition</source>
<volume>16</volume><issue>1</issue>
<fpage>9</fpage><lpage>16</lpage>
<pub-id pub-id-type="doi">10.1016/0031-3203(83)90003-1</pub-id>
</element-citation>
</ref>
<!-- [6] S. Impedovo, L. Ottaviano, and S. Occhinegro, A new method for automatic reading of typed/handwritten numerals, International Journal of Pattern Recognition, pp. 405-410, 1992.-->
<ref id="B006">
<label>[6]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Impedovo</surname><given-names>S.</given-names></name>
<name><surname>Ottaviano</surname><given-names>L.</given-names></name>
<name><surname>Occhinegro</surname><given-names>S.</given-names></name>
</person-group>
<year>1992</year>
<article-title>A new method for automatic reading of typed/handwritten numerals</article-title>
<source>International Journal of Pattern Recognition</source>
<fpage>405</fpage><lpage>410</lpage>
</element-citation>
</ref>
<!-- [7] C. Y. Suen, C. Nadal, R. Legault, T. A. Mai, and L. Lam, Computer recognition of unconstrained handwritten numerals, Proc. of IEEE, Vol. 80, No. 7, pp. 1162-1180, 1992.-->
<ref id="B007">
<label>[7]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Suen</surname><given-names>C. Y.</given-names></name>
<name><surname>Nadal</surname><given-names>C.</given-names></name>
<name><surname>Legault</surname><given-names>R.</given-names></name>
<name><surname>Mai</surname><given-names>T. A.</given-names></name>
<name><surname>Lam</surname><given-names>L.</given-names></name>
</person-group>
<year>1992</year>
<source>Computer recognition of unconstrained handwritten numerals</source>
<conf-name>Proc. of IEEE</conf-name>
<volume>80</volume><issue>7</issue>
<fpage>1162</fpage><lpage>1180</lpage>
</element-citation>
</ref>
<!-- [8] C. C. Tappert, C. Y. Suen, and T. Wakahara, The state of the art in on-line handwriting recognition, IEEE Trans. on PAMI, Vol. 12, No. 8, pp. 787-803, 1990.-->
<ref id="B008">
<label>[8]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Tappert</surname><given-names>C. C.</given-names></name>
<name><surname>Suen</surname><given-names>C. Y.</given-names></name>
<name><surname>Wakahara</surname><given-names>T.</given-names></name>
</person-group>
<year>1990</year>
<article-title>The state of the art in on-line handwriting recognition</article-title>
<source>IEEE Trans. on PAMI</source>
<volume>12</volume><issue>8</issue>
<fpage>787</fpage><lpage>803</lpage>
<pub-id pub-id-type="doi">10.1109/34.57669</pub-id>
</element-citation>
</ref>
<!-- [9] I. Guyon, P. Albrecht, Y. L. Cun, J. Denker, and W. Hubbard., Design of a neural network character recognition for a touch terminal, Pattern Recognition, Vol. 24, No. 2, 1991.-->
<ref id="B009">
<label>[9]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Guyon</surname><given-names>I.</given-names></name>
<name><surname>Albrecht</surname><given-names>P.</given-names></name>
<name><surname>Cun</surname><given-names>Y. L.</given-names></name>
<name><surname>Denker</surname><given-names>J.</given-names></name>
<name><surname>Hubbard</surname><given-names>W.</given-names></name>
</person-group>
<year>1991</year>
<article-title>Design of a neural network character recognition for a touch terminal</article-title>
<source>Pattern Recognition</source>
<volume>24</volume><issue>2</issue>
<pub-id pub-id-type="doi">10.1016/0031-3203(91)90081-f</pub-id>
</element-citation>
</ref>
<!-- [10] MNIST: Elastic distortions, https://evizero.github.io/Augmentor.jl/generated/mnist_elastic/, 2019.-->
<ref id="B010">
<label>[10]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2019</year>
<source>MNIST: Elastic distortions, <uri>https://evizero.github.io/Augmentor.jl/generated/mnist_elastic/</uri></source>
</element-citation>
</ref>
<!-- [11] Convolutional neural network, https://en.wikipedia.org/wiki/Convolutional_neural_network, 2018.-->
<ref id="B011">
<label>[11]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2018</year>
<article-title></article-title>
<source>Convolutional neural network, <uri>https://en.wikipedia.org/wiki/Convolutional_neural_network</uri></source>
</element-citation>
</ref>
<!-- [12] Correcting image orientation using convolutional neural networks, https://d4nst.github.io/2017/01/12/image-orientation/, 2018.-->
<ref id="B012">
<label>[12]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2018</year>
<source>Correcting image orientation using convolutional neural networks, <uri>https://d4nst.github.io/2017/01/12/image-orientation/</uri></source>
</element-citation>
</ref>
<!-- [13] Human visual system model, https://en.wikipedia.org/wiki/Human_visual_system_model, 2018.-->
<ref id="B013">
<label>[13]</label>
<element-citation publication-type="webpage" publication-format="web">
<source>Human visual system model, <uri>https://en.wikipedia.org/wiki/Human_visual_system_model</uri></source>
</element-citation>
</ref>
<!-- [14] Fully connected neural networks, https://hoontweety.blog.me/221225814791, 2018.-->
<ref id="B014">
<label>[14]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2018</year>
<source>Fully connected neural networks, <uri>https://hoontweety.blog.me/221225814791</uri></source>
</element-citation>
</ref>
<!-- [15] Deep convolutional neural networks as models of the visual system, https://neurdiness.wordpress.com/2018/05/17/deep-convolutional-neural-networks-as-models-of-the-visual-system-qa/, 2018.-->
<ref id="B015">
<label>[15]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2018</year>
<source>Deep convolutional neural networks as models of the visual system, <uri>https://neurdiness.wordpress.com/2018/05/17/deep-convolutional-neural-networks-as-models-of-the-visual-system-qa/</uri></source>
</element-citation>
</ref>
</ref-list>
<ack>
<title>감사의 글</title>
<p>본 논문은 "2017년도 공주교육대학교 교내연구비" 지원에 의한 것임</p>
</ack>
<bio>
	<p><graphic xlink:href="../ingestImageView?artiId=ART002439658&amp;imageName=jkits_2019_14_01_93_f010.jpg"></graphic><bold>Oh-Sung Kwon</bold> received the Ph.D. degree in the Department of Computer Engineering from Chung-Ang University in 1994. He has been a professor in the Department of Computer Education at Gongju National University of Education since 1995. His current research interests include multimedia data processing and digital image processing.</p>
	<p><italic>E-mail address</italic>: <email>oskwon@gjue.ac.kr</email></p>
</bio>
</back>
</article>
