<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="/resources/xsl/jats-html.xsl"?>
<article article-type="research-article" dtd-version="1.1" xml:lang="ko" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
	<journal-meta>
		<journal-id journal-id-type="publisher-id">jkits</journal-id>
		<journal-title-group>
		<journal-title>한국지식정보기술학회 논문지</journal-title>
		<journal-title xml:lang="en">Journal of Knowledge Information Technology and Systems</journal-title>
		</journal-title-group>
		<issn pub-type="ppub">1975-7700</issn>
		<publisher>
		<publisher-name>한국지식정보기술학회</publisher-name>
		<publisher-name xml:lang="en">Korea Knowledge Information Technology Society</publisher-name>
		</publisher>
	</journal-meta>
	<article-meta>
		<article-id pub-id-type="publisher-id">jkits_2020_15_03_315</article-id>
		<article-id pub-id-type="doi">10.34163/jkits.2020.15.3.001</article-id>
		<article-categories>
			<subj-group>
				<subject>Research Article</subject>
			</subj-group>
		</article-categories>
		<title-group>
			<article-title>고정밀 이미지 분류기를 위한 엣지 강화 신경망</article-title>
			<trans-title-group xml:lang="en">
				<trans-title>Edge Enhanced Neural Network For High Accuracy Image Classification</trans-title>
			</trans-title-group>
		</title-group>
		<contrib-group>
			<contrib contrib-type="author" xlink:type="simple">
				<name-alternatives>
					<name name-style="eastern">
						<surname>서</surname>
						<given-names>상민</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Suh</surname>
						<given-names>Sangmin</given-names>
					</name>
				</name-alternatives>
					<xref ref-type="fn" rid="fn001">*</xref>
			</contrib>
					</contrib-group>
		<aff-alternatives>
			<aff><italic>강릉원주대학교 정보통신공학과 조교수</italic></aff>
			<aff xml:lang="en"><italic>Department of Information&#x26;Telecommunication Engineering, Gangneung-Wonju National University</italic></aff>
		</aff-alternatives>
		<author-notes>
			<fn id="fn001"><label>*</label><p>Corresponding author is with the Department of Information&#x26;Telecommunication Engineering, Gangneung-Wonju National University, 150, Namwon-ro, Wonju-si, 26403, KOREA.</p><p><italic>E-mail address</italic>: <email>sangminsuh@gwnu.ac.kr</email></p></fn>
		</author-notes>
		<pub-date pub-type="ppub">
			<month>06</month>
			<year>2020</year>
		</pub-date>
		<volume>15</volume>
		<issue>3</issue>
		<fpage>315</fpage>
		<lpage>321</lpage>
		<history>
			<date date-type="received">
				<day>17</day>
				<month>04</month>
				<year>2020</year>
			</date>
			<date date-type="rev-recd">
				<day>08</day>
				<month>06</month>
				<year>2020</year>
			</date>
			<date date-type="accepted">
				<day>11</day>
				<month>06</month>
				<year>2020</year>
			</date>
		</history>
		<permissions>
			<copyright-statement>&#x00A9; 2020 KKITS All rights reserved</copyright-statement>
			<copyright-year>2020</copyright-year>
		</permissions>
		<abstract>
		<title>요약</title>
		<p>여러 인공 지능 분야에서도 이미지 분류기는 가장 근본이 되는 분야이며 또한 가장 널리 사용되는 분야이다. 이 논문은 이미지 분류기의 정밀도 성능을 올리기 위한 새로운 방법을 제안한다. 사물을 인식할 때, 사물의 형상을 보고 판단한다는 직관으로부터 새로운 신경망 구조를 구현하였고 은닉층의 특징 맵을 상대 비교함으로써, 필현적으로 성능향상이 이루어질 수 있음을 보였다. CIFAR-10 실험 세트를 이용하여 약 3% 정도의 성능향상을 보여, 제안하는 방법이 실제 유효함을 보였다.</p>
		</abstract>
		<trans-abstract xml:lang="en">
		<title>ABSTRACT</title>
		<p>Among the several deep learning research areas, image classification is a fundamental area and has been widely applied to many practical applications. Image classification is to determine which category the given image belongs to. Since the image classification is a typical supervised learning, test images and the corresponding answers, i.e., labels are also given. And, with the given test images and labels, a neural network is trained to minimize a loss function defined by error between the label and the inference result. Therefore, as the loss decreases, the inference accuracy increases. As a result, the accuracy is a criteria of the performance of the neural network in image classification. In this paper, a new method for high accuracy image classification is suggested. Authors thinks that recognizing things mean seeing the shape of the things. With the intuition, in the proposed method, additional edge information is applied to the image and around 3% accuracy improvement is achieved in the experiment. In order to clarify the improvement, compared feature maps in the hidden layers are visualized and analyzed. And, it is also confirmed that the feature map of the proposed method is more clear and sharp than that of the conventional one. Another merit of the proposed method is that this method can easily improve the accuracy of the conventionally existing neural networks through the transfer learning because the proposed method just modifies the first layer of the conventional neural networks.</p>
		</trans-abstract>
		<kwd-group kwd-group-type="author" xml:lang="en">
<title>K E Y W O R D S</title>
			<kwd>Artificial intelligence</kwd>
			<kwd>Deep learning</kwd>
			<kwd>Edge enhancement</kwd>
			<kwd>Feature map</kwd>
			<kwd>Image classification</kwd>
			<kwd>Neural network</kwd>
			<kwd>Supervised learning</kwd>
		</kwd-group>
	</article-meta>
</front>
<body>
<sec id="sec001" sec-type="intro">
	<title>1. 서 론</title>
	<p>인공 지능 분야는 최근에 가장 활발히 연구되고 있는 분야 중에 하나이며, 이 인공 지능은 인공 신경망을 근본으로 한다. 최초의 인공 신경은 인간의 신경인 뉴런(neuron)의 동작 원리를 모방하여 설계 제작되었다[<xref ref-type="bibr" rid="B001">1</xref>]. 그 후 다중 레이어 신경망 구조(MLP: multi-layer perceptron)[<xref ref-type="bibr" rid="B002">2</xref>]와 역전파 방법(back propagation) [<xref ref-type="bibr" rid="B003">3</xref>]이 개발되어 현실적으로 사용이 가능한 인공 신경망을 설계 할 수 있게 되었다. 그러나 이러한 인공 신경망을 훈련시키고 실제 사용하기 위해서는 무엇보다도 많은 연산을 빠르게 수행 할 수 있는 계산기 (computer)가 필요한 데, 2000년대 초반까지만 하여도 이러한 계산기가 없어 실생활에서 적용을 하지 못하고 있었다. ILSVRC(ImageNet Large-Scale Visual Recognition)은 인공지능 분야 에서도 가장 기본이 되는 이미지 분류(image classification) 대회이다. 그런데 2012년 이 대회에서, Alex Krizhevsky가 기존에 비하여 거의 10%에 가까운 성능 향상을 얻은 논문을 발표하였다[<xref ref-type="bibr" rid="B004">4</xref>]. 성능 향상의 요인으로 활성화 함수 개선과 과적합 (overfitting) 문제를 해결하기 위한 방법론도 제시하였지만, 가장 큰 요인은 병렬 처리가 가능한 GPU (graphics processing unit)를 사용한다는 것이었다. 기존과 다르게, GPU를 사용함으로써 많은 연산을 빠르게 처리하는 것이 가능해졌고, 이를 통하여 많은 훈련이 가능하여 궁극적으로 커다란 성능 향상을 얻게 되었다.</p>
	<p>이후 인공지능 분야는 많은 분야에 적용이 되었는데, 영상 의학 데이터를 분류하는 데 사용되었고[<xref ref-type="bibr" rid="B005">5</xref>], 농작물의 상태를 분석하는 분야에도 사용되었다[<xref ref-type="bibr" rid="B006">6</xref>]. 또한, 추론 정밀도 향상 외에도 고속 인공지능 구현을 위한 방법도 제안되었다[<xref ref-type="bibr" rid="B007">7</xref>].</p>
	<p>이 논문에서는, 인공 지능 이미지 분류기의 성능 향상을 위한 새로운 방법을 제시한다. 이 논문의 아이디어로서 저자는 우리가 사물을 바라보고 그것이 무엇인지를 파악할 때 사물의 외곽을 보고 판단한다는 점에 착안하여 그 정보를 신경망에 적용하였으며, 신경망 은닉 레이어 (hidden layer)의 특징 맵 (feature map)을 상대 비교함으로써 이 방법이 실제 유효함을 보인다. 성능 비교 평가를 위하여 텐서플로우 (tensorflow)를 이용하여 인공신경망을 구현하였으며 테스트 이미지 세트로는 10 종류의 이미지를 분류하는 CIFAR-10 이미지를 사용하였다[<xref ref-type="bibr" rid="B008">8</xref>]. 동일한 조건의 실험에서 제안하는 방법을 사용하여 약 3%의 성능 개선을 이룰 수 있음을 보인다. 제안하는 구조의 또 하나의 장점으로는 기존 신경망을 바꾸지 않고도 단지 입력 레이어 만을 변경하여 성능을 올릴 수 있다는 것이다. 이는  거의 동일한 가중치 (weight)나 바이어스 (bias) 수를 유지할 수 있으며, 이것은 추가적인 메모리나 단일 곱셈누산기 (MAC: multiplier-accumulator)의 증가가 거의 없음을 의미한다. 다시 말해서, 단 소수점 이하 몇 퍼센트의 성능을 높이기 위하여 백층이 넘게 레이어 쌓는 것에 비하면 [<xref ref-type="bibr" rid="B009">9</xref>], 제안하는 방법은 대단히 단순하면서도, 작은 크기의 효과적인 인공 신경망을 만들 수 있는 방법이다.</p>
	<p>이 논문의 구성은 다음과 같다. 제 2장에서는 신경망 설계와 성능 향상을 위한 아이디어와 그 구현을 제시하며, 제 3장에서는 실험 환경과 특징 맵들을 시각화한 결과를 비교하여 성능 개선이 명확히 됨을 보이고, 마지막으로 결론을 기술한다.</p>
</sec>
<sec id="sec002">
	<title>2. 고성능 이미지 분류기 설계</title>
	<sec id="sec002-1">
		<title>2.1 제안하는 이미지 분류기의 개념</title>
		<p>우리가 사물을 보고 그것이 무엇인지 판단할 때 우리의 의식의 흐름은, 우선 사물의 외곽을 보고, 두 번째는 색상과 재질을 보게 된다. 예를 들어, 우리가 고양이를 인식할 때 더욱 명확해 진다. 처음 고양이의 외곽을 보고 이것이 고양이 임을 알 수 있고, 둘째 색상과 재질을 보고난 후 만약 색깔이 빨갛거나 반짝이는 재질. 즉 우리가 일반적으로 알고 있는 기존 정보와 다른 색상이나 재질일 경우, 우리는 이것을 고양이이긴 하나, 가짜 고양이 혹은 장난감 고양이로 인식하게 된다.</p>
		<p>이 논문에서는 이러한 사물의 외곽 정보를 신경망에 적용하여 이미지 분류기의 성능을 높이고자 한다.</p>
	</sec>
	<sec id="sec002-2">
		<title>2.2 인공 신경망 설계</title>
		<p>이미지 분류기에서 인공 신경망의 입력은 영상이며 일반적으로 빨강 (Red), 녹색 (Greed), 파랑(Blue) 3가지 색상의 정보를 가지고 있으며 아래의 &#x003C;<xref ref-type="fig" rid="f001">그림 1</xref>&#x003E;과 같은 구조이다.</p>
		<fig id="f001" orientation="portrait" position="float">
			<label>그림 1.</label>
			<caption>
				<title>기존의 이미지 분류기</title>
				<p>Figure 1. Conventional image classification</p>
			</caption>
			<graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f001.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
		</fig>
		<p>입력으로는 3 채널 이미지를 받고, 그 이미지를 정제하는 전처리 (pre-processing)과정을 거친 후, 인공 신경망 (neural network)과 결과를 정리하는 후처리 (post-processing) 과정을 거쳐, 주어진 이미지에 대한 최종 추론을 하게 된다.</p>
		<p>이 논문에서는 이미지 분류기의 정밀도를 향상하고자, 기존 이미지 정보에 사물의 외곽 (Edge)정보를 추가한다.</p>
		<fig id="f002" orientation="portrait" position="float">
			<label>그림 2.</label>
			<caption>
				<title>제안하는 이미지 분류기</title>
				<p>Figure 2. Proposed image classification</p>
			</caption>
			<graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f002.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
		</fig>
		<p>&#x003C;<xref ref-type="fig" rid="f002">그림 2</xref>&#x003E;는 제안하는 이미지 분류기 구조이며 기존의 구조에서 이미지의 외곽 정보를 추가하였다. 이것은, 우리가 사물을 인식할 때 외곽 부분을 눈여겨본다는 데에서 착안하였고, 그 개념을 이미지 분류기의 입력으로 추가한 것이다.</p>
		<p>이제 제안하는 방법의 유용성을 검증 및 확인하기 위하여 인공 신경망을 설계한다. 신경망 설계를 위한 프레임워크는 텐서플로우 2.1[<xref ref-type="bibr" rid="B010">10</xref>]을 사용하며, 이미지 테스트 세트로는 10가지 이미지를 분류하는 CIFAR-10 세트를 사용한다.</p>
		<fig id="f003" orientation="portrait" position="float">
			<label>그림 3.</label>
			<caption>
				<title>채널별 이미지 (왼쪽 위에서 시계 방향으로, RGEB)</title>
				<p>Figure 3. Channel images (from left-top clockwise, RGEB)</p>
			</caption>
			<graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f003.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
		</fig>
		<p>3개의 채널 RGB를 갖는 기존의 이미지에 외곽정보를 포함하는 새로운 채널을 추가적으로 만들어야 한다. 외곽 정보를 포함하는 채널을 만드는 방법은 여러 가지가 있을 수 있지만, 이 논문에서는 영상 샤프닝 (image sharpening) 방법 중 하나인 라플라시안 (laplacian) 방법을 사용한다[<xref ref-type="bibr" rid="B011">11</xref>]. &#x003C;<xref ref-type="fig" rid="f003">그림 3</xref>&#x003E;은 표준 테스트 이미지[<xref ref-type="bibr" rid="B012">12</xref>,<xref ref-type="bibr" rid="B013">13</xref>]를 이용하여 RGB를 포함한 외곽영상 채널 (E)까지 추출한 그림의 예시이다.</p>
		<p>E채널에서는 이미지의 외곽만이 표현되고 있다.</p>
		<p>E채널이 만들어 졌으니, 이제 전체 인공 신경망을 설계한다. 제안하는 방법의 유용성을 빠르게 확인하기 위하여 전체 신경망은 아래와 같이 단순한 구조로 설계하였다.</p>
		<fig id="f004" orientation="portrait" position="float">
			<label>그림 4.</label>
			<caption>
				<title>신경망 구조 설계</title>
				<p>Figure 4. Design if neural network</p>
			</caption>
			<graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f004.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
		</fig>
		<p>CIFAR-10의 테스트 이미지의 크기는 32 (height)× 32 (width) × 3 (channel)이며, 이 논문이 제안하는 방법을 사용하면 이미지의 크기는 32×32×4가 된다. 그림에서 ‘Conv’는 컨볼루션 레이어, ‘MaxPooling’은 최대 풀링 레이어 (max pooling layer)를, 그리고 ‘FC’는 완전 연결 층 (fully connected layer)를 나타낸다. 그리고 이 논문에서 사용된 파라미터 값들을 &#x003C;<xref ref-type="table" rid="t001">표 1</xref>&#x003E;에 정리하였다.</p>
		<table-wrap id="t001">
			<label>표 1.</label>
			<caption>
				<title>설계된 신경망의 파라미터</title>
				<p>Table 1. parameters of the designed neural network</p>
			</caption>
			<table frame="box" rules="all" width="100%">
				<tbody>
<tr align="center">
<td>Layer name</td>
<td>Parameters</td>
</tr>
<tr>
<td align="center">Conv</td>
<td>kernel size: 3×3, stride:1</td>
</tr>
<tr>
<td align="center">MaxPooling</td>
<td>kernel size: 2×2, stride:2</td>
</tr>
<tr>
<td align="center">optimizer</td>
<td>stochastic gradient descent method</td>
</tr>
<tr>
<td align="center">epoch</td>
<td>64</td>
</tr>
<tr>
<td align="center">weight/bias initializer</td>
<td>Xavier normal initializer</td>
</tr>
				</tbody>
			</table>
		</table-wrap>
	</sec>
</sec>
<sec id="sec003" sec-type="methods">
	<title>3. 실험</title>
	<p>설정된 파라미터 값을 이용하여 훈련을 진행하였고 텐서보드 (tensor board)[<xref ref-type="bibr" rid="B010">10</xref>]를 이용하여 성능을 비교하였다. 훈련에서 에포크 (epoch)가 진행됨에 따라서 변화하는 손실 값은 아래 &#x003C;<xref ref-type="fig" rid="f005-1">그림 5</xref>&#x003E;와 같이 얻어졌다.</p>
	<fig id="f005-1" orientation="portrait" position="float">
		<label>그림 5.</label>
		<caption>
			<title>손실 값 비교</title>
			<p>Figure 5. Compared loss values</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f005_1.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<fig id="f005-2" orientation="portrait" position="float">
		<label>그림 5.</label>
		<caption>
			<title>은닉층 비교를 위한 실험 이미지</title>
			<p>Figure 5. Test image to compare hidden layers</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f005_2.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>여기서 ‘logs_wo’은 에지 채널 E를 인가하지 않은 상태의 손실 값의 변화를 나타내며, ‘log_w’은 에지 채널 E를 인가하였을 때의 손실값의 변화를 나타낸다. E 채널을 인가하였을 때 손실 값이 더 빠르게 떨어짐을 분명히 알 수 있다.</p>
	<p>손실 값이 이렇게 빠르게 줄어든다는 것은 이미지 분류기의 정밀도가 더 빠르게 향상된다는 것을 의미하며, 그 비교된 정밀도를 &#x003C;<xref ref-type="fig" rid="f006">그림 6</xref>&#x003E;에 나타내었다.</p>
	<p>훈련이 진행 될수록, 기존 방식에 비하여 제안한 방법에서의 정밀도가 더욱 증가함을 알 수 있다. 이 실험에선 기존 방식은 77%의 정밀도를 보였으며, 제안하는 방식에서는 80%의 정밀도를 보여서, 제안하는 방법으로 3%의 성능 향상을 얻을 수 있었다.</p>
	<p>이제 왜 이러한 결과가 나온 것인지 좀 더 구체적으로 신경망 내부를 알아보고자 한다. 이 논문에서는 신경망 내부를 보기 위하여 은닉층 (hidden layer)의 특징 맵 (feature map)을 비교한다. 그 비교를 위하여, 이미 훈련이 끝난 두 신경망에 &#x003C;<xref ref-type="fig" rid="f006">그림 6</xref>&#x003E;과 같은 하나의 실험 이미지를 인가한다.</p>
	<fig id="f006" orientation="portrait" position="float">
		<label>그림 6.</label>
		<caption>
			<title>정밀도 비교</title>
			<p>Figure 6. Compared accuracies</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f006.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>이 실험 이미지의 해상도는 640×426이므로 32×32로 다운 샘플링 (down sampling)하여, 이미 구현된 신경망의 입력 크기에 맞도록 이미지의 크기를 조절하였다. 이 이미지를 &#x003C;<xref ref-type="fig" rid="f004">그림 4</xref>&#x003E;의 입력으로 인가하고 ‘Conv (3×3×36)’레이어의 출력 특징 맵 (output feature amp)을 시각화하여 비교하였다. 출력 채널이 총 36개 층이 있고 모든 층을 시각화 하였다.</p>
	<p>&#x003C;<xref ref-type="fig" rid="f007">그림 7</xref>&#x003E;은 기존 방식으로 얻어진 특징 맵이고 &#x003C;<xref ref-type="fig" rid="f008">그림 8</xref>&#x003E;은 새롭게 제안한 방식으로 얻어진 특징 맵이다. 그리고 각 이미지의 위치를 행렬의 원소위치와 동일하다고 생각한다. 두 특징 맵을 비교해 볼 때, 일부는 다른 부분도 있지만, ‘전체적’으로 보면 &#x003C;<xref ref-type="fig" rid="f008">그림 8</xref>&#x003E;이 &#x003C;<xref ref-type="fig" rid="f007">그림 7</xref>&#x003E;보다 더욱 선명하다. 특히 이미지(1,8)과 이미지(2,8)에선 더욱 차이가 많이 나며, 다른 특징 맵에서도 거의 동일한 현상이 나타난다. 그리고 이러한 선명한 특징 맵은 최대풀링과 완전 연결 층들을 거쳐 소프트 맥스 층(softmax layer)으로 진행되면서 더 많은 정보를 주게 되고, 최종적으로 더 높은 성능을 얻을 수 있게 된다.</p>
	<fig id="f007" orientation="portrait" position="float">
		<label>그림 7.</label>
		<caption>
			<title>기존 방식에서 콘볼루션 레이어의 특징 맵</title>
			<p>Figure 7. Feature maps of the convolution layer in the conventional method</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f007.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<fig id="f008" orientation="portrait" position="float">
		<label>그림 8.</label>
		<caption>
			<title>제안한 방식에서 콘볼루션 레이어의 특징 맵</title>
			<p>Figure 8. Feature maps of the convolution layer in the proposed method</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f008.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
</sec>
<sec id="sec004" sec-type="Conclusion">
	<title>4. 결 론</title>
	<p>이 논문에서 이미지 분류기의 성능 향상을 위한 새로운 방법을 제시하였다. 사물을 인식한다는 것은 사물의 형상을 인식하다는 직관으로부터, 이를 구체화하기 위하여 신경망의 입력에 사물의 외곽 채널을 추가하였고, 내부 특징 맵을 상대 비교하여 왜 이런 결과가 얻어졌는지를 분석하였다.</p>
	<p>실험을 통하여, 동일한 조건에서 이미지 분류기의 성능이 약 3% 향상됨을 보였다.</p>
	<p>제안하는 방법의 또 다른 장점으로는. 기존에 이미 구현된 신경망에서 단지 입력층만을 수정한 후 전이 학습 (transfer learning)을 통하여 성능을 더욱 올릴 수 있다는 것이다. 이것은 처음부터 새롭게 훈련해야 하는 방법보다는 분명히 시간과 노력을 줄여준다.</p>
</sec>
</body>
<back>
<ref-list>
<title>References</title>
<!--[1] F. Rosenblatt, The perceptron: a probabilistic model for information storage and organization in the brain, Cornell Aeronautical Laboratory, Psychological Review, Vol. 65, No. 6, pp. 386-408, 1958.-->
<ref id="B001">
<label>[1]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Rosenblatt</surname><given-names>F.</given-names></name>
</person-group>
<year>1958</year>
<article-title>The perceptron: a probabilistic model for information storage and organization in the brain</article-title>
<source>Cornell Aeronautical Laboratory, Psychological Review</source>
<volume>65</volume><issue>6</issue>
<fpage>386</fpage><lpage>408</lpage>
<pub-id pub-id-type="doi">10.1037/h0042519</pub-id>
</element-citation>
</ref>
<!--[2] M. Minsky, and S. A. Papert, Perceptrons: an introduction to computational geometry, The MIT Press, 1969.-->
<ref id="B002">
<label>[2]</label>
<element-citation publication-type="book">
<person-group>
<name><surname>Minsky</surname><given-names>M.</given-names></name>
<name><surname>Papert</surname><given-names>S. A.</given-names></name>
</person-group>
<year>1969</year>
<source>Perceptrons: an introduction to computational geometry</source>
<publisher-name>The MIT Press</publisher-name>
<pub-id pub-id-type="doi">10.7551/mitpress/11301.001.0001</pub-id>
</element-citation>
</ref>
<!--[3] D. H. Ackley, G. E. Hinton, and T. J. Sejnowski, A learning algorithm for Boltzmann machines, Cognitive science, Vol. 9, No. 1, pp. 147-169, 1985.-->
<ref id="B003">
<label>[3]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Ackley</surname><given-names>D. H.</given-names></name>
<name><surname>Hinton</surname><given-names>G. E.</given-names></name>
<name><surname>Sejnowski</surname><given-names>T. J.</given-names></name>
</person-group>
<year>1985</year>
<article-title>A learning algorithm for Boltzmann machines</article-title>
<source>Cognitive science</source>
<volume>9</volume><issue>1</issue>
<fpage>147</fpage><lpage>169</lpage>
<pub-id pub-id-type="doi">10.1016/S0364-0213(85)80012-4</pub-id>
</element-citation>
</ref>
<!--[4] A. Krizhevsky, I. Sutskever, and G. E. Hinton, Imagenet classification with deep convolutional neural networks, https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf, Sep. 2019.-->
<ref id="B004">
<label>[4]</label>
<element-citation publication-type="webpage" publication-format="web">
<person-group>
<name><surname>Krizhevsky</surname><given-names>A.</given-names></name>
<name><surname>Sutskever</surname><given-names>I.</given-names></name>
<name><surname>Hinton</surname><given-names>G. E.</given-names></name>
</person-group>
<source>Imagenet classification with deep convolutional neural networks</source>
<comment><uri>https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf</uri>, Sep. 2019</comment>
</element-citation>
</ref>
<!--[5] S. Shin, H. Kim, and S-H. Park, Recent trend of biomedical image classification methods, Journal of Knowledge Information Technology and Systems(JKITS), Vol. 12, No. 5, pp. 765-776, 2017.-->
<ref id="B005">
<label>[5]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Shin</surname><given-names>S.</given-names></name>
<name><surname>Kim</surname><given-names>H.</given-names></name>
<name><surname>Park</surname><given-names>S-H.</given-names></name>
</person-group>
<year>2017</year>
<article-title>Recent trend of biomedical image classification methods</article-title>
<source>Journal of Knowledge Information Technology and Systems(JKITS)</source>
<volume>12</volume><issue>5</issue>
<fpage>765</fpage><lpage>776</lpage>
<pub-id pub-id-type="doi">10.34163/jkits.2017.12.5.016</pub-id>
</element-citation>
</ref>
<!--[6] S-H. Jeong, M-H. Lee, and H. Yoe, Fruit classification system using deep learning, Journal of Knowledge Information Technology and Systems(JKITS), Vol. 13, No. 5, pp. 589-595, 2018.-->
<ref id="B006">
<label>[6]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Jeong</surname><given-names>S-H.</given-names></name>
<name><surname>Lee</surname><given-names>M-H.</given-names></name>
<name><surname>Yoe</surname><given-names>H.</given-names></name>
</person-group>
<year>2018</year>
<article-title>Fruit classification system using deep learning</article-title>
<source>Journal of Knowledge Information Technology and Systems(JKITS)</source>
<volume>13</volume><issue>5</issue>
<fpage>589</fpage><lpage>595</lpage>
<pub-id pub-id-type="doi">10.34163/jkits.2018.13.5.009</pub-id>
</element-citation>
</ref>
<!--[7] S. Suh, Effective implementation for fast deep learning algorithm, Journal of Knowledge Information Technology and Systems(JKITS), Vol. 14, No. 5, pp. 553-561, 2019.-->
<ref id="B007">
<label>[7]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Suh</surname><given-names>S.</given-names></name>
</person-group>
<year>2019</year>
<article-title>Effective implementation for fast deep learning algorithm</article-title>
<source>Journal of Knowledge Information Technology and Systems(JKITS)</source>
<volume>14</volume><issue>5</issue>
<fpage>553</fpage><lpage>561</lpage>
<pub-id pub-id-type="doi">10.34163/jkits.2019.14.5.012</pub-id>
</element-citation>
</ref>
<!--[8] https://www.cs.toronto.edu/~kriz/cifar.html, Apr. 2020.-->
<ref id="B008">
<label>[8]</label>
<element-citation publication-type="webpage" publication-format="web">
<source><uri>https://www.cs.toronto.edu/~kriz/cifar.html</uri></source>
<comment>Apr. 2020</comment>
</element-citation>
</ref>
<!--[9] K. He, X. Zhang, S. Ren, and J. Sun, Deep residual learning for image recognition, https://arxiv.org/abs/1512.03385, Apr. 2020.-->
<ref id="B009">
<label>[9]</label>
<element-citation publication-type="webpage" publication-format="web">
<person-group>
<name><surname>He</surname><given-names>K.</given-names></name>
<name><surname>Zhang</surname><given-names>X.</given-names></name>
<name><surname>Ren</surname><given-names>S.</given-names></name>
<name><surname>Sun</surname><given-names>J.</given-names></name>
</person-group>
<source>Deep residual learning for image recognition</source>
<comment><uri>https://arxiv.org/abs/1512.03385</uri>, Apr. 2020</comment>
</element-citation>
</ref>
<!--[10] https://www.tensorflow.org/, Apr. 2020.-->
<ref id="B010">
<label>[10]</label>
<element-citation publication-type="webpage" publication-format="web">
<source><uri>https://www.tensorflow.org/</uri></source>
<comment>Apr. 2020</comment>
</element-citation>
</ref>
<!--[11] R. C . Gonzalez , R. E. Woods, Digital image processing, Pearson, 2018.-->
<ref id="B011">
<label>[11]</label>
<element-citation publication-type="book">
<person-group>
<name><surname>Gonzalez</surname><given-names>R. C.</given-names></name>
<name><surname>Woods</surname><given-names>R. E.</given-names></name>
</person-group>
<year>2018</year>
<source>Digital image processing</source>
<publisher-name>Pearson</publisher-name>
</element-citation>
</ref>
<!--[12] https://www.ece.rice.edu/~wakin/images/, Apr. 2020.-->
<ref id="B012">
<label>[12]</label>
<element-citation publication-type="webpage" publication-format="web">
<source><uri>https://www.ece.rice.edu/~wakin/images/</uri></source>
<comment>Apr. 2020</comment>
</element-citation>
</ref>
<!--[13] https://homepages.cae.wisc.edu/~ece533/images/, Apr. 2020.-->
<ref id="B013">
<label>[13]</label>
<element-citation publication-type="webpage" publication-format="web">
<source><uri>https://www.ece.rice.edu/~wakin/images/</uri></source>
<comment>Apr. 2020</comment>
</element-citation>
</ref>
</ref-list>
<bio>
	<p><graphic xlink:href="../ingestImageView?artiId=ART002597290&amp;imageName=jkits_2020_15_03_315_f009.jpg"></graphic><bold>Sangmin Suh</bold> received B.S., M.S., and Ph.D. degree in the electronics engineering in the Hanyang university of Seoul Korea in 1991, 1994, and 2003 respectively. From 1994 to 1999, he has been with Daewoo telecommunication. From 2003 to 2019, he was in Samsung electronics. He currently holds assistant professor in the department of information and telecommunication engineering at Gangneung-Wonju national university. His current research interests include artificial intelligence, robotics, and control.</p>
	<p><italic>E-mail address</italic>: <email>sangminsuh@gwnu.ac.kr</email></p>
</bio>
</back>
</article>
