<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="/resources/xsl/jats-html.xsl"?>
<article article-type="research-article" dtd-version="1.1" xml:lang="ko" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
	<journal-meta>
		<journal-id journal-id-type="publisher-id">jkits</journal-id>
		<journal-title-group>
		<journal-title>한국지식정보기술학회 논문지</journal-title>
		<journal-title xml:lang="en">Journal of Knowledge Information Technology and Systems</journal-title>
		</journal-title-group>
		<issn pub-type="ppub">1975-7700</issn>
		<publisher>
		<publisher-name>한국지식정보기술학회</publisher-name>
		<publisher-name xml:lang="en">Korea Knowledge Information Technology Society</publisher-name>
		</publisher>
	</journal-meta>
	<article-meta>
		<article-id pub-id-type="publisher-id">jkits_2020_15_06_963</article-id>
		<article-id pub-id-type="doi">10.34163/jkits.2020.15.6.005</article-id>
		<article-categories>
			<subj-group>
				<subject>Research Article</subject>
			</subj-group>
		</article-categories>
		<title-group>
			<article-title>인공지능을 이용한 외국인 근로자를 위한 실시간 사물 인식 및 번역 앱</article-title>
			<trans-title-group xml:lang="en">
				<trans-title>Real-time Object Recognition and Translation App for Foreign Workers Using Artificial Intelligence</trans-title>
			</trans-title-group>
		</title-group>
		<contrib-group>
			<contrib contrib-type="author" xlink:type="simple">
				<name-alternatives>
					<name name-style="eastern">
						<surname>김</surname>
						<given-names>병수</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Kim</surname>
						<given-names>Bum-Soo</given-names>
					</name>
				</name-alternatives>
					<xref ref-type="aff" rid="A1"><sup>1</sup></xref>
			</contrib>
			<contrib contrib-type="author" xlink:type="simple">
				<name-alternatives>
					<name name-style="eastern">
						<surname>김</surname>
						<given-names>영현</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Kim</surname>
						<given-names>Young-Hyen</given-names>
					</name>
				</name-alternatives>
				<xref ref-type="aff" rid="A2"><sup>2</sup></xref>
			</contrib>
			<contrib contrib-type="author" xlink:type="simple">
				<name-alternatives>
					<name name-style="eastern">
						<surname>전</surname>
						<given-names>병태</given-names>
					</name>
					<name name-style="western" xml:lang="en">
						<surname>Chun</surname>
						<given-names>Byung-Tae</given-names>
					</name>
				</name-alternatives>
				<xref ref-type="fn" rid="fn001"><sup>*</sup></xref>
				<xref ref-type="aff" rid="A3"><sup>3</sup></xref>
			</contrib>
					</contrib-group>
		<aff-alternatives id="A1">
			<aff><sup>1</sup><italic>한경대학교 컴퓨터응용수학부 학부생</italic></aff>
			<aff xml:lang="en"><italic>School of Computer Engineering &#x26;Applied Mathematics, Hankyong National University</italic></aff>
		</aff-alternatives>
		<aff-alternatives id="A2">
			<aff><sup>2</sup><italic>한경대학교 컴퓨터응용수학부 학부생</italic></aff>
			<aff xml:lang="en"><italic>School of Computer Engineering &#x26;Applied Mathematics, Hankyong National University</italic></aff>
		</aff-alternatives>
		<aff-alternatives id="A3">
			<aff><sup>3</sup><italic>한경대학교 컴퓨터응용수학부 교수</italic></aff>
			<aff xml:lang="en"><italic>School of Computer Engineering &#x26;Applied Mathematics, Hankyong National University</italic></aff>
		</aff-alternatives>
		<author-notes>
			<fn id="fn001"><label>*</label><p>Corresponding author is with the School of Computer Engineering &#x26; Applied Mathematics, Hankyong National Univ., Jungang-ro, Anseong-si, Gyeonggi-do. 17579. Korea</p><p><italic>E-mail address</italic>: <email>chunbt@hknu.ac.kr</email></p></fn>
		</author-notes>
		<pub-date pub-type="ppub">
			<month>12</month>
			<year>2020</year>
		</pub-date>
		<volume>15</volume>
		<issue>6</issue>
		<fpage>963</fpage>
		<lpage>971</lpage>
		<history>
			<date date-type="received">
				<day>10</day>
				<month>11</month>
				<year>2020</year>
			</date>
			<date date-type="rev-recd">
				<day>27</day>
				<month>11</month>
				<year>2020</year>
			</date>
			<date date-type="accepted">
				<day>11</day>
				<month>12</month>
				<year>2020</year>
			</date>
		</history>
		<permissions>
			<copyright-statement>&#x00A9; 2020 KKITS All rights reserved</copyright-statement>
			<copyright-year>2020</copyright-year>
		</permissions>
		<abstract>
		<title>요약</title>
		<p>한국에 입국하는 외국인 근로자의 수는 매년 증가 하는 추세이다. 이에 따라 정부 부처의 공공직업 훈련 기관에서 한국어 교육과 한국문화의 이해에 대한 교육을 진행한다. 이러한 노력에도 불구하고 외국인 근로자가 한국문화를 처음 접했을 때 많은 어려움을 격고 있다고 볼 수 있다. 본 논문에서는 외국인 근로자들의 문화적 어려움을 해결하기 위해 개발한 공익적 앱을 소개한다. 한국에서 대중적인 사물 중에서 외국인 근로자들이 다소 생소하게 느끼는 사물에 대하여 연구를 진행했다. 스마트폰에서 실시간으로 사물을 인식하고 그 사용 용도를 여러 언어로 번역하여 제공하는 앱을 개발하였다. 언어 선정은 한국 입국 비중이 큰 다섯 국가의 언어를 대상으로 했다. 학습 이미지로 7,900장 수집하여 라벨링하였다. AI 신경망인 Darknet을 이용하여 Yolov3-tiny 학습 모델로 총 20,000회의 반복 학습을 시켰다. 개발된 앱은 평균 91.3%의 정확도로 스마트폰에서 실시간 사물을 감지 할 수 있다. 감지된 사물의 설명을 버튼 하나로 5개국 언어로 번역하여 제공해주는 시스템이다. 이 앱을 이용하면 외국인 근로자들의 일상생활의 문화적, 언어적 차이를 해소할 수 있을 것으로 본다.</p>
		</abstract>
		<trans-abstract xml:lang="en">
		<title>ABSTRACT</title>
		<p>The number of foreign workers entering Korea is increasing every year. Accordingly, Korean language education and education on understanding Korean culture are provided at training institutions of government departments. Despite these efforts, it can be seen that foreign workers face many difficulties when they first encounter Korean culture. In this paper, we introduce a public app developed to solve the cultural difficulties of foreign workers. Among the popular objects in Korea, a study was conducted on objects that foreign workers feel somewhat unfamiliar to them. We developed an app that recognizes an object in real time on a smartphone and translates its usage into several languages. Language selection was based on the languages of five countries with a large portion of entry into Korea. 7,900 copies of training images were collected and labeled. A total of 20,000 iterations were trained with the Yolov3-tiny learning model using Darknet, an AI neural network. The developed app can recognize and translate real-time objects on a smartphone with an average accuracy of 91.3%. It is a system that translates and provides the description of the detected object into five languages at the touch of a button. It is expected that this app will be able to bridge cultural and linguistic differences in daily life of foreign workers.</p>
		</trans-abstract>
		<kwd-group kwd-group-type="author" xml:lang="en">
<title>K E Y W O R D S</title>
			<kwd>Yolov3-tiny training model</kwd>
			<kwd>Darknet-53 AI neural networks</kwd>
			<kwd>Android smartphones</kwd>
			<kwd>Translation data</kwd>
			<kwd>Real-time detection</kwd>
			<kwd>OpenCV</kwd>
			<kwd>Image dataset</kwd>
		</kwd-group>
	</article-meta>
</front>
<body>
<sec id="sec001" sec-type="intro">
	<title>1. 서 론</title>
	<p>1988년 서울 올림픽 개최와 2002년 한일 월드컵의 개최로 우리나라의 경제성장이 외국에 알려지면서 동남아시아에서 근로자로 입국하는 사례가 증가하였다[<xref ref-type="bibr" rid="B001">1</xref>]. 소득 1만 달러 시대의 ‘국내 3D 업종 기피 현상’은 공단지역, 농지 지역의 외국인 노동자의 유입을 가속화 하였다. 이로 인하여 91년 산업연수생 제도를 도입했고 94년, 이런 영향이 중소기업으로 확대되면서 외국인 근로자 러시가 본격화되었다[<xref ref-type="bibr" rid="B002">2</xref>].</p>
	<p>현재 국내 거주 중인 외국인 근로자는 국내 총 인구의 4%나 된다[<xref ref-type="bibr" rid="B003">3</xref>]. 이들은 국내 입국 후 언어 소통, 문화적 차이로 인해 적응에 어려움을 겪는다[<xref ref-type="bibr" rid="B004">4</xref>]. 이를 해결 하고자 ‘한국 산업인력공단’에서 외국인 근로자들을 위한 취업 교육, 한국어 교육, 한국문화의 이해에 대한 강의를 기본적으로 진행하고 그 이외에 각 국가의 정부 부처의 공공직업 훈련기관에서 국내에 입국하기 전에 교육을 실시한다. 또한, 노동자 지원센터에서는 한국에서의 생활이 어려운 근로자들을 위한 도움센터를 운영한다. 이처럼 근로자들의 한국 생활 적응에 크나큰 어려움이 있기에 위와 같은 다양한 기관에서 지원을 아끼지 않는다[<xref ref-type="bibr" rid="B005">5</xref>]. 그럼에도 불구하고, 현실적인 해결책이 되지 못하고 있다고 외국인 근로자들은 말한다. 문화적 소외감으로 생긴 스트레스는 업무에 지장을 주고, 결국 외국인 근로자들은 업무에 집중하지 못한다는 고정관념이 생기게 된다[<xref ref-type="bibr" rid="B006">6</xref>]. 문화적, 언어적 소외감을 줄이기 위해선 가장 기본적인 일상생활에서의 해결책이 필요하다. 한국에 처음 와서 소외감을 느끼는 경우는 당연하게도 사용하는 언어의 차이와 일상에서 사용하는 물건의 차이이다[<xref ref-type="bibr" rid="B007">7</xref>]. 한국에서만 사용하는 다양한 물건들이 있고 이는 외국인들에게 다소 생소하게 느껴진다[<xref ref-type="bibr" rid="B008">8</xref>]. 예를들어,‘이태리 타올’을 수건처럼 사용하는 일들이 실제로 벌어진다.</p>
	<p>기존에 존재하는 사물 인식 앱들은 기본적으로 제공되는 이미지 데이터세트를 사용하였기에 기본적으로 정해져있는 사물만 인식하였다. 또한, 글자를 번역해주는 앱은 여럿 존재하지만, 사물을 인식하여 사물의 설명을 번역해주는 앱은 찾아볼 수 없다. 이런 문제를 해결하고자 한국 고유의 다양한 물건들을 실시간으로 인식하여 그 물건의 쓰임새를 외국인 근로자들의 언어로 번역하는 앱 개발이 필요하다.</p>
	<p>본 논문의 구성은 다음과 같다. 2장에서는 전체 시스템의 구조, 3장에서는 Yolo 딥러닝 모델 및 학습, 4장에서는 실험 및 구현, 마지막으로 5장에서 결론을 기술한다.</p>
</sec>
<sec id="sec002">
	<title>2. 시스템 구조</title>
	<p>본 논문의 전체 시스템 구조는  &#x003C;<xref ref-type="fig" rid="f001">그림 1</xref>&#x003E;과 같다. 메인 과정은 총 세 가지로 구분된다.</p>
	<fig id="f001" orientation="portrait" position="float">
		<label>그림 1.</label>
		<caption>
			<title>시스템 구조</title>
			<p>Figure 1. System structure</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f001.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>인식할 사물의 커스텀 이미지를 인공 신경망을 통해 딥러닝 시키는 이미지 러닝 과정이 첫 번째 과정이다[<xref ref-type="bibr" rid="B009">9</xref>][<xref ref-type="bibr" rid="B010">10</xref>]. 이 과정을 통해 생성된 가중치 파일을 스마트폰에서 활용할 수 있게 OpenCV 라이브러리를 안드로이드 앱에 빌드하는 과정이 두 번째이다. 마지막으로 카메라를 사용하여 실시간으로 인식된 사물을 번역 데이터와 연동하여 사용자로 하여금 번역을 실시간으로 확인 할 수 있도록 개발하는 과정이 마지막 세 번째 단계이다.</p>
</sec>
<sec id="sec003" sec-type="methods">
	<title>3. Yolo 딥러닝 모델 및 이미지 학습</title>
	<p>사물을 실시간으로 검출하기 위해선 먼저 대량의 사물 이미지를 클래스별로 분류하여 사물의 위치 좌표를 구한다. ‘Yolo’ 모델[<xref ref-type="bibr" rid="B011">11</xref>]을 사용하였기에 아래 &#x003C;<xref ref-type="fig" rid="f002">그림 2</xref>&#x003E;처럼 그에 맞는 경계 상자 데이터를 생성한다. 각 경계 박스 마다 depth 방향으로 (4 + 1 + 5) * 3 = 30개의 depth가 쌓인다[<xref ref-type="bibr" rid="B012">12</xref>].</p>
	<fig id="f002" orientation="portrait" position="float">
		<label>그림 2.</label>
		<caption>
			<title>Yolo 모델의 경계 박스</title>
			<p>Figure 2. The bounding box of the Yolo model</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f002.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>이미지별 경계 박스 크기는 아래 &#x003C;<xref ref-type="fig" rid="f003">그림 3</xref>&#x003E;과 같이 13*13, 26*26, 52*52인 3가지 종류로 나뉜다[<xref ref-type="bibr" rid="B011">11</xref>].</p>
<p>　</p>
	<p>10,647 boxes=((52x52)+(26x26)+(13x13))x3(anchor box count). 416x416 pixels</p>
<p>　</p>
	<p>&#x003C;<xref ref-type="fig" rid="f004">그림 4</xref>&#x003E;와 같이 나머지 부분은 기존에 개발된 CNN(Convolutional Neural Network), FCN(Fully Convolutional Network), ResNet, DarkNet 등을 이용한다[<xref ref-type="bibr" rid="B012">12</xref>].</p>
	<fig id="f003" orientation="portrait" position="float">
		<label>그림 3.</label>
		<caption>
			<title>이미지 크기별 경계 박스</title>
			<p>Figure 3. Anchor size by image size</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f003.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<fig id="f004" orientation="portrait" position="float">
		<label>그림 4.</label>
		<caption>
			<title>ResNet 핵심 구조 (좌=기존, 우=ResNet</title>
			<p>Figure 4. Core structure of ‘ResNet’</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f004.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>Up-sampling은 저해상도에서 고해상도로 이미지 스케일업할 때 사용된다. 이는 보간법과 유사한 방식으로, Transpose convolution, Deconvolution으로 불린다. 이런 입출력을 고려해 CNN 레이어를 개발하면, 다음과 같은 최종 ‘Yolo’ 딥러닝 모델이 만들어진다[<xref ref-type="bibr" rid="B013">13</xref>]. 이 신경망 모델의 설정값을 인식할 사물들의 특성에 맞게 변경하여 원하는 사물만 인식할 수 있도록 학습하였다.</p>
	<p>학습에 사용한 모델은 위에 설명한‘Yolo’ 모델 중 안드로이드 플랫폼에서 가동할 수 있도록 제작된 ‘Yolov3-tiny’를 사용하였다[<xref ref-type="bibr" rid="B014">14</xref>]. ‘Yolov3-tiny’는 기본 ‘yolov3’보다 훨씬 적은 수의 convolution 레이어를 갖고 있다. 이는 많은 양의 메모리를 차지할 필요가 없으므로 하드웨어의 자원 필요성이 줄어들고 감지 속도는 크게 증가한다. 반면에 레이어의 수가 줄어들어 사물의 인식 정확도가 다소 떨어질 수 있지만[<xref ref-type="bibr" rid="B015">15</xref>], 스마트폰의 한정적인 시스템 자원에 맞게 구성하기 위해서는 ‘Yolov3-tiny’ 모델이 학습 모델 중 가장 최선이라 할 수 있다. 본 논문에서 개발한 앱은 외국인 근로자들이 쉽게 사용할 수 있어야 하고 언제, 어디서든 작동해야 하므로 최적 사양을 낮춰 2016년 이후에 출시한 모든 안드로이드 기반 스마트폰에서 무리 없이 작동할 수 있도록 충족해야 했고 스마트폰 시스템 사양[<xref ref-type="bibr" rid="B016">16</xref>]을 만족하기 위해서는 ‘Yolov3-tiny’ 학습 모델은 최적의 선택이다.</p>
	<p>본 논문의 시스템에서는 총 다섯 가지의 사물인 ‘전기파리채’, ‘모기향’, ‘전기밥솥’, ‘이태리타올’, ‘깡통의자’를 인식할 수 있도록 학습하였다. 다섯 가지의 사물을 클래스별로 분류하고 &#x003C;<xref ref-type="fig" rid="f005">그림 5</xref>&#x003E;에서처럼 다양한 각도, 형태, 색상, 크기 그리고 밝기 값이 다른 총 7,900장의 이미지 데이터를 각각 라벨링 처리하였다.</p>
	<fig id="f005" orientation="portrait" position="float">
		<label>그림 5.</label>
		<caption>
			<title>라벨링된 7,900장의 이미지</title>
			<p>Figure 5. 7,900 labeled images</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f005.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>라벨링 처리된 대량의 이미지들은 각기 다른 앵커 값을 갖는다. 모든 앵커값에 대해 일일이 학습하게 되면 학습 속도가 느려질 뿐만 아니라 각 사물의 인식 정확도 또한 현저하게 떨어진다. 이를 해결하기 위해 IoU 값을 계산한다. IoU란, 두 영역의 교차 영역의 넓이를 두 영역의 합으로 나눈 값이다. 사물 검출에서 예측된 앵커 박스의 정확도를 평가하는 지표 중 하나로, 예측된 앵커 박스와 실제 앵커 박스 의 IoU를 해당 앵커 박스의 정확도로 간주한다. 사물 인식 모델의 정확도는 테스트용 데이터셋을 실행해본 다음에 precision-recall curve와 average precision을 구해 수치화 할 수 있는데. 이때 IoU값을 사용하게 된다. 정확하고 빠른 반복 학습을 위해 &#x003C;<xref ref-type="fig" rid="f006">그림 6</xref>&#x003E;과 같이 IoU 계산식을 이용하여 라벨링된 앵커의 위치 평균값을 계산하고 이 계산 값을 cfg 파일에 설정하여 &#x003C;<xref ref-type="fig" rid="f007">그림 7</xref>&#x003E;의 IoU를 81.17%까지 충족시켰다.</p>
	<fig id="f006" orientation="portrait" position="float">
		<label>그림 6.</label>
		<caption>
			<title>IoU 계산식</title>
			<p>Figure 6. IoU calculation formula</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f006.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<fig id="f007" orientation="portrait" position="float">
		<label>그림 7.</label>
		<caption>
			<title>평균 앵커, IoU</title>
			<p>Figure 7. Anchors average, IoU</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f007.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>이미지 학습에서 중요하게 봐야 할 요소는 반복 학습 횟수인 max_batches 값과 반복 학습을 하는 동안 이미지 손실률인 avg loss이다. batch 값을 최대한 올리면 반복 학습 횟수가 증가하고 반복 학습을 하면 할수록 인식률은 높아진다. 손실률 또한 0에 가까운 값으로 수렴한다. 그러나 인식 정확도가 높아진다는 말은 학습에 사용한 이미지만을 정확하게 인식한다는 뜻이기 때문에 같은 사물이라도 방향, 색상 또는 크기가 학습된 이미지와 조금이라도 다르게 되면 인식하지 못하게 되어 일반화에 실패하고 만다. 사물 인식률은 90% 이상 유지하고 손실률은 1 이하로 유지할 수 있도록 max_batches 값은 &#x003C;<xref ref-type="fig" rid="f008">그림 8</xref>&#x003E;과같이 iteration을 20,000회로 설정하여 각 클래스당 반복 학습 횟수를 4,000번으로 조절하였고 avg loss는 약 0.2까지 안정화하였다. 라벨링된 이미지는 ‘Darknet’ 신경망을 통해 ‘Yolov3-tiny’ 학습 모델로 이미지를 학습시켰다.</p>
	<fig id="f008" orientation="portrait" position="float">
		<label>그림 8.</label>
		<caption>
			<title>반복 학습 횟수별 avg loss</title>
			<p>Figure 8. avg loss per training iteration</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f008.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
</sec>
<sec id="sec004" sec-type="Results">
	<title>4. 실험 및 구현</title>
	<p>반복 학습을 1,000회 할 때마다 가중치 파일을 생성하였고 총 max_batches 값인 20,000회의 반복 학습 중 인식률이 가장 좋은 19,000회 째의 학습 결과는 &#x003C;<xref ref-type="fig" rid="f009">그림 9</xref>&#x003E;의 내용과 같았다. 최종적으로 91.3% 인식 예측률을 구현한 weights 파일을 생성할 수 있었다. 동영상 테스트를 통해 움직이는 영상에서의 사물도 정확하게 인식하고 여러 가지 사물이 겹쳐 있어도 충분히 인식이 가능할 정도로 mAP가 높음을 확인하였다.</p>
	<fig id="f009" orientation="portrait" position="float">
		<label>그림 9.</label>
		<caption>
			<title>학습이 완료된 가중치의 인식률</title>
			<p>Figure 9. Recognition rate of weights that have been trained</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f009.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>위의 과정을 거쳐 높은 정확도로 사물 인식이 가능한 가중치 파일이 생성되면 이를 다양한 언어로 번역할 수 있는 번역 데이터와 연동한다. 법무부 통계에 따르면 국내 거주 중인 외국인은 약 220만 명이고 미국과 중국을 제외한 가장 많은 외국인 수를 차지하는 베트남, 태국, 우즈벡, 인도네시아 4개국을 선정하여 이들의 언어로 사물의 이름과 설명을 번역하였다.</p>
	<p>번역 데이터는 번역 API를 사용하지 않고 외국인 근로자들의 스마트폰 사용 환경을 고려하여 &#x003C;<xref ref-type="fig" rid="f010">그림 10</xref>&#x003E;과 같이 직접 구글 번역기를 사용하여 안드로이드 asset folder에 string 자료형으로 입력하였다.</p>
	<fig id="f010" orientation="portrait" position="float">
		<label>그림 10.</label>
		<caption>
			<title>Asset folder의 번역 데이터</title>
			<p>Figure 10. Translation data in the asset folder</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f010.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>API를 사용하게 되면 REST 방식으로서 네트워크 사용이 필수이고 문장을 번역할 때마다 사용료를 지급해야 한다. 또한, 스마트폰의 최적 사양을 낮게 유지하기 어려워지기 때문에 최고사양의 최신 스마트폰에서만 작동하게 된다. 반면 직접 번역을 하여 데이터로 입력하게 되면 스마트폰의 자원을 낭비하지 않고 네트워크 연결 없이 어디서든 빠르게 사용가능하다.</p>
	<p>가중치 파일을 안드로이드와 연동하기 위해 openCV api를 활용[<xref ref-type="bibr" rid="B017">17</xref>]하였다. 다섯 가지의 사물 설명을 한국어, 태국어, 베트남어, 우즈베크어, 인도네시아어로 번역하여 데이터를 구축하였으며 이를 openCV sdk 모듈과 함께 안드로이드 개발 플랫폼에 이식시키고[<xref ref-type="bibr" rid="B018">18</xref>] &#x003C;<xref ref-type="fig" rid="f011">그림 11</xref>&#x003E;처럼 가중치 파일을 스마트폰 라이브러리에 저장하여 이를 연동해주어 스마트폰 카메라를 사용하여 실시간 사물 인식이 가능하도록 구현하였다.</p>
	<fig id="f011" orientation="portrait" position="float">
		<label>그림 11.</label>
		<caption>
			<title>가중치 파일을 앱에 임포트</title>
			<p>Figure 11. Import the weights file into the app</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f011.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>스마트폰의 카메라를 활용하여 실시간으로 사물을 인식하고 가장 처음 인식된 사물의 설명을 사용자가 원하는 언어로 볼 수 있도록 구현하였다.</p>
	<p>앱의 처음 화면은 &#x003C;<xref ref-type="fig" rid="f012">그림 12</xref>&#x003E;와 같이 사용자가 언어를 설정할 수 있게 제작하였고, &#x003C;<xref ref-type="fig" rid="f013">그림 13</xref>&#x003E;과 같이 실시간으로 사물을 인식하였을 때 그 사물의 위치를 박스 형태로 출력하며 퍼센트로 사물의 실시간 인식 정확도를 나타내도록 구성하였다.</p>
	<fig id="f012" orientation="portrait" position="float">
		<label>그림 12.</label>
		<caption>
			<title>앱의 초기 화면</title>
			<p>Figure 12. The initial screen of the app</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f012.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<fig id="f013" orientation="portrait" position="float">
		<label>그림 13.</label>
		<caption>
			<title>스마트폰 카메라를 사용한 실시간 사물 인식</title>
			<p>Figure 13. Real-time detecting object using smartphone camera</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f013.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>사물이 인식된 상태에서 하단의 카메라 버튼을 누르면 &#x003C;<xref ref-type="fig" rid="f014">그림 14</xref>&#x003E;에서 보이듯 사물의 요약된 설명을 화면에 바로 출력해준다. 출력 화면 좌측하단의 상세 설명 버튼을 누르면 &#x003C;<xref ref-type="fig" rid="f015">그림 15</xref>&#x003E;과 같이 대표 이미지와 함께 상세한 설명을 번역하여 출력해준다. 모든 화면에서 손쉽게 시스템 언어를 설정할 수 있도록 버튼을 배치하였고 변경된 언어에 맞춰, 모든 버튼 타이틀도 그에 맞는 언어로 번역되어 출력된다.</p>
	<fig id="f014" orientation="portrait" position="float">
		<label>그림 14.</label>
		<caption>
			<title>인식 화면에 설명 바로 출력</title>
			<p>Figure 14. printing out the object translation direct on the detection window</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f014.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<fig id="f015" orientation="portrait" position="float">
		<label>그림 15.</label>
		<caption>
			<title>사물을 인식 및 번역한 앱 화면</title>
			<p>Figure 15. App screen that recognizes and translates objects</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f015.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>카메라 화면에 인식할 사물이 없는 경우에는 인식 오류를 방지하기 위해서 인식할 사물이 없음을 &#x003C;<xref ref-type="fig" rid="f016">그림 16</xref>&#x003E;과 같이 팝업으로 알려준다.</p>
	<fig id="f016" orientation="portrait" position="float">
		<label>그림 16.</label>
		<caption>
			<title>인식할 사물이 없는 경우에 대한 처리 방법</title>
			<p>Figure 16. What to do when there is no object to recognize</p>
		</caption>
		<graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f016.jpg" position="float" orientation="portrait" xlink:type="simple"></graphic>
	</fig>
	<p>하단의 상세페이지 버튼과 언어 선택 버튼을 비활성 처리하여 사물을 다시 인식하도록 하였고 선택된 언어에 맞게 팝업창의 설명도 번역되도록 구현하였다.</p>
</sec>
<sec id="sec005" sec-type="Conclusion">
	<title>5. 결 론</title>
	<p>외국인 근로자들이 한국 생활 적응에 크나큰 어려움을 격고 있으며, 이를 해결하고자 정부의 다양한 노력에 불구하고 문화적 소외감으로 생긴 스트레스는 업무에 지장을 주고, 한국 생활에 부적응 현상을 보여주고 있다. 본 논문에서는 외국인 근로자들은 문화적, 언어적 소외감을 줄이기 위해서 한국문화에 독특한 사물을 인공지능 기법을 이용하여 번역해주는 시스템을 개발하였다. 본 연구를 통해 외국인 근로자들이 한국 생활 정착에 도움이 되기를 희망한다.</p>
</sec>
</body>
<back>
<ref-list>
<title>References</title>
<!--[1] J-S. Han, Koreans and korean culture viewed by foreign workers from cambodia, Major in Multi-Cultural Education Seoul National University of Education Graduate School of Education master's thesis, 2018.-->
<ref id="B001">
<label>[1]</label>
<element-citation publication-type="thesis">
<person-group>
<name><surname>Han</surname><given-names>J-S.</given-names></name>
</person-group>
<year>2018</year>
<source>Koreans and korean culture viewed by foreign workers from cambodia</source>
<comment>Major in Multi-Cultural Education Seoul National University of Education Graduate School of Education master's thesis</comment>
</element-citation>
</ref>
<!--[2] J-D. Park, A study on the actual conditions of foreign workers in livestock industry, Department of Food Marketing ＆ Economics Graduate School of Agriculture ＆ Animal Science Kon kuk University master's thesis, 2013.-->
<ref id="B002">
<label>[2]</label>
<element-citation publication-type="thesis">
<person-group>
<name><surname>Park</surname><given-names>J-D.</given-names></name>
</person-group>
<year>2013</year>
<source>A study on the actual conditions of foreign workers in livestock industry</source>
<comment>Department of Food Marketing ＆ Economics Graduate School of Agriculture ＆ Animal Science, master's thesis</comment>
<publisher-name>Kon kuk University</publisher-name>
</element-citation>
</ref>
<!--[3] Y-H. Lee, Effect of foreign workers’ domestic travel motivation, attitude, and sociocultural adaptation on behavioral intention : applying leisure restriction negotiation theory, Department of Tourism Graduate School of Kyung Hee University Doctoral dissertation, 2019.-->
<ref id="B003">
<label>[3]</label>
<element-citation publication-type="thesis">
<person-group>
<name><surname>Lee</surname><given-names>Y-H.</given-names></name>
</person-group>
<year>2019</year>
<source>Effect of foreign workers’ domestic travel motivation, attitude, and sociocultural adaptation on behavioral intention : applying leisure restriction negotiation theory</source>
<comment>Department of Tourism Graduate School of Kyung Hee University Doctoral dissertation</comment>
</element-citation>
</ref>
<!--[4] J-Y. Ko, A study on the life and adaptation of foreign workers-focusing on foreign workers engaged in fishery in Jeju island-, Major in Multi-Cultural Education Graduate School of Education, Gyeongin National University of Education master's thesis, 2020.-->
<ref id="B004">
<label>[4]</label>
<element-citation publication-type="thesis">
<person-group>
<name><surname>Ko</surname><given-names>J-Y.</given-names></name>
</person-group>
<year>2020</year>
<source>A study on the life and adaptation of foreign workers-focusing on foreign workers engaged in fishery in Jeju island-</source>
<comment>Major in Multi-Cultural Education Graduate School of Education, Gyeongin National University of Education master's thesis</comment>
</element-citation>
</ref>
<!--[5] B-J. Kim, and J-K. Kim The impact of acculturation stress on subjective quality of life among migrant workers: focusing on the moderating effect of social support, Korea Academy of Care Management, No. 28, pp. 57-90, 2018.-->
<ref id="B005">
<label>[5]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Kim</surname><given-names>B-J.</given-names></name>
<name><surname>Kim</surname><given-names>J-K.</given-names></name>
</person-group>
<year>2018</year>
<article-title>The impact of acculturation stress on subjective quality of life among migrant workers: focusing on the moderating effect of social support</article-title>
<source>Korea Academy of Care Management</source>
<issue>28</issue>
<fpage>57</fpage><lpage>90</lpage>
<pub-id pub-id-type="doi">10.22589/kaocm.2018.28.57</pub-id>
</element-citation>
</ref>
<!--[6] H-S. Jung, A qualitative exploratory study on intercultural communication confilct : a case analysis of lived experiences of roreign factory workers in Korea, Korean Journal of Communication Studies, Vol. 12, No. 12, pp. 27-45, 2004.-->
<ref id="B006">
<label>[6]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Jung</surname><given-names>H-S.</given-names></name>
</person-group>
<year>2004</year>
<article-title>A qualitative exploratory study on intercultural communication confilct : a case analysis of lived experiences of roreign factory workers in Korea</article-title>
<source>Korean Journal of Communication Studies</source>
<volume>12</volume><issue>12</issue>
<fpage>27</fpage><lpage>45</lpage>
</element-citation>
</ref>
<!--[7] S-H. Lee, Y-J. Lee, S-Y. Kim, and S-J. Kim, Social support and acculturative stress in migrant workers, Journal of Korean Academy of Nursing, Vol. 39, No. 6, pp. 899-910, 2009.-->
<ref id="B007">
<label>[7]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Lee</surname><given-names>S-H.</given-names></name>
<name><surname>Lee</surname><given-names>Y-J.</given-names></name>
<name><surname>Kim</surname><given-names>S-Y.</given-names></name>
<name><surname>Kim</surname><given-names>S-J.</given-names></name>
</person-group>
<year>2009</year>
<article-title>Social support and acculturative stress in migrant workers</article-title>
<source>Journal of Korean Academy of Nursing</source>
<volume>39</volume><issue>6</issue>
<fpage>899</fpage><lpage>910</lpage>
<pub-id pub-id-type="doi">10.4040/jkan.2009.39.6.899</pub-id>
</element-citation>
</ref>
<!--[8] National Folk Museum of Korea, youtube channel, https://www.youtube.com/channel/UCUN2CadW_WjICFZfyNfqGXg/videos Oct. 2020.-->
<ref id="B008">
<label>[8]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2020</year>
<month>Oct.</month>
<source>National Folk Museum of Korea, youtube channel</source>
<comment><uri>https://www.youtube.com/channel/UCUN2CadW_WjICFZfyNfqGXg/videos</uri></comment>
</element-citation>
</ref>
<!--[9] D-H. lee, and B-Y. lee, A study on the analysis of Jeju island precipitation patterns using the convolution neural network, Korea software sssessment and valuation society, Dec. 2019. http://dx.doi.org/10.29056/jsav. Dec. 2019.-->
<ref id="B009">
<label>[9]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>lee</surname><given-names>D-H.</given-names></name>
<name><surname>lee</surname><given-names>B-Y.</given-names></name>
</person-group>
<year>2019</year>
<month>Dec.</month>
<article-title>A study on the analysis of Jeju island precipitation patterns using the convolution neural network</article-title>
<source>Korea software sssessment and valuation society</source>
<pub-id pub-id-type="doi">10.29056/jsav</pub-id>
</element-citation>
</ref>
<!--[10] H-S. Kang, A study on the establishment of the IDS using machine learning, Korea Software Assessment and Valuation Society, Dec. 2019.http://dx.doi.org/10.29056/jsav. Dec. 2019.-->
<ref id="B010">
<label>[10]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Kang</surname><given-names>H-S.</given-names></name>
</person-group>
<year>2019</year>
<month>Dec.</month>
<article-title>A study on the establishment of the IDS using machine learning</article-title>
<source>Korea Software Assessment and Valuation Society</source>
<pub-id pub-id-type="doi">10.29056/jsav</pub-id>
</element-citation>
</ref>
<!--[11] J. Redmon, and A. Farhadi, Yolov3: An incremental improvement, p. 1, 2018.-->
<ref id="B011">
<label>[11]</label>
<element-citation publication-type="other">
<person-group>
<name><surname>Redmon</surname><given-names>J.</given-names></name>
<name><surname>Farhadi</surname><given-names>A.</given-names></name>
</person-group>
<year>2018</year>
<source>Yolov3: An incremental improvement</source>
<fpage>1</fpage>
</element-citation>
</ref>
<!--[12] Daddy Makers, Data labelling based on yolov3 deep learning,http://daddynkidsmakers.blogspot.com/2020/05/yolo.html, Sept. 2020.-->
<ref id="B012">
<label>[12]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2020</year>
<month>Sept.</month>
<source>Daddy Makers, Data labelling based on yolov3 deep learning</source>
<comment><uri>http://daddynkidsmakers.blogspot.com/2020/05/yolo.html</uri></comment>
</element-citation>
</ref>
<!--[13] J. Redmon, S. Divvala, R. Girshick, and Ali Farhadi, You only look once: unified, real-time object detection, IEEE Conference on Computer Vision and Pattern Recognition(CVPR), pp. 779-788, 2016.-->
<ref id="B013">
<label>[13]</label>
<element-citation publication-type="paper">
<person-group>
<name><surname>Redmon</surname><given-names>J.</given-names></name>
<name><surname>Divvala</surname><given-names>S.</given-names></name>
<name><surname>Girshick</surname><given-names>R.</given-names></name>
<name><surname>Farhadi</surname><given-names>Ali</given-names></name>
</person-group>
<year>2016</year>
<article-title>You only look once: unified, real-time object detection</article-title>
<conf-name>IEEE Conference on Computer Vision and Pattern Recognition(CVPR)</conf-name>
<fpage>779</fpage><lpage>788</lpage>
</element-citation>
</ref>
<!--[14] X. Zhang, X. Dong, Q. Wei, and K. Zhou, Real-time object detection algorithm based on improved YOLOv3, Journal of Electronic Imaging, Vol. 28, No, 5, pp. 53022, 2019.-->
<ref id="B014">
<label>[14]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Zhang</surname><given-names>X.</given-names></name>
<name><surname>Dong</surname><given-names>X.</given-names></name>
<name><surname>Wei</surname><given-names>Q.</given-names></name>
<name><surname>Zhou</surname><given-names>K.</given-names></name>
</person-group>
<year>2019</year>
<article-title>Real-time object detection algorithm based on improved YOLOv3</article-title>
<source>Journal of Electronic Imaging</source>
<volume>28</volume><issue>5</issue>
<fpage>53022</fpage>
<pub-id pub-id-type="doi">10.1117/1.JEI.28.5.053022</pub-id>
</element-citation>
</ref>
<!--[15] Y. Zhang, Yongliang, and Jun, Zhang, An imporved tiny-yolov3 predestrian detection algorithm, Optik, Vol. 183, No. 3 pp. 17-23, 2019.-->
<ref id="B015">
<label>[15]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Zhang</surname><given-names>Y.</given-names></name>
<name><surname>Zhang</surname><given-names>Jun</given-names></name>
</person-group>
<year>2019</year>
<article-title>An imporved tiny-yolov3 predestrian detection algorithm</article-title>
<source>Optik</source>
<volume>183</volume><issue>3</issue>
<fpage>17</fpage><lpage>23</lpage>
<pub-id pub-id-type="doi">10.1016/j.ijleo.2019.02.038</pub-id>
</element-citation>
</ref>
<!--[16] Galaxy S7 Smartphone(SM-G930S), SAMSUNG. https://www.samsung.com/sec/support/model/SM-G930SZWASKO Oct. 2020.-->
<ref id="B016">
<label>[16]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2020</year>
<month>Oct.</month>
<source>Galaxy S7 Smartphone(SM-G930S), SAMSUNG</source>
<comment><uri>https://www.samsung.com/sec/support/model/SM-G930SZWASKO</uri></comment>
</element-citation>
</ref>
<!--[17] Kari Pulli, Anatoly Baksheev, Kirill Kornyakov, and Victor Eruhimov, An imporved Real-time computer vision with OpenCV, Communications of the ACM, Vol. 55, No. 6 p. 61, 2012.-->
<ref id="B017">
<label>[17]</label>
<element-citation publication-type="journal">
<person-group>
<name><surname>Pulli</surname><given-names>Kari</given-names></name>
<name><surname>Baksheev</surname><given-names>Anatoly</given-names></name>
<name><surname>Kornyakov</surname><given-names>Kirill</given-names></name>
<name><surname>Eruhimov</surname><given-names>Victor</given-names></name>
</person-group>
<year>2012</year>
<article-title>An imporved Real-time computer vision with OpenCV</article-title>
<source>Communications of the ACM</source>
<volume>55</volume><issue>6</issue>
<fpage>61</fpage>
<pub-id pub-id-type="doi">10.1145/2184319.2184337</pub-id>
</element-citation>
</ref>
<!--[18] Ivangrov, Anroid-Deep_Learning-with-OpenCV, https://github.com/ivangrov/Android-Deep-Learning-with-OpenCV Sept. 2020.-->
<ref id="B018">
<label>[18]</label>
<element-citation publication-type="webpage" publication-format="web">
<year>2020</year>
<month>Sept.</month>
<source>Ivangrov, Anroid-Deep_Learning-with-OpenCV</source>
<comment><uri>https://github.com/ivangrov/Android-Deep-Learning-with-OpenCV</uri></comment>
</element-citation>
</ref>
</ref-list>
<ack>
<title>감사의 글</title>
<p>본 논문은 2020년도 한국전자통신연구원의 연구비를 지원 받음.</p>
</ack>
<bio>
	<p><graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f017.jpg"></graphic><bold>Bum-Soo Kim</bold> is Students in School of Computer Engineering&#x26;Applied Mathematics at Hankyong National University.</p>
	<p><italic>E-mail address</italic>: <email>iimkbsu@hknu.ac.kr</email></p>
	<p><graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f018.jpg"></graphic><bold>Young-Hyen Kim</bold> is Students in School of Computer Engineering&#x26;Applied Mathematics at Hankyong National University.</p>
	<p><italic>E-mail address</italic>: <email>credita@hknu.ac.kr</email></p>
	<p><graphic xlink:href="../ingestImageView?artiId=ART002663677&amp;imageName=jkits_2020_15_06_963_f019.jpg"></graphic><bold>Byung-Tae Chun</bold> Master’s degree from Graduate School of Soongsil University and doctor’s degree from Graduate School of Korea University Worked as researcher for KIST (Korea Institute of Science and Technology)/System Engineering Research Institute (SERI) from 1999 to 1996 and worked as executive researcher for ETRI(Electronics and Telecommunications Research Institute) from 1996 to 2004. From 2004 to current: Professor of computer engineering Dept. of Hankyoung National University. From 2013 to current: Vice president of TTA/TC4/PG413. From 2010 to 2018 : Chairman of WG SC6 subcommittee of Intelligent Robot Standard Forum (KOROS) Committee</p>
	<p><italic>E-mail address</italic>: <email>chunbt@hknu.ac.kr</email></p>
</bio>
</back>
</article>
