<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="/resources/xsl/jats-html.xsl"?>
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" dtd-version="1.0" article-type="abstract">
	<front>
		<journal-meta>
			<journal-id journal-id-type="publisher-id">sscm</journal-id>
			<journal-title-group>
				<journal-title>Journal of Sasang Constitutional Medicine</journal-title>
			</journal-title-group>
			<issn pub-type="ppub">1226-4075</issn>
			<issn pub-type="epub">2287-786X</issn>
			<publisher>
				<publisher-name>The Society Of Sasang Constitutional Medicine</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="publisher-id">HSSSBH_2022_v34n3_31</article-id>
			<article-id pub-id-type="doi">10.7730/JSCM.2022.34.3.31</article-id>
			<article-categories>
				<subj-group>
					<subject>Articles</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>Sasang Constitution Classification using Convolutional Neural Network on Facial Images</article-title>
				<trans-title-group xml:lang="ko">
					<trans-title>콘볼루션 신경망 기반의 안면영상을 이용한 사상체질 분류</trans-title>
				</trans-title-group>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author" xlink:type="simple">
					<name-alternatives>
						<name name-style="western" xml:lang="en">
							<surname>Ahn</surname>
							<given-names>Ilkoo</given-names>
						</name>
						<name name-style="eastern" xml:lang="ko">
							<surname>안</surname>
							<given-names>일구</given-names>
						</name>
					</name-alternatives>
				</contrib>
				<contrib contrib-type="author" xlink:type="simple">
					<name-alternatives>
						<name name-style="western" xml:lang="en">
							<surname>Kim</surname>
							<given-names>Sang-Hyuk</given-names>
						</name>
						<name name-style="eastern" xml:lang="ko">
							<surname>김</surname>
							<given-names>상혁</given-names>
						</name>
					</name-alternatives>
				</contrib>
				<contrib contrib-type="author" xlink:type="simple">
					<name-alternatives>
						<name name-style="western" xml:lang="en">
							<surname>Jeong</surname>
							<given-names>Kyoungsik</given-names>
						</name>
						<name name-style="eastern" xml:lang="ko">
							<surname>정</surname>
							<given-names>경식</given-names>
						</name>
					</name-alternatives>
				</contrib>
				<contrib contrib-type="author" xlink:type="simple">
					<name-alternatives>
						<name name-style="western" xml:lang="en">
							<surname>Kim</surname>
							<given-names>Hoseok</given-names>
						</name>
						<name name-style="eastern" xml:lang="ko">
							<surname>김</surname>
							<given-names>호석</given-names>
						</name>
					</name-alternatives>
				</contrib>
				<contrib contrib-type="author" corresp="yes" xlink:type="simple">
					<name-alternatives>
						<name name-style="western" xml:lang="en">
							<surname>Lee</surname>
							<given-names>Siwoo</given-names>
							<suffix>*</suffix>
						</name>
						<name name-style="eastern" xml:lang="ko">
							<surname>이</surname>
							<given-names>시우</given-names>
							<suffix>*</suffix>
						</name>
					</name-alternatives>
				</contrib>
			</contrib-group>
			<aff-alternatives id="Anull">
				<aff xml:lang="en">
					<label>1</label>
					KM Data Division, Korea Institute of Oriental Medicine
				</aff>
				<aff xml:lang="ko">
					<label>1</label>
					한국한의학연구원 한의약데이터부
				</aff>
			</aff-alternatives>
			<pub-date pub-type="ppub">
				<day>30</day>
				<month>09</month>
				<year>2022</year>
			</pub-date>
			<volume>34</volume>
			<issue>3</issue>
			<fpage>31</fpage>
			<lpage>40</lpage>
			<history>
				<date date-type="received">
					<day>03</day>
					<month>09</month>
					<year>2022</year>
				</date>
				<date date-type="rev-request">
					<day>03</day>
					<month>09</month>
					<year>2022</year>
				</date>
				<date date-type="accepted">
					<day>17</day>
					<month>09</month>
					<year>2022</year>
				</date>
			</history>
			<permissions>
				<copyright-statement>Copyright @ 2022, The Society Of Sasang Constitutional Medicine</copyright-statement>
				<copyright-year>2022</copyright-year>
				<license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/3.0/">
					<license-p>&#9400;The Society of Sasang Constitutional Medicine. All rights reserved. This is an open acess article distributed under the terms of the Creative Commons attribution Non-commercial License(http://creativecommons.org/licenses/by-nc/3.0/)</license-p>
				</license>
			</permissions>
			<abstract>
				<sec>
					<title>Objectives</title>
					<p>Sasang constitutional medicine is a traditional Korean medicine that classifies humans into four constitutions in consideration of individual differences in physical, psychological, and physiological characteristics. In this paper, we proposed a method to classify Taeeum person (TE) and Non-Taeeum person (NTE), Soeum person (SE) and Non-Soeum person (NSE), and Soyang person (ST) and Non-Soyang person (NSY) using a convolutional neural network with only facial images.</p>
				</sec>
				<sec>
					<title>Methods</title>
					<p>Based on the convolutional neural network VGG16 architecture, transfer learning is carried out on the facial images of 3738 subjects to classify TE and NTE, SE and NSE, and SY and NSY. Data augmentation techniques are used to increase classification performance.</p>
				</sec>
				<sec>
					<title>Results</title>
					<p>The classification performance of TE and NTE, SE and NSE, and SY and NSY was 77.24%, 85.17%, and 80.18% by F1 score and 80.02%, 85.96%, and 72.76% by Precision-Recall AUC (Area Under the receiver operating characteristic Curve) respectively.</p>
				</sec>
				<sec>
					<title>Conclusions</title>
					<p>It was found that Soeum person had the most heterogeneous facial features as it had the best classification performance compared to the rest of the constitution, followed by Taeeum person and Soyang person. The experimental results showed that there is a possibility to classify constitutions only with facial images. The performance is expected to increase with additional data such as BMI or personality questionnaire.</p>
				</sec>
			</abstract>
			<trans-abstract xml:lang="ko" />
			<kwd-group kwd-group-type="author" xml:lang="en">
				<kwd>Sasang Constitution</kwd>
				<kwd>Facial Images</kwd>
				<kwd>Convolutional Neural Network</kwd>
				<kwd>Deep Learning</kwd>
				<kwd>Transfer Learning</kwd>
			</kwd-group>
		</article-meta>
	</front>
	<body>
		<sec sec-type="intro">
			<title>&#8544;. 緖論</title>
			<p>사상의학은 개인의 신체적, 심리적, 생리적 특성의 차이를 고려한 맞춤형 의학으로 우리나라 고유의 전통의학이다1. 동무 이제마선생은 사람을 태양인, 소양인, 태음인, 소음인의 네 가지 체질로 구분하고 체질에 따라 그 치료가 달라야 한다고 주장하였다. 사상체질을 진단하는 방법에는 용모사기, 체형기상, 성질재간, 병증약리 등이 있다2. 특히 안면은 용모사기의 일부로서 안면정보를 이용한 체질진단은 정보를 습득하기 쉽다는 접근성의 용이함 때문에 자주 사용되어 왔다3. 하지만 한의사의 체질진단은 개인별 복합적인 요소로 인하여 정확한 구분이 어렵고 주관적 판단으로 오차 범위가 크다는 게 단점이다. 이러한 단점을 극복하고자 안면을 이용하여 정량적이고 객관적으로 체질을 진단하는 연구들이 수행되어왔다2-5. 2차원의 광학적 사진을 이용한 연구는 1996년 이후로 지속적으로 이루어져6 이러한 연구결과를 토대로 체질별 대표 얼굴이 도출되기도 하였으며7 통합형 사상체질 진단 프로그램의 개발에 기여하기도 하였다8. 그러나 이 연구들은 사진에서 특징점과 특징점간 거리를 수동으로 획득하여 안면 변수를 수치화하는 과정을 거쳐야만 하였다.</p>
			<p>최근 머신러닝 기법 중 하나인 인공신경망을 기반하여 많은 양의 데이터를 학습해 뛰어난 분류 및 회귀 예측 성능을 내는 연구들이 이뤄지고 있다9. 딥러닝(Deep Learning)은 여러 층을 가진 인공신경망(Artificial Neural Network, ANN)을 사용하여 학습을 수행하는 것으로 기존의 머신러닝에서는 학습하려는 데이터의 여러 특징 중에서 어떤 특징을 추출할지를 사람이 직접 분석하고 판단해야만 했다. 예를 들면 기존의 연구들은 안면영상에서의 형태학적 특징점간의 거리2-5, 컬러3,4 등의 정보를 추출하여 체질을 진단한다. 반면 딥러닝에서는 기계가 자동으로 학습하려는 데이터에서 특징을 추출하여 학습한다. 다시 말해 딥러닝은 대규모 데이터에서 기계가 자동으로 중요한 패턴을 학습하고, 이를 토대로 의사결정이나 예측을 수행한다10. 신경망(Neural Network)이란 인간의 뇌의 뉴런의 연결 구조를 가리키며, 이러한 신경망을 모방하여 만든 네트워크 구조를 인공신경망(Artificial Neural Network, ANN)이라 한다. 콘볼루션신경망(CNN; Convolutional Neural Network)은 콘볼루션(convolution)연산을 사용하는 인공신경망 중 하나이며 주로 시각적 이미지를 분석하는 데 사용된다. 콘볼루션이란 하나의 함수와 또 다른 함수를 반전 이동한 값을 곱한 다음, 구간에 대해 적분하여 새로운 함수를 구하는 연산자이다.</p>
			<p>본 논문에서는 콘볼루션신경망(CNN)을 이용하여 안면영상으로부터 객관적인 사상체질 분류방법을 제시하고자 한다. 안면만으로 사상체질 분류 가능성을 알아보는 측면에서 태음인과 비태음인, 소음인과 비소음인, 소양인과 비소양인의 이진분류(Binary Classification) 성능을 알아본다.</p>
		</sec>
		<sec sec-type="methods">
			<title>&#8545;. 硏究對象 및 方法</title>
			<sec>
				<title>1. 연구대상자 및 자료수집</title>
				<p>본 연구에서 사용된 안면사진은 한국한의학연구원의 한의임상정보은행(Korean medicine Data Center, 이하 KDC) 내의 체질확진자 중 안면사진이 존재하는 3,819명의 대상자의 안면사진을 이용하였다11. 체질확진자는 사상의학 전문의 또는 사상체질 임상경력 5년 이상의 한의사가 일정 기준의 체질처방을 복약 후 증상의 호전 정도를 평가하여 체질진단을 명확히 받은 대상자를 의미한다. 대상자들은 7~90세로 남성 1,389명, 여성 2,430명이며 태음인 1,503명 (39.4%), 소음인 996명 (26.1%), 소양인 1,239명 (32.4%), 태양인 81명 (2.1%)이다. 본 연구에서는 증례수가 너무 적어 학습에 적합하지 않은 태양인 81명을 불가피하게 제외하고 나머지 3,738명에 대해 태음인과 비태음인, 소음인과 비소음인, 소양인과 비소양인의 이진분류를 수행한다.</p>
			</sec>
			<sec>
				<title>2. 연구방법</title>
				<sec>
					<title>1) 이미지 전처리</title>
					<p>CNN 알고리즘이 안면영상에서 체질별 차이를 인식하게 만들기 위해서 대상자들의 안면영상을 같은 위치, 같은 크기로 입력해야 한다. 이를 위해서 대상자들의 안면사진에서 DLib12을 이용하여 특징점(Facial Landmarks)을 검출한 뒤, 얼굴의 5개 점(양눈의 중심, 코끝, 입술의 양끝)을 평균특징점의 위치로 어파인변환(Affine Transformation)13하여 안면영역만을 추출한다 (Figure 1참조). 본 논문의 그림들의 예시 얼굴사진은 공개된 얼굴사진데이터셋14의 사진을 이용하였다.</p>
					<p>딥러닝 모델은 성능을 높이기 위해 많은 레이어로 이루어진다. 많은 레이어로 이루어진 신경망 모델은 성능이 좋아진다는 장점이 있는 반면, 학습된 데이터에서만 좋은 성능을 보이지만 새로운 데이터에 대해서는 성능이 나빠지는 과적합(Overfitting)에 빠지게 된다는 단점이 있다. 입력영상이 학습데이터와 다른 경우, 딥러닝 모델은 입력영상을 오분류할 가능성이 높아지게 된다. 예를 들어, 조도가 밝은 영상들로만 이루어져 있는 원본영상들로부터 생성된 모델을 어두운 영상이 입력되면, 이 모델은 입력영상을 오분류할 가능성이 커지게 된다. 이러한 문제를 방지하기 위한 대표적인 대안이 데이터 증강(Data Augmentation)이다. 데이터 증강은 원본 데이터에 다양한 변이를 주어 과적합을 방지하는 기법이다. 다양한 변이에는 좌우/상하반전, 영상회전, 색변환(color transform), 블러링(blurring), 무작위로 자르기(random crop), 히스토그램 처리(histogram processing), 영상 와핑(image warping) 등 매우 다양하다. 본 연구에서는 얼굴영상의 특성을 반영하여, 좌우반전(horizontal flip), 무작위 컬러(random color), 무작위 대비(random contrast), 무작위 밝기(random brightness)를 사용하도록 한다.</p>
					<fig id="F0001" position="float" orientation="portrait">
						<label>Figure 1</label>
						<caption>
							<title>Pre-processing of face image using affine transformation. Top-Left: input image, Top-right: mean landmarks, Bottom: cropped face image. The original image is from Chicago Face Database14 which is publicly released image database.</title>
						</caption>
						<graphic xlink:href="../ingestImageView?artiId=ART002878377&amp;imageName=HSSSBH_2022_v34n3_31_f0001.png" position="float" orientation="portrait" xlink:type="simple" />
					</fig>
				</sec>
				<sec>
					<title>2) 이미지 분류 모델</title>
					<p>딥러닝을 통해 특징 추출부터 분류까지 일괄적으로 처리할 수 있지만 딥러닝 모델은 충분히 많은 양의 데이터가 전제 되어야한다. 충분한 데이터를 수집할 수 없는 경우도 있으며, 충분한 데이터를 수집하는 데에는 많은 비용과 시간이 소요된다. 이러한 문제를 극복하는 방법으로 대량의 데이터에서 학습이 완료된 딥러닝 모델의 가중치를 이용하여 새로운 소량의 데이터에 맞게 가중치 파라미터를 미세조정(fine tuning)시키는 전이학습(transfer learning)15이 이용되고 있다. 미세조정을 모든 레이어에 대해 수행하느냐 또는 일부 레이어에 대해서만 수행하느냐에 따라 결과가 조금씩 다를 수 있어 알고리즘 설계자는 실험을 통해 미세조정할 레이어를 찾아야한다.</p>
					<fig id="F0002" position="float" orientation="portrait">
						<label>Figure 2</label>
						<caption>
							<title>Sasang constitution classification using transfer learning of VGG16.</title>
						</caption>
						<graphic xlink:href="../ingestImageView?artiId=ART002878377&amp;imageName=HSSSBH_2022_v34n3_31_f0002.png" position="float" orientation="portrait" xlink:type="simple" />
					</fig>
					<p>이미지 딥러닝의 전이학습에는 VGG, Inception, Xception, ResNet, MobileNet 등의 사전학습 모델15이 사용되며, 본 연구에서는 VGG16 모델을 사용하여 전이학습을 수행한다. VGG16은 콘볼루션 레이어 13개와 5개의 맥스풀링(max pooling) 레이어, 3개의 완전 연결 레이어(fully connected layer)가 연결되어 있는 구조로, 총 2만 개 이상의 클래스와 1400만장 이상의 이미지로 구성되어 있는 ImageNet 데이터셋을 사용하여 훈련되었다. 본 연구에서는 가장 끝의 3개의 완전 연결레이어 대신 분류결과를 나타내는 1개 노드로 대체하고 첫 3개 레이어를 제외한 나머지 레이어에서 미세조정(fine tuning)기법을 수행하도록 한다 (Figure 2참조).</p>
				</sec>
				<sec>
					<title>3) 테스트 단계에서의 증강기법 (Test Time Aug- mentation)</title>
					<p>테스트 단계에서의 증강기법(Test Time Augmentation, 이하 TTA)17은 부족한 데이터셋을 보완하고, 성능을 높이는 방법이다. 입력된 원본영상에 대해 다양한 변이를 수행한다. 본 연구에서는 좌우반전(left right flip), 회전(rotate), 무작위 확대(random zoom), 무작위 왜곡(random distortion), 무작위 컬러(random color), 무작위 대비(random contrast), 무작위 조도(random brightness), 무작위 삭제(random erasing)의 변이들을 수행하였다. 원본영상과 변이된 영상들에 대해 각각 예측을 수행하여 확률값을 계산한다. 그 확률값들의 평균(ensemble)하여 최종 분류결과를 도출한다.</p>
					<fig id="F0003" position="float" orientation="portrait">
						<label>Figure 3</label>
						<caption>
							<title>Test time augmentation for Sasang constitution classification.</title>
						</caption>
						<graphic xlink:href="../ingestImageView?artiId=ART002878377&amp;imageName=HSSSBH_2022_v34n3_31_f0003.png" position="float" orientation="portrait" xlink:type="simple" />
					</fig>
				</sec>
			</sec>
		</sec>
		<sec sec-type="materials">
			<title>&#8546;. 硏究結果</title>
			<sec>
				<title>1. 분류 결과 평가 지표</title>
				<p>본 연구에서는 분류결과로 정확도(Accuracy)가 아닌 Precision-Recall AUC (Area Under the receiver operating characteristic Curve)와 F1 score18를 성능평가지표로 사용한다. 정확도는 한 클래스에 속한 샘플 수가 다른 클래스보다 훨씬 많은 불균형 데이터셋에서는 좋은 모델인지를 판단하기 어렵기 때문이다.</p>
				<p>혼동행렬(Confusion Matrix)은 데이터 분석 모델의 예측값과 실제값을 행렬 형태로 나타낸 것이다 (Figure 4참조). Precision-Recall Curve는 Recall과 Precision을 각각 x축과 y축으로 놓은 그래프이다. Precision과 Recall은 다음과 같이 정의된다.</p>
				<fig id="F0004" position="float" orientation="portrait">
					<label>Figure 4</label>
					<caption>
						<title>Confusion matrix.</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART002878377&amp;imageName=HSSSBH_2022_v34n3_31_f0004.png" position="float" orientation="portrait" xlink:type="simple" />
				</fig>
				<graphic xlink:href="../ingestImageView?artiId=ART002878377&amp;imageName=HSSSBH_2022_v34n3_31_e0001.png" position="float" orientation="portrait" xlink:type="simple" />
				<p>즉, Precision은 양성(Positive)으로 예측된 샘플 중에 실제 양성으로 옳게 예측된 샘들의 비율이며 Recall은 실제 양성(Positive) 샘플 중에 양성으로 옳게 예측된 샘플의 비율이다. Precision과 Recall은 모두 1에 가까울 수록 좋으며 F1 score는 Precision과 Recall의 조화평균(harmonic mean)으로 Precision과 Recall을 종합적으로 나타내는 값이다.</p>
				<p>이진 분류의 경우 샘플이 양성일 확률을 계산한 뒤 확률값이 어느 특정값 이상일 경우 양성이고 그렇지 않으면 음성으로 판정을 내릴 기준값이 필요하다. 그 기준값을 판정임계값(decision threshold)이라 하며, 단순히 0.5로 설정할 수도 있지만 판정임계값을 어떤 값으로 정하느냐에 따라 분류결과가 좋아질 수 있다. 판정임계값의 0에서 1까지의 변화에 따른 Precision과 Recall값의 변화를 나타낸 그래프가 Precision-Recall 곡선이며, 이 곡선의 아래 면적이 Precision-Recall AUC이다.</p>
				<p>분류 정확도 평가를 위해 전체 데이터를 5개의 폴드(fold)로 나눈 뒤 각 폴드에 같은 비율의 클래스가 유지되도록 하는 층화 k-겹 교차검증(stratified k-fold cross validation)19을 수행하였다.</p>
			</sec>
			<sec>
				<title>2. 분류결과</title>
				<p>Table 1에 원본영상에 대해서 교차검증(cross validation)에 따른 태음인(TE)과 비태음인(NTE), 소음인(SE)과 비소음인(NSE), 소양인(SY)과 비소양인(NSY)에 대한 분류 결과를 보였다. SE와 NSE의 분류가 가장 높은 성능인 85.96%를 보였다. TE와 NTE도 80.02%의 성능을 보여 분류 가능성이 있음을 알 수 있었다. 반면 SY와 NSY의 분류는 72.76%를 보여 소양인을 분류하기가 가장 어려운 것으로 나타났다.</p>
				<table-wrap id="T0001" position="float" orientation="portrait">
					<label>Table 1</label>
					<caption>
						<title>Classification Result (Precision-Recall AUC) for Original Image</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART002878377&amp;imageName=HSSSBH_2022_v34n3_31_t0001.png" position="float" orientation="portrait" xlink:type="simple" />
					<table>
						<tbody>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
						</tbody>
					</table>
				</table-wrap>
				<p>Table 2는 Precision-Recall AUC을 지표로한 Table 1과 달리 F1 score을 지표로 한 결과이다. F1 score상에서도 SE와 NSE의 분류가 가장 높은 성능인 85.17%를 보였다. Precision-Recall AUC에서와 달리 F1 score상에서는 SY와 NSY가 2번째로 높은 80.18%의 분류성능을 보였다. TE와 NTE의 분류는 77.24%로 F1 score상에서 가장 분류하기 어려운 체질로 나타났다.</p>
				<table-wrap id="T0002" position="float" orientation="portrait">
					<label>Table 2</label>
					<caption>
						<title>Classification Result (F1 score) for Original Image</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART002878377&amp;imageName=HSSSBH_2022_v34n3_31_t0002.png" position="float" orientation="portrait" xlink:type="simple" />
					<table>
						<tbody>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
						</tbody>
					</table>
				</table-wrap>
				<p>Table 3에 8개의 테스트 단계에서의 증강기법(TTA)을 적용시의 분류결과를 보였다. TE와 NTE, SE와 NSE, SY와 NSY의 분류 결과는 각각 79.94%, 86.05%, 73.22%으로 원본영상의 결과보다 각각 -0.08%, 0.08%, 0.46%의 성능변화가 있었다. 태음인과 소음인에 대해서는 TTA기법이 성능향상에 기여하지 못했지만 소양인과 비소양인 분류에서는 미약한 성능향상이 있음을 알 수 있었다.</p>
				<table-wrap id="T0003" position="float" orientation="portrait">
					<label>Table 3</label>
					<caption>
						<title>Classification Result (Precision-Recall AUC) for TTA Image</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART002878377&amp;imageName=HSSSBH_2022_v34n3_31_t0003.png" position="float" orientation="portrait" xlink:type="simple" />
					<table>
						<tbody>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
						</tbody>
					</table>
				</table-wrap>
			</sec>
		</sec>
		<sec sec-type="methods|materials">
			<title>&#8547;. 考察</title>
			<p>본 연구에서는 사상체질 전문의에 의해 진단된 3,738명(태음인 1,503명, 소음인 996명, 소양인 1,239명)의 안면영상에 대해 콘볼루션신경망(CNN)을 이용하여 각 체질과 나머지체질을 분류하는 이진분류를 수행하였다. 그 결과 소음인과 비소음인의 분류가 85.96% (Precision-Recall AUC)와 85.17% (F1 score)의 성능으로 다른 체질에 비해 분류 성능이 가장 우수하여 소음인이 나머지 체질보다 가장 이질적인 얼굴특징을 갖고 있음을 알 수 있었다. 태음인과 비태음인의 분류도 80.02% (Precision-Recall AUC)와 77.24% (F1 score)의 성능을 보여 태음인만의 구별되는 얼굴 특징이 있음을 알 수 있었다. 이러한 결과는 얼굴의 뺨-턱 너비 비율을 활용하여 태음인 진단을 용이하게 할 수 있을 것이라는 이전의 연구와 유사한 결과라고 할 수 있었다20. 소양인과 비소양인의 분류는 72.76% (Precision-Recall AUC)와 80.18% (F1 score)로 다른 체질과 구별되는 특징이 비교적 적었다. 이는 이전 사상체질 진단 프로그램 개발 연구에서 안면 점수만으로 체질진단을 수행하였을 때 소양인 남성은 43.8% 소양인 여성은 51.5%로 낮은 일치율을 나타낸 것과 유사한 결과이다21. 해당 연구에서 언급하였듯 사상체질 전문가가 언급하는 소양인 안면 특징인 눈빛, 매서움 등은 안면변수로 표현되기 어렵기 때문에, 인공신경망에서도 학습 데이터로 특징 추출이 어려웠던 것은 아닌가라고 추정된다.</p>
			<p>테스트 단계에서의 증강기법(TTA)을 태음인과 소음인에 적용시 원본영상의 결과에 비해 성능개선은 없었지만 소양인과 비소양인의 분류에서는 0.46%의 미약한 성능개선이 있었다.</p>
			<p>본 연구는 체질확진자 3,738명의 방대한 데이터를 사용하여 결과를 도출하였다는 강점이 있다. 기존의 2차원 사진을 이용한 연구 중 연구대상이 가장 많았던 연구는 1,140명의 데이터를 사용한 예가 있었으나 이 연구는 체질별 안면 분석의 선행 연구 성격으로 성별 특징과 연령별 특징을 분석한 것이었다22. 또한 본 연구는 이전의 연구들과는 달리, 최근 기존 머신러닝보다 뛰어난 성능을 보이는 인공신경망의 콘볼루션신경망(CNN)을 안면영상을 이용한 체질진단에 최초로 적용했다는 측면에서도 강점을 가진다.</p>
			<p>그럼에도 불구하고 본 연구는 몇 가지 한계가 존재한다. 첫째, 태양인은 그 수가 적어 실험에서 제외하여 태양인의 안면특성은 알 수 없다. 둘째, 콘볼루션신경망이 데이터 자체를 입력하여 스스로 특징을 추출하고 분류를 수행하는 장점이 있는 반면, 안면의 어떠한 특징이 체질을 분류하는데 중요한지 추론하기 어렵다는 단점이 있다. 일반적으로 영상분석에서 자주 이용되는 특징은 형태(shape), 색(color), 질감(texture)인데, 특징을 미리 통제하여 입력하지 않는 한, 어떤 특징이 중요한 특징인지 알기 어렵다.</p>
		</sec>
		<sec sec-type="results">
			<title>&#8548;. 結論</title>
			<p>본 연구는 체질확진자 3,738명의 안면사진만으로 태음인, 소음인, 소양인의 세 체질에 대하여 각 체질과 나머지 체질을 분류하여 안면사진만으로 체질 진단 가능성을 실험해보았으며 얼굴 영상만으로 체질을 분류할 가능성이 있음을 보여주었다. 태음인과 비태음인의 분류, 소음인과 비소음인의 분류, 소양인과 비소양인의 분류 성능은 각각 79.94%, 86.05%, 73.22%로 딥러닝 알고리즘이 다른 체질과 구별되는 특징을 추출하고 있음을 알 수 있었다. 향후 연구는 각 체질의 분류성능을 더 높일 수 있는 특징을 안면사진에서 찾는 것뿐 아니라 BMI나 성격설문 등의 추가 데이터를 통해 분류성능을 높이는 연구가 될 것이다.</p>
		</sec>
	</body>
	<back>
		<ack>
			<p>본 연구는 2022년도 한국한의학연구원 기관주요사업인 &#8220;빅데이터 기반 한의 예방치료 원천기술 개발&#8221;(Grant No. KSN2023120)의 지원을 받아 수행된 연구임.</p>
		</ack>
		<ref-list>
			<ref id="B001">
				<label>1</label>
				<element-citation publication-type="journal">
					<article-title>Lee J. Longevity and Life Preservation in Oriental Medicine (translated by SH Choi). Kyung &#1053;&#1077;&#1077; Univ. Press, Seoul; 1996</article-title>
				</element-citation>
			</ref>
			<ref id="B002">
				<label>2</label>
				<element-citation publication-type="journal">
					<article-title>Lee HL, Cho JS. Sasang Constitution Classification System by Morphological Feature Extraction of Facial Images. Journal of The Korea Society of Computer and Information. 2015;20(8):15-21</article-title>
					<pub-id pub-id-type="doi">10.9708/jksci.2015.20.8.015</pub-id>
				</element-citation>
			</ref>
			<ref id="B003">
				<label>3</label>
				<element-citation publication-type="journal">
					<article-title>Cho DU, Kim BH, Lee SH. Sasang Constitution Classification Using Shape Analysis of Face. In Proceedings of the Korea Information Processing Society Conference 2006 (pp. 423-426). Korea Information Processing Society</article-title>
				</element-citation>
			</ref>
			<ref id="B004">
				<label>4</label>
				<element-citation publication-type="journal">
					<article-title>Cho DU, Kim BH, Lee SH. Sasang Constitution classification system using face morphologic relation analysis. The KIPS Transactions: PartB. 2007; 14(3):153-62</article-title>
					<pub-id pub-id-type="doi">10.3745/KIPSTB.2007.14-B.3.153</pub-id>
				</element-citation>
			</ref>
			<ref id="B005">
				<label>5</label>
				<element-citation publication-type="journal">
					<article-title>Lee SH, Kim BH, Ka MK, Cho DU, Kwak JH, Oh SY et al. A proposal of Sasang Constitution classification in middle-aged women using image and voice signals process. Journal of the Korea Academia-Industrial cooperation Society. 2008; 9(5):1210-7</article-title>
					<pub-id pub-id-type="doi">10.5762/KAIS.2008.9.5.1210</pub-id>
				</element-citation>
			</ref>
			<ref id="B006">
				<label>6</label>
				<element-citation publication-type="journal">
					<article-title>Lee SY, Koh BH, Lee EJ, Lee JH, Hwang MW. Systematic review on researches of sasang constitution diagnosis using facial feature. Journal of Sasang Constitutional Medicine. 2012;24(4): 17-27</article-title>
					<pub-id pub-id-type="doi">10.7730/JSCM.2012.24.4.17</pub-id>
				</element-citation>
			</ref>
			<ref id="B007">
				<label>7</label>
				<element-citation publication-type="journal">
					<article-title>Am I a Taeumin? or a Soyangin?&#8230; Represent the Standard Facial Features in the Sasang Constitution. the Dong-A Daily News. 2012.02.13. Available from: URI: http://news.donga.com/3/all/20120113/ 43282152/1</article-title>
				</element-citation>
			</ref>
			<ref id="B008">
				<label>8</label>
				<element-citation publication-type="journal">
					<article-title>Do JH, Jang E, Ku B, Jang JS, Kim H, Kim JY. Development of an integrated Sasang constitution diagnosis method using face, body shape, voice, and questionnaire information. BMC complementary and alternative medicine. 2012 Dec; 12(1):1-9</article-title>
					<pub-id pub-id-type="doi">10.1186/1472-6882-12-85</pub-id>
				</element-citation>
			</ref>
			<ref id="B009">
				<label>9</label>
				<element-citation publication-type="journal">
					<article-title>Jung C, Yeo I, Jung H. Classification model of facial acne using deep learning. Journal of the Korea Institute of Information and Communication Engineering. 2019;23(4):381-7</article-title>
					<pub-id pub-id-type="doi">10.6109/jkiice.2019.23.4.381</pub-id>
				</element-citation>
			</ref>
			<ref id="B010">
				<label>10</label>
				<element-citation publication-type="journal">
					<person-group>
						<name name-style="western">
							<surname>LeCun</surname>
							<given-names>Y</given-names>
						</name>
						<name name-style="western">
							<surname>Bengio</surname>
							<given-names>Y</given-names>
						</name>
						<name name-style="western">
							<surname>Hinton</surname>
							<given-names>G</given-names>
						</name>
					</person-group>
					<article-title>Deep learning</article-title>
					<source>nature</source>
					<year>2015</year>
					<volume>May</volume>
					<issue>521(7553)</issue>
					<fpage>436</fpage>
					<lpage>44</lpage>
					<pub-id pub-id-type="doi">10.1038/nature14539</pub-id>
				</element-citation>
			</ref>
			<ref id="B011">
				<label>11</label>
				<element-citation publication-type="journal">
					<article-title>Baek YH, Jin HJ, Kim HS, Jang ES, Lee SW. An Overview on the Construction of Korea Constitutional Multicenter Bank for Sasang Con- stitutional Medicine. Journal of Sasang Constitu- tional Medicine. 2012;24(2):47-53</article-title>
					<pub-id pub-id-type="doi">10.7730/JSCM.2012.24.2.047</pub-id>
				</element-citation>
			</ref>
			<ref id="B012">
				<label>12</label>
				<element-citation publication-type="journal">
					<article-title>King DE. Dlib-ml: A machine learning toolkit. The Journal of Machine Learning Research. 2009 Dec 1;10:1755-8</article-title>
				</element-citation>
			</ref>
			<ref id="B013">
				<label>13</label>
				<element-citation publication-type="journal">
					<article-title>Gonzalez RC, Woods RE. Digital image processing, prentice hall. Upper Saddle River, NJ. 2008</article-title>
				</element-citation>
			</ref>
			<ref id="B014">
				<label>14</label>
				<element-citation publication-type="journal">
					<article-title>D. S. Ma, J. Correll, and B. Wittenbrink, &#8220;The Chicago face database: A free stimulus set of faces and norming data.,&#8221; Behav. Res. Methods, vol. 47, pp. 1122-1135, 2015</article-title>
				</element-citation>
			</ref>
			<ref id="B015">
				<label>15</label>
				<element-citation publication-type="journal">
					<article-title>Weiss K, Khoshgoftaar TM, Wang D. A survey of transfer learning. Journal of Big data. 2016 Dec;3(1):1-40</article-title>
					<pub-id pub-id-type="doi">10.1186/s40537-016-0043-6</pub-id>
				</element-citation>
			</ref>
			<ref id="B016">
				<label>16</label>
				<element-citation publication-type="journal">
					<article-title>Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556. 2014 Sep 4</article-title>
					<pub-id pub-id-type="doi">10.48550/arXiv.1409.1556</pub-id>
				</element-citation>
			</ref>
			<ref id="B017">
				<label>17</label>
				<element-citation publication-type="journal">
					<article-title>Yoo HJ, Jun KK. Data Augmentation for Image based Parking Space Classification Deep Model. Journal of KIISE (JOK). 2022 Feb;49(2):126-36</article-title>
					<pub-id pub-id-type="doi">10.5626/JOK.2022.49.2.126</pub-id>
				</element-citation>
			</ref>
			<ref id="B018">
				<label>18</label>
				<element-citation publication-type="journal">
					<article-title>Hwang DS. Learning Behavior Analysis of Bayesian Algorithm Under Class Imbalance Problems. Journal of the Institute of Electronics Engineers of Korea CI. 2008;45(6):179-86</article-title>
				</element-citation>
			</ref>
			<ref id="B019">
				<label>19</label>
				<element-citation publication-type="journal">
					<article-title>Song HW, Park GC, Park J. Prediction of dairy cow mastitis with multi-sensor data using Multi- Layer Perceptron (MLP). InProceedings of the Korea Information Processing Society Conference 2020 (pp. 788-791). Korea Information Processing Society</article-title>
					<pub-id pub-id-type="doi">10.3745/PKIPS.y2020m11a.788</pub-id>
				</element-citation>
			</ref>
			<ref id="B020">
				<label>20</label>
				<element-citation publication-type="journal">
					<article-title>Pham DD, Do JH, Ku B, Lee HJ, Kim H, Kim JY. Body mass index and facial cues in Sasang typology for young and elderly persons. Evidence- Based Complementary and Alternative Medicine. 2011 Jan 1;2011</article-title>
					<pub-id pub-id-type="doi">10.1155/2011/749209</pub-id>
				</element-citation>
			</ref>
			<ref id="B021">
				<label>21</label>
				<element-citation publication-type="journal">
					<article-title>Jang ES, Park KH, Baek YH, Lee SW, Kim SH, Joo JC. A Development of Sasang Constitution Diagnosis Program Based on Characteristics of Body Shape Face Physiological Symptom and Personality. Journal of Sasang Constitutional Me- dicine. 2012;24(1):21-31</article-title>
					<pub-id pub-id-type="doi">10.7730/jscm.2012.24.1.021</pub-id>
				</element-citation>
			</ref>
			<ref id="B022">
				<label>22</label>
				<element-citation publication-type="journal">
					<article-title>Seok JH, Yoon JH, Lee JH, Hwang MW, Cho YJ, Kho BH et al. The upgrade of Sasangin classification system by the morphologic study of head and face: facial differences on sex and age. Journal of Sasang Constitutional Medicine. 2007;19(3): 30-50</article-title>
				</element-citation>
			</ref>
		</ref-list>
	</back>
</article>
