<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="/resources/xsl/jats-html.xsl"?>
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" dtd-version="1.0" article-type="abstract">
	<front>
		<journal-meta>
			<journal-id journal-id-type="publisher-id">sscm</journal-id>
			<journal-title-group>
				<journal-title>Journal of Sasang Constitutional Medicine</journal-title>
			</journal-title-group>
			<issn pub-type="ppub">1226-4075</issn>
			<issn pub-type="epub">2287-786X</issn>
			<publisher>
				<publisher-name>The Society Of Sasang Constitutional Medicine</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="publisher-id">HSSSBH_2024_v36n2_39</article-id>
			<article-id pub-id-type="doi">10.7730/JSCM.2024.36.2.39</article-id>
			<article-categories>
				<subj-group>
					<subject>Articles</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>Sasang Constitution Detection Based on Facial Feature Analysis Using Explainable Artificial Intelligence</article-title>
				<trans-title-group xml:lang="ko">
					<trans-title>설명가능한 인공지능을 활용한 안면 특징 분석 기반 사상체질 검출</trans-title>
				</trans-title-group>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author" xlink:type="simple">
					<name-alternatives>
						<name name-style="western" xml:lang="en">
							<surname>Kim</surname>
							<given-names>Jeongkyun</given-names>
						</name>
						<name name-style="eastern" xml:lang="ko">
							<surname>김</surname>
							<given-names>정균</given-names>
						</name>
					</name-alternatives>
					<xref ref-type="aff" rid="A1">1</xref>
				</contrib>
				<contrib contrib-type="author" xlink:type="simple">
					<name-alternatives>
						<name name-style="western" xml:lang="en">
							<surname>Ahn</surname>
							<given-names>Ilkoo</given-names>
						</name>
						<name name-style="eastern" xml:lang="ko">
							<surname>안</surname>
							<given-names>일구</given-names>
						</name>
					</name-alternatives>
					<xref ref-type="aff" rid="A1">1</xref>
				</contrib>
				<contrib contrib-type="author" corresp="yes" xlink:type="simple">
					<name-alternatives>
						<name name-style="western" xml:lang="en">
							<surname>Lee</surname>
							<given-names>Siwoo</given-names>
							<suffix>*</suffix>
						</name>
						<name name-style="eastern" xml:lang="ko">
							<surname>이</surname>
							<given-names>시우</given-names>
							<suffix>*</suffix>
						</name>
					</name-alternatives>
					<xref ref-type="aff" rid="A1">1</xref>
				</contrib>
			</contrib-group>
			<aff-alternatives id="A1">
				<aff xml:lang="en">
					<label>1</label>
					KM Data Division, Korea Institute of Oriental Medicine
				</aff>
				<aff xml:lang="ko">
					<label>1</label>
					한국한의학연구원 한의약데이터부
				</aff>
			</aff-alternatives>
			<pub-date pub-type="ppub">
				<day>31</day>
				<month>07</month>
				<year>2024</year>
			</pub-date>
			<volume>36</volume>
			<issue>2</issue>
			<fpage>39</fpage>
			<lpage>48</lpage>
			<history>
				<date date-type="received">
					<day>03</day>
					<month>06</month>
					<year>2024</year>
				</date>
				<date date-type="rev-request">
					<day>11</day>
					<month>06</month>
					<year>2024</year>
				</date>
				<date date-type="accepted">
					<day>13</day>
					<month>07</month>
					<year>2024</year>
				</date>
			</history>
			<permissions>
				<copyright-statement>Copyright @ 2024, The Society Of Sasang Constitutional Medicine</copyright-statement>
				<copyright-year>2024</copyright-year>
				<license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/3.0/">
					<license-p>&#9400;The Society of Sasang Constitutional Medicine. All rights reserved. This is an open acess article distributed under the terms of the Creative Commons attribution Non-commercial License(http://creativecommons.org/licenses/by-nc/3.0/)</license-p>
				</license>
			</permissions>
			<abstract>
				<sec>
					<title>Objectives</title>
					<p>The aim was to develop a method for detecting Sasang constitution based on the ratio of facial landmarks and provide an objective and reliable tool for Sasang constitution classification.</p>
				</sec>
				<sec>
					<title>Methods</title>
					<p>Facial images, KS-15 scores, and certainty scores were collected from subjects identified by Korean Medicine Data Center. Facial ratio landmarks were detected, yielding 2279 facial ratio features. Tree-based models were trained to classify Sasang constitution, and Shapley Additive Explanations (SHAP) analysis was employed to identify important facial features. Additionally, Body Mass Index (BMI) and personality questionnaire were incorporated as supplementary information to enhance model performance.</p>
				</sec>
				<sec>
					<title>Results</title>
					<p>Using the Tree-based models, the accuracy for classifying Taeeum, Soeum, and Soyang constitutions was 81.90%, 90.49%, and 81.90% respectively. SHAP analysis revealed important facial features, while the inclusion of BMI and personality questionnaire improved model performance. This demonstrates that facial ratio-based Sasang constitution analysis yields effective and accurate classification results.</p>
				</sec>
				<sec>
					<title>Conclusions</title>
					<p>Facial ratio-based Sasang constitution analysis provides rapid and objective results compared to traditional methods. This approach holds promise for enhancing personalized medicine in Korean traditional medicine.</p>
				</sec>
			</abstract>
			<trans-abstract xml:lang="ko" />
			<kwd-group kwd-group-type="author" xml:lang="en">
				<kwd>Sasang Constitution</kwd>
				<kwd>Facial Images</kwd>
				<kwd>Explainable Artificial Intelligence</kwd>
				<kwd>Machine Learning</kwd>
			</kwd-group>
		</article-meta>
	</front>
	<body>
		<sec sec-type="intro">
			<title>&#8544;. 緖論</title>
			<p>사상의학은 &#12302;동의수세보원&#12303;에서 소개되었으며, 사람들을 네 가지 체질 유형인 사상체질(四象體質, Four Constitutional Types)로 구분한다. 사상체질은 태양인, 태음인, 소양인, 소음인으로 나뉘며, 환자의 신체, 정신, 감정, 사회적 상황 및 환경 요소를 종합적으로 고려하여 각 체질 유형에 맞춤 치료와 예방 전략을 제공하기 위해 사용된다1. 사상체질은 신체 특징, 성격 특징, 식습관 및 섭취물에 대한 반응 등을 종합하여 사상의학을 교육받은 전문가에 의해 진단된다2. 최근 IT 기술을 통해 신체의 상태를 카메라, 맥진기, 챗봇 등을 활용하여 객관적으로 측정하는 연구가 활발하게 진행되고 있다3,4. 특히, &#12302;동의수세보원&#12303;에서는 체질에 따라 용모사기가 다르다고 하였으며, 전문가 집단에서도 사상체질을 판단하는 데 안면의 활용도가 높다고 조사되었다5. 기존의 안면 기반 사상체질 검출은 안면의 특징점을 검출하여 분류하는 방법이 제안되고 있다6,7. 하지만 최근 이미지에서 직접 설계된 특징 (hand-crafted features)이 아닌 학습 과정에서 특징을 자체적으로 추출하고 학습까지 함께 수행하는 방법 (end-to-end)인 딥러닝이 이미지 분야에서 높은 검출 성능을 가져왔다. 따라서 안면 기반 사상체질 검출에서도 안면 특징 검출 없이 딥러닝을 적용한 연구가 제안되었다8.</p>
			<p>도준형은 안면 사진으로부터 얼굴의 형태적 특징을 자동으로 선택하는 방법과 수동으로 추출한 특징점을 활용하여 체질을 분류하였다. 자동으로는 안면 윤곽선과 윗눈꺼풀 라인을 사용하였고, 수동으로는 특징점 관리 프로그램을 이용하여 얼굴 가로길이 5가지, 얼굴 세로길이 4가지, 측정 항목 간 비율 6가지를 특징으로 선정하였다. 획득된 특징으로부터 20대에서 60대의 1,007명 피험자를 대상으로 태양인을 제외한 세체질을 분류하기 위해 서포트 벡터 머신을 사용하였으며, 5-fold 교차 검증을 통해 성별과 연령에 따라 74.0~80.8%의 정확도를 얻었다6.</p>
			<p>안일구는 컨볼루션 신경망 VGG16 아키텍처를 기반으로 사상체질 전문의에 의해 진단된 3,738명(태음인 1,503명, 소음인 996명, 소양인 1,239명)의 피험자의 얼굴 이미지를 이용해 사상체질을 분류하였다. 분류 성능을 높이기 위해 데이터 증대 기술을 사용하여 좌우 반전, 회전, 무작위 확대, 무작위 왜곡, 무작위 색상, 무작위 대비, 무작위 밝기, 무작위 삭제 등의 변이를 수행하였다. 분류 결과는 F1 점수를 사용하여 태음인, 소음인, 소양인에 대해 각각 0.77, 0.85, 0.80을 얻었다8.</p>
			<p>이정윤은 백인계 미국인과 한국인의 안면 인체 변인을 분석하여 사상 유형에 따른 얼굴 특징을 비교하고 사상 유형 분류를 위한 예측 모형을 개발하는 것을 목적으로 미국인 180명과 한국인 302명 등 총 482명의 피험자를 분석하였다. 얼굴 분석 프로그램을 이용하여 얼굴 랜드마크와 얼굴 특징 변수를 자동으로 할당하고 계산하였다. 로지스틱 회귀 분석을 이용하여 안면 변수와 BMI에 따른 사상 유형의 분류를 예측하였다. 로지스틱 회귀 모델은 태음 유형과 비태음 유형을 모두 81.2% 이상의 정확도로 예측했다. 백인계 미국인의 사상 유형을 구별하는 데 도움이 되는 예측 변수로 얼굴 변수와 BMI를 사용할 가능성을 제시하였다7.</p>
			<p>감정 분석은 안면을 활용한 가장 활발하게 연구되고 있는 분야이다. 안면 기반의 감정 분석 연구에서 딥러닝 인풋으로 이미지를 전처리 없이 적용하면 낮은 성능을 보였으나, 특징 추출 결과를 딥러닝 입력으로 적용하여 높은 성능을 얻은 연구들이 보고되고 있다9,10. 따라서 안면 기반의 사상체질 검출에서도 적절한 특징 검출은 중요한 요소이다. 최근에는 중요한 특징을 분석하는 기술로 설명 가능한 인공지능 기술이 주목받고 있으며, 헬스케어 분야에서 중요 특징을 활용하여 더 높은 분류 결과를 얻고 있다11,12.</p>
			<p>KS-15는 사상체질을 판별하는 소증 8문항, 성격 6문항, 체형(BMI) 1문항으로 구성되어 있는 설문지이다13. 로지스틱 회귀분석을 통해 KS-15와 전문가의 분류 성능을 검증한 결과 63.1% (태음인 63%, 소음인 83.3%, 소양인 51.9%)의 일치도였다. 기존 연구에서 확인한 것과 같이 태음인은 체구가 크고 몸이 튼튼한 체형으로 비만의 가능성이 높으며, 소음인은 대체로 마른 체형으로 BMI가 낮게 나타나는 경향이 있어 BMI는 사상체질을 검출하는 중요한 인자이다7,13. 본 연구에서는 사상체질 검출을 위해 성별, 나이, 키, 몸무게, BMI와 같은 최소한의 인구학적 정보와 KS-15, 안면 특징을 기반으로 설명 가능한 인공지능을 활용하여 중요 인자를 분석하고, 안면 특징과 BMI를 기반으로 사상체질을 분류하는 모델을 제안한다.</p>
		</sec>
		<sec sec-type="methods">
			<title>&#8545;. 硏究對象 및 方法</title>
			<sec>
				<title>1. 연구대상자 및 자료수집</title>
				<p>본 연구에서 사용된 안면사진은 한국한의학연구원의 한의임상정보은행(Korean Medicine Data Center) 내의 안면사진, KS-15, 체질 증례 점수 값이 존재하는 2,618명의 체질 확진자 중 체질 증례 점수가 70 이상인 773명(태음: 309명, 소음: 207명, 소양: 257명)의 안면사진을 이용하였다. 체질 증례 점수는 사상의학을 임상에 적용한 기간이 5년 이상인 사상의학 전문의가 약리 점수, 체형 점수, 병증/소증 및 성정, 진단 확신도에서 점수를 산정하고 이를 표준화하여 증례 점수를 산정하였다14.</p>
			</sec>
			<sec>
				<title>2. 연구방법</title>
				<sec>
					<title>1) 이미지 전처리</title>
					<p>안면 이미지로부터 얼굴형, 눈썹, 눈, 코, 입의 68개의 특징점을 Figure 1과 같이 검출하였다. 특징점 검출 방법으로 OpenPose의 Face 랜드마크를 사용하였다. OpenPose는 자세, 얼굴, 손의 Keypoint를 검출하는 알고리즘으로, 많은 연구자들이 얼굴 기반의 연구에 활용하고 있다15,16. 획득된 랜드마크를 활용하여 얼굴의 비율에 대한 2,278개의 특징(F)을 얻었다. 비율은 수식 1과 같이 68개의 서로 다른 랜드마크(L) 간 두 점 사이의 거리를 랜드마크 0과 16의 거리로 나누어 획득했다. 이렇게 얻은 2,278개의 특징에 랜드마크 0과 16의 거리 를 추가하여 최종 2,279개의 특징을 얻었다.</p>
					<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_e0001.png" position="float" orientation="portrait" xlink:type="simple" />
					<fig id="F0001" position="float" orientation="portrait">
						<label>Figure 1</label>
						<caption>
							<title>Facial features landmarks</title>
						</caption>
						<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_f0001.png" position="float" orientation="portrait" xlink:type="simple" />
					</fig>
				</sec>
				<sec>
					<title>2) 분류 모델</title>
					<p>Random Forest (RF)와 Extreme Gradient Boosting (XGBoost) 같은 트리 기반 앙상블 모델을 사용하여 태음인, 소음인, 소양인을 식별했다. 모델의 입력으로는 인구학적 정보, KS-15, 안면 비율 특징이 사용되었다. 트리 기반 모델은 다른 기계 학습 기술에 비해 몇 가지 장점을 제공한다. 명확하고 직관적인 의사 결정 과정을 제공하며, 시각화를 통해 분류 또는 회귀가 어떻게 달성되는지 쉽게 이해할 수 있다. 트리 모델은 데이터 내의 비선형 관계를 모델링하는 데 적합하고, 다른 방법보다 특징 크기 조정에 덜 민감하며, 다양한 데이터 유형에 대해 잘 수행된다. 또한 트리 기반 모델은 결측값과 이상값에 대해 상대적으로 견고하다17.</p>
					<p>RF는 개별 분류 모델에서 결과를 얻기 위해 다수 투표 또는 가중 평균을 활용하는 배깅 방법을 사용하여 여러 트리를 결합하는 앙상블 분류기이다. RF는 일정량의 데이터와 훈련 데이터 특징을 활용하여 과적합 위험을 줄인다. XGBoost는 속도 측면에서 그라디언트 부스팅 머신의 성능을 향상시키는 의사결정 트리용 부스팅 모델이다. 부스팅 모델은 이전 분류기의 매개변수를 반복적으로 업데이트하여 보다 강력한 분류기를 생성함으로써 정확도를 높이고 손실 함수의 기울기를 줄인다11. RF의 매개변수는 100으로 설정되었다. 사용된 XGBoost 매개변수는 booster = gbtree 및 objective = binary:logistic이었다. 다른 매개변수는 Python (v3.10.9), Numpy(v1.23.5) 및 scikit-learn(v1.2.2)에서 기본값으로 설정되었다17.</p>
				</sec>
				<sec>
					<title>3) 설명가능한 인공지능</title>
					<p>설명 가능한 인공지능(XAI)은 인공지능 모델이 내린 의사 결정의 기초를 인간이 이해할 수 있도록 하여 결과의 신뢰성을 높이는 데 사용된다. XAI를 통해 모델 결과에 대한 입력 데이터의 기여도를 분석할 수 있었다. Local Interpretable Model-Agnostic Explanations (LIME) 및 Shapley Additive Explanations (SHAP)는 특히 표 형식 데이터를 분석하는 데 일반적으로 사용되는 XAI 알고리즘이다18. LIME은 종종 로컬 설명에 초점을 맞추기 때문에 모델의 전역 동작을 효과적으로 설명하지 못할 수 있다. SHAP은 전역 동작을 효과적으로 설명하고 일관적이며 모델에 구애받지 않는 사후 알고리즘으로 주목받고 있다. SHAP는 트리 기반 모델의 특수 구현을 제공하며, 보다 정확하고 효율적인 설명을 제공한다. 사상체질을 식별하기 위해 트리 기반 모델이 사용되었다. 따라서 SHAP를 사용하여 중요한 특징을 분석했으며, SHAP 학습 모델로는 XGBoost를 사용하였다. SHAP는 인구학적 정보, KS-15 값, 안면 비율 특징이 사상체질 분류에 미치는 긍정적 및 부정적 영향을 모두 고려하여 모델 결과에 대한 특징의 기여에 대한 통찰력을 제공한다17.</p>
				</sec>
				<sec>
					<title>4) 분류 모델 성과지표</title>
					<p>제안된 사상체질 분류 결과를 평가하기 위해 5-fold cross-validation 평가 전략이 사용되었다. 정확성(Accuracy), 정밀도(Precision), 재현율(Recall), F1 점수를 포함한 성능 지표는 식 (2)~(5)와 같이 계산되었다18. TP, TN, FP, FN는 true positives, true negatives, false positives, and false negatives를 나타낸다.</p>
					<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_e0002.png" position="float" orientation="portrait" xlink:type="simple" />
				</sec>
			</sec>
		</sec>
		<sec sec-type="materials">
			<title>&#8546;. 硏究結果</title>
			<sec>
				<title>1. 인구학적 정보와 KS-15 기반의 사상체질 분류</title>
				<p>성별, 키, 몸무게, BMI, 나이와 KS-15로 얻은 소증 8문항, 성격 6문항을 모델의 입력으로 사용하여 사상체질을 분류한 결과는 table 1과 같다. KS-15의 BMI를 제외한 14개의 문항은 다음과 같다. (1) 마음이 넓거나 좁은가, (2) 성격이 빠른가 느린가, (3) 성격이 활동적인가 소극적인가, (4) 성격이 외향적인가 내향적인가, (5) 성격이 남성적인가 여성적인가, (6) 성격이 합리적인가 비합리적인가, (7) 소화를 잘하는가, (8) 식욕, (9) 땀이 많이 나는가, (10) 땀을 흘린 후 기분, (11) 배변 시 복부 긴장, (12) 수면 중 야뇨 횟수, (13) 추위와 더위를 싫어하는가, (14) 물을 선호하는가. 각 문항의 답안은 3단계로 구분되며 예로 성격이 외/내향의 경우 Extroverted, Moderate, Introverted로 구성된다13.</p>
				<p>분류 결과는 RF보다 XGBoost가 높게 나타났으며, 80% 이상의 정확도를 얻었다. 각각의 사상체질에 대해 이진법으로 분류한 결과 소음인이 93.36%로 가장 높았으며, 소양인이 가장 낮은 84.89%의 정확도를 보였다. SHAP을 활용하여 사상체질 분류에 사용된 입력 데이터의 기여도를 분석한 결과, BMI, 성격이 외향적인가 내향적인가, 몸무게, 성격이 활동적인가 소극적인가, 성격이 남성적인가 여성적인가 순으로 사상체질 분류에 중요하게 기여하였다. BMI와 성격이 외향적인가 내향적인가를 입력으로 사상체질을 검출한 결과 70% 이상의 분류 정확도를 보였다.</p>
				<table-wrap id="T0001" position="float" orientation="portrait">
					<label>Table 1</label>
					<caption>
						<title>Sasang Constitution Classification Results Based on Demographic Information and Questionnaire</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_t0001.png" position="float" orientation="portrait" xlink:type="simple" />
					<table>
						<tbody>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
						</tbody>
					</table>
				</table-wrap>
			</sec>
			<sec>
				<title>2. 안면 기반의 사상체질 분류</title>
				<p>안면 기반의 사상체질 분류를 위해 2,279개의 안면 비율 특징을 입력으로 사용하여 RF와 XGBoost를 적용했다. 안면 특징만을 사용했을 때, table 2와 같이 소음인을 분류하는 경우를 제외하고는 70% 미만의 정확도를 얻었다. 하지만, BMI를 안면 특징에 추가하면 XGBoost에서 태음인은 79.55%, 소음인은 82.56%의 정확도를 보였다. 앞서 KS-15에서 중요한 특징으로 판별된 성격의 외향성/내향성을 추가했을 때, 태음인, 소음인, 소양인에 대해 각각 80.33%, 90.49%, 79.95%의 정확도를 얻을 수 있었다. SHAP을 기반으로 중요한 특징을 분석한 결과, 상위 10개의 얼굴 특징은 아래와 같으며, F는 식(1)에서, D는 거리를 나타낸다.</p>
				<table-wrap id="T0002" position="float" orientation="portrait">
					<label>Table 2</label>
					<caption>
						<title>Sasang Constitution Classification Results Based on All Facial Features</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_t0002.png" position="float" orientation="portrait" xlink:type="simple" />
					<table>
						<tbody>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
						</tbody>
					</table>
				</table-wrap>
				<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_e0003.png" position="float" orientation="portrait" xlink:type="simple" />
				<p>중요 10개의 안면 특징과 BMI, 외향성/내향성 설문을 기반으로 사상체질을 분류한 결과는 table 3과 같다. 2,279개의 안면 특징을 모두 사용했을 때와 비교하여, 중요한 안면 특징을 분류 모델의 입력으로 사용했을 때 RF와 XGBoost 모델 간의 정확도 차이가 줄어드는 효과를 보였다. 안면 특징만을 모델 입력으로 사용할 때는 모든 안면 특징을 사용하는 것이 높은 정확도를 보였지만, BMI와 외향성/내향성 설문을 추가했을 때는 중요한 10개의 특징만을 사용하는 것이 높은 분류 성능을 보였다. 외향성/내향성 설문, BMI, 그리고 중요한 10개의 얼굴 특징을 기반으로 태음, 소음, 소양을 분류한 정확도는 각각 81.90%, 90.49%, 81.90%였으며, 정밀도, 재현율, F1 점수는 table 4와 같다.</p>
				<table-wrap id="T0003" position="float" orientation="portrait">
					<label>Table 3</label>
					<caption>
						<title>Sasang Constitution Classification Results Based on 10 Important Facial Features</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_t0003.png" position="float" orientation="portrait" xlink:type="simple" />
					<table>
						<tbody>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
						</tbody>
					</table>
				</table-wrap>
				<table-wrap id="T0004" position="float" orientation="portrait">
					<label>Table 4</label>
					<caption>
						<title>Sasang Constitution Classification Results Based on 10 Important Facial Features Including Body Mass Index and Personality (Extroverted or Introverted)</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_t0004.png" position="float" orientation="portrait" xlink:type="simple" />
					<table>
						<tbody>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
							<tr>
								<td />
								<td />
								<td />
							</tr>
						</tbody>
					</table>
				</table-wrap>
			</sec>
			<sec>
				<title>3. 설명가능한 인공지능 기반 안면 특징 분석</title>
				<p>획득된 2,279개의 안면 비율 특징을 입력으로 하여 태음인, 소음인, 소양인 안면에 대해 SHAP을 활용하여 분석하였다. SHAP의 결과는 SHAP plot을 통해 시각화할 수 있으며, SHAP plot은 y축에 특징의 중요 순서를, x축에 SHAP 값을 나타낸다. 양수는 양의 기여도를, 음수는 음의 기여도를 의미한다. 각 특징의 크기는 붉은색에서 푸른색으로 표현하여 특징의 분포를 나타낸다. figure 2~4의 SHAP plot을 해석해보면, 태음인, 소음인, 소양인 모두에서 BMI가 가장 중요한 특징으로 나타났다. 태음인은 BMI가 높을수록 태음인에 대한 양의 기여도가 높아지며(SHAP 값이 증가함), 소음인은 BMI가 낮을 때 양의 기여도가 높다. 소양인은 BMI가 낮을 때 양의 기여도를 가지지만, BMI가 높을 경우 음의 기여도가 높아져 소양인이 아닐 확률이 높아진다.</p>
				<p>SHAP에 의해 얻어진 중요한 안면 특징을 두 점 사이를 점선으로 표시하여 시각화한 결과, 태음인은 얼굴 가로 대비 입의 크기와 관련된 의 값이 크고, 코끝과 관자놀이 사이의 비율인 가 크며, 눈의 비율을 나타내는 이 작고, 눈과 입 사이의 거리 비율인 이 작은 경우 태음인으로 나타났다. 얼굴 가로 비율 대비 입의 크기 에 대한 SHAP value가 크다는 것은 얼굴 가로 비율에 비해 입이 크다는 것을 의미한다. 코 끝과 관자놀이 사이의 비율 이 높다는 것은 코끝과 관자놀이 사이의 거리가 길다는 것을 의미한다. 이 결과를 종합해 보면, 태음인은 얼굴 가로 비율 대비 입이 클수록, 코끝과 관자놀이 사이의 비율이 클수록, 눈의 비율이 작을수록, 눈과 입 사이의 거리가 짧을수록 태음인으로 진단될 확률이 높다는 것을 의미한다. 소음인은 SHAP plot 분석 결과 얼굴의 세로 길이와 관련된 이 작고, 눈썹과 관련된 이 크며, 볼과 눈 그리고 코 사이의 거리와 관련된 , 이 작게 나타났다. 이 결과를 종합하면 얼굴 가로 비율 대비 눈썹이 길고, 코끝의 세로 비율이 작고, 볼과 눈 그리고 볼과 코 사이의 거리가 짧을수록 소음인으로 진단될 확률이 높다는 것을 의미한다. 소양인의 SHAP plot 분석 결과는 눈 끝과 입술 사이와 관련된 가 작고, 눈과 코 사이의 거리인 가 크며, 눈과 눈썹 사이의 거리인 가 작게 나타났다. 이 결과는 얼굴 가로 비율 대비 눈 끝과 입술 사이의 거리가 짧고, 눈과 코 사이의 비율이 길며, 눈과 눈썹 사이의 비율이 짧을수록 소양인으로 진단될 확률이 높다는 것을 의미한다.</p>
				<fig id="F0002" position="float" orientation="portrait">
					<label>Figure 2</label>
					<caption>
						<title>Taeeum facial features and important features SHAP plot</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_f0002.png" position="float" orientation="portrait" xlink:type="simple" />
				</fig>
				<fig id="F0003" position="float" orientation="portrait">
					<label>Figure 3</label>
					<caption>
						<title>Soeum facial features and important features SHAP plot</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_f0003.png" position="float" orientation="portrait" xlink:type="simple" />
				</fig>
				<fig id="F0004" position="float" orientation="portrait">
					<label>Figure 4</label>
					<caption>
						<title>Soyang facial features and important features SHAP plot</title>
					</caption>
					<graphic xlink:href="../ingestImageView?artiId=ART003104503&amp;imageName=HSSSBH_2024_v36n2_39_f0004.png" position="float" orientation="portrait" xlink:type="simple" />
				</fig>
			</sec>
		</sec>
		<sec sec-type="methods|materials">
			<title>&#8547;. 考察</title>
			<p>본 연구에서는 안면 영상 기반의 사상체질 검출을 위해 사상의학 전문가에 의해 진단된 773명(태음: 309명, 소음: 207명, 소양: 257명)의 안면사진에서 특징을 추출하고, 사상체질 검출 모델을 검증하였다. 안면 영상에서 눈썹, 눈, 코, 입, 얼굴형의 68개의 랜드마크를 검출하고, 이 랜드마크로부터 2,279개의 안면 비율 특징을 추출하였다. 이 2,279개의 특징에 대해 설명가능한 인공지능 기술인 SHAP을 활용하여 태음, 소음, 소양인을 분석하고, 10개의 중요한 얼굴 특징을 도출하였다. 기존 연구에서 얼굴의 길이를 측정할 수 있는 보조 수단을 사용하여 얼굴 특징점과 BMI를 기반으로 태음인에 대해 81.2%의 정확도를 얻은 바 있다7. 제안된 방법은 table 3과 같이 길이 측정 도구 없이 얼굴 비율 특징점과 BMI로 태음인, 소음인, 소양인에 대해 각각 81.64%, 84.76%, 68.75%의 정확도를 얻었다.</p>
			<p>사상의학 전문의 또는 사상체질 임상 경력 5년 이상의 한의사가 약리 점수, 체형 점수, 병증/소증 및 성정을 기반으로 진단한 사상체질에 대해 KS-15를 인풋으로 사용하여 태음인, 소음인, 소양인을 검출한 정확도는 각각 86.20%, 93.23%, 84.89%로 매우 높았다. KS-15는 사상체질을 판별하는 소증 8문항, 성격 6문항, 체형(BMI) 1문항으로 구성되어 있어 높은 정확성을 가지지만, 주관적이거나 전문가의 도움이 필요하다. 따라서 객관적인 지표인 안면과 최소한의 정보만을 이용하여 사상체질을 검출하는 방법이 요구되었다. 이를 위해 안면 특징에 BMI와 성격 외향성을 추가하여 각각 81.90%, 90.49%, 81.90%의 정확도를 얻었다. 성격 외향성 설문은 외향, 중간, 내향의 세 개 항목으로 구성되었다.</p>
			<p>사상체질의 안면을 분석한 연구로 이선영은 안면을 활용한 사상체질 진단 연구에서 태음인은 얼굴이 넓적하고 눈이 편평하며 코가 크고 폭이 넓다고 하였으며, 소음인은 인상이 유순하고 얼굴이 갸름하며 눈꼬리가 약간 처진 곡선형이고 코 폭이 좁고 코 아래가 처진 편이라고 하였다. 소양인은 눈 끝이 올라가 있고 이마가 돌출되었으며 상하로 넓다고 하였다19. 이정윤은 태음인이 다른 사상 유형에 비해 얼굴 너비와 눈 너비가 더 넓고 얼굴이 정사각형 모양을 가지며, 얼굴 너비 변수가 태음인 유형을 구별하는 주요 지표로 확인되었다. 얼굴 중앙부(눈에서 입까지)의 폭을 나타내는 변수들은 태음인에서 가장 크고 소음인에서 가장 작았다. 소음인은 다른 사상 유형에 비해 얼굴이 더 타원형인 것으로 나타났다7.</p>
			<p>제안된 사상체질 분석 방법에서는 절대적인 크기를 알 수 없지만, 얼굴의 비율을 분석한 결과 태음인은 얼굴이 넓적하고, 얼굴의 가로 비율 대비 다른 체질에 비해 눈은 작고 입은 큰 비율을 가졌다. 소음인은 기존 연구에서 얼굴이 갸름하고 눈꼬리가 약간 처진 곡선형이라고 묘사되었는데, 본 연구에서도 눈썹이 길고, 볼과 눈, 볼과 코 사이의 거리가 짧게 나타났다. 이는 기존의 연구와 같이 얼굴이 갸름하고 타원형임을 나타냈다. 소양인은 기존 연구에서 눈 끝이 올라가 있다고 묘사되었는데, 본 연구에서도 얼굴 가로 비율 대비 눈과 코 사이의 비율이 길고, 눈과 눈썹 사이의 비율이 짧게 나타나는 등 눈과 눈썹에 대한 관련성이 두드러지게 나타났다.</p>
		</sec>
		<sec sec-type="results">
			<title>&#8548;. 結論</title>
			<p>본 연구는 안면의 비율 특징점을 기반으로 사상체질을 검출하는 방법을 제안하였다. 안면 기반의 사상체질 검출은 모바일 환경에서 전문가의 도움 없이 최소한의 인구학적 정보와 한 장의 사진으로도 사상체질을 검출하는 데 활용될 수 있다. 그러나 길이를 측정하는 추가적인 도구 없이는 영상에서 눈, 코, 입 등의 정확한 길이를 추정하기 어렵다. 따라서 본 연구에서는 안면 비율 기반의 특징을 검출하고 설명 가능한 인공지능 기술인 SHAP을 이용하여 태음인, 소음인, 소양인의 주요 얼굴 특징을 분석하였다.</p>
			<p>분석 결과, 태음인은 얼굴의 너비, 소음인은 볼과 눈, 코 사이의 비율, 소양인은 눈과 눈썹에 관련된 비율이 중요한 것으로 나타났으며, 이는 기존 연구 결과와 일치하였다. 사상체질별 안면 비율의 10개의 중요 특징과 BMI, 성격 외향성 설문을 인풋으로 XGBoost 모델을 사용하여 태음, 소음, 소양인을 분류한 정확도는 각각 81.90%, 90.49%, 81.90%를 얻었다. XAI 모델인 SHAP을 활용하면 제안하는 특징점에 대한 사상체질 분류 모델의 결과뿐만 아니라 기여도를 해석 가능하기 때문에, 환자별로 사상체질이 진단된 내용에 대한 해석을 제공할 수 있다는 장점이 있다. 연구의 한계점은 추가된 성격 외향성 설문이 소양인의 낮은 정확도를 개선하였지만 주관적인 요소이므로 객관적인 도구가 필요하다. 향후 연구로는 안면 특징 및 분류 모델의 고도화와 웨어러블 장치 및 스마트폰에서 얻을 수 있는 생활 정보를 기반으로 설문이 아닌 외향성을 나타내는 마커를 분석하여 일상에서 객관적인 사상체질 평가를 위한 연구를 진행하고자 한다.</p>
		</sec>
		<sec sec-type="conclusions">
			<title>&#8549;. Acknowledgment</title>
			<p>본 연구는 2024년도 한국한의학연구원 기관주요사업인 &#8220;빅데이터 기반 한의 예방치료 원천기술 개발&#8221;(Grant No. KSN1732121)의 지원을 받아 수행된 연구이다.</p>
		</sec>
	</body>
	<back>
		<ref-list>
			<ref id="B001">
				<label>1</label>
				<element-citation publication-type="journal">
					<article-title>Department of Sasang Constitutional Medicine, College of Korean Medicine. Sasang Medicine. Jibmundang. 2006</article-title>
				</element-citation>
			</ref>
			<ref id="B002">
				<label>2</label>
				<element-citation publication-type="journal">
					<article-title>Lee SW, Jang ES, Lee J, Kim JY. Current researches on the methods of diagnosing sasang constitution: an overview. Evidence-Based Complementary and Alternative Medicine. 2009;6:43-49</article-title>
					<pub-id pub-id-type="doi">10.1093/ecam/nep092</pub-id>
				</element-citation>
			</ref>
			<ref id="B003">
				<label>3</label>
				<element-citation publication-type="journal">
					<article-title>Lee JH, Kim YH, Hwang MW, Kim JY, Lee EJ, Song IB, et al. Survey study about Sasangin's characteristics of face, voice, skin and pulse diagnosis. Journal of Sasang Constitutional Medicine. 2007;19(3):126-143</article-title>
				</element-citation>
			</ref>
			<ref id="B004">
				<label>4</label>
				<element-citation publication-type="journal">
					<article-title>Kang B, Kim J, Yun TR, Kim CE. Prompt-RAG: Pioneering Vector Embedding-Free Retrieval- Augmented Generation in Niche Domains. Exem- plified by Korean Medicine. 2024</article-title>
					<pub-id pub-id-type="doi">10.48550/arXiv.2401.11246</pub-id>
				</element-citation>
			</ref>
			<ref id="B005">
				<label>5</label>
				<element-citation publication-type="journal">
					<article-title>Sohn EH, Yoo JH, Kim JW, Kim KK, Kho BH, Song IB, et al. The study of Sasangin's face. Journal of Sasang Constitutional Medicine. 2005; 17(3):55-68</article-title>
				</element-citation>
			</ref>
			<ref id="B006">
				<label>6</label>
				<element-citation publication-type="journal">
					<article-title>Do JH, Kim JY. Sasang Constitutional Diagnosis Technology Using Facial Information. Journal of institute of Electronics Engineers. 2010;37(7): 53-61</article-title>
				</element-citation>
			</ref>
			<ref id="B007">
				<label>7</label>
				<element-citation publication-type="journal">
					<article-title>Lee J, Yim MH, Ang L. Facial features analysis of Sasang typology using facial images: A study on Caucasian American and native Korean populations. European Journal of Integrative Medicine. 2023; 57:102210</article-title>
					<pub-id pub-id-type="doi">10.1016/j.eujim.2022.102210</pub-id>
				</element-citation>
			</ref>
			<ref id="B008">
				<label>8</label>
				<element-citation publication-type="journal">
					<article-title>Ahn I, Kim SH, Jeong K, Kim H, Lee SW. Sasang Constitution Classification using Convolutional Neural Network on Facial Images. Journal of Sasang Constitutional Medicine. 2022;34(3):31-40</article-title>
					<pub-id pub-id-type="doi">10.7730/JSCM.2022.34.3.31</pub-id>
				</element-citation>
			</ref>
			<ref id="B009">
				<label>9</label>
				<element-citation publication-type="journal">
					<article-title>Fa S, Yang X, Han S, Feng Z, Chen Y. Multi-scale spatial&#8211;temporal attention graph convolutional networks for driver fatigue detection. Journal of Visual Communication and Image Representation. 2023;93:103826</article-title>
					<pub-id pub-id-type="doi">10.1016/j.jvcir.2023.103826</pub-id>
				</element-citation>
			</ref>
			<ref id="B010">
				<label>10</label>
				<element-citation publication-type="journal">
					<article-title>Yan L, Shi Y, Wei M, Wu Y. Multi-feature fusing local directional ternary pattern for facial expressions signal recognition based on video communication system. Alexandria Engineering Journal. 2023;63:307-320</article-title>
					<pub-id pub-id-type="doi">10.1016/j.aej.2022.08.003</pub-id>
				</element-citation>
			</ref>
			<ref id="B011">
				<label>11</label>
				<element-citation publication-type="journal">
					<article-title>Kim JK, Bae MN, Lee K, Kim JC, Hong SG. Explainable artificial intelligence and wearable sensor-based gait analysis to identify patients with osteopenia and sarcopenia in daily life. Biosensors. 2022;12(3):167</article-title>
					<pub-id pub-id-type="doi">10.3390/bios12030167</pub-id>
				</element-citation>
			</ref>
			<ref id="B012">
				<label>12</label>
				<element-citation publication-type="journal">
					<article-title>Nazar M, Alam MM, Yafi E, Su&#8217;ud MM. A systematic review of human&#8211;computer interaction and explainable artificial intelligence in healthcare with artificial intelligence techniques. IEEE Access. 2021;9:153316-153348</article-title>
					<pub-id pub-id-type="doi">10.1109/ACCESS.2021.3127881</pub-id>
				</element-citation>
			</ref>
			<ref id="B013">
				<label>13</label>
				<element-citation publication-type="journal">
					<article-title>Baek YH, Jang ES, Park KH, Yoo JH, Jin HJ, Lee SW. Development and validation of brief KS-15 (Korea Sasang Constitutional Diagnostic Questionnaire) based on body shape, temperament and symptoms. Journal of Sasang Constitutional Medicine. 2015;27(2):211-221</article-title>
					<pub-id pub-id-type="doi">10.7730/JSCM.2015.27.2.211</pub-id>
				</element-citation>
			</ref>
			<ref id="B014">
				<label>14</label>
				<element-citation publication-type="journal">
					<article-title>Lee SW. Establishing a Constitution Information Collection System for the Scientific Diagnosis of Constitutional Medicine. Korea Institute of Oriental Medicine. 2009</article-title>
					<pub-id pub-id-type="doi">10.23000/TRKO201700012089</pub-id>
				</element-citation>
			</ref>
			<ref id="B015">
				<label>15</label>
				<element-citation publication-type="journal">
					<article-title>Ye RZ, Subramanian A, Diedrich D, Lindroth H, Pickering B, Herasevich V. Effects of image quality on the accuracy human pose estimation and detection of eye lid opening/closing using OpenPose and DLib. Journal of Imaging. 2022;8 (12):330</article-title>
					<pub-id pub-id-type="doi">10.3390/jimaging8120330</pub-id>
				</element-citation>
			</ref>
			<ref id="B016">
				<label>16</label>
				<element-citation publication-type="journal">
					<article-title>Varela VP, TowlerA, Kemp RI, White D. Looking at faces in the wild. Scientific Reports. 2023;13(1):783</article-title>
					<pub-id pub-id-type="doi">10.1038/s41598-022-25268-1</pub-id>
				</element-citation>
			</ref>
			<ref id="B017">
				<label>17</label>
				<element-citation publication-type="journal">
					<article-title>Kim JK, Lee K, Hong SG. Detection of important features and comparison of datasets for fall detection based on wrist-wearable devices. Expert Systems with Applications. 2023;234:121 034</article-title>
					<pub-id pub-id-type="doi">10.1016/j.eswa.2023.121034</pub-id>
				</element-citation>
			</ref>
			<ref id="B018">
				<label>18</label>
				<element-citation publication-type="journal">
					<article-title>Slack D, Hilgard S, Jia E, Singh S, Lakkaraju H. Fooling lime and shap: Adversarial attacks on post hoc explanation methods. In Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society. 2020;180-186</article-title>
					<pub-id pub-id-type="doi">10.1145/3375627.3375830</pub-id>
				</element-citation>
			</ref>
			<ref id="B019">
				<label>19</label>
				<element-citation publication-type="journal">
					<article-title>Lee SY, Koh BH, Lee EJ, Lee JH, Hwang, MW. Systematic review on researches of sasang constitution diagnosis using facial feature. Journal of Sasang Constitutional Medicine. 2012;24(4): 17-27</article-title>
					<pub-id pub-id-type="doi">10.7730/JSCM.2012.24.4.17</pub-id>
				</element-citation>
			</ref>
		</ref-list>
	</back>
</article>
