통합 검색
통합 검색
[단일 요인을 활용한 비언어적 감정 표현 설계 연구 : 적정 기술 기반 소셜 로봇 디자인 접근법, 한국HCI학회, 한국HCI학회 학술발표대회 논문집 2025, 심민지, 이재룡, 황석영, 박효상, 박기철]
Reviewed by 심민지, 이재룡 학부연구원
본 연구는 고령화 사회와 정서적 돌봄 수요 증가라는 사회적 배경 속에서 소셜 로봇의 효율적 설계 가능성을 탐구한다. 현재 소셜 로봇은 감정적 상호작용을 지원하는 중요한 도구로 주목받고 있으나, 복잡한 설계와 높은 제작 비용으로 인해 대중화에 한계가 존재한다. 이에 연구진은 최소한의 모션만으로도 감정 전달이 가능한 설계 전략을 검증하고자 하였다. 특히 기쁨, 슬픔, 놀라움, 분노 등 네 가지 기본 감정을 중심으로 단일 요인(눈, 림라이트, 팔, 머리)이 감정 인식에 어떤 영향을 미치는지 실험적으로 분석하였다. 이러한 접근은 단순화된 설계를 통해 비용 절감을 실현하면서도, 사용자와의 감정적 상호작용 품질을 유지할 수 있는 가능성을 제시한다.
연구 방법은 KIPRIS 기반 데이터와 선행 연구를 참고하여 실험용 로봇을 제작하고, 단일 요인별로 감정을 표현하도록 설계하였다. 눈, 림라이트, 팔, 머리 네 가지 요소를 이진법적 변수로 설정하여 각각의 영향력을 독립적으로 검증하였다. 실험은 20대 대학생 30명을 대상으로 진행되었으며, 시각적 단서만 제공하는 방식으로 설문과 인터뷰를 병행하였다. 응답의 신뢰성을 높이기 위해 우연성 검증, 교차분석, 크래머 V 계수 분석, 빈도 분석 등이 적용되었고, 사후 인터뷰를 통해 각 요인의 중요도를 추가적으로 평가하였다. 이를 통해 단일 요인만으로도 감정이 정확히 인식되는지, 세부 감정 구분(놀라움의 긍정/부정, 분노의 능동/수동)이 가능한지를 확인하고자 하였다.
실험 결과, 단일 요인만으로도 네 가지 기본 감정이 충분히 표현 가능함이 검증되었다. 특히 기쁨은 눈, 슬픔은 머리 숙임, 놀라움은 긍정적일 때 눈, 부정적일 때 머리 들기, 분노는 능동적일 때 팔, 수동적일 때 머리 숙임으로 표현될 수 있었다. 이는 상황 맥락이 주어질 경우 세부 감정의 구분도 가능함을 보여준다. 또한 요인별 기여도 분석에서는 머리와 눈이 가장 높은 설명력을 가지며, 림라이트와 팔은 상대적으로 낮은 영향을 보였다. 빈도 분석에서도 응답자의 87%가 머리와 눈을 가장 중요한 요인으로 선택하여, 소셜 로봇 설계에서 얼굴 중심 요인이 핵심적임을 시사하였다.
결론적으로 본 연구는 소셜 로봇의 복잡한 설계와 제작 비용 문제를 해결하기 위해 단일 요인 기반의 단순화 전략이 유효하다는 점을 실증적으로 확인하였다. 머리와 눈 중심의 설계만으로도 감정 전달 효과를 극대화할 수 있으며, 이는 불필요한 요소를 축소함으로써 비용 절감과 대중화 가능성을 동시에 달성할 수 있다. 다만 본 연구는 피실험자의 수가 적고, 대학생이라는 특정 집단에 한정되었다는 한계가 있으며, 실제 로봇이 아닌 화면 기반 실험으로 진행되었다는 점에서 일반화에는 제약이 있다. 향후 연구에서는 다양한 연령과 사용자 집단을 포함하고, 실제 로봇을 활용한 상호작용 검증이 필요하다. 그럼에도 불구하고 본 연구는 최소한의 자원으로 최대한의 감정 전달을 실현할 수 있는 설계 원리를 제안함으로써, 비용 효율적이고 접근 가능한 소셜 로봇 디자인을 위한 기초적 토대를 마련하였다.
[학회 후기]
6개월간, HIDE LAB에서 석박사 연구원들과 학부연구원들의 노력이 담긴 결과물을 HCI 학술대회를 통해 선보일 수 있었습니다. 그간 프로시딩 구두발표 논문 / Creative Award 논문을 위한 디자인 프로세스와, 목업 및 프로토타입, 시연 영상 등을 준비하며 시행착오와 부담감이 있었지만 그 또한 정말 유익한 경험이었습니다.학부연구원 초반부터 기존 연구실에서 진행하고 계시던 실험을 위한 로봇을 설계 및 디자인 Follow-Up 하며 그 실험용 로봇이 어떠한 최소한의 단일요인으로 다양한 감정표현을 할 수 있을까에 대한 고찰이 필요하다 판단하였습니다.그 후 석박사 연구원분들의 도움을 받아 프로시딩 구두발표를 위한 논문을 작성 하였습니다. 처음으로 작성하는 논문이기에 어려움이 있었지만 석박사님분들 덕분에 투고, 학회 구두발표, CA 전시까지 성공적으로 이뤄졌던 것 같습니다.
[발표 후기]
발표자 : 심민지
저자 : 심민지, 이재룡, 황석영, 박효상
저희의 가장 큰 목표인 단일요인만으로 로봇이 표현하는 기본 감정표현을 사용자 정확히 인식할 수 있다는 연구 결과를 실증적으로 보여줄 수 있음을 발표하였습니다.
Q1. 표정 디스플레이에 입이나 코가 아닌 눈만 사용된 이유가 있나요?A1. 눈 외에 입 표현이 추가되면, 감정표현에 있어서 눈과 입을 분리하여 다른 요인으로 봐야하므로, 대부분의 소셜로봇이 갖고 있는 눈 요인만 포함하여 실험을 진행해도 되겠다고 판단하였습니다.
Q2. 배경은 고령화나 다양한 연령대에 타겟이었던것 같은데 실험은 남/여 대학생들만 있다. 그 이유는 무엇인지 궁금합니다.A2. 돌봄 필요성 증가와 소셜 로봇이 수요 증가는 고령화와 더불어 크게 나타나고 있지만, 우리의 연구 목적은 소셜 로봇의 대중화이므로, 굳이 고령층에 국한하여 실험을 진행하지 않았습니다.
Q3. 실험 방식에 대한 자세한 설명 부탁드립니다.A3. TV 화면에 로봇 모델링을 띄워놓은 후 진행하였습니다. 로봇의 각 단일요인만 움직여가며 어떤 모션이 어떤 감정을 표현하는데 가장 효과적이었는지, 어떤 순서로 효과적으로 판단되었는지 설문을 진행하였습니다.
[CA 후기]
팀원: 이재룡, 정인희, 이동운, 심민지, 차재훈, 최성수, 박효상
H1 로봇의 단일 요인을 크게 디스플레이, 림라이트, 목 움직임, 팔움직임으로 나눠 연구를 위한 기초를 마련하였으며 구동부 모션 설계를 위해 다이나믹셀 서보 모터 6개와 U2D2를 사용하여 제어 할 수 있는 프로그래밍을 하였고, 외형은 부드러운 형상과 온화하고 내추럴한 컬러를 사용하여 실험을 위한 중립성을 높이는데 집중한 디자인을 하였습니다. 디자인의 당위성과 체계적인 설계로 이루어진 목업으로 Creative Award 전시와 시연을 진행하였으며, 다양한 방문객께서 많은 관심과 질문을 가지고 계셨습니다.
대표적인 질문으로
Q1. 사람하고 인터렉션 할 수 있는 요소가 있나요?
A1. 실험용 로봇이기에 구체적인 사람간의 인터렉션은 고려하지 않았습니다.
Q2. 감정표현 평가가 되었는지? 있다면 사람들이 어떻게 답했는지 궁금해요.
A2. 모션으로 감정 표현 평가를 진행하였고 기쁨, 슬픔, 놀라움, 분노와 같은 감정으로 평가가 되었습니다. 추후에 목업으로 추가 실험을 진행하려고 합니다.
댓글 0