인간의 감성 표현은 다양한 언어적 방법(Verbal communication)과 비언어적 방법(Nonverbal communication)을 통해서 이루어진다. 이런 감성 표현 연구의 대부분은 문화적 보편성을 가지고 있는 기본정서(행복, 놀람, 공포, 분노, 혐오, 슬픔)를 표정인식 연구에 적용하는 방식이었다. 그러나 이러한 표현 연구는 인간의 외형적 표정을 연구하는데 주력하였고 가상의 캐릭터의 감성을 표현하는 것에 대한 연구는 부족하였다. 본 연구는 얼굴 표정에 나타나는 감성 표정을 연구하여 가상 캐릭터의 표정에 투영 되었을 때 제 3자가 인식하는 것에 대한 것이다. 연구된 표정에 미세표정을 적용하는 방법론을 논의에 제안하여 추후 가상의 캐릭터에 미세표정 적용방법을 제안하고자 한다. 본 연구는 캐릭터의 의사전달체계 가운데 가장 큰 영향을 미치는 얼굴의 표정을 중심으로 연구를 진행하였다. 가상의 캐릭터 제작시 얼굴 표정을 구현하는데 많은 시간과 노력이 필요하기 때문에 이를 뒷받침해 줄 수 있는 이론적 뒷받침을 제안하고자 한다. 연구절차는 선행 연구를 바탕으로 감정영역에 대한 표본 표정을 가상의 캐릭터에 대비하여 그것을 검증 받는 방식으로 진행하였다. 인간의 감성과 얼굴 표정사이에는 연계성이 존재하며, 특히 표정에 나타나는 비언어적 감성기호들을 범주화할 수 있다는 것을 증명하는 선행조사를 하였다. 얼굴 표정사이의 연계성을 통해 추출된 대표 감성을 근거로 얼굴 근육의 종류, 근육운동 방법을 선행 조사하였다. 선행연구를 토대로 가상의 캐릭터를 제작하여 표정의 변화를 캐릭터 표정 애니메이션에 적용하여 감성의 변화가 가상의 캐릭터를 통해서도 동일시 적용되는 것에 대하여 검증하였다. 본 연구를 토대로 추후 다양한 미디어 제작에 필요한 캐릭터의 표정 데이터로 활용가능하며, 향후 연구에서 폭넓은 데이터베이스 구축과 비교검증이 이루어 질 것으로 기대된다.
Facial animation is the most important part of character animation, and realistic and micro expression of emotions is one of the most important parts of animating a believable character. This, however, is also one of the most challenging aspects of animating a character. The human face is one of the most interesting and intricate parts of the human body. We can detect even the subtlest change of expression within the face, and its familiarity allows us to recognise one face out of a sea of hundreds that we come into contact with every day. In order to successfully animate facial expressions and emotion, a thorough understanding of the human facial muscular structure and how expressions are formed is necessary. By using the research that I have collected on this subject, I will attempt to create my own facial animation system. The system that I will create will be based as closely as possible to the real life human facial muscular system. I aim for it to move and react as closely as possible to real life, using scientifically correct positioning and movement of computer generated muscles. I also aim to produce a short animation demonstrating how my system works, and a custom user interface for manipulating it. My research on human and computer facial expression is crucial to the success of my system, and this report will document the research I undertook.