혼합현실 컨트롤에 최적화된 인터랙션을 위한 손 동작과 컨트롤 방식 Matching체계의 제안 : Augmented Behavior와 Meta Interface를 중심으로
Proposal of a Hand Motion and Control Method Matching System for Interaction Optimized for Mixed Reality Control : Focusing on Meta Interface and Augmented Behavior
- 발행기관 한동대학교 일반대학원
- 지도교수 이은종
- 발행년도 2022
- 학위수여년월 2022. 2
- 학위명 석사
- 학과 및 전공 일반대학원 문화미디어디자인학과
- 원문페이지 ix, 83
- 실제URI http://www.dcollection.net/handler/handong/200000611417
- UCI I804:47030-200000611417
- 본문언어 한국어
- 저작권 한동대학교 논문은 저작권에 의해 보호받습니다.
초록/요약
비대면 만남이 일반화되는 시대에 일반적인 사진/영상 기반이 충족시키지 못하는 영역을 XR이 빠르게 발전해 나가며 채워가고 있다. 특히 혼합현실은 실제 세계를 디지털화 된 개체들과 소통하는 기술로 더욱 그 장점을 극대화시킬 수 있다. 하지만 손을 주요 입력도구로 하는 HMD형 혼합현실에서 현재 적용되고 있는 기본 조작들은 표준화된 체계가 없고 각기 회사마다 다른 손동작을 적용하고 있는 상황이다. 이에 혼합현실에서 수행되는 조작들에 대한 사용성과 효율성을 고려한 체계화된 손동작 적용 가이드가 필요함을 판단하여 이를 규명하는 연구를 진행하였다. 1. MR환경에서 수행되는 기본적인 조작과 그 속성의 규명 2. 손의 구조와 발생할 수 있는 손 동작들의 속성별 규명 3. MR 환경 특성에 적합한 Meta Interface와 Augmented Behavior의 적용 예시 전반적인 기초 조작과 속성에 대해서 연구하였으나 세부적인 사례까지 적용되는 연구범위는 기본 조작 중에서 필수적인 단일 조작 유닛과 빈번하게 사용되는 조작 중 범위 조절의 속성을 지닌 조작들을 대상으로 하였다. 먼저 MR상황에서 발생할 수 있는 조작들을 다양하게 수행하고 수집하여 수행 동작에 대한 비디오를 분석하였다. 이를 통해 다른 조작 개념에 복합적으로 구성이 되는 기초 조작으로써 단일 조작 유닛을 구분하고, 이를 혼합하여 하나의 조작 개념을 생성하는 복합 조작 유닛을 분류하였다. 각 유닛 별로 해당되는 주요 기초 조작들을 분류하고 각 조작들이 가지는 현재의 동작 방법과 그에 대한 Issue 들을 파악하여 제시하였다. 이를 통해 각 조작이 요구하고 있는 속성들을 추출하여 정리한 프레임웍을 구성하였다. 동시에 조작을 수행할 수 있는 입력도구로써 손이 가지는 의미의 특성을 파악하고 손의 물리적인 구성을 통해 손의 구조적인 특성과 발생할 수 있는 동작들을 탐색하였다. 이에 손의 구조적인 영역들과 동작이 지니는 속성들을 파악하여 앞서 제시한 기초적인 조작의 속성과 대응시킬 수 있는 체계를 구성하였다. 해당 조작개념에 동작을 적용할 때 MR환경의 특성에 최적화된 동작과 사용경험을 지닐 수 있도록 MR환경이 지니는 특징을 분석하여 주변 사물들과 조작도구 자체도 Interface로 활용할 수 있는 Meta Interface개념과, 특정한 입력 매개가 필요한 것이 아닌 동작 자체로써 MR환경에서 조작을 수행하는 Augmented Behavior의 개념을 제시하고, 기초적인 조작들에 대한 사례를 제시하였다. 이를 통해 향후 MR환경 뿐 아니라 손을 입력도구로 사용하는 전반적인 XR 환경에서 적합한 손 동작으로 적용할 수 있는 기초 자료로써 활용됨에 기여하고자 한다.
more초록/요약
In an era where non-face-to-face encounters are becoming common, XR is rapidly developing and filling areas that the general photo/video base does not meet. Mixed Reality can further maximize its advantages with technology to communicate with digitized surroundings in the real world. However, in HMD-type mixed reality, which uses hands as its main input tool, the basic controls currently being applied do not have a standardized system, and different companies are applying different hand movements. Therefore, a study was conducted to develop a systematic hand motion application guide considering usability and efficiency for operations performed in mixed reality. 1. Finding out basic manipulations and it's attributes performed in the MR environment. 2. Finding out the anatomic structure of the hand and the hand movements that may occur and extracting the attributes of those. 3. Examples of application of Meta Interface and Augmented behavior suitable for MR environmental characteristics. Overall basic manipulation and attributes were studied, but the scope of the study applied for those with a single behavior unit which is essential for basic manipulation and those having the property of range control. First, various operations that may occur in the MR situation were performed and collected to be analyzed through the video. Through this, basic control was classified by two categories. first one is a single behavior unit which is classified as a basic operation that can be complexly constructed in other operation concepts, and second one is a complex behavior unit was classified that generated by combinations of Single behavior units. The primary basic controls belong to each units were classified, and the current operating methods and issues of each basic controls were found and presented. Through this, a framework was made in which the attributes required by each control were extracted and organized. As an input tool capable of performing manipulation, the characteristics of the hand were identified, and structural characteristics of the hand and movements that may occur were explored through the physical composition of the hand. Accordingly, a system was constructed in which the structural areas of the hand and the attributes of the motion can correspond to the attributes of the basic controls presented above. When applying the motions to each basic control, the characteristics of the MR environment were analyzed so that the control and usage experience optimized for the characteristics of the MR environment can be optimized. Through this, the concept of Meta Interface, which can be used as an interface by surrounding objects and the hand themselves, was summarized. In addition, the concept of Augmented Behavior, which performs manipulation by hand-gesture itself, was presented, rather than requiring a specific input medium. examples of basic controls were presented.
more목차
1장 서론 1
1.1 연구 배경 2
1.2 연구 목적 4
1.3 연구 내용 및 방법 4
2장 MR환경에서의 조작 경험 이해 6
2.1 MR 환경의 특징과 User Interface 7
2.2 MR에서의 Interface와 Interaction하는 현재의 경험 9
2.3 MR환경의 특징을 고려한 조작행위의 필요성 12
3장 MR환경에서 나타나는 조작 행태와 입력도구의 속성 14
3.1 MR환경에서 나타나는 기본 조작 행위(Basic Behavior) 분석 – Basic Behavior의 Framework 도출 16
3.2 Basic Behavior를 수행할 수 있는 조작 도구 분석 22
3.3 주요 조작 도구로써 손 구조와 움직임에 분석 및 동작의 Framework 도출 25
4장 Basic behavior와 대응되는 손 동작의 매칭 예시 57
4.1 매칭 Process 58
4.2 Basic behavior 별 요구되는 Attribute 추출 58
4.3 Basic behavior와 손 동작의 Attribute 매칭 61
4.4 Basic Behavior 특성에 최적화된 Meta Interface와 Augmented behavior 62
4.5 사례 제시 64
5장 결론 및 향후 연구 과제 76
5.1 연구 결과 및 기대효과 77
5.2 연구 한계 및 향후 연구 과제 79
참고문헌 81

