Korean J Emerg Med Ser Search

CLOSE


Korean J Emerg Med Ser > Volume 23(3); 2019 > Article
360° 가상현실 동영상과 일반 동영상 교육 콘텐츠의 경험인식 비교 분석

Abstract

Purpose

This study simulates cardiac arrest situations in 360° virtual reality video clips and general video clips, and compares the correlations between educational media and experience recognition.

Methods

Experimental research was carried out on a random control group (n=32) and experimental group (n=32) on March 20, 2019.

Results

The groups where participants were trained with the 360° virtual reality video clips and a higher score of experience recognition (p=.047) than the group where participants were trained with the general video clips. Moreover, the subfactors of experience recognition including the sense of presence and vividness (p=.05), immersion (p<.05). experience (p<.01), fantasy factor (p<.05). and content satisfaction (p<.05) were positively correlated.

Conclusion

Enhancing vividness and the sense of presence when developing virtual reality videos recorded with a 360° camera is thought to enable experience recognition without any direct interaction.

Ⅰ. 서 론

1. 연구의 필요성

Milgram[1,2]은 실제환경에 가상매체가 혼합되는 정도를 기준으로 실제환경, 증강현실, 증강가상, 가상현실로 구분하였다. 가상현실은 실제환경을 컴퓨터 그래픽과 영상으로 완전히 대체하여 다른 공간에 있는 듯한 느낌을 주는 기술을 의미한다[1,2]. 최근 디지털 기술혁신과 정보통신 기술을 바탕으로 개발된 가상현실(virtual reality)은 게임, 영상, 건축, 의료 등 다양한 분야에 개발되어 적용되고 있으며 각 분야에서의 활용은 점차 증가되고 있다[3]. 특히, 교육 분야에 활용되는 가상현실은 과거와 차원이 다른 교육적 패러다임의 변화를 가져올 것으로 예상한다.
기존 교육경험이 2차원의 간접 경험방식이었다라고 한다면 가상현실 교육은 가상환경에서 3차원의 경험을 가능하게 할 것이다[4]. 간접 경험은 기호, 언어, 상징 등과 같이 인간과 사물 사이에 매개될 때 느끼는 경험이고 직접 경험은 상황을 통해 직접적으로 느끼는 생생한 경험을 말한다[5]. 교육의 최대 효율은 실제 상황에 대해 이해하고 적응하는 것이다. 가상현실은 현재의 교육적 요구도에 맞추어 실제 현실과 유사한 상황을 학습자에게 제공하고 가상의 경험을 통해 지식과 의미를 찾도록 하고 있다[6]. 이러한 가상현실은 시간과 공간을 뛰어넘는 영상을 제공하기 때문에 응급상황과 같이 대체 불가능한 상황학습 교육에 적합하다. 그 결과, 현재 개발되고 있는 가상현실은 주로 재난 대응을 위한 응급의학 교육[7], 재난재해 대피 훈련[8], 심정지 상황 학습 교육[9] 등 실제로 경험하기 어려운 주제가 가상현실로 개발되고 교육이 이루어지고 있다.
가상현실이 지금 이 공간에 있는 느낌이나 실제 사물을 인식하는 듯한 느낌을 가지기 위해서는 현존감(presence)을 높여야 한다[10]. 현존감에 영향을 미치는 요소로는 생생함과 상호작용이 있으며 현재의 가상현실 기술은 시청각적 생생함을 바탕으로 이동을 하거나, 직접 가상의 물체를 잡고 조작하는 등의 촉각적 상호작용을 통해 발전하고 있다[10].
최근에 360° 카메라가 개발되고 출시되고 있으며 일반인은 컴퓨터 그래픽이 아닌 실제 환경에 대한 촬영이 가능하게 되었다. 이는 실제 환경을 가상현실로 개발하는데 있어서 일반인이 원하는 360° 가상현실 동영상을 개발할 수 있음을 의미한다. 하지만 360° 가상현실 동영상은 매체간의 상호작용을 하는 키보드, 마우스, 립모션(leap motion), 캡토글러브(captoGlov) 등을 이용하지 않기 때문에 이동과 접촉에 대한 상호작용이 없다. 이동과 접촉이 가능한 실감가상현실보다 가상현실 동영상은 현존감에 낮은 영향을 준다[11]. 결국 상호작용을 배제하고 360° 카메라로 개발된 360° 가상현실 동영상은 학습자가 경험을 인식하는데 차이를 보일 수 있다. 하지만 현재 360° 가상현실 동영상과 일반 동영상의 콘텐츠를 동일하게 제공하고 일반인이 느끼는 경험인식을 비교 분석한 연구는 부족한 실정이다. 따라서 이 연구는 학습자가 실제로 경험할 수 없는 심정지 상황을 360° 가상현실 동영상과 일반 동영상으로 제공하고 교육 매체와 경험인식 요소들 간의 관련성을 비교 분석하였다. 이를 통해 360° 카메라를 이용한 360° 가상현실 동영상 개발의 기초 자료를 마련하고자 한다.

2. 연구의 목적

이 연구의 목적은 심정지 상황을 경험하기 위한 교육 콘텐츠로 360° 가상현실 동영상과 일반 동영상을 제공하고 일반인이 느끼는 경험인식을 비교하고자 한다. 이를 통해 응급상황에 대처해야하는 경험학습 교육 콘텐츠 개발의 기초자료를 마련하고자 한다.

Ⅱ. 연구방법

1. 연구설계

이 연구는 360° 가상현실 동영상과 일반 동영상 교육 콘텐츠의 경험인식을 분석하고자 시행된 무작위 대조군 실험연구이다.

2. 연구방법

이 연구는 2019년 3월 20일 시행하였다. 연구 대상자는 연구 목적과 방법에 대하여 자세하게 설명을 듣고 자발적으로 참여 동의서를 작성한 대상자를 선정하였다. 연구 대상자들은 실험연구가 진행되기 전 SPSS ver, 25.0의 무작위 난수 발생 프로그램을 활용하여 실험군과 대조군을 무작위로 나누고 각 교육장으로 이동하도록 하였다. 실험군과 대조군의 교육장은 연구 보조자 2인이 각각 담당하였으며 실험군은 360° 가상현실 동영상, 대조군은 일반 동영상을 이용하여 교육을 진행하였다. 실험군은 머리 착용 디스플레이(head mounted display : HMD)를 이용하여 360° 가상현실 동영상을 시청하였다. 전체 심폐소생술 교육 과정 중 교육 콘텐츠는 4개의 동영상을 각 2분씩 제공하였으며 총 시간은 10분이다. 교육 내용은 심정지에 대한 4개의 상황을 경험학습 하였다[12]. 교육이 종료된 후 연구 보조자를 통해 경험인식 설문지가 배포되고 설문조사를 실시하였다. 연구 참여 동의서, 설문조사, 교육에는 책임 연구자 외 연구 보조자 3인이 참여하였고 실험에 대한 내용을 알 수 없도록 하였다<Fig. 1>.

3. 연구대상

이 연구의 표본수는 G power version 3.0을 이용하여 two independent mens(two groups)으로 양측검정을 하였고 선행연구[13]를 참고하여 효과크기 0.80, 유의수준 0.05, 검정력 0.90을 적용하였다. 연구 대상자의 중도 탈락률을 고려하여 70명을 모집하였다. 자발적으로 연구 참여 동의를 한 대상자는 65명이었으나, 연구 당일 불참한 대상자 1인을 제외한 64명을 최종 연구 대상자로 선정하였다. 연구 대상자 선정에는 만 19세 이상 H대학교 소방행정학과 학생 중 2년 이내 심폐소생술 교육을 받은 대상자와 HMD 착용에 불편감을 느끼는 학생은 제외하였다<Fig. 1>.

4. 연구도구

실험군의 교육 콘텐츠는 360° 가상현실 동영상으로 스마트폰을 이용하여 QR코드를 스캔하면 YouTube에 탑재된 영상이 재생된다. 스마트폰에 머리 착용 디스플레이(HMD)를 장착한 후 동영상이 재생되면 연구 대상자는 시청하도록 하였다. 대조군의 일반 동영상은 기존에 시행한 심폐소생술 교육과 동일하게 빔 프로젝터를 이용하여 시청하였다.
연구에 활용한 설문지는 일반적 특성 5문항과 경험인식 20문항으로 경험인식의 각 문항은 현존감 3문항, 생생함 4문항, 몰입 3문항, 경험 1문항, 환상적 요소 1문항, 도전적 요소 2문항, 콘텐츠 만족도 3문항, 시뮬레이션 멀미 3문항으로 이루어졌다[14,15]. 경험인식은 Likert 5점 척도로 ‘매우 그렇다’ 5점, ‘그렇다’ 4점, ‘보통이다’ 3점, ‘그렇지 않다’ 2점, ‘매우 그렇지 않다’ 1점으로 평가하였다. 설문지의 신뢰도를 분석하기 위하여 Cronbach’s alpha를 분석한 결과 경험인식은 0.886이었다.

5. 분석방법

자료분석은 SPSS ver, 25.0 for Windows(SPSS Inc. Chicago, Illinois, USA)를 이용하였다. 일반적 특성 분석은 빈도와 백분율, 평균과 표준편차로 나타냈다. 일반적 특성에 따른 경험인식 차이 분석에는 t-test와 ANOVA로 분석하였고 실험군과 대조군의 비교는 t-test를 이용하였다. 실험군과 대조군의 경험인식의 관련성은 Pearson 상관관계를 이용하여 분석하였다.

Ⅲ. 연구결과

1. 연구대상자의 일반적 특성

연구대상자의 일반적 특성은 <Table 1>과 같다. 실험군과 대조군은 각각 32명(50%)이었으며 실험군의 연령은 22.6세, 대조군의 연령은 22.8세로 나타났다. 실험군은 2학년이 14명(43.8%)으로 가장 많았으며 대조군은 3학년이 16명(50.0%)으로 가장 많았다. 선호하는 교육 방법으로 가장 높은 빈도를 나타낸 것은 시뮬레이션 교육으로 실험군은 20명(62.5%), 대조군은 13명(40.6%)이었다. 가상현실 교육 선호는 실험군 4명(12.5%), 대조군 5명(15.6%)이 선호하였다. 과거 가상현실 교육경험 여부는 실험군과 대조군 모두 없었다.

2. 일반적 특성에 따른 경험인식 비교

일반적 특성에 따라 경험인식을 비교한 결과는 <Table 2>와 같다. 연구 대상자들의 성별(p=.292), 학년(p=.999), 선호하는 교육 방법(p=.590)에 따른 경험인식은 유의한 차이를 보이지 않았다.

3. 실험군과 대조군의 경험인식 비교

실험군과 대조군의 경험인식을 비교한 결과는 <Table 3>과 같다. 경험인식의 총점은 실험군이 4.0점, 대조군이 3.8점으로 유의한 차이를 보였다(p=.047). 경험인식 항목을 살펴본 결과, 현전감(p=.004), 환상적 요소(p=.016), 도전적 요소(p=.049)에서 실험군의 점수가 높았으며 유의한 차이를 보였다.

4. 실험군의 경험인식의 상관관계

실험군의 경험인식의 상관관계를 살펴본 결과는 <Table 4>와 같다. 360° 가상현실 동영상으로 교육한 군에서 현존감과 생생함(r=.716, p=.000), 몰입(r=.774, p=.000)은 강한 상관관계를 보였으며 현존감과 경험(r=.443, p=.011), 환상적 요소(r=.522, p=.002), 도전적 요소(r=.528, p=.002), 콘텐츠 만족도(r=.574, p=.001)에는 유의한 양의 상관관계를 보였다.

5. 대조군의 경험인식의 상관관계

대조군의 경험인식의 상관관계의 결과는 <Table 5>와 같다. 일반 동영상으로 교육한 군에서 현존감과 생생함(r=.407, p=.021), 몰입(r=.444, p=.011), 환상적 요소(r=.477, p=.006)는 유의한 양의 상관관계를 보였다.

Ⅳ. 고 찰

이 연구는 심정지 상황을 경험하기 위한 교육콘텐츠로 360° 가상현실 동영상과 일반 동영상을 제공하고 일반인이 느끼는 경험인식을 비교하였다. 심정지 상황의 경험인식 관련성을 분석한 결과 일반 동영상 교육군보다 360° 가상현실 동영상 교육군이 현존감과 생생함, 몰입 사이에 강한 상관관계를 보였다. 현존감은 시간과 공간으로 멀리 떨어진 환경을 가상의 동영상으로 제공할 때, 거기에 존재하는 듯한 느낌을 느끼거나 제공되는 매체를 실제 경험으로 느끼는 주관적인 인식이다[10,15]. 생생함은 감각적 재현정보를 제공할 때 얼마나 생생하고 풍부하게 제공하는지 나타내는 것이다[10].
현존감에 영향을 미치는 요인으로 첫째 실물감이 있다[16]. 실물감은 개발된 영상의 입체감이 잘 구현될수록 현존감을 높이는데 중요한 역할을 한다[16]. 어린이들에게 수술 전 수술실을 360° 가상현실 동영상으로 4분간 제공하고 불안을 측정한 결과 생생함과 몰입이 높았고 수술실 환경을 미리 경험하게 하여 대상자의 불안(m-YPAS; modified Yale Preoperative Anxiety Scale)을 감소시켰다[17]. 실험군의 불안 점수 중앙값은 31.7(23.3-37.9)점이었고 대조군은 51.7(28.3-63.3)점으로 현저하게 감소시켰다[17].
이 연구는 360° 카메라를 이용하여 실제 환경에서 목격할 수 있는 심정지 상황을 컴퓨터 그래픽이 아닌 동영상으로 촬영하고 연구 대상자들에게 제공하였다. 이렇게 제공한 360° 가상현실 동영상은 컴퓨터 프로그래밍으로 제작된 그래픽보다 생생함이 잘 구현될 수 있었으며 현존감에 강한 연관성을 주었을 것이다.
심정지 상황을 HMD를 착용하여 가상현실로 시청하는 것은 생생한 몰입감을 가져왔다. 선행연구에도 HMD와 헤드폰을 같이 착용하는 몰입형 가상현실은 TV 시청보다 분리된 어떤 세계에 들어간다는 듯한 격리된 현존감이 높아질 수 있으며[18,19], 몰입형 가상현실은 실제적인 시각을 완전히 가상 환경으로 대체한다는 점에서 대형 입체영상을 통해 느낄 수 있는 영상과는 다른 것으로 경험된다[19]. 결국 3차원 동영상은 2차원적 동영상 매체의 경험보다 실제의 시각적 입체감으로 지각되며 가상현실 동영상에 대해 강한 공간감을 느낄 수 있다[19]. 이러한 내용을 종합하면 360° 카메라를 이용하여 제작된 360° 가상현실 동영상은 일반 동영상에 비해 생생함과 시청각적 입체감을 잘 구현할 수 있으며 HMD 착용으로 격리된 몰입감인 여기에 존재하는 듯한 현존감을 높이는데 영향을 주었을 것으로 판단된다. 이는 360° 가상현실 동영상이 주는 생생함을 통해 실제 현실과 같은 경험이 가능하다는 것을 증명한 것이다[20].
360° 가상현실 동영상 교육과 일반 동영상 교육의 경험인식을 비교한 결과, 360° 가상현실 동영상 교육의 경험인식이 4.04점으로 일반 동영상의 3.08점에 비해 높았다. 경험인식의 하위요인 중 현존감, 환상적 요소, 도전적 요소가 유의하게 높았다. 초등학생을 대상으로 가상현실의 경험인식을 비교한 선행연구에서도 일반적인 교육에 비해 가상현실 또는 실감가상현실 교육을 시행한 학생들이 경험학습에 영향을 받았으며 학업 성취도가 향상되었다[20]. 이러한 결과는 일반 동영상 교육군은 심정지 상황을 3인칭 시점으로 심정지 환자를 관찰함에 반해 360° 가상현실 교육 군은 1인칭 시점으로 환자의 반응과 호흡을 직접 평가함으로써 현존감에 유의한 차이를 나타낸 것으로 생각된다. 결국 이러한 시점의 변화는 실제 내가 그곳에 존재하는 듯한 현존감에 영향을 주었고 재미에 영향을 주는 ‘성취하는 듯한 느낌’인 도전적 요소와 ‘주인공이 된 듯한 느낌’인 환상적 요소를 더 강하게 느꼈을 것으로 생각된다. 이러한 내용을 종합하면 360° 카메라로 촬영 시 실제 현실 사례에 맞추어 시청각적 생생함을 높여 개발한다면 이동과 촉각적 상호작용이 없이도 여기에 있는 듯한 경험인식이 가능할 것이다.
현존감에 영향을 미치는 요인 중 두 번째는 사용자와의 상호작용이다[10,11]. 매체와 사용자간의 이동 및 촉각에 대한 상호작용이 높을수록 현존감에 높은 영향을 준다[10,11]. 선행연구에서 학습자에게 일방향으로 정보를 제공하는 일반 동영상과 ‘클릭’을 통해 학습자와 상호작용을 할 수 있는 텍스트 매체를 비교한 결과 ‘클릭’을 통한 상호작용이 가능한 텍스트 매체가 학습자에게 높은 영향을 보였다[21]. 매체와 학습자간의 상호작용이 향상될수록 현존감에 높은 영향을 준다는 것을 증명한 것이다. 현재 개발되고 있는 가상현실은 상호작용을 높일 수 있는 컨트롤러를 사용하거나 제어장치 등을 이용하여 가상의 공간에서 제어할 수 있도록 개발이 이루어지고 있다. 이 연구에 활용된 360° 가상현실 동영상은 360° 카메라로 촬영되었으며 현존감에 영향을 주는 사용자와 매체간의 상호작용의 영향력이 배제된 시청각적 동영상이다. 그럼에도 불구하고 360° 가상현실 동영상은 경험인식에 강한 관련성을 보였으며 직접 경험하는 듯한 현존감에 높은 영향을 주었다. 이러한 결과는 상호작용을 배제한 360° 가상현실 동영상을 통해서도 경험인식이 가능하며 360° 카메라를 이용하여 교수자가 원하는 응급 사례 영상을 맞춤형으로 개발할 수 있는 것을 의미한다.
이 연구는 교육매체 간 경험인식을 비교한 연구로 몇 가지 제한점을 가진다. 첫째, 경험인식의 평가를 동영상을 시청한 직후 평가하고 장기적인 경험인식에 대하여 분석하지 못하였다. 둘째, 경험인식을 평가할 때 주관적인 설문조사로 평가하였다. 향후 진행될 연구는 360° 가상현실 동영상과 경험인식간의 관련성을 객관적인 측정 도구를 이용하여 평가하고 360° 가상현실 동영상을 개발하는데 표준적인 기준을 도출하고자 한다.

Ⅴ. 결론 및 제언

심정지 상황을 시청할 때 360° 가상현실 동영상은 일반 동영상에 비해 여기에 존재하는 듯한 현존감과 경험인식 요인 간에 강한 관련성을 보였다. 일반 동영상은 3인칭 시점으로 환자를 관찰함에 반해 360° 가상현실은 1인칭 시점으로 반응과 호흡을 직접 평가하여 현존감에 차이를 보였다. 따라서 360° 가상현실 카메라를 이용하여 교수자 맞춤형 영상을 개발하고 교육을 진행할 수 있도록 적극적인 도입이 필요하다.

Fig. 1.
Flow sheet of the study.
kjems-23-3-145f1.jpg
Table 1.
General characteristics of subjects (N=64)
Characteristics Intervention group (N=32)
Control group (N=32)
N (%) or mean±SD N (%) or mean±SD
Age 22.69±1.82 22.88±1.79
Gender Male 20 (52.5%) 20 (52.5%)
Female 12 (37.5%) 12 (37.5%)
Grade Grade 2 14 (43.8%) 15 (46.9%)
Grade 3 13 (40.6%) 16 (50.0%)
Grade 4 5 (15.6%) 1 (1.6%)
Preference for teaching method Lecture 1 (3.1%) 4 (12.5%)
Video 7 (21.9%) 10 (31.3%)
Simulation 20 (62.5%) 13 (40.6%)
Virtual reality 4 (12.5%) 5 (15.6%)
Past VR* experience Yes. 0 (0.0%) 0 (0.0%)
No. 32 (100.0%) 32 (100.0%)

* VR : Virtual reality

Table 2.
Comparison of experience recognition according to general characteristics (N=64)
Variables Experience recognition (mean±SD) p
Gender Male 3.97±0.52 .292
Female 3.84±0.39
Grade Grade 2 3.85±0.08 .999
Grade 3 3.97±0.09
Grade 4 4.01±0.25
Preferred teaching method Lecture 3.96±0.11 .590
Video 3.92±0.12
Simulation 3.92±0.09
Virtual reality 3.91±0.10
Table 3.
Comparison of experience recognition in intervention and control group (N=64)
Variables Intervention group (N=32)
Control group (N=32)
p
(mean±SD) (mean±SD)
Experience recognition 4.04±0.49 3.80±0.45 .047
Presence 3.64±0.71 3.17±0.50 .004
Vividness 4.04±0.66 3.77±0.67 .105
Flow 4.03±0.64 3.72±0.61 .061
Experience 4.28±0.72 4.06±0.71 .230
Fantastic factor 3.91±1.02 3.28±0.99 .016
Challenging factor 4.20±0.59 3.90±0.58 .049
Contents satisfaction 4.40±0.49 4.15±0.62 .080
Simulator sickness 2.04±0.91 1.78±0.94 .267
Table 4.
Correlation of experience recognition in intervention group (N=64)
Presence Vividness Flow Experience Fantastic factor challenging factor Contents satisfaction Simulator sickness
Presence 1
Vividness .716** 1
Flow .774** .757** 1
Experience .443* .641** .391* 1
Fantastic factor .522** .719** .717** .338 1
Challenging factor .528** .673** .459** .572** .614** 1
Contents satisfaction .574** .741** .670** .601** .525** .720** 1
Simulator sickness -.129 .028 .101 -.099 .027 -.184 -.045 1

* p< .05,

** p< .01

Table 5.
Correlation of experience recognition in control group (N=64)
Presence Vividness Flow Experience Fantastic factor challenging factor Contents satisfaction Simulator sickness
Presence 1
Vividness .407* 1
Flow .444* .689** 1
Experience .117 .266 .428* 1
Fantastic factor .477** .730** .530** .156 1
Challenging factor .256 .743** .578** .513** .406* 1
Contents satisfaction .159 .713** .453** .408* .377* .740** 1
Simulator sickness .158 -.085 -.171 -.391* .137 -.270 -.139 1

* p< .05,

** p< .01

References

1. Milgram P, Kishino F. A Taxonomy of Mixed Reality Visual Displays. IEICE TRANSACTIONS on Information and Systems 1994;E77-D(12):1321-9

2. Milgram P, Colquhoun H. A taxonomy of real and virtual world display integration. Mixed reality: Merging real and virtual worlds 1999;1:1-26
crossref
3. Park IU, Ryu JH, Cho YS, Son MH, Jang JH. Understanding and educational use of Augmented Reality and Virtual Reality Content. Korea Education and Research Information Service (KERIS). PM 2017-8. Available at: https://www.keris.or.kr/main/ad/pblcte/selectPblcteETCInfo.do?mi=1142&pblcteSeq=12235.

4. Cho E.S.. Future Educational Environment Based on Educational Technology Perspective. Journal of Educational Technology 2015;31(3):687-708. https://doi.org/10.17232/KSET.31.3.687

5. Dewey J. Experience and thinking. Democracy and Education: Free Press. Collier-MacMillan Ltd, 1916. 139-51.

6. Dunleavy M. Design principles for augmented reality learning. TechTrends 2014;58(1):28-34. https://doi.org/10.1007/s11528-013-0717-2
crossref pdf
7. Andreatta PB, Maslowski E, Petty S, Shim W, Marsh M, et al. Virtual reality triage training provides a viable solution for disaster‐preparedness. Academic Emergency Medicine 2010;17(8):870-6. https://doi.org/10.1111/j.1553-2712.2010.00728.x
crossref pmid
8. Kim DY, Huh JR, Lee JD, Bhang KJ. Implementation of virtual reality for interactive disaster evacuation training using close-range image information. Journal of the Korean Association of Geographic Information Studies 2019;22(1):140-53. https://doi.org/10.11108/kagis.2019.22.1.140

9. Jung EK, Choi SS, Jung JY. Comparison of educational interest, satisfaction, and achievements of educational virtual reality and videos education before simulation training. Korean J Emerg Med Ser 2018;22(2):93-102. https://doi.org/10.14408/KJEMS.2018.22.2.093

10. Steuer J. Defining virtual reality: Dimensions determining telepresence. Journal of Communication 1992;42(4):73-93. https://doi.org/10.1111/j.1460-2466.1992.tb00812.x
crossref
11. Kwon C. Verification of the possibility and effectiveness of experiential learning using HMD-based immersive VR technologies. Virtual Reality 2019;23(1):101-18. https://doi.org/10.1007/s10055-018-0364-1
crossref pdf
12. Jung EK. The development and effectiveness of cardiac arrest recognition training contents using virtual reality. Unpublished doctoral dissertation. Chonnam National University 2019, Gwangju, Korea.

13. Perkins GD, Walker G, Christensen K, Hulme J, Monsieurs KG. Teaching recognition of agonal breathing improves accuracy of diagnosing cardiac arrest. Resuscitation 2006;70(3):432-7. https://doi.org/10.1016/j.resuscitation.2006.01.015
crossref pmid
14. Kye BK. Investigation on the relationships among media characteristics, presence, flow, and learning effects in augmented reality based learning. Multimedia and E-Content Trends Vieweg+ Teubner 2008;21-37. https://doi.org/10.1007/978-3-8348-9313-0_3

15. Grady DJ. A critical review of the application of Kolb’s experiential learning theory applied through the use of computer based simulations within virtual environments 2000-2016. State University of New York at Albany: ProQuest Dissertations Publishing, 2017. 10282034.

16. Yang HC, Chung DH. Influence of 3D characteristics perception on presence, and presence on visual fatigue and perceived eye movement. Journal of Broadcast Engineering 2012;17(1):60-72. https://doi.org/10.5909/JEB.2012.17.1.60
crossref pdf
17. Ryu JH, Park SJ, Park JW, Kim JW, Yoo HJ, Kim TW, et al. Randomized clinical trial of immersive virtual reality tour of the operating theatre in children before anaesthesia. British Journal of Surgery 2017;104(12):1628-33. https://doi.org/10.1002/bjs.10684
crossref pmid
18. Witmer BG, Singer MJ. Measuring presence in virtual environments: A presence questionnaire. Presence 1998;7(3):225-40. https://doi.org/10.1162/105474698565686
crossref
19. Park MJ, Lee BJ. The Features of VR (virtual reality) Communication and the aspects of its experience. Institute of Communication Research, Seoul National University. Journal of Communication Research 2004;41:29-60

20. Kwon C. Verification of the possibility and effectiveness of experimental learning using HMD-based immersive VR technologies. Virtual Reality 2019;23:101-18. https://doi.org/10.1007/s10055-018-0364-1
crossref pdf
21. Shin NM. Telepresence and learners` perceptions of interface: do they affect on cyber-course evaluation and learning activities. Educational Technology International 2005;21(3):215-40. https://doi.org/10.17232/KSET.21.3.215
crossref


ABOUT
ARTICLE CATEGORY

Browse all articles >

BROWSE ARTICLES
AUTHOR INFORMATION
Editorial Office
Department of Emergency Medical Services, Kangwon National University
346, Hwangjo-gil, Dogye-eup, Samcheok-si, Gangwon-do, 25949, Republic of Korea
Tel: +82-33-540-3342    Fax: +82-33-540-3349    E-mail: kjems119@naver.com                

Copyright © 2024 by The Korean Society of Emergency Medical Service.

Developed in M2PI

Close layer
prev next