2.1 관련 데이터셋

CVRR-HANDS 3D[1], VIVA-Hands[2], Driver MH[3]데이터 셋은 주로 인간-기계 상호 작용을 위한 손 제스처 인식 연구를 용이하게 하기 위해 설계된 데이터들이다. 운전자의 운전 능력과 관련이 깊은 손 위치를 감지하는 데 사용되었다. #없어도 될 듯?

Ohn-bar[4][5]데이터 셋은 운전자의 상태를 식별하는 데 사용할 수 있는 손 활동 및 자세를 연구에 사용되었다. 운전자의 얼굴과 머리 정보 또한 머리 자세, 시선 방향, 피로 및 감정과 같은 운전자의 상태를 식별하는 데 매우 중요한 단서를 제공한다. # good?

DD-Pose[6], Drive A Head[7]데이터 셋은 역할(Rol e), 간격(pitch) 및 머리 자세 주석을 제공하며, 이외에도 330,000개 이상의 6DOF 머리 자세 측정, 추가 실내 카메라의 이미지는 운전자 카메라 이미지와 함께 제공 및 GPS 위치, 스티어링 휠 각도 및 차량 동역학은 운전 상태에 대한 더 많은 정보를 제공합니다. #없어도 괜춘?

A Ground-Truth Data[8], Dr(eye)VE[9], DADA [10]데이터 셋은 눈동자 추적 주석을 제공합니다. 운전자가 어디에 주의를 기울이고 있는지를 식별하는 데 도움이 되었고, 이와 더불어 DrivFace[11] 데이터셋과 같이 차량 내부 디자인과 함께 사용되었다.

다음으로 운전자의 신체의 행동에 중점을 둔 데이터 셋이다.

AUC Distracted Driver(AUC DD)[12]데이터 셋은 운전자의 행동을 캡처하기 위해 측면 카메라를 사용되었다. 이미지 기반이며 중요한 시간 정보가 부족하다는 한계점이 있었다. # 전자의 행동? 이건 측면카메라? 없없어 될 듯

Drive&act[13]데이터 셋은 자율 주행 시나리오를 위해 주체가 산만과 관련된 행동을 수행하는 5개의 NIR 카메라로 녹화되었다. # 괜춘

StateFarm[14]데이터 셋은 운전자의 몸의 행동에 중점을 둔 첫 번째 이미지 기반 데이터 셋이다. 안전한 운전과 9가지 추가 산만한 행동 클래스를 포함하였지만

이미지 기반이며 중요한 시간 정보가 부족하다는 한계점이 있었다. # 괜춘 AUC DD[15]데이터 셋은 중요한 시공간 정보의 중요성을 조사하였고, AUC Distracted Driver 데이터셋에 대한 간단하게 수정된 정보를 제공합니다.# 뺴도 될 듯

3.1 TSN

이에 따라 증강시킨 폭행데이터의 이미지 snippets과 비폭행데이터의 이미지 snippets을 활용하여 모델을 학습시켰다. 학습을 위한 하이퍼파라미터는 batchsize = # , learning rate= # , Loss function: #, 그리고 opti mizer는 # 으로 설정하였고 성능을 위한 지표로는 los s , accuarcy를  사용하였다.