J Appropr Technol > Volume 11(3); 2025 > Article
비전 AI 적정 세이프 팩토리 모듈 연구

Abstract

산업안전은 현장의 지속가능성과 생산성을 좌우하는 핵심 요소이다. 최근 ICT 기반 산업안전 기술이 활발히 개발되고 있으나, 인프라 부족과 비용 부담으로 인해 산업 현장의 디지털 전환은 여전히 제약을 받고 있다. 본 연구는 ICT 기반 스마트 산업안전 기술의 확산을 촉진하기 위한 방안으로 저비용 엣지 컴퓨터와 오픈소스 소프트웨어(OSS)를 활용한 비전 AI 기반 적정 세이프 팩토리 모듈을 설계 및 구현하였다. 대상 공정은 석유화학 공정용 배관 용접 공정으로, 개인보호구(PPE) 안전조끼와 헬맷 미착용과 고위험 자세인 넘어짐을 동시에 인식하는 복합 안전 관리 기능을 제공하는 것을 목표로 한다. 제안된 모듈은 대표적인 소형 엣지 컴퓨터인 Raspberry Pi 5와 현장 설치가 용이한 돔형 웹캠으로 구성되어 120달러의 비용으로 구축되었다. 또한, 개발 과정에서 저사양 컴퓨팅 환경에서도 실시간 검출 성능을 확보할 수 있는 Open Neural Network Exchange (ONNX) 형식 변환 등 최적화 기법을 적용하였다. 연구 결과, 제안된 모듈은 온프레미스 기반 온디바이스 추론을 통해 중소기업 환경에서도 기술 수용성과 보안성을 높이고, 실질적인 안전 관리 수준 향상을 달성할 수 있는 적정 스마트 산업안전 기술로 활용 가능함을 확인하였다.

Industrial safety is a critical factor determining the sustainability and productivity of on-site operations. Although Information and Communications Technology (ICT)-based industrial safety technologies have been actively developed recently, the digital transformation of industrial sites is still constrained by insufficient infrastructure and high costs. This study designs and implements an Appropriate Safe Factory Module based on Vision AI, utilizing low-cost edge computing and Open Source Software (OSS) to promote the dissemination of ICT-based smart industrial safety technology. The target process is the pipeline welding process for petrochemical facilities, and the module aims to provide advanced safety management capabilities by simultaneously detecting non-wearing of Personal Protective Equipment (PPE) (safety vests and helmets) and the high-risk posture of falling. The proposed module consists of a Raspberry Pi 5, a representative small-scale edge computer, and an easy-to-install dome-shaped webcam, constructed for $120. Furthermore, optimization techniques, such as conversion to the Open Neural Network Exchange (ONNX) format, were applied during development to maintain real-time detection performance (1-5 fps) even in a low-spec computing environment. The research results confirm that the proposed module can be used as an appropriate smart industrial safety technology that enhances technological acceptability and security through on-premises, on-device inference in small and medium-sized enterprise (SME) environments, thereby achieving a practical improvement in safety management.

서론

산업안전은 작업자의 생명과 건강을 보호하는 기본적 권리일 뿐만 아니라, 기업의 지속 가능성과 생산성을 좌우하는 핵심 요소이다. 그러나 최근 정부 통계에 따르면 스마트 공장의 도입이 확대되고 있음에도 불구하고, 산업 재해는 증가 추세를 보인다(Ministry of Employment and Labor, 2025). 이는 산업 디지털 전환(Digital transformation, DX)의 확산이 근로자의 안전에 직접적으로 적용되는 데 어려움이 있음을 시사한다. 특히, 산업의 다수를 구성하는 중소기업에서는 비용, 인력, 기술 등의 한계로 인해 최신 안전 기술의 도입을 주저하거나 어려움을 겪고 있다. 대한상공회의소(Korea Chamber of Commerce & Industry, KCCI)에서 수행한 ‘국내 기업의 AI 기술 활용 실태 조사’ 결과에 따르면, 기업들이 기술 도입을 꺼리는 주된 이유는 Fig. 1과 같이 ‘기술 및 IT 인프라 부족’(34.6%), ‘비용 부담’(23.1%), ‘필요성을 못 느낌’(21.9%), ‘신뢰성에 대한 의문’(10.1%), ‘인력 부족’(6.1%) 순으로 나타났다(KCCI, 2024). 이는 단순히 최신 ICT의 기능적 탁월함만으로는 실질적인 기술의 도입을 유도하기 어려움을 보여주며, 기술 이외의 경제성, 활용성, 제도적 지원 등 다양한 부분에서 지원이 필요한 것으로 확인되었다.
한편, 정보통신기술(Information and Communication Technology, ICT)은 4차 산업혁명의 핵심 기술로서, 최근 스마트 안전 관리 시스템 구축에 ICT를 접목하려는 시도가 활발히 이루어지고 있다. ICT 기반의 스마트 산업안전 기술은 다양한 기계와 설비가 밀집되어 사고 발생 가능성이 높은 스마트 팩토리 등 제조 산업 현장에서 안전 관리의 자동화 및 효율화를 통해 사고를 예측 및 예방할 수 있다. 더욱이 ESG(Environment, Society, Governance) 평가 관점에서 ICT 기반의 안전 관리 체계와 ESG 대응 전략을 통합적으로 설계함으로써 지속 가능하고 생산성이 높은 스마트 팩토리를 구축할 수 있다(Kim et al., 2023). 산업안전을 위한 ICT 핵심 구성요소는 Fig. 2와 같다.
IoT는 물리적인 사물에 센서를 내장하고 무선 통신 기술을 통해 이들을 상호 연결하는 기술로써, SoC(System on Chip) 기술과 접목하여 데이터 처리 기능이 내장된 스마트 센서는 IIoT(Industrial IoT) 환경에서 지능적이고 체계적인 안전 관리를 위해 사용된다(Urbina et al., 2019; Li et al., 2022). 빅데이터(Big Data)는 기존의 데이터 처리 방식으로 감당이 어려운 방대한 양의 데이터를 말하며, 클라우드(Cloud)는 이러한 빅데이터를 저장하고 처리하기 위한 가상화 기반의 IT 인프라이다. AI는 문제를 인식하고 자율적으로 해결 방안을 도출하는 기술로써, 산업 현장의 스마트 센서에서 제공하는 데이터를 기반으로 학습하여 설비 예지보전의 기능을 수행하거나, 고위험 작업 조건을 조기에 인식하여 작업 일정의 자동 조정 및 위험 완화 조치의 수행 등 자율적 안전 대응이 가능하여 최신 안전 기술로 각광을 받고 있다(Fazle et al., 2023). 디지털 트윈(Digital Twin)은 현실 세계의 물리적 시스템을 정밀하게 복제한 가상 모델로, 작업자와 관리자 모두가 실제 데이터 기반의 안전 대응 체계를 실시간으로 운영할 수 있도록 지원하고(Kim et al., 2024; Kwon et al., 2025). XR 기술은 가상현실(VR, Virtual Reality), 증강현실(AR, Augmented Reality), 혼합현실(MR, Mixed Reality)을 포괄하는 개념으로써, 고위험 산업 현장에서 가상 환경에서 작업자가 점검 및 훈련을 직접 수행하고, 원격 협업을 통해 전문가의 실시간 지도를 받도록 지원하여 작업자의 작업 숙련도 향상과 사고 대응 능력 개선에 기여한다(Coupry et al., 2024).
본 논문은 산업 현장의 안전 강화를 위한 ICT 기반 스마트 산업안전 기술의 최근 사례 분석을 통해 기술 도입과 확산 촉진을 위한 개선 방안을 도출하고, 이를 활용한 석유화학 공정용 배관 용접 공정에서 개인보호구인 안전조끼와 헬맷 미착용과 고위험 자세인 넘어짐을 동시에 인식하는 복합 안전 관리 기능을 탑재한 비전 AI 기반의 적정 세이프 팩토리 모듈을 제안한다. 이를 통해, 제한된 환경의 중소기업에서도 새로운 안전 관리 패러다임을 도입하고, 실질적인 산업안전 향상을 시도할 수 있는 적정 세이프 팩토리 구현 방안을 제시하고자 한다.

이론적 배경

1. 적정 스마트 제조

ICT 기술의 발전에도 불구하고, 대다수의 중소제조기업은 기술 역량 및 투자 여력 부족으로 인해 스마트 팩토리 구축에 어려움을 겪으며 DX에서 뒤처지고 있다(Rauch & Vickery, 2020; Kim et al., 2022). 이러한 문제를 해결하고 기술 격차를 해소하기 위해 적정 스마트 제조(Appropriate Smart Manufacturing)가 주요 동향으로 부상하고 있다. 적정 스마트 제조는 투자 여력이 낮고 노동집약적인 중소기업 환경에 초점을 맞추어, 이들의 기술 수준에 부합하는 저비용, 고효율의 솔루션을 제공함으로써 실질적인 디지털화 및 스마트 전환을 지원하는 데 중점을 둔다. Kwon et al. (2021)은 중소기업의 한계점을 고려하여 필수성(Essential), 예산 수용성(Affordable), 단순성(Simple), 호환성(Interoperable)의 4가지 핵심 요소글 기반으로 맞춤형 스마트 제조 개념과 구현 전략을 제한했다. Jung et al. (2025)는 중소의류기업의 봉재 공정으로 대상으로 불량 검출에 사용될 수 있는 데이터셋을 제안하고 이를 활용한 모델 학습 및 선정 방법을 제안하였다. 한편, 산업안전에 대해서는 Kwon et al. (2021)은 작업자 신체 접근, 누전 및 과전류, 고온에 의한 화재 및 화상, 유해물질 배출에 대한 적정 스마트 공장 기반의 산업재해 방지 기술을 실증하였다. Park et al. (2024)은 CutMix 기반의 합성 증강(synthetic augmentation) 기법과 사물 인식 모델인 YOLO를 사용하여 데이터 부족 문제를 해결하고 작업자의 손 검출 모델의 성능을 향상시키는 방법을 제안하였다. 사례 분석을 통해, 제조 공정 및 안전을 위한 적정 스마트 제조 접근이 시도된 것이 확인되었으나, 현장 작업자 안전에 필수적인 개인보호구와 낙상과 같은 자세 인식에 대한 적정한 방법은 아직 제시되지 않아 추가적인 연구가 필요한 상황이다.

2. 지능형 영상 분석

지능형 영상 분석 기술은 영상 내 정보를 분석하여 자동으로 이상 행위를 탐지하는 기술이다. 이 기술은 제조 현장의 다양한 안전사고를 예방하는 데 활용된다. 예를 들어, AI 기반 객체 탐지 기술(YOLO, R-CNN 등 객체 탐지 모델 이용)을 접목하여 작업자의 현장 내 위치 현황을 실시간으로 파악하고 이에 따른 중장비 사고 등의 중대 재해를 예방한다(Bae et al., 2025). Fig. 3과 같이 작업자의 개인보호구(Personal Protective Equipment, PPE) 착용 여부는 건설 현장에서 딥러닝 기반 객체 탐지를 통해 확인이 가능하다(Lee, 2023; Wang et al., 2023; Aydin & Bulut, 2019). 또한 신속한 감지와 높은 정확도를 위해, Ahn et al. (2023)은 공장 환경에서 여러 대의 카메라가 제공하는 이미지 프레임을 통한 비전 기반 지능형 안전 모니터링 시스템 구축을 제안하였다. 특히 지능형(스마트) CCTV는 이러한 기술의 대표적인 적용 사례로, 머신러닝 등의 ICT 요소를 접목하여 비전 기반 안전 모니터링을 자동화한다(Seong & Jung, 2019).

연구 방법

본 장은 비전 AI 기반 적정 세이프 팩토리 모듈의 제안을 위해 ICT 기반 스마트 산업안전 기술의 확산 한계점을 분석하고, 이를 기반으로 중소기업과 같이 인력, 자원, 투자 여력 등이 제한된 산업 환경에서 도입이 쉬운 비전 AI 기반 적정 세이프 팩토리 모듈을 제안한다.

1. 스마트 산업안전 기술 확산 한계점 분석

본 절에서는 적정 스마트 제조 동향에 추가하여 최근 스마트 산업안전 기술 확산의 장애 요인을 분석하고, 이를 기반으로 적정 세이프 팩토리 모듈 구성에 참고할 수 있는 개선 방안을 도출한다.

1.1. 도입 비용 부담 및 활용도 부족

일반적으로 ICT 기반 산업안전 기술은 센서, AI, 디지털 트윈 등 첨단 기술이 동반되므로 기술, 인프라의 고도화와 함께 높은 도입 비용이 요구된다. 또한, 중소기업에서는 ICT에 대한 기본 지식과 활용 사례의 부족으로 최신 기술에 대한 신뢰도와 이해도가 낮아 활용에 더욱 어려움을 겪는다.
따라서, ICT 기반 산업안전 기술의 도입 및 확산을 위해서 저비용 센서 기반 맞춤형 데이터 수집 및 모니터링 기술, OSS(Open Source Software) 및 소규모 엣지 컴퓨터 기반 모듈 구성, 소규모 데이터를 활용하기 위한 데이터 증강 기법(합성 증강 등) 등의 적극적인 도입이 필요하다(Kwon et al., 2021; Kim, 2022; Park et al., 2024). 이를 바탕으로 기업에서 단계별 도입 전략 수립 및 작업자 친화적이며 적합한 솔루션을 모색하고, 시범 프로젝트의 시행을 통한 시행착오와 성공을 바탕으로 기술에 대한 신뢰도도 확충할 수 있을 것이다.

1.2. 기술 표준화 부족

스마트 산업안전 기술의 산업 현장 보급에 있어 상호운용성(interoperatability)의 확보는 시급한 문제로 인식되지만, 이를 지원하기 위한 표준화된 방안은 미비한 실정이다. 이에 따라 제조사와 개발사 간의 다른 인터페이스 및 프로토콜로 인해, 기술력이 부족한 기업들의 턴키(turn-key) 방식의 상업적 솔루션에 의존하거나 솔루션 도입 자체를 주저하게 된다.
따라서, 이러한 호환성 문제를 해결하기 위해서는 정부와 산업계가 주도하여 기술 통합과 상호운용성 강화를 위한 표준 규격을 개발하고, 이를 통해 다양한 산업안전 기술과 시스템이 손쉽게 통합 및 운영될 수 있는 시장을 조성해야 한다.

1.3. 데이터 보안 위험

스마트 센서는 작업장 및 작업자에 대한 데이터를 수집할 수 있지만, 외부 통신망과 클라우드 기반 시스템이 주도하는 ICT 생태계 특성상 보안 및 IT 전문가가 부재한 대부분의 중소기업은 데이터 보안에 대한 우려로 인해 ICT 인프라에 대한 활용에 회의적인 편이다(National Assembly Research Service, 2022).
이를 해결하기 위해 데이터 암호화 및 데이터 접근 권한 관리를 위한 산업안전 데이터 보안 표준과 점검 방법에 대한 개발이 필요하다. 또한, 클라우드 도입에서 겪는 진입 장벽을 낮추는 방안으로 온프레미스(on-premises) 기반의 사용자 현장에서 운영될 수 있는 산업안전 솔루션의 개발을 활성화하여, 스마트 산업안전 기술에 대한 도입 및 활용성에 대한 역량 강화를 지원할 필요가 있다.

2. 비전 AI 적정 세이프 팩토리 모듈 사양 설계

본 절에서는 앞서 제안된 스마트 산업안전 기술의 확산 방안을 바탕으로, 수요기업인 석유화학 공정용 배관 용접 라인에서 요구되는 작업자 저비용 센서 기반 맞춤형 데이터 수집 및 모니터링 기술과 OSS 및 소규모 엣지 컴퓨터 기반 모듈 구성, 온프레미스 형태 운영을 기반으로 한 비전 AI 적정 세이프 팩토리 모듈의 사양을 제안한다.

2.1. 적용 대상 환경

본 연구에서 고안하는 비전 AI 적정 세이프 팩토리 모듈은 기존 적정 스마트 제조 관련 연구에서 다루어지지 않은 현장 작업자의 안전에 초점을 둔다. 대상 공정은 전남 여수시 소재의 석유화학 배관 용접 기업의 요구사항을 기반으로 한다. 배관 용접 공정에서 현장 작업자의 신체적 위험을 보호하기 위해서는 개인보호구 착용 여부 확인과 낙상 사고 시 즉시 대응을 위한 자세 모니터링이 핵심 안전 기능으로 수집이 되었다. 그리고 개인보호구는 안전조끼와 헬멧에 대한 인식으로 수요가 확인이 되었다.

2.2. 하드웨어 사양 선정

비전 AI 기반 적정 세이프 팩토리 모듈은 앞서 말한 도입 비용 부담을 해결하기 위해 소규모 엣지 컴퓨터로 구성하였으며, 이를 위해 필수적인 하드웨어는 소규모 엣지 컴퓨터와 카메라이다. 하드웨어의 선정을 위해서 본 연구는 엣지 컴퓨터 기반 모듈 구현에 대한 사례를 조사하여 참고하였으며, 엣지 컴퓨터와 카메라가 산업안전 측면에서 실용 가능한지 확인하였다. 예를 들어, Savaram et al. (2025)는 Raspberry Pi(RPI)를 기반으로 YOLO 모델별 건설 현장 안전 강화를 위한 안전모 탐지 자동화 시스템을 구현하여 건설 현장에 대한 실시간 안전 모니터링이 가능함을 보였다.
본 연구에서는 선행 연구 사례 조사를 통해 엣지 컴퓨터는 저비용이면서 최신 모듈인 Raspberry Pi 5로 정하였다. 카메라는 기업이 독자적으로 설치 및 운용이 가능하도록 별도의 전원이나 소프트웨어가 요구되지 않는 USB 연결 및 PnP(Plug and Play) 방식의 모듈을 탐색하였다. 이때, 대부분의 구조물에 탈부착이 용이하고 별도의 도구 없이 좌우회전 및 상하틸팅이 자유로운 형태 등 산업안전 분야에서 활용도를 강화하기 위한 부수 조건을 추가로 설정하였다. 마지막으로, RPI 5 모델과 직접 연결하여 호환 인식이 잘 이루어지는지 확인하였고, 여러 개의 카메라 모듈 중 ELP 사의 USB 카메라를 선정하여 최종 카메라 사양을 확정하였다.

2.3. 소프트웨어 기능 선정

작업자의 불안전한 행동(unsafe act)는 산업안전사고 발생의 직접적인 원인으로 작용한다. 본 연구는 작업자의 대표적인 불안전한 행동인 PPE의 착용 불량과 고위험 자세를 대상으로 각각 탐지에 적합한 OSS 기반 비전 AI 알고리즘을 탐색하여 적용하였다. 우선 PPE 탐지에 대해, 주요 PPE인 헬멧과 안전조끼를 탐지 대상으로 설정하였으며, 이들은 형상 및 색상에 대한 규칙성이 있어 객체 탐지 기술 기반 AI 알고리즘인 YOLOv11n 모델을 선정하였다. 또한 고위험 자세 인식에 대해, 주요 고위험 자세인 넘어짐(낙상)을 인식 대상으로 설정하였으며, 시간의 흐름에 따른 작업자의 자세 변화를 실시간으로 정확히 인식할 수 있어야 하기에 자세 좌표 추출에 특화된 알고리즘인 Mediapipe 모델과 순차 데이터 처리를 위해 LSTM(Long Short-Term Memory) 모델을 선정하였다.

2.4. 데이터셋 및 학습 환경

선정된 모델에 대한 추가 학습은 수요기업에서 데이터 제공에 어려움이 있어 공개 데이터셋을 사용하였다. PPE 탐지 모델은 HardHat-Vest 데이터셋을 사용하였으며, 이의 구성은 Table. 1과 같다. 자세 인식 모델은 Fall Video의 Fall 3,140개의 영상과 No_Fall 3,848개의 영상을 사용하였다(Charoensri, 2025). 영상 데이터는 클래스별 7:1.5:1.5 비율로 분할하여 train, val, test 세트로 구성하였고, 영상에서 프레임별 작업자의 33개 관절의 3차원 위치 정보를 추출한 후 LSTM 모델을 바탕으로 학습을 수행하였다.
Fig. 4는 HardHat-Vest 데이터셋 이미지의 사례를 보여준다.
Table 2는 모델 학습을 위한 하드웨어 및 소프트웨어 사양을 보여준다. YOLO 모델은 PyTorch를 통해 구현하였고 LSTM 모델은 TensorFlow를 통해 구현하였다.
Table 3은 두 모델의 학습에 사용된 하이퍼파라미터이다. YOLO 모델은 defalt 설정값인 SGD를 옵티마이저로 사용하였고, LSTM 모델은 옵티마이저를 Adam으로 두어, 작은 배치 크기에 대해서도 안정적인 학습이 가능하도록 하였다.

구현 및 평가

본 장에서는 시제품 평가를 통해 그 효용성을 확인한다. 본 연구는 중소기업의 관점에서 스마트 산업안전 기술의 도입 및 활용을 제약하는 주요 어려움을 해소하고 산업 현장 전반의 안전 수준을 향상하고자 함을 목적으로 한다.

1. 시작품 모듈 구현

비전 AI 적정 세이프 팩토리 모듈의 구현을 위해 선정한 RPI 5와 USB 카메라를 연결하였다. 또한, 혹시 모를 발열에 따른 성능 감소 방지를 위해 팬케이스를 추가하여 Fig. 5과 같이 구성하였다. 시작품 구성에 사용된 총 비용은 약 120달러이며, 소프트웨어는 오픈소스를 사용하여 추가 비용은 없다. 이후 소프트웨어 모듈을 배포하여 작동이 가능하도록 환경 라이브러리(ultralytics, mediapipe 등)를 버전에 맞게 구축하였다. 입력 영상의 품질의 경우 카메라가 최대 FHD까지 지원하지만, 실시간 측면에서 해상도와 빠른 fps가 모두 요구되므로, HD로 설정하였다.

2. 평가 방법

2.1. 모델별 성능 평가 방법

PPE 탐지 모델은 Precision, Recall, mAP50, mAP50-95를 성능 평가 지표로 사용하였다. Precision과 Recall 지표를 통해 PPE 탐지 성능의 수준을 평가하고, mAP 계열 지표를 통해 IoU(Intersection over Union)에 따른 PPE 위치 정확도 및 검출 안정성을 검증하였다. 자세 인식 모델은 Accuracy, Precision, Recall, F1-Score를 성능 평가 지표로 사용하였다. Precision과 Recall의 균형을 F1-Score를 통해 넘어짐 자세 미감지 확률을 최소화하고자 하였다.

2.2. 통합 성능 평가 방법

엣지 컴퓨터 모듈의 추론 성능을 종합적으로 평가하기 위한 방법은 다음과 같다. 첫 번째로, 헬멧, 안전조끼를 착용하지 않은 상태에서 넘어지고 있는 작업자의 영상을 모듈에 입력한다. 두 번째로, 모듈의 실시간 추론을 거쳐 PPE 착용 여부, 작업자의 자세 상태, 작업자의 관절 등이 표시되어 출력된 결과를 바탕으로 모델의 기능이 적절히 수행되고 있는지 확인한다. 세 번째로, 출력된 영상에 표시된 평균 추론 속도(ms) 및 fps를 통해 산업안전 측면에서 실용 가능한지를 평가하였다(Feng at al., 2022).

3. 평가 결과 및 분석

3.1. 모델별 성능 평가 결과

Table 4는 PPE 탐지 모델의 성능 평가 결과이다. test 이미지 2,455장에 대해 Precision: 0.897, Recall: 0.830, mAP50: 0.891, mAP50-95: 0.605를 달성하였다. Helmet과 Person에 대해 안정적인 PPE 탐지 성능을 확인하였으며, 상대적으로 train 이미지의 수가 적은 Vest에 대해서도 현장 적용이 충분히 가능한 성능을 보였다.
Table 5는 자세 인식 모델의 성능 평가 결과이다. 두 클래스 모두 높고 균형적인 Precision 및 Recall을 기록하였고, 전체 accuracy는 0.958로 모델이 안정적으로 넘어짐 자세를 인식하고 있음을 확인하였다. 이는 산업안전 측면에서 실시간 고위험 자세 인식 가능성이 높음을 보인다.

3.2. 종합 성능 평가 결과

구현 및 평가를 통해, Fig. 6과 같이 헬멧과 안전조끼를 착용하지 않음과 넘어지는 순간에 대해 그 자세가 인식됨을 확인하였다. 이를 통해 모듈의 소프트웨어 기능으로 정의된 PPE 착용 유무와 작업자의 자세에 대한 인식 모델 성능을 확인하였다. 하지만, 실행 과정에서 추론 시간은 1526 ms로 관측되었고, 최대 fps도 1 미만으로 실시간 추론이 어려운 것으로 확인이 되었다.

4. 모델 형식 변환을 통한 추론 속도 개선

ONNX(Open Neural Network Exchange)는 서로 다른 프레임워크 간 호환성을 높이고 모델의 상호 운용성을 강화하기 위한 머신 러닝 모델을 표현하기 위한 개방형 표준 형식이다. 본 연구에서는 인식 모델의 추론 속도를 개선하기 위해 모델의 학습 가중치 파일 포맷을 ONNX 형식으로 변환하였다. 또한, 입력 크기에 따른 모델의 연산량 변화를 확인하고 적정한 수준을 선정하기 위해 입력 이미지의 크기는 기존 1280×1280에 더하여, 640×640과 480×480을 설정하였다.
3.2절의 평가 결과와 비교하여, ONNX 형식 사용에 따른 입력 이미지 크기별 평가 결과는 Table 6과 같다. ONNX 형식을 적용할 때, 같은 이미지 크기인 1280×1280에서 추론 속도는 74% 향상되었다. 또한 기존 이미지 크기인 1280×1280과 비교하여 640×640 크기에서 추론 속도는 135% 향상되었으며, 480×480 크기에서는 189% 향상되었다.
모델 형식 변환 후에도 Fig. 7과 같이 PPE 및 작업자의 자세는 동일한 수준으로 감지가 됨을 확인하였다.

결론

본 연구는 디지털 전환의 시대에 맞추어 산업안전 패러다임의 변화에 따라 ICT 기반의 스마트 산업안전 기술의 도입이 이루어지고 있음을 동향 분석을 통해 확인하였다. 스마트 산업안전 기술을 통해 작업 현장의 안정성과 효율성을 동시에 향상하려는 노력이 있지만, 중소기업에서 이의 도입에 많은 어려움을 겪고 있음을 보였다. 이에 따라 스마트 산업안전 기술 확산의 장애 요인을 크게 세 가지로 분석하고 이를 개선하는 방안을 제안한 후, 직접 비전 AI 적정 세이프 팩토리 모듈을 구성하여 효용성을 확인하였다.
해당 모듈은 작업자에 대해 PPE 미착용과 고위험 자세를 동시에 인식하여 잠재적인 위험 요인 및 사고 발생에 신속하게 대응할 수 있다. 초기 모듈이 산업안전 측면에서 낮은 추론 속도를 보였으나, ONNX 사용 등의 최적화 방안 적용에 따라 성능 개선이 가능함을 보였다. 중소기업 대상 적정화 관점에서 저비용 하드웨어 및 OSS 기반 엣지 컴퓨터의 환경에서도 실시간 비전 모니터링을 통해 복합적인 안전 관리를 수행할 수 있음을 확인하였다. 특히 해당 모듈은 온프레미스 운영 기반으로 외부 서버와 연결 없이 온디바이스 추론을 통해 기술 수용성 및 보안성을 높일 수 있다. 따라서 해당 모듈과 같이, 적정 스마트 안전기술의 도입과 확산을 통해 중소기업에서도 안전관리 수준을 실질적으로 향상할 수 있음을 기대한다.

Notes

사사

이 연구는 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(No. RS-2021-NR061901). 초기 연구 방향을 탐색하는 데 도움을 준 안지현 연구원에게 감사드립니다.

Figure 1.
KCCI survey results on AI unused for Korean companies
jat-2025-00787f1.jpg
Figure 2.
ICT core technologies for industrial safety
jat-2025-00787f2.jpg
Figure 3.
Example of YOLO-based PPE detection model
jat-2025-00787f3.jpg
Figure 4.
Sample image in HardHat-Vest dataset
jat-2025-00787f4.jpg
Figure 5.
Vision AI appropriate safe factory module
jat-2025-00787f5.jpg
Figure 6.
Test result of the trained model
jat-2025-00787f6.jpg
Figure 7.
Test result using ONNX format
jat-2025-00787f7.jpg
Table 1.
Classification of HardHat-Vest Dataset by class
Class Train Val Test Total
All 17,248 2,438 2,455 22,141
Helmet 12,333 1,782 1,822 15,937
Vest 3,096 406 440 3,942
Head 5,810 712 713 7,235
Table 2.
Specifications of computing hardware and software used for learning the models
Item Specification
CPU Intel® i7-14700F
System memory 32GB
Operating system Microsoft Windows 11 Professional
GPU NVIDIA GeForce RTX 4060 Ti
Software library CUDA 11.8, cuDNN 8.6.0, Python 3.9.6, TensorFlow 2.10.1, and PyTorch 2.1.2
Table 3.
Hyperparameters used for traing the models
Hyperparameter YOLO LSTM
Learning rate 0.01 0.001
Batch size 32 16
Number of epochs 100 40
Optimizer SGD Adam
Table 4.
Evaluation results for the PPE detection model
Class Images Precision Recall mAP50 mAP50-95
All 2,455 0.897 0.830 0.891 0.605
Helmet 1,822 0.947 0.857 0.900 0.674
Vest 440 0.823 0.763 0.842 0.608
Person 713 0.921 0.872 0.905 0.533
Table 5.
Evaluation results for the posture recognition model
Class Videos Precision Recall F1-score Accuracy
Fall 471 0.961 0.945 0.953 0.958
No_Fall 578 0.956 0.969 0.962 0.958
Table 6.
Evaluation results using ONNX and different image size
Case study Avg_infer_time (ms) Avg_fps Max_fps
No_ONNX with 1280x1280 1525.59 0.66 0.69
ONNX with 1280x1280 876.70 1.14 1.23
ONNX with 640x640 373.79 2.68 3.55
ONNX with 480x480 303.53 3.30 4.78

References

Ahn, J., Park, J., Lee, S. S., Lee, K. H., Do, H., and Ko, J. (2023). Safefac: video-based smart safety monitoring for preventing industrial work accidents. Expert Syst Appl, 215, pp. 119397.
crossref
Aydin, M. Z., Bulut, B. HardHat-Vest Dataset [Internet]. Kaggle; 2019 [cited 2025 Nov 29]. Available from: https://www.kaggle.com/datasets/muhammetzahitaydn/hardhat-vest-dataset-v3.
Bae, J. S., and et al (2025). Study on a risk zone access detection system for preventing safety accidents based on video data. Kor J Comput Des Eng, 30(2), pp. 151-159.
crossref
Charoensri, P. Fall Video Dataset [Internet]. Kaggle; 2025 [cited 2025 Nov 29]. Available from: https://www.kaggle.com/datasets/payutch/fall-video-dataset.
Contreras, Aguilar D., Medina, F., Oyanedel, M., Salamó, M., Sànchez-Marrè, M. (2024). SAMANTHA: a chatbot to assist users in training tasks to prevent workplace hazards. In: Proceedings of the XXIV International Conference on Human Computer Interaction; Jun; pp. 1-8.
Coupry, C., Richard, P., Bigaud, D., Noblecourt, S., Baudry, D. (2024). The value of extended reality techniques to improve remote collaborative maintenance operations: a user study. Preprint. arXiv:2403.05580.
Fazle, A. B., Prodhan, R. K., and Islam, M. M. (2023). AI-powered predictive failure analysis in pressure vessels using real-time sensor fusion: enhancing industrial safety and infrastructure reliability. Am J Sch Res Innov, 2(2), pp. 102-134.
Feng, H., Mu, G., Zhong, S., Zhang, P., and Yuan, T. (2022). Benchmark analysis of YOLO performance on edge intelligence devices. Cryptography, 6(2), pp. 16.
crossref
Jung, W. K., Kang, J., Kwon, W., and Kim, H. (2025). StitchingNet and deep transfer learning method for sewing stitch defect detection. J Comput Des Eng, 12(4), pp. 140-154.
crossref pdf
Kim, D., Yeo, W., and Shin, Y. (2024). A study on AI application methods in intelligent manufacturing: development of an integrated monitoring system using digital twin technology. J Soc Disaster Inf, 20(4), pp. 786-796.
Kim, H., Lee, H., and Ahn, S. H. (2022). Systematic deep transfer learning method based on a small image dataset for spaghetti-shape defect monitoring of fused deposition modeling. J Manuf Syst, 65, pp. 439-451.
crossref
Kim, H., Quan, Y., Jung, G., and et al (2023). Smart factory transformation using Industry 4.0 toward ESG perspective: a critical review and future direction. Int J Precis Eng Manuf Smart Technol, 1(2), pp. 165-185.
crossref pdf
Kim, H. (2022). Open-source software for developing appropriate smart manufacturing technology for small and medium-sized enterprises (SMEs). J Appropr Technol, 8(3), pp. 109-116.
crossref pdf
Kwon, K. K., Jeong, W. K., Kim, H., Quan, Y. J., Kim, Y., Lee, H., and et al (2021). Appropriate smart factory: demonstration of applicability to industrial safety. J Appropr Technol, 7(2), pp. 196-205.
crossref pdf
Kwon, W., Yang, J., Song, S., Lee, J., and Kim, H. (2025). Real-time digital-twin-based cobot-worker collision risk prediction using Unity, ROS, and UWB. IEEE Access.
Lee, H. (2023). A Study on the Application of Deep Learning for Real-time Detection of Construction Workers Safety Helmets. Kor. J. Comput. Design Eng, 28(4), pp. 377-384.
crossref
Li, Z., Fei, F., and Zhang, G. (2022). Edge-to-cloud IIoT for condition monitoring in manufacturing systems with ubiquitous smart sensors. Sensors (Basel), 22(15), pp. 5901.
crossref pmid pmc
Ministry of Employment and Labor. Industrial Accident Status Analysis [Internet]. Ministry of Employment and Labor; 2025 [cited 2025 Apr]. Available from:https://www.index.go.kr/unity/potal/main/EachDtlPageDetail.do?idx_cd=1514.
National Assembly Research Service. Institutional support measures for expanding the use of smart safety technology. Seoul: National Assembly Research Service; 2022. Report No.: Issue and Analysis 2022-54.
Park, S. Y., Kim, H., and Ahn, S. H. (2024). Hand-monitoring system using cutmix-based synthetic augmentation for safety in factories. IEEE Access, 12, pp. 27661-27672.
crossref
Rauch, E., and Vickery, A. R. (2020). Systematic analysis of needs and requirements for the design of smart manufacturing systems in SMEs. J Comput Des Eng, 7(2), pp. 129-144.
crossref pdf
Savaram, S., Goutham, K., and Venkatasubramanian, K. (2025). Comparative analysis of YOLO models for real-time safety helmet detection to enhance construction site safety using Raspberry Pi. In: 2025 International Conference on Next Generation Communication & Information Processing (INCIP); Jan; pp. 513-518. IEEE.
Seong, Y. H., and Jung, K. (2019). A study on the applications of information and communication technology for 4th industrial revolution in safety and health of workers. J Korea Saf Manag Sci, 21(4), pp. 17-23.
The Korea Chamber of Commerce and Industry and Korea Institute for Industrial Economics & Trade. Survey on the status of AI technology utilization by domestic companies [Internet]. The Korea Chamber of Commerce and Industry; 2024 [cited 2025 Apr]. Available from:https://www.korcham.net/nCham/Service/Economy/appl/KcciReportDetail.asp?SEQ_NO_C010=20120938915&CHAM_CD=B001.
Urbina, M., Acosta, T., Lázaro, J., Astarloa, A., and Bidarte, U. (2019). Smart sensor: SoC architecture for the industrial Internet of Things. IEEE Internet Things J, 6(4), pp. 6567-6577.
crossref
Wang, Z., Cai, Z., and Wu, Y. (2023). An improved YOLOX approach for low-light and small object detection: PPE on tunnel construction sites. J Comput Des Eng, 10(3), pp. 1158-1175.
crossref pdf


ABOUT
BROWSE ARTICLES
EDITORIAL POLICY
FOR CONTRIBUTORS
Editorial Office
5F, 109-ho, 39, Seocho-daero 77-gil, Seocho-gu, Seoul, Republic of Korea
Tel: +82-31-206-0226    E-mail: editor.ejat@gmail.com                

Copyright © 2026 by Academic Society for Appropriate Technology.

Developed in M2PI

Close layer
prev next