topics 객체 감지 객체 감지란 무엇인가요?
IBM 객체 감지 솔루션 살펴보기 AI 업데이트 신청
픽셀화된 컬러 이미지

게시일: 2024년 1월 3일
기고자: Jacob Murel Ph.D., Eda Kavlakoglu

객체 감지는 신경망을 사용해 이미지에서 객체의 위치를 파악하고 분류하는 기술입니다. 이 컴퓨팅 비전 작업은 의료 영상부터 자율 주행 자동차에 이르기까지 다양한 분야에 적용되고 있습니다.

객체 감지는 디지털 이미지에서 객체의 위치를 찾는 컴퓨팅 비전 작업입니다. 따라서 이는 특히 의미론적 카테고리에 따라 객체를 인식하고 분류하여 인간처럼 보도록 컴퓨터를 훈련하는 것으로 구성된 인공 지능의 한 예입니다.1 객체 위치 파악은 경계 상자를 사용해 객체를 구분하여 이미지에서 객체의 위치를 파악하는 기술입니다. 객체 분류는 감지된 객체가 어느 카테고리에 속하는지 결정하는 또 다른 기술입니다. 객체 감지 작업은 객체 위치 파악과 분류의 하위 작업을 결합하여 하나 이상의 이미지에서 객체 인스턴스의 위치와 유형을 동시에 추정합니다.2

컴퓨팅 비전 작업

객체 감지는 다른 컴퓨팅 비전 기술과 겹치지만, 그래도 개발자들은 이를 별개의 작업으로 취급합니다.

이미지 분류(또는 이미지 인식)는 정의된 카테고리에 따라 이미지를 분류합니다. 이에 대한 쉬운 예로는 이미지 그룹을 정지 신호가 있는 이미지와 없는 이미지로 구성할 수 있는 CAPTCHA 이미지 테스트를 들 수 있습니다. 이미지 분류는 전체 이미지에 하나의 레이블을 할당합니다.

이에 비해 객체 감지는 지정된 카테고리에 따라 이미지 내의 개별 객체를 묘사합니다. 이미지 분류는 정지 표지판이 있는 이미지와 없는 이미지를 구분하는 반면, 객체 감지는 이미지 내의 모든 도로 표지판과 자동차 및 사람과 같은 다른 객체를 찾아 분류합니다.

이미지 분할(또는 의미론적 분할)은 객체 감지와 비슷하지만 더 정확합니다. 객체 감지와 마찬가지로 분할은 의미론적 카테고리에 따라 이미지의 객체를 묘사합니다. 그러나 분할은 상자를 사용하여 객체를 표시하는 것이 아니라, 픽셀 수준에서 객체를 구분합니다.

Presto 학습 및 운영

데이터 분석을 위한 오픈 소스 SQL 엔진인 Presto를 시작하는 방법에 대해서는 무료 O'Reilly eBook을 살펴보세요.

관련 내용

책임감 있는 AI 워크플로에 대한 eBook 등록하기

객체 감지의 작동 방식

객체 감지의 내부 메커니즘을 이해하려면 컴퓨팅 비전과 디지털 이미지 처리의 기초를 알아야 합니다. 이 섹션에서는 일반적인 개요를 제공합니다.

이미지 처리

컴퓨팅 비전에서 이미지는 f(x,y)로 표시되는 2D 좌표 평면에서 연속 함수로 표현됩니다. 이미지가 디지털화돨 때 샘플링과 양자화라는 두 가지 주요 프로세스를 거치는데, 간단히 말해 연속 이미지 함수를 픽셀 요소의 불연속 격자 구조로 변환하는 과정입니다. 그런 다음 컴퓨터는 시각적 유사성과 픽셀의 근접성에 따라 이미지를 개별 영역으로 분할할 수 있습니다.3

사용자는 주석 인터페이스를 사용하여 이미지에 라벨을 지정함으로써 특정 객체를 특정 픽셀 수준의 특징(예: 면적, 회색 값 등) 영역으로 정의할 수 있습니다. 객체 감지 모델은 입력 이미지가 주어지면 학습 데이터 세트에 정의된 것과 유사한 특징을 가진 영역을 동일한 객체로 인식합니다. 패턴 인식의 한 형태인 객체 감지는 이러한 방식으로 작용합니다. 객체 감지 모델은 객체 자체를 인식하는 것이 아니라 크기, 모양, 색상 등과 같은 속성의 집합을 인식하고 수동으로 주석이 달린 학습 데이터에서 추론된 시각적 패턴에 따라 영역을 분류합니다.4

예를 들어 자율 주행 차량의 객체 감지 모델은 보행자를 인식하는 것이 아니라 보행자 객체를 특징짓는 일반적인 패턴을 형성하는 특징들(학습 데이터에 정의된 대로)을 인식합니다.

모델 아키텍처

모델 제품군마다 다른 아키텍처를 사용하지만, 객체 감지를 위한 딥 러닝 모델은 일반적으로 백본, 넥, 헤드로 구성되는 구조를 따릅니다.

백본은 입력 이미지에서 특징을 추출합니다. 백본은 사전 학습된 분류 모델의 일부에서 파생되는 경우가 많습니다. 특징 추출은 백본이 넥으로 전달하는 다양한 해상도의 수많은 특징 맵을 생성합니다. 구조의 후반부는 각 이미지의 특징 맵을 연결합니다. 그런 다음 아키텍처는 계층화된 특징 맵을 헤드로 전달하여 각 특징 집합의 경계 상자와 분류 점수를 예측합니다.

2단계 감지기는 헤드에서 객체의 위치 파악과 분류를 분리하고, 1단계 감지기는 이러한 작업을 결합합니다. 전자는 일반적으로 더 높은 위치 파악 정확도를 반환하는 반면, 후자는 더 빠르게 수행됩니다.5

평가 메트릭

교집합(IoU)은 객체 감지 모델에서 사용되는 일반적인 평가 메트릭입니다. 경계 상자는 모델에서 예측한 대로 감지된 객체의 경계를 나타내는 사각형 아웃풋입니다. IoU는 두 경계 상자의 교집합 면적(즉, 상자의 겹치는 부분의 면적)과 합집합 면적(즉, 두 상자의 총 면적을 합한 면적)의 비율을 계산합니다.6

이 방정식은 다음과 같이 시각화할 수 있습니다:

모델은 IoU를 사용하여 예측된 상자와 실측 데이터 상자 간의 IoU를 계산해 예측 정확도를 측정합니다. 모델 아키텍처는 또한 IoU를 사용하여 최종 경계 상자 예측을 생성합니다. 모델은 처음에 감지된 단일 객체에 대해 수백 개의 경계 상자 예측을 생성하는 경우가 많으므로, 모델은 IoU를 사용하여 감지된 객체당 경계 상자 예측의 가중치를 부여하고 단일 상자로 통합합니다.

객체 감지 모델의 다른 평가에는 다른 메트릭을 사용할 수 있습니다. 일반화된 교집합(GIoU)은 기본 IoU가 여전히 null 값을 반환할 수 있는 객체 위치 파악의 개선을 설명하는 수정된 버전의 IoU입니다.7 객체 감지 연구에서도 평균 정밀도 및 재현률과 같은 일반적인 정보 검색 메트릭을 사용합니다.

객체 감지 알고리즘 및 아키텍처

객체 감지 작업에는 다양한 머신 러닝 접근 방식이 있습니다. 비올라-존스 프레임워크8와 방향성 그라데이션 히스토그램9이 그 예입니다. 그러나 최근의 객체 감지 연구 및 개발은 주로 컨볼루션 신경망(CNN)에 초점을 맞추고 있습니다. 따라서 이 페이지에서는 객체 감지 연구에서 가장 많이 논의되는 두 가지 유형의 CNN에 중점을 둡니다. 이러한 모델은 Microsoft COCO 데이터 세트 또는 ImageNet과 같은 벤치마크 데이터 세트를 사용하여 테스트하고 비교합니다.

R-CNN(영역 기반 컨볼루션 신경망)은 이미지당 2,000개의 영역 예측을 생성하기 위해 영역 제안이라는 방법을 사용하는 2단계 감지기입니다. 그런 다음 R-CNN은 추출된 영역을 균일한 크기로 워핑하고 해당 영역을 별도의 네트워크를 통해 실행하여 특징을 추출하고 분류합니다. 각 영역은 분류의 신뢰도에 따라 순위가 매겨집니다. 그런 다음 R-CNN은 점수가 높은 선택된 영역과 특정 IoU가 겹치는 영역을 거부합니다. 나머지 비중첩 영역 및 최상위 분류 영역이 모델의 아웃풋입니다.10 예상대로 이 아키텍처는 계산 비용이 많이 들고 느립니다. Fast R-CNN과 Faster R-CNN은 R-CNN 아키텍처의 크기를 줄여 처리 시간을 단축하고 정확도를 높이는 수정 버전입니다.11

YOLO(You Only Look Once)는 오픈 소스 CNN 프레임워크인 Darknet을 기반으로 하는 단일 단계 탐지 아키텍처 제품군입니다. 2016년에 처음 개발된 YOLO 아키텍처는 속도를 우선시합니다. 실제로 YOLO는 속도가 빨라 실시간 객체 감지에 적합하며, 최첨단 객체 감지기의 대명사로 불리고 있습니다. YOLO는 여러 면에서 R-CNN과 다릅니다. R-CNN은 개별적으로 특징을 추출하고 이미지를 분류하는 여러 네트워크를 통해 추출된 이미지 영역을 보내는 반면, YOLO는 이러한 작업을 단일 네트워크로 압축합니다. 또한 R-CNN가 최대 2,000개의 영역 제안을 갖는 데 비해 YOLO는 이미지당 100개 미만의 경계 상자 예측을 수행합니다. YOLO는 R-CNN보다 빠를 뿐만 아니라 위치 파악 오차가 더 크지만, 배경 거짓 긍정이 적습니다.12 YOLO는 처음 출시된 이후 속도와 정확성에 중점을 두고 많은 업데이트가 이루어졌습니다.13

원래 객체 감지용으로 개발되었지만, 최신 버전의 R-CNN과 YOLO는 분류 및 세분화 모델도 학습할 수 있습니다. 특히 Mask R-CNN은 객체 감지와 분할을 모두 결합하는 반면, YOLOv5는 별도의 분류, 감지 및 분할 모델을 학습할 수 있습니다.

물론 R-CNN과 YOLO 외에도 다른 모델 아키텍처가 많이 있습니다. SSD와 Retinanet은 YOLO와 유사한 단순화된 아키텍처를 사용하는 두 가지 추가 모델입니다.14 Facebook(현재 Meta)에서 개발한 또 다른 아키텍처인 DETR은 CNN을 변환기 모델과 결합하고 Faster R-CNN과 비슷한 성능을 보여줍니다.15

사용 사례 예시

많은 사용 사례에서 객체 감지는 그 자체로 끝나는 것이 아니라 더 큰 컴퓨팅 비전 작업의 한 단계입니다.

자율 주행

자율 주행 자동차는 자동차 및 보행자와 같은 객체를 인식하기 위해 객체 감지 기능을 널리 채택하고 있습니다. 테슬라의 오토파일럿 AI가 그 예입니다. YOLO 및 SimpleNet과 같은 단순한 아키텍처가 빠른 속도를 제공하므로 자율 주행에 더 적합합니다.16

의료 영상

객체 감지는 비전 검사 작업에 도움이 될 수 있습니다. 예를 들어, 다수의 객체 감지 연구는 엑스레이 및 MRI 스캔과 같은 의료 이미지에서 질병의 생리적 지표를 식별하기 위한 메트릭과 모델을 조사합니다. 해당 질병에 대한 의료 이미지가 부족하기 때문에 이 분야에서는 데이터 세트 불균형을 개선하는 데 많은 연구가 집중되어 있습니다.17

보안

비디오 감시에서는 실시간 객체 감지 기능을 사용하여 보안 카메라 영상에서 총 또는 칼과 같은 범죄 관련 객체를 추적할 수 있습니다. 보안 시스템이 이러한 객체를 탐지함으로써 범죄 예측 및 예방을 강화할 수 있습니다. 연구진은 R-CNN과 YOLO를 모두 사용하는 총기 탐지 알고리즘을 개발했습니다.18

최근 연구

많은 도메인별 데이터 세트에는 긍정적인 샘플보다 부정적인 샘플(즉, 관심 객체가 없는 이미지)이 훨씬 많기 때문에 불균형한 데이터 세트는 객체 감지 작업을 저해하는 문제 중 하나입니다. 이는 질병에 대한 긍정 샘플을 획득하기 어려운 의료 영상에서 특히 문제가 됩니다. 최근 연구에서는 제한된 데이터 세트를 데이터 증강을 활용해 확장하고 다양화하여 모델 성능을 개선합니다.19

과거의 객체 감지 기술 개발은 주로 2D 이미지에 집중되어 있었습니다. 최근 들어 연구자들은 3D 이미지와 비디오를 위한 객체 감지 애플리케이션으로 눈을 돌리고 있습니다. 모션 블러와 카메라 초점 이동은 비디오 프레임에서 객체를 식별하는 것을 어렵게 만듭니다. 연구진은 이러한 조건에서도 여러 프레임에서 객체를 추적하는 데 도움이 되는 다양한 방법과 아키텍처를 탐색해 왔는데, 여기에는 순환 신경망 아키텍처의 장단기 메모리(LSTM)20와 변환기 기반 모델 등이 있습니다.21 변환기 실시간 감지 작업에서 객체 감지 모델의 속도를 높이는 데 활용되고 있습니다. 이러한 노력에서 주목할 만한 또 하나의 연구 분야는 병렬 처리 기술입니다.22

관련 리소스 레이블이 지정되지 않은 비디오를 사용한 자체 지도 객체 감지 및 검색

IBM 연구진은 수동 라벨링 없이도 객체를 감지하고 검색할 수 있는 비지도 방식을 제안합니다.

컴퓨팅 비전 소개

IBM 개발자는 이미지 및 비디오의 객체 감지를 포함하여 컴퓨팅 비전 작업에 대한 개요를 제공합니다.

게이트 기능 재사용으로 처음부터 객체 감지 개선

IBM 연구진은 1단계 객체 감지기를 처음부터 직접 학습시킬 수 있는 간단하고 매개변수 효율적인 드롭인 모듈을 제시합니다.

Python에서 YOLOv8 객체 감지 모델 학습

사전 학습된 객체 감지 모델을 미세 조정합니다.

다음 단계 안내

하나의 협업 AI 및 데이터 플랫폼인 IBM watsonx에서 비즈니스를 위한 AI 전략을 구축하세요. AI 모델을 학습, 검증, 조정 및 배포하여 비즈니스 전반에 걸쳐 신뢰할 수 있는 데이터를 통해 AI의 영향을 확장하고 가속화할 수 있습니다.

watsonx 살펴보기 라이브 데모 예약하기
각주

1 Bogusław Cyganek, Object Detection and Recognition in Digital Images: Theory and Practice, Wiley, 2013.

2 Kemal Oksuz, Baris Can Cam, Sinan Kalkan, and Emre Akbas, "Imbalance Problems in Object Detection: A Review," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 43, No. 10, 2021, pp. 3388-3415, https://ieeexplore.ieee.org/document/9042296 (ibm.com 외부 링크).

3 Archangelo Disante and Cosimo Disante, Handbook of Image Processing and Computer Vision, Vol. 1, Springer, 2020. Milan Sonka, Vaclav Hlavac, and Roger Boyle, Image Processing, Analysis, and Machine Vision, 4th edition, Cengage, 2015.

4 Archangelo Disante and Cosimo Disante, Handbook of Image Processing and Computer Vision, Vol. 3, Springer, 2020. Milan Sonka, Vaclav Hlavac, and Roger Boyle, Image Processing, Analysis, and Machine Vision, 4th edition, Cengage, 2015.

5 Benjamin Planche and Eliot Andres, Hands-On Computer Vision with TensorFlow 2, Packt Publishing, 2019. Van Vung Pham and Tommy Dang, Hands-On Computer Vision with Detectron2, Packt Publishing, 2023.  Licheng Jiao, Fan Zhang, Fang Liu, Shuyuan Yang, Lingling Li, Zhixi Feng, Rong Qu, "A survey of deep learning-based object detection," IEEE Access, Vol. 7, 2019, pp. 128837-128868, https://ieeexplore.ieee.org/document/8825470 (ibm.com 외부 링크). Richard Szeliski, Computer Vision: Algorithms and Applications, 2nd edition, Springer, 2021.

6 Richard Szeliski, Computer Vision: Algorithms and Applications, 2nd edition, Springer, 2021.

7 Hamid Rezatofighi, Nathan Tsoi, JunYoung Gwak, Amir Sadeghian, Ian Reid, and Silvio Savarese, "Generalized intersection over union: A metric and a loss for bounding box regression," Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019,pp. 658-666, 여기에서 액세스 가능 (ibm.com 외부 링크).

8 P. Viola and M. Jones, "Rapid object detection using a boosted cascade of simple features," Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2001, https://ieeexplore.ieee.org/document/990517 (ibm.com 외부 링크).

9 N. Dalal and B. Triggs, "Histograms of oriented gradients for human detection," Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2005, pp. 886-893, https://ieeexplore.ieee.org/document/1467360 (ibm.com 외부 링크).

10 Ross Girshick, Jeff Donahue, Trevor Darrell, and Jitendra Malik, "Rich feature hierarchies for accurate object detection and semantic segmentation," Proceedings of the 2014 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2014, https://arxiv.org/abs/1311.2524 (ibm.com 외부 링크).

11 Ross Girschick, "Fast R-CNN," Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV), 2015, pp. 1440-1448, https://arxiv.org/abs/1504.08083 (ibm.com 외부 링크). Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun, "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks," Advances in Neural Information Processing Systems (NIPS 2015), Vol. 28, https://proceedings.neurips.cc/paper_files/paper/2015/hash/14bfa6bb14875e45bba028a21ed38046-Abstract.html (ibm.com 외부 링크).

12 Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi, "You Only Look Once: Unified, Real-Time Object Detection," 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 779-788, https://arxiv.org/abs/1506.02640 (ibm.com 외부 링크).

13 Joseph Redmon and Ali Farhadi, "YOLOv3: An Incremental Improvement," 2018, https://arxiv.org/abs/1804.02767 (ibm.com 외부 링크). Alexey Bochkovskiy, Chien-Yao Wang, and Hong-Yuan Mark Liao, "YOLOv4: Optimal Speed and Accuracy of Object Detection," European Conference on Computer Vision, 2020, https://arxiv.org/abs/2004.10934 (ibm.com 외부 링크). Xin Huang, Xinxin Wang, Wenyu Lv, Xiaying Bai, Xiang Long, Kaipeng Deng, Qingqing Dang, Shumin Han, Qiwen Liu, Xiaoguang Hu, Dianhai Yu, Yanjun Ma, and Osamu Yoshie, "PP-YOLOv2: A Practical Object Detector," 2021, https://arxiv.org/abs/2104.10419 (ibm.com 외부 링크). Chien-Yao Wang, Alexey Bochkovskiy, and Hong-Yuan Mark Liao, "YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors," 2022, https://arxiv.org/abs/2207.02696 (ibm.com 외부 링크).

14 Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, and Alexander C. Berg, "SSD: Single Shot MultiBox Detector," Proceedings of the European Conference of Computer Vision (ECCV), 2016, pp. 21-37, https://arxiv.org/abs/1512.02325 (ibm.com 외부 링크). Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollár, "Focal Loss for Dense Object Detection," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 42, No. 2, 2020, pp. 318-327, https://arxiv.org/abs/1708.02002 (ibm.com 외부 링크).

15 Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko, "End-to-End Object Detection with Transformers," Proceedings of the European Conference of Computer Vision (ECCV), 2020, https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123460205.pdf (ibm.com 외부 링크).

16 Abhishek Balasubramaniam and Sudeep Pasricha, "Object Detection in Autonomous Vehicles: Status and Open Challenges," 2022, https://arxiv.org/abs/2201.07706 (ibm.com 외부 링크). Gene Lewis, "Object Detection for Autonomous Vehicles," 2016, https://web.stanford.edu/class/cs231a/prev_projects_2016/object-detection-autonomous.pdf (ibm.com 외부 링크).

17 Trong-Hieu Nguyen-Mau, Tuan-Luc Huynh, Thanh-Danh Le, Hai-Dang Nguyen, and Minh-Triet Tran, "Advanced Augmentation and Ensemble Approaches for Classifying Long-Tailed Multi-Label Chest X-Rays," Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV) Workshops, 2023, pp. 2729-2738, https://openaccess.thecvf.com/content/ICCV2023W/CVAMD/html/Nguyen-Mau_Advanced_Augmentation_and_Ensemble_Approaches_for_Classifying_Long-Tailed_Multi-Label_Chest_ICCVW_2023_paper.html (ibm.com 외부 링크). Changhyun Kim, Giyeol Kim, Sooyoung Yang, Hyunsu Kim, Sangyool Lee, and Hansu Cho, "Chest X-Ray Feature Pyramid Sum Model with Diseased Area Data Augmentation Method," Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV) Workshops, 2023, pp. 2757-2766, https://openaccess.thecvf.com/content/ICCV2023W/CVAMD/html/Kim_Chest_X-Ray_Feature_Pyramid_Sum_Model_with_Diseased_Area_Data_ICCVW_2023_paper.html (ibm.com 외부 링크).

18 Palash Yuvraj Ingle and Young-Gab Kim, "Real-Time Abnormal Object Detection for Video Surveillance in Smart Cities," Sensors, Vol. 22, No. 10, 2022, https://www.mdpi.com/1424-8220/22/10/3862 (ibm.com 외부 링크).

19 Manisha Saini and Seba Susan, "Tackling class imbalance in computer vision: a contemporary review," Artificial Intelligence Review, Vol. 56, 2023, pp. 1279–1335, https://link.springer.com/article/10.1007/s10462-023-10557-6 (ibm.com 외부 링크).

20 Kai Kang, Hongsheng Li, Tong Xiao, Wanli Ouyang, Junjie Yan, Xihui Liu, and Xiaogang Wang, "Object Detection in Videos With Tubelet Proposal Networks," Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, pp. 727-735, https://openaccess.thecvf.com/content_cvpr_2017/html/Kang_Object_Detection_in_CVPR_2017_paper.html (ibm.com 외부 링크).

21 Sipeng Zheng, Shizhe Chen, and Qin Jin, "VRDFormer: End-to-End Video Visual Relation Detection With Transformers," Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022, pp. 18836-18846, https://openaccess.thecvf.com/content/CVPR2022/html/Zheng_VRDFormer_End-to-End_Video_Visual_Relation_Detection_With_Transformers_CVPR_2022_paper.html (ibm.com 외부 링크).

22 Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko, "End-to-End Object Detection with Transformers," Proceedings of the European Conference on Computer Vision (ECCV), 2020, pp. 213-229, https://link.springer.com/chapter/10.1007/978-3-030-58452-8_13 (ibm.com 외부 링크), Mekhriddin Rakhimov(ibm.com 외부 링크), Jamshid Elov(ibm.com 외부 링크), Utkir Khamdamov(ibm.com 외부 링크), Shavkatjon Aminov(ibm.com 외부 링크), and Shakhzod Javliev (ibm.com 외부 링크), "Parallel Implementation of Real-Time Object Detection using OpenMP," International Conference on Information Science and Communications Technologies (ICISCT), 2021, https://ieeexplore.ieee.org/document/9670146 (ibm.com 외부 링크). Yoon-Ki Kim and Yongsung Kim, "DiPLIP: Distributed Parallel Processing Platform for Stream Image Processing Based on Deep Learning Model Inference," Electronics, Vol. 9, No. 10, 2020, https://www.mdpi.com/2079-9292/9/10/1664 (ibm.com 외부 링크).