Apa itu deteksi objek?

Dua Dokter Memeriksa CT Scan Pasien di Rumah Sakit

Penyusun

Jacob Murel Ph.D.

Senior Technical Content Creator

Eda Kavlakoglu

Business Development + Partnerships

IBM Research

Deteksi objek adalah teknik yang menggunakan neural network untuk melokalisasi dan mengklasifikasikan objek dalam gambar. Tugas visi komputer ini memiliki beragam aplikasi, mulai dari pencitraan medis hingga mobil tanpa pengemudi.

Deteksi objek adalah tugas visi komputer yang bertujuan untuk menemukan objek dalam gambar digital. Dengan demikian, ini adalah instance kecerdasan buatan yang terdiri dari melatih komputer untuk melihat seperti manusia, khususnya dengan mengenali dan mengklasifikasikan objek menurut kategori semantik.1 Lokalisasi objek adalah teknik untuk menentukan lokasi objek tertentu dalam gambar dengan membatasi objek melalui kotak pembatas. Klasifikasi objek adalah teknik lain yang menentukan kategori mana objek yang terdeteksi berada. Tugas deteksi objek menggabungkan subtugas pelokalan dan klasifikasi objek untuk secara bersamaan memperkirakan lokasi dan jenis instance objek dalam satu atau beberapa gambar.2

Tugas visi komputer

Deteksi objek tumpang tindih dengan teknik visi komputer lainnya, tetapi para pengembang tetap memperlakukannya sebagai upaya terpisah.

Klasifikasi gambar (atau pengenalan gambar) bertujuan untuk mengklasifikasikan gambar menurut kategori. Contoh dasar dari hal ini adalah pengujian gambar CAPTCHA, di mana sekelompok gambar dapat diatur sebagai gambar dengan rambu berhenti dan gambar tanpa rambu berhenti. Klasifikasi gambar menetapkan satu label pada keseluruhan gambar.

Deteksi objek, sebagai perbandingan, menggambarkan objek individual dalam gambar sesuai dengan kategori tertentu. Sementara klasifikasi gambar membagi gambar di antara gambar yang memiliki rambu berhenti dan yang tidak, deteksi objek menemukan dan mengkategorikan semua rambu jalan dalam gambar, serta objek lain seperti mobil dan orang.

Segmentasi gambar (atau segmentasi semantik) mirip dengan deteksi objek, meskipun lebih tepat. Seperti deteksi objek, segmentasi menggambarkan objek dalam gambar sesuai dengan kategori semantik. Tetapi alih-alih menandai objek menggunakan kotak, segmentasi membatasi objek pada tingkat piksel.

Cara kerja deteksi objek

Memahami bagian dalam mekanisme deteksi objek membutuhkan dasar dalam visi komputer dan pemrosesan gambar digital secara lebih luas. Bagian ini memberikan gambaran umum.

Pemrosesan gambar

Dalam visi komputer, gambar dinyatakan sebagai fungsi berlanjut pada bidang koordinat 2D yang direpresentasikan sebagai f(x,y). Apabila didigitalkan, gambar mengalami dua proses utama yang disebut sampling dan kuantisasi, yang secara ringkas, bersama-sama mengubah fungsi gambar berlanjut menjadi struktur grid elemen piksel yang terpisah. Komputer kemudian dapat menyegmentasikan gambar ke dalam wilayah-wilayah terpisah menurut kesamaan visual dan kedekatan piksel.3

Dengan melabeli gambar menggunakan antarmuka anotasi, pengguna mendefinisikan objek tertentu sebagai wilayah dengan fitur tingkat piksel tertentu (misalnya, area, nilai abu-abu, dan sebagainya). Ketika diberi gambar input, model pendeteksian objek mengenali wilayah dengan fitur yang mirip dengan yang didefinisikan dalam kumpulan data pelatihan sebagai objek yang sama. Dengan cara ini, deteksi objek adalah bentuk pengenalan pola. Model pendeteksian objek tidak mengenali objek itu sendiri, melainkan kumpulan properti seperti ukuran, bentuk, warna, dan sebagainya, dan mengklasifikasikan wilayah berdasarkan pola visual yang disimpulkan dari data pelatihan yang dianotasi secara manual.4

Model deteksi objek untuk mobil tanpa pengemudi, misalnya, tidak mengenali pejalan kaki, melainkan sekumpulan fitur yang membentuk pola umum yang mencirikan objek pejalan kaki (seperti yang didefinisikan dalam data pelatihan).

Arsitektur model

Sementara rangkaian model yang berbeda menggunakan arsitektur yang berbeda, model pembelajaran mendalam untuk deteksi objek mengikuti struktur umum. Itu terdiri dari tulang punggung, leher, dan kepala.

Tulang punggung mengekstrak fitur dari gambar input. Seringkali, tulang punggung berasal dari bagian dari model klasifikasi yang telah dilatih sebelumnya. Ekstraksi fitur menghasilkan segudang peta fitur dengan berbagai resolusi yang dilewatkan tulang punggung ke leher. Bagian terakhir dari struktur ini menggabungkan peta fitur untuk setiap gambar. Arsitektur ini kemudian meneruskan peta fitur berlapis ke kepala, yang memprediksi kotak pembatas dan skor klasifikasi untuk setiap kumpulan fitur.

Detektor dua tahap memisahkan lokalisasi dan klasifikasi objek di dalam kepala, sedangkan detektor satu tahap menggabungkan tugas-tugas ini. Yang pertama umumnya mengembalikan akurasi lokalisasi yang lebih tinggi sementara yang kedua bekerja lebih cepat.5

Metrik evaluasi

Intersection over Union (IoU) adalah metrik evaluasi umum yang digunakan dalam model deteksi objek. Kotak pembatas adalah hasil kuadrat yang membatasi objek yang terdeteksi seperti yang diprediksi oleh model. IoU menghitung rasio area perpotongan dua kotak yang berbatasan (yaitu, area bagian kotak yang tumpang tindih) dengan area penyatuannya (yaitu, total area kedua kotak digabungkan):6

Kita dapat memvisualisasikan persamaan ini sebagai:

Model menggunakan IoU untuk mengukur akurasi prediksi dengan menghitung IoU antara kotak prediksi dan kotak kebenaran dasar. Arsitektur model juga menggunakan IoU untuk menghasilkan prediksi kotak pembatas akhir. Karena model pada awalnya sering menghasilkan beberapa ratus prediksi kotak pembatas untuk satu objek yang terdeteksi, model menggunakan IoU untuk menimbang dan mengkonsolidasikan prediksi kotak pembatas ke dalam satu kotak per objek yang terdeteksi.

Metrik lain dapat digunakan untuk evaluasi yang berbeda dari model deteksi objek. Generalized Intersection over Union (GIoU) adalah versi modifikasi dari IoU yang menyumbang peningkatan dalam lokalisasi objek yang mana IoU dasar masih dapat mengembalikan nilai nol.7 Penelitian pendeteksian objek juga menggunakan metrik pengambilan informasi umum, seperti rata-rata presisi dan recall.

Algoritma dan arsitektur deteksi objek

Ada sejumlah pendekatan machine learning untuk tugas deteksi objek. Contohnya adalah kerangka kerja Viola-Jones8 dan histogram gradien berorientasi.9 Namun, penelitian dan pengembangan deteksi objek baru-baru ini sebagian besar berfokus pada convolutional neural networks (CNN). Oleh karena itu, halaman ini berfokus pada dua jenis CNN yang paling banyak dibahas dalam penelitian deteksi objek. Perhatikan bahwa model-model ini diuji dan dibandingkan dengan menggunakan kumpulan data tolak ukur, seperti kumpulan data Microsoft COCO atau ImageNet.

R-CNN (region-based convolutional neural network) adalah detektor dua tahap yang menggunakan metode yang disebut proposal wilayah untuk menghasilkan 2.000 prediksi wilayah per gambar. R-CNN kemudian membelokkan wilayah yang diekstraksi ke ukuran yang seragam dan menjalankan wilayah tersebut melalui jaringan terpisah untuk ekstraksi dan klasifikasi fitur. Setiap wilayah diberi peringkat sesuai dengan kepercayaan klasifikasinya. R-CNN kemudian menolak wilayah yang memiliki IoU tertentu tumpang tindih dengan wilayah yang dipilih dengan skor lebih tinggi. Wilayah terklasifikasi yang tidak tumpang tindih dan teratas yang tersisa adalah hasil model.10 Seperti yang diharapkan, arsitektur ini komputasi mahal dan lambat. Fast R-CNN dan Faster R-CNN adalah modifikasi selanjutnya yang mengurangi ukuran arsitektur R-CNN dan dengan demikian mengurangi waktu pemrosesan sekaligus meningkatkan akurasi.11

YOLO (You Only Look Once) adalah keluarga arsitektur deteksi tahap tunggal yang berbasis di Darknet, kerangka kerja CNN sumber terbuka. Pertama kali dikembangkan pada tahun 2016, arsitektur YOLO mengutamakan kecepatan. Memang, kecepatan YOLO membuatnya lebih disukai untuk deteksi objek waktu nyata dan telah membuatnya mendapatkan deskriptor umum detektor objek canggih. YOLO berbeda dari R-CNN dalam beberapa hal. Sementara R-CNN melewati wilayah gambar yang diekstraksi melalui beberapa jaringan yang mengekstraksi fitur dan mengklasifikasikan gambar secara terpisah, YOLO memadatkan tindakan ini menjadi satu jaringan. Kedua, dibandingkan dengan proposal wilayah R-CNN yang berjumlah ~2000, YOLO membuat kurang dari 100 prediksi kotak pembatas per gambar. Selain lebih cepat dari R-CNN, YOLO juga menghasilkan lebih sedikit positif palsu latar belakang, meskipun memiliki kesalahan lokalisasi yang lebih tinggi.12 Ada banyak pembaruan pada YOLO sejak awal, yang umumnya berfokus pada kecepatan dan akurasi.13

Meskipun awalnya dikembangkan untuk deteksi objek, versi R-CNN dan YOLO yang lebih baru juga dapat melatih model klasifikasi dan segmentasi. Secara khusus, Mask R-CNN menggabungkan deteksi objek dan segmentasi, sementara YOLOv5 dapat melatih model klasifikasi, deteksi, dan segmentasi yang terpisah.

Tentu saja, ada banyak arsitektur model lain di luar R-CNN dan YOLO. SSD dan Retinanet adalah dua model tambahan yang menggunakan arsitektur sederhana yang mirip dengan YOLO.14 DETR adalah arsitektur lain yang dikembangkan oleh Facebook (sekarang Meta) yang menggabungkan CNN dengan model transformator dan menunjukkan kinerja yang sebanding dengan Faster R-CNN.15

Desain 3D bola yang menggelinding di lintasan

Berita + Insight AI terbaru 


Temukan insight dan berita yang dikurasi oleh para pakar tentang AI, cloud, dan lainnya di Buletin Think mingguan. 

Contoh kasus penggunaan

Dalam banyak contoh penggunaan, deteksi objek bukanlah tujuan itu sendiri tetapi satu tahap dalam tugas visi komputer yang lebih besar.

Kemudi otonom

Mobil otonom secara luas mengadopsi deteksi objek untuk mengenali objek seperti mobil dan pejalan kaki. Salah satu contohnya adalah AI Autopilot Tesla. Karena kecepatannya yang meningkat, arsitektur sederhana seperti YOLO dan SimpleNet jelas lebih ideal untuk pengemudian otonom.16

Pencitraan medis

Deteksi objek dapat membantu dalam tugas inspeksi visual. Misalnya, badan substantif penelitian deteksi objek menyelidiki metrik dan model untuk mengidentifikasi indikator fisiologis penyakit dalam gambar medis seperti sinar-X dan pemindaian MRI. Di bidang ini, banyak penelitian berfokus pada peningkatan ketidakseimbangan kumpulan data mengingat kelangkaan gambar medis penyakit semacam itu.17

Keamanan

Pengawasan video dapat menggunakan deteksi objek real-time untuk melacak objek terkait kejahatan, seperti senjata api atau pisau dalam rekaman kamera keamanan. Dengan mendeteksi objek tersebut, sistem keamanan dapat lebih memprediksi dan mencegah kejahatan. Para peneliti telah mengembangkan algoritma deteksi senjata menggunakan R-CNN dan YOLO.18

Gabungan Para Pakar | 28 Agustus, episode 70

Decoding AI: Rangkuman Berita Mingguan

Bergabunglah dengan panel insinyur, peneliti, pemimpin produk, dan sosok kelas dunia lainnya selagi mereka mengupas tuntas tentang AI untuk menghadirkan berita dan insight terbaru seputar AI.

Penelitian terbaru

Kumpulan data yang tidak seimbang adalah salah satu masalah yang mengganggu tugas pendeteksian objek, karena sampel negatif (yaitu gambar tanpa objek yang diinginkan) jauh lebih banyak daripada sampel positif dalam banyak kumpulan data khusus domain. Ini adalah masalah khusus dengan gambar medis, di mana sampel positif penyakit sulit diperoleh. Penelitian terbaru menggunakan augmentasi data untuk memperluas dan mendiversifikasi kumpulan data yang terbatas untuk meningkatkan kinerja model.19

Perkembangan terdahulu dalam deteksi objek sebagian besar difokuskan pada gambar 2D. Baru-baru ini, para peneliti beralih ke aplikasi deteksi objek untuk gambar dan video 3D. Gerakan kabur dan pergeseran fokus kamera menyebabkan masalah dalam mengidentifikasi objek di seluruh bingkai video. Para peneliti telah menjelajahi berbagai metode dan arsitektur untuk membantu melacak objek di seluruh bingkai meskipun dalam kondisi seperti itu, seperti arsitektur recurrent neural networks memori jangka panjang (LSTM)20 dan model berbasis transformator.21 Transformator telah digunakan untuk mempercepat model deteksi objek untuk tugas deteksi waktu nyata. Teknik pemrosesan paralel merupakan salah satu bidang studi penting lainnya dalam upaya ini.22

Solusi terkait
IBM® watsonx.ai

Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.

Jelajahi watsonx.ai
Solusi kecerdasan buatan (AI)

Manfaatkan AI di bisnis Anda dengan perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.

Jelajahi solusi AI
Konsultasi dan layanan kecerdasan buatan (AI)

Layanan IBM Consulting AI membantu merancang ulang cara kerja bisnis dengan AI untuk transformasi.

Jelajahi layanan AI
Ambil langkah selanjutnya

Dapatkan akses satu atap ke kemampuan yang mencakup siklus hidup pengembangan AI. Hasilkan solusi AI yang kuat dengan antarmuka ramah pengguna, alur kerja yang efisien, serta akses ke API dan SDK berstandar industri.

Jelajahi watsonx.ai Pesan demo langsung
Catatan kaki

1Bogusław Cyganek, Object Detection and Recognition in Digital Images: Theory and Practice, Wiley, 2013.

2 Kemal Oksuz, Baris Can Cam, Sinan Kalkan, dan Emre Akbas, “Imbalance Problems in Object Detection: A Review”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 43, No. 10, 2021, hlm. 3388-3415, https://ieeexplore.ieee.org/document/9042296.

3 Archangelo Disante dan Cosimo Disante, Handbook of Image Processing and Computer Vision, Vol. 1, Springer, 2020. Milan Sonka, Vaclav Hlavac, and Roger Boyle, Image Processing, Analysis, and Machine Vision, Edisi ke-4, Cengage, 2015.

4 Archangelo Disante dan Cosimo Disante, Handbook of Image Processing and Computer Vision, Vol. 3, Springer, 2020. Milan Sonka, Vaclav Hlavac, dan Roger Boyle, Image Processing, Analysis, and Machine Vision, Edisi ke-4, Cengage, 2015.

5 Benjamin Planche dan Eliot Andres, Hands-On Computer Vision with TensorFlow 2, Packt Publishing, 2019. Van Vung Pham and Tommy Dang, Hands-On Computer Vision with Detectron2, Packt Publishing, 2023. Licheng Jiao, Fan Zhang, Fang Liu, Shuyuan Yang, Lingling Li, Zhixi Feng, Rong Qu, “A survey of deep learning-based object detection”, IEEE Access, Vol. 7, 2019, pp. 128837-128868, https://ieeexplore.ieee.org/document/8825470. Richard Szeliski, Computer Vision: Algorithms and Applications, Edisi ke-2, Springer, 2021.

6 Richard Szeliski, Computer Vision: Algorithms and Applications, Edisi ke-2, Springer, 2021.

7 Hamid Rezatofighi, Nathan Tsoi, JunYoung Gwak, Amir Sadeghian, Ian Reid, dan Silvio Savarese, “Generalized intersection over union: A metric and a loss for bounding box regression”, Prosiding Konferensi IEEE/CVF tentang Computer Vision and Pattern Recognition (CVPR), 2019, hlm. 658-666, dapat diakses di sini.

8 P. Viola dan M. Jones, “Deteksi objek yang cepat menggunakan rangkaian fitur sederhana yang ditingkatkan”, Prosiding Konferensi IEEE 2001 tentang Computer Vision and Pattern Recognition (CVPR), 2001, https://ieeexplore.ieee.org/document/990517.

9 N. Dalal and B. Triggs, “Histograms of oriented gradients for human detection”, Prosiding Konferensi IEEE Computer 2005 tentang Computer Vision and Pattern Recognition (CVPR), 2005, hlm. 886-893, https://ieeexplore.ieee.org/document/1467360 .

10 Ross Girshick, Jeff Donahue, Trevor Darrell, and Jitendra Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation”, Prosiding Konferensi IEEE 2014 tentang Computer Vision and Pattern Recognition(CVPR), 2014, https://arxiv.org/abs/1311.2524 .

11 Ross Girschick, “Fast R-CNN”, Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV), 2015, hlm. 1440-1448, https://arxiv.org/abs/1504.08083 . Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, Advances in Neural Information Processing Systems (NIPS 2015), Vol. 28, https://proceedings.neurips.cc/paper_files/paper/2015/hash/14bfa6bb14875e45bba028a21ed38046-Abstract.html .

12 Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi, “You Only Look Once: Unified, Real-Time Object Detection”, Konferensi IEEE 2016 tentang Computer Vision and Pattern Recognition (CVPR), 2016, hlm. 779-788, https://arxiv.org/abs/1506.02640.

13 Joseph Redmon dan Ali Farhadi, “YOLOv3: An Incremental Improvement”, 2018, https://arxiv.org/abs/1804.02767 . Alexey Bochkovskiy, Chien-Yao Wang, and Hong-Yuan Mark Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection”, European Conference on Computer Vision, 2020, https://arxiv.org/abs/2004.10934 . Xin Huang, Xinxin Wang, Wenyu Lv, Xiaying Bai, Xiang Long, Kaipeng Deng, Qingqing Dang, Shumin Han, Qiwen Liu, Xiaoguang Hu, Dianhai Yu, Yanjun Ma, dan Osamu Yoshie, “PP-YOLOv2: A Practical Object Detector”, 2021, https://arxiv.org/abs/2104.10419 . Chien-Yao Wang, Alexey Bochkovskiy, dan Hong-Yuan Mark Liao, “YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors”, 2022, https://arxiv.org/abs/2207.02696.

14 Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, and Alexander C. Berg, “SSD: Single Shot MultiBox Detector”, Prosiding European Conference of Computer Vision (ECCV), 2016, hlm. 21-37, https://arxiv.org/abs/1512.02325. Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollár, “Focal Loss for Dense Object Detection”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 42, No. 2, 2020, hlm. 318-327,https://arxiv.org/abs/1708.02002.

15 Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, dan Sergey Zagoruyko, “End-to-End Object Detection with Transformers”, Prosiding European Conference of Computer Vision (ECCV), 2020, https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123460205.pdf .

16 Abhishek Balasubramaniam and Sudeep Pasricha, “Object Detection in Autonomous Vehicles: Status and Open Challenges”, 2022, https://arxiv.org/abs/2201.07706. Gene Lewis, “Object Detection for Autonomous Vehicles”, 2016, https://web.stanford.edu/class/cs231a/prev_projects_2016/object-detection-autonomous.pdf.

17 Trong-Hieu Nguyen-Mau, Tuan-Luc Huynh, Thanh-Danh Le, Hai-Dang Nguyen, and Minh-Triet Tran, “Advanced Augmentation and Ensemble Approaches for Classifying Long-Tailed Multi-Label Chest X-Rays”, Prosiding Lokakarya IEEE/CVF International Conference on Computer Vision (ICCV), 2023, hlm. 2729-2738, https://openaccess.thecvf.com/content/ICCV2023W/CVAMD/html/Nguyen-Mau_Advanced_Augmentation_and_Ensemble_Approaches_for_Classifying_Long-Tailed_Multi-Label_Chest_ICCVW_2023_paper.html. Changhyun Kim, Giyeol Kim, Sooyoung Yang, Hyunsu Kim, Sangyool Lee, and Hansu Cho, “Chest X-Ray Feature Pyramid Sum Model with Diseased Area Data Augmentation Method”, Prosiding Lokakarya IEEE/CVF International Conference on Computer Vision (ICCV), 2023, hlm. 2757-2766, https://openaccess.thecvf.com/content/ICCV2023W/CVAMD/html/Kim_Chest_X-Ray_Feature_Pyramid_Sum_Model_with_Diseased_Area_Data_ICCVW_2023_paper.html.

18 Palash Yuvraj Ingle dan Young-Gab Kim, “Real-Time Abnormal Object Detection for Video Surveillance in Smart Cities”, Sensors, Vol. 22, No. 10, 2022, https://www.mdpi.com/1424-8220/22/10/3862.

19 Manisha Saini dan Seba Susan, “Tackling class imbalance in computer vision: a contemporary review”, Artificial Intelligence Review, Vol. 56, 2023, hlm. 1279–1335, https://link.springer.com/article/10.1007/s10462-023-10557-6.

20 Kai Kang, Hongsheng Li, Tong Xiao, Wanli Ouyang, Junjie Yan, Xihui Liu, dan Xiaogang Wang, “Object Detection in Videos With Tubelet Proposal Networks”, Prosiding Konferensi IEEE tentang Computer Vision and Pattern Recognition (CVPR), 2017, hlm. 727-735, https://openaccess.thecvf.com/content_cvpr_2017/html/Kang_Object_Detection_in_CVPR_2017_paper.html 

21 Sipeng Zheng, Shizhe Chen, dan Qin Jin, “VRDFormer: End-to-End Video Visual Relation Detection With Transformers”, Prosiding Konferensi IEEE/CVF tentang Computer Vision and Pattern Recognition (CVPR), 2022, hlm. 18836-18846, https://openaccess.thecvf.com/content/CVPR2022/html/Zheng_VRDFormer_End-to-End_Video_Visual_Relation_Detection_With_Transformers_CVPR_2022_paper.html.

22 Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, dan Sergey Zagoruyko, “End-to-End Object Detection with Transformers”, Prosiding European Conference on Computer Vision (ECCV), 2020, hlm. 213-229, https://link.springer.com/chapter/10.1007/978-3-030-58452-8_13Mekhriddin RakhimovJamshid Elov , Utkir Khamdamov , Shavkatjon Aminov, dan Shakhzod Javliev, “Parallel Implementation of Real-Time Object Detection using OpenMP”, International Conference on Information Science and Communications Technologies (ICISCT), 2021, https://ieeexplore.ieee.org/document/9670146. Yoon-Ki Kim and Yongsung Kim, “DiPLIP: Distributed Parallel Processing Platform for Stream Image Processing Based on Deep Learning Model Inference”, Electronics, Vol. 9, No. 10, 2020, https://www.mdpi.com/2079-9292/9/10/1664.