Wykaz publikacji wybranego autora

Mateusz Knapik, mgr inż.

doktorant

Wydział Informatyki, Elektroniki i Telekomunikacji
WIEiT-ke, *Katedra Elektroniki


Identyfikatory Autora

ORCID: brak

ResearcherID: brak

Scopus: 55643631200




1
  • [artykuł w czasopiśmie, 2021]
  • TytułAn ensemble deep learning method with optimized weights for drone-based water rescue and surveillance
    AutorzyJan Gąsienica-Józkowy, Mateusz KNAPIK, Bogusław CYGANEK
    ŹródłoIntegrated Computer-Aided Engineering. — 2021 vol. 28 no. 3, s. 221–235
  • keywords: UAV, ensemble of classifiers, deep learning, SSD, YOLO, water rescue, Faster R-CNN, RetinaNet

    cyfrowy identyfikator dokumentu: 10.3233/ICA-210649

2
  • [referat, 2019]
  • TytułComparison of sparse image descriptors for eyes detection in thermal images
    AutorzyMateusz KNAPIK, Bogusław CYGANEK
    ŹródłoVISIGRAPP 2019 [Dokument elektroniczny] : proceedings of the 14th international joint conference on Computer vision, imaging and computer graphics theory and applications, Vol. 5 / eds. Alain Tremeau, Giovanni Maria Farinella, Jose Braz. — [Portugal] : SciTePress, [2019]. — S. 638–644
  • keywords: thermal imaging, operator monitoring, Daisy descriptor, Surf descriptor, sparse descriptors, eye detection

    cyfrowy identyfikator dokumentu: 10.5220/0007576506380644

3
4
  • [referat, 2023]
  • TytułEstimation of absolute distance and height of people based on monocular view and deep neural networks for edge devices operating in the visible and thermal spectra
    AutorzyJan Gąsienica-Józkowy, Bogusław CYGANEK, Mateusz KNAPIK, Szymon Głogowski, Łukasz Przebinda
    ŹródłoFedCSIS 2023 [Dokument elektroniczny] : proceedings of the 18textsuperscript{th} conference on Computer Science and Intelligence Systems : September 17–20, 2023, Warsaw, Poland / eds. Maria Ganzha, [et al.]. — Warszawa : Polskie Towarzystwo Informatyczne, cop. 2023. — S. 503–511
  • brak zdefiniowanych słów kluczowych

    cyfrowy identyfikator dokumentu: 10.15439/2023F3560

5
  • [referat, 2022]
  • TytułEvaluation of an embedded computer vision system for outdoor media audience analysis
    AutorzyBogusław CYGANEK, Piotr Janyst, Mateusz KNAPIK, Łukasz Przebinda, Marta Ptaszkiewicz, Tomasz Tajmajer
    ŹródłoPP-RAI'2022 [Dokument elektroniczny] : proceedings of the 3rd Polish conference on Artificial intelligence : April 25–27, 2022, Gdynia, Poland. — Gdynia : Gdynia Maritime University, 2022. — S. 33–36
  • keywords: machine learning, pedestrian monitoring, audience analysis, digital out-of-home media

    cyfrowy identyfikator dokumentu:

6
  • [referat, 2019]
  • TytułEvaluation of deep learning strategies for underwater object search
    AutorzyMateusz KNAPIK, Bogusław CYGANEK
    Źródło2019 First international conference on Societal Automation (SA) [Dokument elektroniczny] : 4–6 September 2019, Krakow, Poland. — [Piscataway] : IEEE, cop. 2019. — S. [1–6]
  • keywords: deep learning, convolutional neural networks, underwater, object search

    cyfrowy identyfikator dokumentu: 10.1109/SA47457.2019.8938092

7
8
  • [referat, 2022]
  • TytułNew thermal automotive dataset for object detection
    AutorzyTomasz Balon, Mateusz KNAPIK, Bogusław CYGANEK
    ŹródłoFedCSIS 2022 [Dokument elektroniczny] : position papers of the 17textsuperscript{th} conference on Computer Science and Intelligence Systems : September 4–7, 2022, Sofia, Bulgaria / eds. Maria Ganzha, Leszek Maciaszek, Marcin Paprzycki, Dominik Ślęzak. — Warszawa : Polskie Towarzystwo Informatyczne, cop. 2022. — S. 43–48
  • brak zdefiniowanych słów kluczowych

    cyfrowy identyfikator dokumentu: 10.15439/2022F283

9
  • [referat, 2023]
  • TytułReal-time detection of small objects in automotive thermal images with modern deep neural architectures
    AutorzyTomasz Balon, Mateusz KNAPIK, Bogusław CYGANEK
    ŹródłoFedCSIS 2023 [Dokument elektroniczny] : communication papers of the 18th conference on Computer science and intelligence systems : September 17–20, 2023, Warsaw / eds. Maria Ganzha, [et al.]. — Warszawa : Polskie Towarzystwo Informatyczne, cop. 2023. — S. 29–35
  • brak zdefiniowanych słów kluczowych

    cyfrowy identyfikator dokumentu: 10.15439/2023F8409