Wykaz publikacji wybranego autora

Stanisław Kacprzak, dr inż.

adiunkt

Wydział Informatyki, Elektroniki i Telekomunikacji
WIEiT-ke, Instytut Elektroniki


  • 2023

    [dyscyplina 1] dziedzina nauk inżynieryjno-technicznych / automatyka, elektronika, elektrotechnika i technologie kosmiczne

    [dyscyplina 2] dziedzina nauk inżynieryjno-technicznych / informatyka techniczna i telekomunikacja (50%)


  • 2018

    [dyscyplina 1] dziedzina nauk inżynieryjno-technicznych / automatyka, elektronika i elektrotechnika

    [dyscyplina 2] dziedzina nauk inżynieryjno-technicznych / informatyka techniczna i telekomunikacja (50%)


Identyfikatory Autora Informacje o Autorze w systemach zewnętrznych

ORCID: 0000-0002-8717-9327 połącz konto z ORCID

ResearcherID: K-3405-2013

Scopus: 55838661500

PBN: 5e709472878c28a0473bd4e2

OPI Nauka Polska

System Informacyjny AGH (SkOs)




1
  • [referat, 2021]
  • TytułAdversarial domain adaptation with paired examples for acoustic scene classification on different recording devices
    AutorzyStanisław KACPRZAK, Konrad KOWALCZYK
    ŹródłoEUSIPCO2021 [Dokument elektroniczny] : 29th European Signal Processing Conference : Dublin, Ireland, August 23–27 2021. — [S. l.] : European Association for Signal Processing (EURASIP), [2021]. — S. 1030–1034
2
  • [referat, 2017]
  • TytułAudio replay attack detection using high-frequency features
    AutorzyMarcin WITKOWSKI, Stanisław KACPRZAK, Piotr ŻELASKO, Konrad KOWALCZYK, Jakub GAŁKA
    ŹródłoINTERSPEECH 2017 : situated interaction : 20-24 August 2017, Stockholm, Sweden / eds. Francisco Lacerda, [et al.]. — [USA : International Speech and Communication Association], cop. 2017. — S. 77
3
  • [referat, 2023]
  • TytułCausal signal-based DCCRN with overlapped-frame prediction for online speech enhancement
    AutorzyJulitta BARTOLEWSKA, Stanisław KACPRZAK, Konrad KOWALCZYK
    ŹródłoINTERSPEECH 2023 [Dokument elektroniczny] : Dublin, Ireland, 20-24 August 2023 / [eds.] Naomi Harte, Julie Carson-Berndsen, Gareth Jones. — [France : ISCA], [2023]. — S. 4039–4043
4
  • [referat, 2023]
  • TytułGenerating melodic dictations using Markov Chains and LSTM neural networks
    AutorzyEmilia Stefanowska, Stanisław KACPRZAK, Piotr Książek
    ŹródłoAES 2023 [Dokument elektroniczny] : 154textsuperscript{th} Audio Engineering Society convention : 13-15 May 2023, Espoo, Helsinki, Finland. — New York : Audio Engineering Society, [2023]. — S. 1–10 paper no. 10647
5
  • [referat, 2020]
  • TytułglossoVR - voice emission and public speech training system
    AutorzyMagdalena IGRAS-CYBULSKA, Artur CYBULSKI, Daniela Hekiert, Magdalena Majdak, Rafał Salamon, Paulina Słomka, Aleksandra Szumiec, Katarzyna Błaszczyńska, Bartłomiej Błaszczyński, Stanisław KACPRZAK
    ŹródłoVRW 2020 [Dokument elektroniczny] : 2020 IEEE conference on Virtual Reality and 3D user interfaces : 22–26 March 2020, Atlanta, Georgia : proceedings. — Los Alamitos, Washington, Tokyo : IEEE, cop. 2020. — S. 833–834
6
7
  • [referat, 2017]
  • TytułOn the extraction of early reflection signals for automatic speech recognition
    AutorzyKonrad KOWALCZYK, Stanisław KACPRZAK, Mariusz ZIÓŁKO
    Źródło2017 IEEE 2nd International Conference on Signal and Image Processing (ICSIP) : August 4–6, 2017, Singapore / IEEE. — Piscataway, NJ : IEEE, cop. 2017. — S. 351–355
8
  • [referat, 2022]
  • TytułRefining DNN-based mask estimation using CGMM-based EM algorithm for multi-channel noise reduction
    AutorzyJulitta BARTOLEWSKA, Stanisław KACPRZAK, Konrad KOWALCZYK
    ŹródłoINTERSPEECH 2022 [Dokument elektroniczny] : September 18–22, Incheon, Korea. — [Seoul : The Acoustical Society of Korea], [2022]. — S. 2923–2927
9
  • [referat, 2016]
  • TytułSpeaker age classification and regression using i-vectors
    AutorzyJoanna GRZYBOWSKA, Stanisław KACPRZAK
    ŹródłoINTERSPEECH 2016 [Dokument elektroniczny] : 8–12 September 2016, San Francisco, USA. — [USA : International Speech and Communication Association], [2016]. — S. 1402–1406
10
  • [referat, 2017]
  • TytułSpeech/music discrimination for analysis of radio stations
    AutorzyStanisław KACPRZAK, Błażej Chwiećko, Bartosz ZIÓŁKO
    ŹródłoIWSSIP 2017 [Dokument elektroniczny] : International Conference on Systems, Signals and Image Processing : May 22-24, 2017, Poznań, Polska : proceedings. — [Wien : Technische Universität ; Piscataway : IEEE], cop. 2017. — S. [1–4]
11
  • [referat, 2013]
  • TytułSpeech/music discrimination via energy density analysis
    AutorzyStanisław KACPRZAK, Mariusz ZIÓŁKO
    ŹródłoStatistical Language and Speech Processing : first international conference, SLSP 2013 : Tarragona, Spain, July 29–31, 2013 : proceedings / eds. Adrian-Horia Dediu, [et al.]. — Berlin, Heidelberg : Springer-Verlag, cop. 2013. — S. 135–142
12
  • [referat, 2017]
  • TytułSpoken language clustering in the i-vectors space
    AutorzyStanisław KACPRZAK
    ŹródłoIWSSIP 2017 [Dokument elektroniczny] : International Conference on Systems, Signals and Image Processing : May 22-24, 2017, Poznań, Polska : proceedings. — [Wien : Technische Universität ; Piscataway : IEEE], cop. 2017. — S. [1–5]
13
  • [referat, 2022]
  • TytułSpoken language recognition with cluster-based modeling
    AutorzyStanisław KACPRZAK, Magdalena RYBICKA, Konrad KOWALCZYK
    ŹródłoICASSP 2022 [Dokument elektroniczny] : 2022 IEEE International Conference on Acoustics, Speech, and Signal Processing : 7–13 May 2022, virtual, 22–27 May 2022, Singapore, satellite venue: Shenzhen, China : proceedings. — Piscataway : The Institute of Electrical and Electronics Engineers, cop. 2022. — S. 6867–6871
14
  • [referat, 2023]
  • TytułTowards multimodal VR trainer of voice emission and public speaking – work-in-progress
    AutorzyMagdalena IGRAS-CYBULSKA, Daniela Hekiert, Artur Cybulski, Sławomir Tadeja, Marcin WITKOWSKI, Konrad NAKONIECZNY, Izabela Augustyn, Jan JASIŃSKI, Daria HEMMERLING, Tomasz Skrzek, Stanisław KACPRZAK, Magdalena Kaczorowska, Julia Juros, Marek Warzeszka, Ewa MIGACZEWSKA, Filip MALAWSKI, Paulina Słomka, Rafał Salamon, Aleksandra Szumiec, Kinga Kornacka, Bartłomiej Błaszczyński, Katarzyna Błaszczyńska, Radosław Sterna, Marek Makowiec, Magdalena Majdak
    ŹródłoVRW 2023 [Dokument elektroniczny] : IEEE conference on Virtual Reality and 3D user interfaces abstracts and workshops : 25–29 March 2023, Shanghai, China : proceedings. — Piscataway : IEEE, cop. 2023. — S. 355–359