การวิเคราะห์สัญญาณชีวภาพด้วยข้อมูลเชิงเวลาโดยอาศัยโครงข่ายประสาทเทียมคอนโวลูชันไล่ระดับความละเอียด

ชื่อนักเรียนผู้จัดทำโครงงานวิทยาศาสตร์

ปุณณวิช ธุวจิตต์, ธีร์ เมธีพิทักษ์ธรรม

อาจารย์ที่ปรึกษาโครงงานวิทยาศาสตร์

ธีรวิทย์ วิไลประสิทธิ์พร, บัญชาพร อรุณเลิศอารีย์

โรงเรียนที่กำกับดูแลโครงงานวิทยาศาสตร์

โรงเรียนสวนกุหลาบวิทยาลัย

ปีที่จัดทำโครงงานวิทยาศาสตร์

พ.ศ. 2564

บทคัดย่อโครงงานวิทยาศาสตร์

To solve biomedical problems, bio-signals have become an important tool for Healthcare assessment and treatment. However, manual bio-signal analysis has been proven difficult. This leads to the automation attempts of bio-signal analysis tasks via machine learning and deep. However, the 1-dimensional nature of bio-signals lack the features necessary to train effective deep neural networks. Otherwise, manual feature engineering is applied, which often lead to requirements in core knowledge, mathematical modellings, and are often too rigid to be used practically.

In this study, we proposed to use the novel Multi-scale Convolutional Neural Network (MCNN) architecture. Utilizing scales of convolutional layers, MCNN’s multi-scales act as learn-able feature extractions to enhance the performance and robustness. We carried out 2 MCNN models : EEGWaveNet for seizure detection from Electroencephalography (EEG) and PPGWaveNet for respiratory rate estimation via Photoplethysmography (PPG).

Tested on benchmark datasets and outperforming other baseline methods, EEGWaveNet and PPGWaveNet both demonstrate their robustness from the consistently high performances on all datasets, as well as their subject independency. Via transfer learning with a one-hour recording, EEGWaveNet is able to considerably increase it’s performance while PPGWaveNet is able to estimate respiratory rate through all ranges of PPG lengths, both suggesting MCNN’s clinical capability. Both models contribute towards the development of devices aiding clinicians and experts in bio-signal analysis tasks, fulfilling the third sustainable development goals in healthcare.