DGIST, 뇌신호 레이블 부족 문제 해결한 'AI 파운데이션 모델' 개발
EEG·fNIRS 동시계측 없이도 학습 가능한 세계 최초 멀티모달 뇌신호 기반 모델 개발
DGIST(총장 이건우)는 지능형로봇연구부 안진웅 박사 연구팀이 딥러닝 기반 뇌신호 분석에서 가장 큰 한계로 꼽혀 온 '레이블 데이터 부족' 문제를 혁신적으로 해결한 새로운 AI 파운데이션 모델을 개발했다고 26일 밝혔다.
이 기술은 뇌신호를 스스로 학습하도록 설계돼 극도로 적은 양의 레이블만으로도 높은 정확도를 구현할 수 있는 점에서 큰 주목을 받고 있다.
DGIST에 따르면 이번 연구는 안진웅 박사(지능형로봇연구부 책임연구원, 융합전공 겸무교수)와 정의진 박사후연수연구원(로봇및기계전자공학연구소, 바이오체화형피지컬AI연구단)이 공동으로 수행했으며, EEG(뇌파)와 fNIRS(기능적 뇌혈류) 신호를 모두 이해하고 분석할 수 있는 '뇌파–기능뇌혈류 멀티모달 파운데이션 모델'을 세계 최초로 구현한 것이 핵심 성과다.
연구팀은 총 918명으로부터 약 1250시간 규모의 초대형 뇌신호 데이터를 확보해 레이블 없이 비지도 방식으로 모델을 학습시켰다.
이를 통해 EEG와 fNIRS 각각의 고유한 특징뿐 아니라 두 신호가 공유하는 잠재적인 표현까지 동시에 파악할 수 있도록 설계했다.
특히 기존에는 EEG와 fNIRS를 동시에 측정한 데이터 확보가 거의 불가능해 멀티모달 AI 구축에 큰 제약이 있었지만, 이번 연구에서 개발된 모델은 동시계측 데이터가 없어도 학습이 가능하도록 설계됐다.
또한 소량의 레이블만으로도 높은 정확도를 구현하며 EEG 단독 분석, fNIRS 단독 분석, 두 신호를 결합한 멀티모달 분석까지 하나의 모델로 모두 수행할 수 있어 기존 기술의 구조적 한계를 완전히 넘어섰다.
안진웅 박사는 "이번 연구는 멀티모달 뇌신호 분석이 가진 구조적 제약을 뛰어넘은 최초의 프레임워크로, 뇌신호 AI 분야에서 근본적인 혁신을 이뤄냈다"며 "특히 두 신호 간 공유 정보를 정렬하는 대조 학습 전략이 모델의 표현력을 대폭 확장했고, 이는 뇌창발인공지능(Brain-Inspired AI)과 뇌–컴퓨터 인터페이스(BCI) 등 미래 뇌공학 기술 발전에 중요한 전환점이 될 것"이라고 밝혔다.
한편 이번 연구는 과학기술정보통신부와 한국연구재단의 지원을 받아 수행됐으며, 연구 결과는 계산생물학 및 의료정보학 분야 국제 저명 학술지 'Computers in Biology and Medicine'에 게재됐다.