A cura di Silvia Sanna

La Brain Computer Interface (BCI) è una nuova scienza appartenente all’ingegneria informatica e biomedica in cui si cerca di interfacciare il pensiero umano a un computer. Gli scopi sono numerosi anche se ultimamente il più noto è la recente scoperta di Neuralink (l’azienda di BCI di Elon Musk). Di notevole importanza è anche lo studio condotto dall’Università di Reading in collaborazione con l’Università di Plymouth: una BCI che associa i diversi pattern dell’attività cerebrale corticale con diversi stati emotivi.

Tutti abbiamo particolari ricordi associati a delle note, motivetti e canzoni, soprattutto durante l’estate. A volte riascoltare canzoni che non si sentivano da tanto ci fa scattare proprio il ricordo di quel momento, bello o brutto che sia, a volte riusciamo anche a rivivere quelle stesse emozioni. Ed è questo l’obiettivo dello studio, farci rivivere le emozioni in particolari momenti.

Brain-Computer Music-Interface per monitorare e indurre stati affettivi

Come dichiarato dal gruppo di ricerca, l’obiettivo principale del progetto era sviluppare una tecnologia per costruire un sistema intelligente che sappia monitorare i nostri stati affettivi e indurne specifici attraverso la musica. L’induzione deve però essere automatica e adattata ad ogni soggetto.

Inizialmente lo studio è stato improntato sul capire come cambino l’EEG, il battito cardiaco e altri processi fisiologici quando ascoltiamo della musica che ci evoca particolari ricordi. La dimostrazione sul fatto che questo avvenga e si abbiano dei riscontri positivi tra le sinapsi del nostro cervello lo ha dato le immagini ottenute tramite fMRI (risonanza magnetica funzionale, per visualizzare l’evoluzione dell’attività neuronale).

È stato dimostrato infatti che la musica ha un forte impatto nelle nostre emozioni, soprattutto il ritmo, che aumenta il livello di piacere e eccitazione. Dallo studio si dimostra inoltre come l’attività corticale catturata dall’EEG riflette l’attività interna di alcune regioni, specialmente l’attività produttiva dell’amigdala.

Grazie a questi dati è stato sviluppato un sistema musicale capace di comporre musica in tempo reale e produrre un grosso range di emozioni in chi ascolta. Questo sistema è stato testato in un gruppo di partecipanti sani e anche in un piccolo gruppo di persone affette dalla malattia di Huntington (malattia genetica neurodegenerativa che colpisce la coordinazione muscolare con conseguenti problemi cognitivi e psichiatrici).

La realizzazione dell’esperimento è stata portata avanti col progetto “Affective Jukebox” in cui le emozioni e lo stato d’animo del soggetto sono state parametrizzate in due dimensioni: positività ed energia, creando un modello cartesiano in cui vengono segnate in tempo reale le emozioni sentite dal soggetto.

Dalle rivelazioni dei ricercatori, il sistema ha un grosso potenziale applicativo, soprattutto in musico-terapia ed educazione musicale, aiutando anche nello sviluppo di sistemi terapeutici: un sistema in grado di fare il primo passo verso l’era della musico-terapia guidata dal cervello. Il sistema sarà specialmente utile per capire la relazione tra le nostre emozioni e ciò che accade nel cervello, specialmente studiarne a pieno la struttura e le interazioni neuronali.

Alcuni dettagli dell’applicativo Affective Jukebox

Il sistema è stato sviluppato usando elettrodi asciutti e il sistema di preamplificatori MOBIlab+. Il segnale EEG è stato successivamente passato al tool di Matlab Simulink per processarlo (filtro passa basso e filtro notch), estrarre le feature e classificare (LDA e SVM). Questi dati sono successivamente stati utilizzati come input per MAX/MSP col quale è stato possibile selezionare i clip musicali.

Per evitare rumore dal battito di ciglia e artefatti, sono state scartate tutte le epoche (segmenti del segnale campionato in questo caso con una finestra di Hanning) che avevano una soglia di tensione superiore a 100 microVolt. Le epoche buone sono state successivamente passate a un filtro passabanda per isolarne lo spettro di potenza e normalizzarlo in 30 finestre da 10 secondi.

Lo stato d’animo è stato posto in evidenza dal fatto che una forte attività della banda alfa indica uno stato d’animo rilassato mentre un aumento dell’attività della banda beta indica uno stato di eccitazione. Il bilanciamento dei livelli dell’attività cerebrale, specialmente tra i due emisferi, indica una differenza emotiva.

Non sono noti dettagli implementativi sull’algoritmo e sulla composizione in tempo reale della musica.

Con tutte queste tecniche sono stati ottenuti grandi risultati, con un errore medio del sistema sulla predizione dello stato d’animo pari a 0.07. Dati più accurati sono mostrati nelle tabelle qui sotto:

Sorge a questo punto una domanda etica: pur di avere sempre la miglior musica a portata di mano, saremmo disposti ad avere sempre un casco con degli elettrodi sempre sulla testa? Magari per avere questi bellissimi risultati i ricercatori proveranno a realizzare qualche alternativa sempre non-invasiva ma con gli stessi risultati.

1 COMMENT

  1. […] Che ne pensate di un dispositivo indossabile in grado di leggere il vostro pensiero, capirlo e trascriverlo autonomanente magari sul vosto smartphone? A prima vista potrebbe sembrare un’idea assolutamente strampalata che non vedrà mai la luce, idee provenienti da un amante di tecnologia futuristica e fantascientifica, al limite dell’impossibile. E pensare che sono in sviluppo tecnologie simili, un esempio è la scelta automatica di musica in base al proprio pensiero. […]

LEAVE A REPLY

Please enter your comment!
Please enter your name here