Protesi robotiche e controllo del movimento, vantaggi del deep learning

1192

Una delle questioni ancora aperte quando si parla di protesi robotiche ed esoscheletri è la modalità di controllo del movimento, sin qui basata su sensori neuromuscolari, inerziali o meccanici. Questi sensori che presentano, però, limiti applicativi.

Ricercatori del Dipartimento di Ingegneria dei Sistemi di Progettazione e dell’Istituto di Intelligenza Artificiale Waterloo dell’Università di Waterloo, in Canada, propongono un sistema diverso, basato sull’analisi visiva dell’ambiente supportata da computer e sul deep learning.
In sintesi, l’équipe vuole ricreare, in un certo senso, la relazione tra vista e apparato locomotore. In questo modo la decisione di come muovere l’arto robotico viene presa sulla base delle caratteristiche dell’ambiente in cui ci si deve muovere e non solo sulla base di stimoli neuromuscolari.

Gli autori dello studio, ora pubblicato su Frontiers, sono partiti dal database ExoNet, una fonte open source si immagini di ambienti outdoor e indoor, ritenuta tra le più estese al mondo. Hanno quindi preso 12 differenti sistemi di deep convolutional neural networks e li hanno allenati e testati per classificare le immagini e assegnarle a una caratteristica ingegneristica.

In tutto sono state analizzate circa 923.000 immagini di vari ambienti, catalogate secondo una serie di indicazioni scelte dagli autori: scale in salita tra “parete/porta di transizione delle scale inclinate” (31,628), “scale in salita transizione piano-terra” (11.040), “scale in salita ad altezza costante” (17,358), “passaggio da parete a porta” (19.150), “transizione tra piano-terra e porta” (379.199), “transizione piano-terra altro” (153.263), “transizione da piano-terra a scale in salita” (26.067), “transizione tra piano-terra e scale in discesa” (22.607), “transizione tra piano-terra e seduta” (119.515) e immagini di “piano terra costante” (77.576).

Quel che si cerca è che la protesi robotica o l’esoscheletro vedano l’ambiente e, in base al tipo di classificazione dell’immagine, stabiliscano la modalità corretta per effettuare il movimento.
Una volta effettuato questo lavoro, gli autori hanno usato NetScore per bilanciare le esigenze di classificazione degli ambienti con le richieste di memoria necessarie per immagazzinarle.

Il sistema di deep learning che ha dato la maggiore accuratezza nella classificazione è l’EfficientNetB0 network. Gli autori sottolineano la volontà non di sostituire un sistema decisionale basato sulla classificazione degli ambienti, ma di integrarlo ai metodi decisionali già in uso e basato sugli input neuromuscolari: ciò permetterebbe di avere un modo per stabilire i movimenti da fare più simile a quanto accade nel nostro corpo. Come tutte le proposte innovative, anche questa presenta delle limitazioni, peraltro evidenziate dagli stessi autori.

Tra le più interessanti, il fatto che il database ExoNet è fatto di immagini piatte, mentre noi viviamo in un mondo tridimensionale, sembra però che i sistemi di cattura delle immagini in 3D abbiano il limite di perdere di precisione nel passaggio da luce/buio e comunque in particolari situazioni, il che li rende ancora poco affidabili.
Le variabili da prendere in considerazione sono ancora molte, ma pian piano il mondo della ricerca sta lavorando per poter restituire ai soggetti amputati o con disabilità specifiche strumenti sempre più simili a quelli di cui disponiamo grazie a millenni di evoluzione e adattamento.

(Lo studio: Laschowski B, McNally W, Wong A, McPhee J. Environment Classification for Robotic Leg Prostheses and Exoskeletons Using Deep Convolutional Neural Networks. Front Neurorobot. 2022 Feb 4;15:730965. doi: 10.3389/fnbot.2021.730965. PMID: 35185507; PMCID: PMC8855111)

Stefania Somaré