venerdì, Novembre 22, 2024
HomeAZIENDELa tecnologia di elaborazione in memoria memBrain di Microchip per accelerare l'inferenza...

La tecnologia di elaborazione in memoria memBrain di Microchip per accelerare l’inferenza Edge AI/ML analogica

La coreana IHWK (Intelligent Hardware Korea) sta sviluppando un processore SoC per calcolo neuromorfico basato sulla tecnologia di elaborazione in memoria NVM SuperFlash di Microchip Technology. 

Per far fronte alla rapida ascesa dell’intelligenza artificiale nell’edge e agli algoritmi di inferenza associati, Intelligent Hardware Korea (IHWK) sta sviluppando una piattaforma di calcolo neuromorfico per dispositivi programmabili sul campo.

Microchip Technology tramite la sua controllata Silicon Storage Technology (SST), sta collaborando allo sviluppo di questa piattaforma fornendo un sistema di valutazione per la sua soluzione di memoria neuromorfica SuperFlash memBrain. La soluzione si basa sulla tecnologia SuperFlash di memoria non volatile (NVM) di Microchip, leader del settore, ed è ottimizzata per eseguire la moltiplicazione di matrici vettoriali (VMM) per reti neurali attraverso un approccio di calcolo analogico in memoria.

Il kit di valutazione della tecnologia memBrain è progettato per consentire a IHWK di dimostrare l’assoluta efficienza energetica della sua piattaforma di calcolo neuromorfico per l’esecuzione di algoritmi di inferenza all’edge. L’obiettivo finale è creare un’unità di elaborazione analogica (APU) a bassissimo consumo per applicazioni quali modelli di intelligenza artificiale generativa, automobili autonome, diagnosi medica, elaborazione vocale, sicurezza/sorveglianza e droni commerciali.

Poiché gli attuali modelli di rete neurale per l’inferenza all’edge possono richiedere 50 milioni o più di sinapsi (pesi) per l’elaborazione, diventa difficile avere una larghezza di banda sufficiente per la DRAM off-chip richiesta da soluzioni puramente digitali, creando un collo di bottiglia per l’elaborazione della rete neurale che rallenta complessivamente la potenza di calcolo. Al contrario, la soluzione memBrain memorizza i pesi sinaptici nel floating gate delle memorie on-chip in modalità a bassissimo consumo e utilizza le stesse celle di memoria per eseguire i calcoli, offrendo miglioramenti significativi sia in termini di efficienza energetica che di latenza del sistema. Rispetto ai tradizionali approcci basati su DSP digitale e SRAM/DRAM, offre un consumo energetico da 10 a 20 volte inferiore per decisione di inferenza e può ridurre significativamente la distinta base complessiva.



Per sviluppare l’APU, IHWK sta anche collaborando con il Korea Advanced Institute of Science & Technology (KAIST), Daejeon, per lo sviluppo del dispositivo e con l’Università Yonsei, Seoul, per l’assistenza nella progettazione del dispositivo. Si prevede che l’APU finale ottimizzerà gli algoritmi a livello di sistema per l’inferenza con capacità tra 20 e 80 TeraOPS per watt, che è la migliore prestazione per una soluzione di computing in memoria progettata per l’uso in dispositivi alimentati a batteria.

Utilizzando NVM anziché soluzioni alternative di memoria off-chip per eseguire calcoli di rete neurale e memorizzare pesi, la tecnologia di calcolo in memoria memBrain di Microchip è pronta a eliminare gli enormi colli di bottiglia nelle comunicazioni dati altrimenti associati all’esecuzione dell’elaborazione AI all’edge” ha affermato Mark Reiten, vicepresidente di SST, la business unit di Microchip. “Lavorare con IHWK, le università e i primi clienti che lo hanno adottato è una grande opportunità per dimostrare ulteriormente la nostra tecnologia per l’elaborazione neurale e promuovere il nostro coinvolgimento nello spazio dell’intelligenza artificiale collaborando con un’azienda leader di ricerca e sviluppo in Corea”.

La Corea è un importante centro per lo sviluppo dei semiconduttori AI”, ha affermato Sanghoon Yoon, direttore di IHWK. “I nostri esperti di memoria non volatile ed emergente hanno confermato che il prodotto memBrain di Microchip basato sulla comprovata tecnologia NVM è l’opzione migliore quando si tratta di creare sistemi di elaborazione in-memory.”

La memorizzazione permanente dei modelli neurali all’interno dell’elemento di elaborazione della soluzione memBrain supporta anche la funzionalità istantanea per l’elaborazione della rete neurale in tempo reale. IHWK sta sfruttando la non volatilità delle celle a gate flottante della memoria SuperFlash per raggiungere un nuovo punto di riferimento nei dispositivi di edge computing a basso consumo che supportano l’inferenza del machine learning utilizzando modelli ML avanzati.

Ulteriori informazioni sono disponibili sul sito SST.