I neuroni dell'interazione sociale lavorano all'unisono per l'elaborazione
Il cortex ventrolaterale prefrontale (VLPFC), una regione cruciale del cervello nel circuito più ampio che sottende la comunicazione sociale, ha un ruolo significativo nel processare e integrare i segnali sociali, secondo uno studio pubblicato sulla rivista Journal of Neuroscience.
I ricercatori del Medical Center dell'Università di Rochester, della School of Medicine dell'Università di Miami e di altri istituti hanno dimostrato che il VLPFC è una regione chiave del cervello nel processo dei segnali sociali, in particolare nell'integrare le espressioni facciali e le vocalizzazioni.
Lo studio, guidato da Keshov Sharma, PhD, ha coinvolto l'addestramento di un modello di apprendimento automatico per decodificare l'espressione e l'identità in video basandosi esclusivamente sui modelli di attività neuronale nel VLPFC. I ricercatori hanno mostrato a dei macachi rhesus video di altri macachi che emettevano vocalizzazioni e espressioni amichevoli, aggressive o neutrali.
Le risposte dei singoli neuroni nello studio erano complesse, ma analizzando l'attività a livello di popolazione si è trovata una struttura coerente. L'attività di una popolazione di neuroni VLPFC era principalmente dettata dall'identità del macaco nel video.
I risultati suggeriscono che il VLPFC è una regione chiave del cervello nel processo dei segnali sociali, fornendo informazioni su disturbi del linguaggio e della comunicazione, in particolare i disturbi dello spettro autistico. I ricercatori sperano che il loro approccio incoraggi gli altri a analizzare l'attività a livello di popolazione nello studio di come i volti e le voci sono integrati nel cervello.
Il laboratorio di Romanski, che si concentra sulla comprensione del processo di informazione auditiva e visiva del cortex prefrontale, essenziale per il riconoscimento degli oggetti alla vista e al suono e per la comunicazione efficace, ha identificato il VLPFC come un'area del cervello responsabile della conservazione e dell'integrazione delle informazioni del volto e della voce durante la memoria di lavoro.
Il VLPFC funge da hub neurale che integra i segnali percettivi come le espressioni facciali e il tono della voce, consentendo la percezione coerente dei segnali sociali importanti per la comunicazione efficace e l'empatia. Sostiene la modulazione top-down di questi segnali, incorporando le conoscenze pregresse, le aspettative e le informazioni contestuali per interpretare le informazioni sociali ambigue o complesse.
Il cortex prefrontale in generale, compreso il VLPFC, è coinvolto nell'analisi dettagliata dei segnali emotivi del volto. Ad esempio, processa espressioni come la rabbia e la felicità in modo diverso integrando l'evaluazione della minaccia e le aspettative di ricompensa sociale, che influenzano direttamente come le espressioni facciali entrano nella consapevolezza cosciente e vengono interpretate.
Il VLPFC coordina con altre regioni del cervello coinvolte nella memoria di lavoro e nel processo delle informazioni emotive e sociali nella banda di frequenza theta, collegando gli input auditivi (vocalizzazioni) e visivi (facciali) in una percezione sociale unificata. Le vocalizzazioni emotive evocano forti risposte empatiche e il VLPFC contribuisce probabilmente all'interpretazione di questi segnali auditivi nei contesti sociali, aiutando a collegare il tono vocale con l'affetto facciale per migliorare la comprensione sociale.
Lo studio è stato sostenuto dagli Istituti Nazionali di Sanità, dal Programma Schmitt per le Neuroscienze Integrative e dal Programma di Formazione per Medici Scientist dell'Università di Rochester (MSTP). Uno degli autori, Theodore Lincoln, è associato con Astrobotic Technology Inc. Gli autori aggiuntivi dello studio includono Mark Diltz e Eric Albuquerque.
- Lo studio evidenzia l'importanza del cortex prefrontal ventrolaterale (VLPFC) nel circuito più ampio responsabile della comunicazione sociale.
- Il VLPFC è cruciale per l'elaborazione e l'integrazione di segnali sociali, in particolare quelli provenienti dalle espressioni facciali e dalle vocalizzazioni.
- I modelli di apprendimento automatico sono stati addestrati per decodificare l'espressione e l'identità dai video in base ai pattern di attività neuronale nel VLPFC.
- I ricercatori hanno mostrato a dei macachi rhesus dei video di altri macachi con vocalizzazioni e espressioni amichevoli, aggressive o neutre.
- Le risposte dei singoli neuroni erano complesse, ma si è osservata una struttura coerente a livello di popolazione.
- L'attività di una popolazione di neuroni VLPFC era influenzata principalmente dall'identità del macaco nel video.
- I risultati suggeriscono che il VLPFC gioca un ruolo chiave nell'elaborazione dei segnali sociali, offrendo intuizioni sui disturbi del linguaggio e della comunicazione, tra cui i disturbi dello spettro autistico.
- I ricercatori sperano che il loro approccio ispiri gli altri a analizzare l'attività a livello di popolazione quando studiano come i volti e le voci sono integrati nel cervello.
- Il laboratorio di Romanski ha identificato il VLPFC come un'area del cervello responsabile della conservazione e dell'integrazione delle informazioni del volto e della voce durante la memoria di lavoro.
- Il VLPFC funziona come un hub neuronale che integra i segnali percettivi come le espressioni facciali e l'intonazione della voce.
- Il VLPFC consente la percezione coerente dei segnali sociali essenziali per una comunicazione efficace ed empatia.
- Sostiene la modulazione top-down di questi segnali, incorporando conoscenze pregresse, aspettative e informazioni contestuali per interpretare informazioni sociali ambigue o complesse.
- Il cortex prefrontale, incluso il VLPFC, è coinvolto nella valutazione sottile dei segnali emotivi dei volti.
- Elabora espressioni come la rabbia e la felicità in modo diverso integrando la valutazione della minaccia e le aspettative di ricompensa sociale.
- Queste valutazioni influenzano direttamente come le espressioni facciali entrano nella consapevolezza cosciente e vengono interpretate.
- Il VLPFC coordina con altre regioni del cervello coinvolte nella memoria di lavoro e nell'elaborazione di informazioni emotive e sociali nella banda di frequenza theta.
- Questa coordinazione collega gli input auditivi (vocalizzazioni) e visivi (faciali) in una percezione sociale unificata.
- Le vocalizzazioni emotive evocano forti risposte empatiche e il VLPFC contribuisce probabilmente all'interpretazione di questi segnali auditivi in contesti sociali.
- Lo studio è stato finanziato dai National Institutes of Health, dal Schmitt Program for Integrative Neuroscience e dal Medical Scientist Training Program (MSTP) dell'Università di Rochester.
- Uno degli autori, Theodore Lincoln, è associato con Astrobotic Technology Inc.
- Altri autori includono Mark Diltz e Eric Albuquerque.
- La scienza continua a svelare i misteri del cervello, gettando luce su aspetti essenziali del linguaggio, della comunicazione e dell'empatia.
- Capire il ruolo del VLPFC nell'integrazione dei segnali sociali potrebbe condurre a progressi nelle terapie e nei trattamenti per i disturbi della comunicazione.
- Lo studio sottolinea l'importanza della ricerca di base per migliorare la nostra comprensione del cervello e lo sviluppo di nuovi trattamenti per diverse condizioni mediche.
- Le intuizioni