TopProfes

Encuentra toda la información nacional e internacional sobre españa. Selecciona los temas sobre los que quieres saber más

El implante cerebral convierte los pensamientos en palabras para ayudar al paralítico a ‘hablar’ de nuevo

La interfaz UCSF cerebro-computadora se aplica quirúrgicamente directamente a la corteza motora del paciente para permitir la comunicación.

Ken Probst, Universidad de California, San Francisco

El trabajo de Facebook sobre la tecnología de entrada neuronal para la realidad aumentada y la realidad virtual parece moverse en un rango Más tendencia basada en la muñecaPero la empresa continúa invirtiendo en la investigación de interfaces cerebro-computadora implantadas. La última etapa de nosotros largos años Un estudio de UCSF financiado por Facebook, llamado Proyecto Steno, traduce los intentos de conversación de un paciente con parálisis del habla en palabras en una pantalla.

“Esta es la primera vez que alguien naturalmente ha intentado decir que las palabras se pueden decodificar en palabras a partir de la actividad cerebral”, dijo el Dr. David Moses, autor principal de un estudio publicado el miércoles en la Gaceta Oficial. Revista de Medicina de Nueva Inglaterra. “Esperamos que esta sea la prueba de principio para el control directo del habla de un dispositivo de comunicación, utilizando el intento de habla previsto como señal de control de una persona que no puede hablar y está paralizada”.

Las interfaces cerebro-computadora (BCI) han estado detrás de una serie de avances prometedores recientes, incluida la investigación de Stanford que puede transformar la escritura imaginaria. En el texto de la gota. El estudio de la UCSF adopta un enfoque diferente, analiza los intentos reales de hablar y actúa casi como un traductor.

El estudio, realizado por el neurocirujano de la Universidad de California en San Francisco, el Dr. Edward Chang, implicó la implantación de electrodos “neurodegenerativos” en un hombre paralítico que había sufrido un derrame cerebral en el tronco del encéfalo a los 20 años. , el hombre trató de responder a las preguntas que aparecían en la pantalla. Los algoritmos de aprendizaje automático de UCSF pueden reconocer 50 palabras y convertirlas en oraciones en tiempo real. Por ejemplo, si un paciente ve un mensaje que le pregunta “¿Cómo estás hoy?” La respuesta apareció en la pantalla con las palabras “Soy muy bueno”, aparecieron palabra por palabra.

Musa explicó que el trabajo tendrá como objetivo continuar más allá de la fase de financiación de Facebook y que la investigación aún tiene mucho trabajo por hacer. Por el momento, no está claro cuánto reconocimiento de voz proviene de patrones registrados de actividad cerebral, palabras sonoras o una combinación de ambos.

Moses se apresura a señalar que el estudio, al igual que el otro trabajo de BCI, no es una lectura de la mente: se basa en detectar la actividad cerebral que ocurre específicamente cuando se intenta participar en un comportamiento en particular, como hablar. Moses también dice que el trabajo del equipo de UCSF aún no se ha traducido en interfaces neuronales no invasivas. Neuralink de Elon Musk promete datos de transmisión inalámbrica de electrodos implantados en el cerebro para futuras investigaciones y usos auxiliares, pero hasta ahora solo se ha demostrado esta tecnología. en mono.

búsqueda de prototipos frlr-head-mount-bci.

Un prototipo del dispositivo BCI para llevar en la cabeza de Facebook Reality Labs, que no tenía electrodos implantados, ahora es de código abierto.

Sitio de redes sociales de Facebook

Mientras tanto, Facebook Reality Labs Research se ha alejado de las obsoletas interfaces cerebro-computadora de los futuros auriculares VR / AR, centrándose en el futuro cercano para centrarse en Dispositivos de muñeca basado en la tecnología Obtenido de CTRL-Labs. Facebook Reality Labs tiene sus propios auriculares de investigación no invasivos para estudiar la actividad cerebral, y la compañía ha anunciado que planea hacer que estos auriculares estén disponibles para proyectos de investigación de código abierto, ya que deja de centrarse en dispositivos neuronales montados en la cabeza. (UCSF recibe fondos de Facebook pero no de hardware).

“Los aspectos del trabajo óptico montado en la cabeza serán aplicables a nuestra investigación en el electromiograma de la muñeca. Continuaremos utilizando el BCI óptico como una herramienta de investigación para construir mejores modelos y algoritmos de sensores basados ​​en la muñeca. Mientras continuaremos aprovechando estos prototipos en nuestra investigación, ya no estamos desarrollando un dispositivo óptico BCI. Montado en la cabeza para detectar la producción de voz. Esta es una de las razones por las que compartimos prototipos de dispositivos montados en la cabeza con otros investigadores, quienes pueden aplicar nuestras innovaciones a otros casos de uso, “confirmó un representante por correo electrónico.

La tecnología de entrada neuronal orientada al consumidor es todavía en su infancia, Sin embargo. Aunque existen dispositivos de consumo que utilizan sensores en la cabeza o sensores que se llevan en la muñeca, son mucho menos precisos que los electrodos implantados actualmente.

READ  Serie iPhone 13 para ofrecer una carga inalámbrica más rápida, modo vertical: informe