Categories
Business Industry

Cómo decodificar las dos lenguas alienígenas en Futurama

[ad_1]

Por supuesto, los fans de “Futurama” también pudieron descifrar AL2, pero el código completo no está disponible. Incluso “Bender's Big Score”, lanzado en 2007Este icono no estaba presente en la pantalla. Más bien, era uno de los muchos huevos escondidos en el disco. Antes de eso, los fanáticos de Futurama sabían que AL2 era un código matemático, pero requería más información para traducirlo por completo. Una vez que salió toda la información, todos pudieron solucionarlo.

En el segmento de comentarios del DVD, Westbrook, el escritor del episodio e inventor de AL2, señala el edificio que se muestra arriba y la extraña escritura que se ve grabada en él. Y él dijo:

“Esos dos obeliscos que ves brevemente al comienzo de la toma son en realidad las Piedras Rosetta de los dos idiomas alienígenas que tenemos en el programa que codifican oraciones reales en inglés. Algunos tipos en Internet han usado estas dos piedras para decodificar. el segundo idioma alienígena, lo cual es una hazaña increíble. Un saludo a esos muchachos”.

Fue Cohen quien señaló que AL2 no se construyó utilizando un truco lingüístico, sino más bien utilizando una notación matemática muy simple, del tipo que podría ser fácilmente decodificada por cualquier licenciado en informática… como lo tiene Westbrook. Cohen añadió:

“Me gustaría señalar que Jeff Westbrook, quien escribió este artículo, tiene un doctorado en ciencias de la computación. Y está sentado aquí frente a nosotros. Usando habilidades muy simples, no solo las cosas que podría usar como científico informático, diseñó el segundo idioma alienígena. El primer idioma es una frase. Para una alternativa simple, como todos saben: “A” es un código, “B” es un código y el segundo es ¿qué tipo de código estás usando?

Por supuesto, es un código de suma estándar.

[ad_2]

Source Article Link

Categories
Life Style

El dispositivo de lectura del cerebro es el mejor hasta ahora para decodificar el “habla interior”

[ad_1]

Ilustración generada por computadora de un cerebro humano con áreas de la circunvolución supramarginal resaltadas.

Ilustración que muestra la circunvolución supramarginal (naranja), un área del cerebro involucrada en el habla.Crédito: Mis libros/Alamy

Los científicos han desarrollado implantes cerebrales que pueden decodificar el habla interna, identificando palabras dichas por dos personas en sus mentes sin mover los labios ni emitir ningún sonido.

Aunque esta tecnología se encuentra en una etapa inicial (se ha demostrado que funciona con solo unas pocas palabras, no con frases u oraciones), podría tener aplicaciones clínicas en el futuro.

similar Interfaz cerebro-computadora Dispositivos BCI, que traducen señales en el cerebro en texto, Alcanzó entre 62 y 78 palabras por minuto para algunas personas.. Pero estas tecnologías han sido entrenadas para interpretar al menos parcialmente el habla hablada o simulada.

El último estudio -publicado en La naturaleza del comportamiento humano. El 13 de mayo1 – Es el primero en decodificar completamente las palabras habladas internamente, registrando señales de neuronas individuales en el cerebro en tiempo real.

“Este estudio es quizás el más avanzado hasta la fecha en el campo de la decodificación del habla imaginada”, afirma Silvia Marchesotti, neuroingeniera de la Universidad de Ginebra en Suiza.

“Esta tecnología será particularmente útil para las personas que ya no tienen movilidad”, dice la coautora del estudio Sarah Wandelt, neuroingeniera que trabajaba en el Instituto de Tecnología de California en Pasadena en el momento de la investigación. “Por ejemplo, podemos pensar en una condición como el síndrome de enclaustramiento”.

Técnica de lectura de la mente

Los investigadores implantaron series de pequeños electrodos en el cerebro de dos personas con lesiones de la médula espinal. Colocaron los dispositivos en la circunvolución supramarginal (SMG), un área del cerebro que no había sido explorada previamente en BCI para la decodificación del habla.

Descubrir los mejores lugares del cerebro para implantar interfaces de comunicación cerebro-cara (BCI) es uno de los principales desafíos a la hora de decodificar el habla interna, afirma Marchesotti. Los investigadores decidieron medir la actividad neuronal en el SMG basándose en estudios previos que demostraron que esta parte del cerebro está activa en el habla subvocal y en tareas como determinar si las palabras riman o no.

Dos semanas después de implantar las matrices de microelectrodos en el SMG izquierdo de los participantes, los investigadores comenzaron a recopilar datos. Entrenaron al BCI con seis palabras (campo de batalla, vaquero, serpiente, cuchara, nadar y teléfono) y dos pseudopalabras sin sentido (nevzig y bindip). “La cuestión aquí era ver si el significado era necesario para la representación”, dice Wandelt.

En el transcurso de tres días, el equipo pidió a cada participante que se imaginara pronunciando las palabras mostradas en la pantalla y repitió este proceso varias veces para cada palabra. Luego, BCI combinó mediciones de la actividad cerebral de los participantes con un modelo informático para predecir su habla interna en tiempo real.

Para el primer participante, el BCI captó señales neuronales distintas para todas las palabras y pudo identificarlas con un 79% de precisión. Pero la precisión de la decodificación fue solo del 23% para el segundo participante, que mostró una representación preferencial de las palabras “cuchara” y “nadar” y tenía menos neuronas que estaban activas de forma única para cada palabra. “Es posible que diferentes subregiones de la circunvolución supramarginal estén más o menos involucradas en el proceso”, afirma Wandelt.

Christian Herf, neurocientífico computacional de la Universidad de Maastricht (Países Bajos), cree que estos hallazgos pueden arrojar luz sobre las diferentes formas en que las personas procesan el habla interna. “Estudios anteriores han demostrado que existen diferentes habilidades para realizar la tarea imaginaria, así como diferentes habilidades para controlar la interfaz cerebro-computadora”, añade Marchesotti.

Los investigadores también encontraron que entre el 82% y el 85% de las neuronas que estaban activas durante el habla interna también lo estaban cuando los participantes pronunciaban las palabras. Pero algunas neuronas sólo estaban activas durante el habla interna o respondían de manera diferente a palabras específicas en diferentes tareas.

Próximos pasos

Aunque el estudio representa un avance importante en la decodificación del habla interna, las aplicaciones clínicas siguen siendo difíciles de alcanzar y muchas preguntas siguen sin respuesta.

“El problema con el habla interna es que no sabemos qué está pasando ni cómo procesarlo”, dice Herf. Por ejemplo, los investigadores no han podido determinar si el cerebro representa el habla interna fonéticamente (con sonido) o semánticamente (con significado). “Creo que necesitamos un vocabulario más amplio” para los experimentos, afirma Herf.

Marchesotti también se pregunta si la técnica podría generalizarse a personas que han perdido la capacidad de hablar, dado que ambos participantes del estudio son capaces de hablar y tienen áreas del cerebro intactas. “Ésta es una de las cosas que creo que se puede abordar en el futuro”, afirma.

El siguiente paso del equipo será probar si el BCI puede diferenciar entre letras del alfabeto. “Tal vez podríamos tener un dispositivo interno de ortografía del habla que realmente ayudaría a los pacientes a deletrear palabras”, dice Wandelt.

[ad_2]

Source Article Link