Categories
Life Style

Dos empresas lanzan juntas misiones a la luna: ¿harán historia?

[ad_1]

Un módulo de aterrizaje de color dorado lleva un rover al laboratorio, flanqueado por personal con batas de laboratorio y máscaras faciales.

El módulo de aterrizaje lunar Resilience y el rover Tenacious fueron lanzados hoy a la Luna.Crédito: Toru Hanai/Bloomberg/Getty

No una, sino dos empresas privadas han lanzado hoy naves espaciales a la luna. Una señal del creciente interés empresarial en la exploración lunar, Una empresa arriesgada Durante mucho tiempo ha estado dominado por agencias gubernamentales.

Empresas involucradas – com. Tokio y Firefly Aerospace en Cedar Park, Texas, ya están celebrando. Pero hasta ahora todas las misiones privadas a la Luna se han desviado y los científicos no descansarán hasta que el equipo de investigación de la sonda esté en funcionamiento. En algunos casos, esto no será hasta dentro de semanas o meses.

“Fue un lanzamiento asombroso”, dijo Nicola Fox, administradora asociada de ciencia de la NASA en Washington, D.C. “Aprendemos con cada tarea que emprendemos”.

Este es el segundo viaje de ISpace a la Luna: en 2023, El módulo de aterrizaje ispace se estrelló en la superficie de la luna. El lanzamiento del Firefly es el primero de la compañía a la Luna, pero es la tercera misión patrocinada por un programa de la NASA que paga a las empresas para que lleven las cargas útiles de la agencia a la Luna. El primer vehículo del programa, que se lanzó en enero de 2024, Fuera de control en el espacio. Un mes después, El segundo aterrizó sano y salvo. En la superficie de la luna antes de que gire hacia un lado.

Las misiones más recientes fueron lanzadas en un solo cohete desde Cabo Cañaveral, Florida; Es la primera vez que dos naves espaciales privadas se lanzan juntas. Ambos tienen como objetivo principal demostrar las técnicas necesarias para aterrizar en la Luna. Pero también lleva una variedad de cargas útiles científicas, incluidos instrumentos para medir la radiación espacial y estudiar el entorno magnético de la Tierra.

Inténtalo, inténtalo de nuevo

El módulo de aterrizaje espacial, llamado Resilience, se dirige hacia una llanura llamada Mare Frigoris, o Mar de Frío, a unos 60 grados de latitud norte en la cara visible de la Luna. Se necesitarán varios meses para llegar allí, pero si aterriza con éxito, se desplegará un pequeño rover en la superficie. Se supone que el rover se da vuelta y recoge una muestra de tierra lunar usando un accesorio similar a una pala. También se colocará un pequeño modelo de una casa roja en la superficie de la luna, para simbolizar la expansión de la vida del ser humano en el espacio.

Otras cargas útiles incluyen experimentos comerciales que exploran cómo desarrollar la producción de agua y alimentos en la Luna, así como un instrumento para medir los niveles de radiación. Este último es el primer esfuerzo de Taiwán para enviar una carga útil al espacio profundo, “y por lo tanto es un avance muy importante” en la capacidad espacial de Taiwán, dice Loren Chang, científico espacial de la Universidad Nacional Central en la ciudad de Taoyuan, Taiwán, quien dirige el proyecto. . Se espera que el instrumento esté operativo poco después del lanzamiento y recopile datos de radiación durante el vuelo de aterrizaje lunar. La información que recopila puede ayudar a proteger Salud de los futuros astronautas.

Polvo y suciedad lunares

Mientras tanto, el módulo de aterrizaje Firefly, llamado Ghost Riders in the Sky, se dirige hacia la llanura lunar conocida como Mare Crisium, o Mar de Crisis, que está más cerca del ecuador que el objetivo de ispace. Tardará unos 45 días en llegar. El lugar de aterrizaje fue elegido para evitar anomalías magnéticas en la superficie de la luna, que podrían interferir con las observaciones, dice Ryan Watkins, científico del programa en la sede de la NASA en Washington, DC.

[ad_2]

Source Article Link

Categories
Life Style

Se acerca una inteligencia artificial más poderosa. La academia y la industria deben supervisarlo, juntas

[ad_1]

Primer plano de Sam Altman con una pantalla que lee OpenAI detrás de él

Las máquinas crearán superinteligencia, dice Sam Altman de OpenAI, la empresa que desarrolló ChatGPT. Se necesita investigación para verificar estas y otras afirmaciones.Fotografía: Jason Redmond/AFP/Getty

“Es posible que tengamos superinteligencia dentro de unos miles de días (!); “Puede que tome más tiempo, pero estoy seguro de que lo lograremos”.

Así escribió Sam Altman, director ejecutivo de OpenAI, una empresa de tecnología con sede en San Francisco, California, el 23 de septiembre. Esto fue menos de dos semanas después de que la compañía detrás de ChatGPT lanzara o1, su modelo de lenguaje grande (LLM) más avanzado hasta la fecha. Una vez confinados al ámbito de la ciencia ficción, la aparición de programas LLM en los últimos años ha renovado la importancia de la cuestión de cuándo podremos crear inteligencia artificial general (AGI). Aunque carece de una definición precisa, la inteligencia artificial general se refiere en términos generales a un sistema de inteligencia artificial capaz de razonar, generalizar, planificar y tener autonomía a nivel humano.

Los formuladores de políticas de todo el mundo tienen preguntas sobre la inteligencia artificial general, incluidos sus beneficios y riesgos. No es fácil responder a estas preguntas, especialmente porque gran parte del trabajo se realiza en el sector privado, donde los estudios no siempre se publican públicamente. Pero lo que está claro es que las empresas de IA están muy centradas en dotar a sus sistemas de toda la gama de capacidades cognitivas que tenemos los humanos. Las empresas que desarrollan modelos de IA tienen un fuerte incentivo para mantener la idea de que la AGI está a la vuelta de la esquina, para atraer interés y, por tanto, inversión.

Hubo consenso entre los investigadores que hablaron con él. naturaleza Para ver un artículo de noticias publicado esta semana (ver naturaleza 63622-25; 2024) Los modelos de lenguajes grandes (LLM), como o1, Gemini de Google y Claude, fabricados por Anthropic, con sede en San Francisco, aún no han entregado AGI. Basándose en conocimientos de la neurociencia, muchos dicen que hay buenas razones para creer que los LLM nunca lo harán y que la IA necesitará otras tecnologías para lograr una inteligencia a nivel humano.

A pesar de la amplitud de sus capacidades (desde generar código de computadora hasta resumir artículos académicos y responder preguntas de matemáticas), existen limitaciones fundamentales en la forma en que operan los programas de MBA más potentes, que esencialmente implica consumir una gran cantidad de datos y usarlos para predecir “código”. ” próximo. En una serie. Esto genera respuestas plausibles a un problema, en lugar de resolverlo realmente.

Francois Cholet, ex ingeniero de software de Google, con sede en Mountain View, California, y Subbarao Kambhampati, científico informático de la Universidad Estatal de Arizona en Tempe, probaron el rendimiento del o1 en tareas que requieren pensamiento abstracto y planificación, y descubrieron que funciona bien. menos que el AGI. Si ocurre la inteligencia artificial general, algunos investigadores creen que los sistemas de IA necesitarán “modelos universales” coherentes, o representaciones de su entorno que puedan usar para probar hipótesis, razonar, planificar y generalizar el conocimiento aprendido en un dominio a otras situaciones ilimitadas.

Aquí es donde las ideas de la neurociencia y la ciencia cognitiva pueden impulsar próximos descubrimientos. Por ejemplo, el equipo de Yoshua Bengio de la Universidad de Montreal en Canadá está explorando arquitecturas de IA alternativas que respaldarían mejor la construcción de modelos mundiales coherentes y la capacidad de razonar utilizando dichos modelos.

Algunos investigadores sostienen que los próximos avances en IA tal vez no provengan de sistemas más grandes, sino de una IA más pequeña y con mayor eficiencia energética. Los sistemas más inteligentes del futuro también pueden requerir menos datos para el entrenamiento si tienen la capacidad de decidir qué aspectos de su entorno tomar muestras, en lugar de limitarse a absorber lo que se les alimenta, dice Karl Friston, neurocientífico teórico del University College de Londres.

Este trabajo demuestra que investigadores de diversos campos deben participar en el desarrollo de la inteligencia artificial. Esto será necesario para verificar que los sistemas realmente funcionen, garantizar que estén a la altura de las afirmaciones de las empresas de tecnología e identificar los resultados que requiere el proceso de desarrollo. Sin embargo, actualmente, el acceso a los principales sistemas de IA puede resultar difícil para los investigadores que no trabajan en empresas que puedan permitirse la enorme cantidad de unidades de procesamiento de gráficos (GPU) necesarias para entrenar los sistemas (A. Khandelwal et al. Preimpresión en arXiv https://doi.org/nt67; 2024).

Para dar una idea de la escala de actividad, en 2021, las agencias gubernamentales de EE. UU. (excluido el Departamento de Defensa) asignaron 1.500 millones de dólares a la investigación y el desarrollo de la IA, y la Comisión Europea gasta alrededor de 1.000 millones de euros (1.050 millones de dólares) al año. . Por el contrario, empresas de todo el mundo gastaron más de 340 mil millones de dólares en investigación de IA en 2021 (norte. ahmed et al. ciencias 379884-886; 2023). Hay maneras de hacer esto Los gobiernos pueden financiar la investigación de la IA A mayor escala, por ejemplo mediante la puesta en común de recursos. El Consorcio de Laboratorios de Investigación de Inteligencia Artificial en Europa, una organización sin fines de lucro con sede en La Haya, Países Bajos, ha propuesto construir un “CERN para la IA” que podría atraer el mismo nivel de talento que las empresas de IA y así crear empleos. – Entorno de investigación avanzada.

Es difícil predecir cuándo llegará el AGI, con estimaciones que van desde dentro de unos pocos años hasta una década o más. Pero es seguro que se producirán avances más masivos en IA, y gran parte de ellos probablemente provendrán de la industria, considerando el monto de la inversión. Para garantizar que estos desarrollos sean útiles, las investigaciones realizadas por las empresas de tecnología deben verificarse utilizando la mejor comprensión actual de lo que constituye la inteligencia humana, según la neurociencia, las ciencias cognitivas, las ciencias sociales y otros campos relacionados. Esta investigación financiada con fondos públicos debería desempeñar un papel importante en el desarrollo de la inteligencia artificial general.

La humanidad necesita aprovechar todo el conocimiento para que las aplicaciones de la investigación en IA sean sólidas y sus riesgos se mitiguen al máximo. Los gobiernos, las empresas, los financiadores de la investigación y los investigadores deben reconocer sus fortalezas complementarias. Si no lo hacen, se perderán conocimientos que podrían ayudar a mejorar la IA y los sistemas resultantes podrían volverse impredecibles y, por tanto, inseguros.

[ad_2]

Source Article Link