Categories
Life Style

Luchando por una traducción de voz a voz justa y de código abierto

[ad_1]

El documento en breve

• Miles de millones de personas en todo el mundo se comunican regularmente en línea en idiomas distintos al suyo.

• Esto ha creado una enorme demanda de modelos de inteligencia artificial (IA) que puedan traducir texto y voz.

• Pero la mayoría de los modelos sólo funcionan con texto, o utilizan el texto como un paso intermedio en la traducción de voz a voz, y muchos se centran en un pequeño subconjunto de los idiomas del mundo.

Escribir naturaleza-Comunicación fluida del equipo.1 Aborda estos desafíos para encontrar tecnologías subyacentes que puedan hacer realidad la traducción global rápida.

Tanil Alomai: Trucos elegantes y una mirada abierta.

Los autores de SEAMLESS han creado un modelo de IA que utiliza un enfoque de red neuronal para traducir directamente entre unos 100 idiomas (Figura 1a). El modelo puede tomar texto o voz de cualquiera de estos idiomas y traducirlo a texto, pero también puede traducirlo directamente a voz en 36 idiomas. La traducción de voz a voz es particularmente impresionante porque implica un enfoque “holístico”: el modelo puede traducir directamente, por ejemplo, el inglés hablado al alemán hablado, sin transcribirlo primero al texto en inglés y traducirlo al texto en alemán (Figura 1b). .

Figura 1

Figura 1 | Traducción automática de discurso a discurso.A-Comunicación fluida del equipo.1 Ha creado un modelo de inteligencia artificial (IA) que puede traducir el habla en unos 100 idiomas directamente al habla en 36 idiomas. paraLos modelos tradicionales de IA para la traducción de voz a voz suelen utilizar un enfoque secuencial, en el que la voz primero se transcribe y se traduce a texto en otro idioma, antes de volver a convertirse en voz. doAlgunos modelos tradicionales pueden causar alucinaciones (generar resultados incorrectos o engañosos), lo que podría resultar en un daño significativo si estos modelos se utilizan para traducción automática en entornos de alto riesgo, como la atención médica.

Para entrenar su modelo de IA, los investigadores se basaron en métodos llamados aprendizaje autosupervisado y aprendizaje semisupervisado. Estos métodos ayudan al modelo a aprender de grandes cantidades de datos sin procesar (como texto, voz y video) sin necesidad de que los humanos anoten los datos con etiquetas o categorías específicas que proporcionen contexto. Estas etiquetas pueden ser textos exactos o traducciones, por ejemplo.

La parte del modelo responsable de traducir el habla fue entrenada previamente en un conjunto de datos masivo que contiene 4,5 millones de horas de audio hablado multilingüe. Este tipo de entrenamiento ayuda al modelo a aprender patrones en los datos, lo que facilita el ajuste del modelo para tareas específicas sin requerir grandes cantidades de datos de entrenamiento personalizados.

Una de las estrategias más inteligentes del equipo SEAMLESS implicó “explorar” Internet para entrenar pares que se correspondan entre idiomas, como fragmentos de audio en un idioma que coincidan con subtítulos en otro. A partir de algunos datos que sabían que eran confiables, los autores entrenaron el modelo para reconocer cuándo dos piezas de contenido (como un video y un subtítulo coincidente) realmente coinciden en significado. Al aplicar esta técnica a cantidades masivas de datos derivados de Internet, recopilaron alrededor de 443.000 horas de audio con texto coincidente y alinearon alrededor de 30.000 horas de pares de voz, que luego utilizaron para entrenar aún más su modelo.

A pesar de estos avances, en mi opinión, la mayor virtud de este trabajo no es ni la idea ni el método propuesto. En cambio, la realidad es que todos los datos y códigos para operar y mejorar esta tecnología están disponibles públicamente, aunque el modelo en sí solo puede usarse en esfuerzos no comerciales. Los autores describen su modelo de traducción como “básico” (ver: go.nature.com/3teaxvx), lo que significa que se pueden ajustar en conjuntos de datos cuidadosamente seleccionados para propósitos específicos, como mejorar la calidad de la traducción para pares de idiomas específicos o para términos técnicos.

Meta se ha convertido en uno de los mayores defensores de la tecnología de lenguajes de código abierto. Su equipo de investigación jugó un papel decisivo en el desarrollo de PyTorch, una biblioteca de software para entrenar modelos de IA, que es ampliamente utilizada por empresas como OpenAI y Tesla, así como por muchos investigadores de todo el mundo. El modelo presentado aquí se suma al arsenal de modelos de tecnología de lenguaje central de Meta, como la familia Llama de modelos de lenguaje grandes.2El cual se puede utilizar para crear aplicaciones similares a ChatGPT. Este nivel de apertura es una gran ventaja para los investigadores que carecen de los vastos recursos computacionales necesarios para construir estos modelos desde cero.

Aunque esta tecnología es apasionante, todavía existen muchas barreras. La capacidad del modelo integrado para traducir hasta 100 idiomas es impresionante, pero la cantidad de idiomas utilizados en todo el mundo ronda los 7.000. La herramienta también tiene dificultades en muchas situaciones que los humanos manejan con relativa facilidad, por ejemplo, conversaciones en lugares ruidosos o entre personas con acento fuerte. Sin embargo, los métodos de los autores para aprovechar datos del mundo real representarían un camino prometedor hacia una tecnología del habla que rivalice con la ciencia ficción.

Alison Koeneke: Mantenga a los usuarios informados

Las tecnologías basadas en el habla se utilizan cada vez más para tareas de alto riesgo, como tomar notas durante exámenes médicos, por ejemplo, o transcribir procedimientos judiciales. Modelos como los pioneros de SEAMLESS están acelerando el progreso en este campo. Pero los usuarios de estos modelos (médicos y funcionarios de tribunales, por ejemplo) deberían ser conscientes de la falibilidad de las tecnologías del habla, al igual que los individuos cuyas voces representan la información.

Los problemas asociados con las tecnologías del habla existentes están bien documentados. La transcripción tiende a ser peor para los dialectos del inglés que se consideran no “estándar”, como el inglés afroamericano, que para varios dialectos que se utilizan más ampliamente.3. La calidad de la traducción hacia y desde un idioma es deficiente si ese idioma está subrepresentado en los datos utilizados para entrenar el modelo. Esto afecta a cualquier idioma que aparezca con poca frecuencia en Internet, desde el afrikáans hasta el zulú.4.

Se sabe que algunas formas de transcripción “alucinógena” son5 – Inventa frases completas que nunca se dijeron en la entrada de audio. Esto sucede con más frecuencia en los hablantes con problemas del habla que en los que no los tienen (Figura 1c). Este tipo de errores cometidos por máquinas tienen el potencial de causar daños reales, como recetar erróneamente un medicamento o acusar a la persona equivocada en un juicio. El daño afecta desproporcionadamente a las poblaciones marginadas, que tienen más probabilidades de ser malinterpretadas.

Los investigadores de SEAMLESS midieron la toxicidad asociada con su modelo (el grado en que sus traducciones presentaban un lenguaje dañino u ofensivo).6. Este es un paso en la dirección correcta y proporciona una base sobre la cual se pueden probar modelos futuros. Sin embargo, debido al hecho de que el rendimiento de los modelos existentes varía mucho entre idiomas, se debe tener más cuidado para garantizar que el modelo pueda traducir o replicar términos específicos en idiomas específicos de manera competente. Este esfuerzo debería ir acompañado de esfuerzos entre los investigadores de visión por computadora, que están trabajando para mejorar el bajo rendimiento de los modelos de reconocimiento de imágenes en grupos subrepresentados y disuadir a los modelos de hacer predicciones ofensivas.7.

Los autores también buscaron sesgos de género en las traducciones producidas por su modelo. Su análisis examinó si el modelo sobrerrepresenta un género al traducir frases neutrales al género a idiomas de género: ¿La frase “Soy profesor” en inglés se traduce como “masculino”?Yo soy un profesor“o a lo femenino”Yo soy un profesor“¿En español? Pero tales análisis se limitan a lenguas con formas masculinas y femeninas únicamente, y futuras auditorías deberían ampliar la gama de sesgos lingüísticos estudiados.8.

En el futuro, el pensamiento orientado al diseño será esencial para garantizar que los usuarios puedan contextualizar las traducciones proporcionadas por estos modelos, muchos de los cuales varían en calidad. Además de las señales de alerta exploradas por los autores de SEAMLESS, los desarrolladores deberían considerar cómo mostrar las traducciones de manera que muestren los límites del modelo, marcando, por ejemplo, cuando el resultado incluye el modelo simplemente adivinando el género. Esto puede incluir abandonar por completo la producción cuando su precisión esté en duda, o acompañar la producción de baja calidad con advertencias escritas o señales visuales.9. Quizás lo más importante es que los usuarios deberían poder optar por no utilizar tecnologías del habla (por ejemplo, en entornos médicos o legales) si así lo desean.

Aunque las tecnologías del habla pueden ser más eficientes y rentables a la hora de transcribir y traducir que los humanos (que también son susceptibles a sesgos y errores),10), es esencial comprender las formas en que estas tecnologías fallan, de manera desproporcionada para algunos grupos demográficos. El trabajo futuro debe garantizar que los investigadores de tecnología del habla mejoren las disparidades de rendimiento y que los usuarios estén bien informados sobre los posibles beneficios y daños asociados con estos paradigmas.

[ad_2]

Source Article Link

Categories
Featured

Mecha Comet es una computadora portátil modular de código abierto que me recuerda al asistente digital personal indio que pudo haber inspirado el iPhone.

[ad_1]


  • The Comet es una combinación de Raspberry Pi, Simputer y Project Ara con un toque de Game Boy
  • La característica notable es el uso de accesorios de hardware que se pueden quitar rápidamente.
  • Próximamente se lanzará en la plataforma de crowdfunding Kickstarter

Fue desarrollado en India a principios de la década de 2000. Computadora(Simple and Inexpensive Laptop) fue una innovadora computadora portátil Linux que muchas personas creen que los inspiró manzana iPhone (y por extensión, dispositivos Android). Presentaba una interfaz táctil, entrada de lápiz con reconocimiento de escritura a mano, un acelerómetro y un puerto USB: todas innovaciones adelantadas a su tiempo.

Menciono a Simputer ahora porque lo recuerdo mirando una nueva computadora portátil modular que debutará pronto en Kickstarter. Estela del cometa Es un dispositivo Linux portátil dirigido a desarrolladores, fabricantes y expertos.

[ad_2]

Source Article Link

Categories
News

El modelo de microlenguaje Phi-4 de Microsoft es de código abierto y está disponible para descargar en Hugging Face

[ad_1]

microsoft El modelo de microlenguaje Phi-4 estará abierto el miércoles. El último modelo de inteligencia artificial (IA) de la serie Phi se lanzó el mes pasado; sin embargo, en ese momento solo estaba disponible a través de Azure AI Foundry de la compañía. En ese momento, el gigante tecnológico con sede en Redmond dijo que pronto haría que el código fuente del modelo de IA estuviera disponible en el dominio público. Ahora, las personas interesadas pueden acceder al modelo de IA centrado en el razonamiento a través de Hugging Face. Microsoft también permite que el modelo se utilice en casos de uso académico y empresarial.

Modelo de IA Phi-4 de código abierto de Microsoft

Sheetal Shah, miembro del personal técnico de Microsoft AI, llevar a X (anteriormente Twitter) para anunciar la disponibilidad de los pesos del modelo Phi-4 AI en Hugging Face. El modelo de IA está disponible bajo licencia del MIT para uso académico y comercial. Las personas interesadas pueden acceder a una lista de formularios. aquí.

Lanzado ocho meses después del lanzamiento del modelo de IA Phi-3, se dice que el SLM ofrece mejoras significativas en la resolución de consultas complejas basadas en heurísticas en campos como las matemáticas. Phi-4 tiene una ventana de contexto de 16.000 tokens y fue entrenado en un conjunto de datos de 9,8 billones de tokens.

Citando la fuente de los datos de capacitación, la lista de Hugging Face destaca un conjunto de datos que incluye tutoriales y datos educativos de alta calidad disponibles públicamente, datos sintéticos sobre una amplia gama de temas, libros académicos aprendidos y conjuntos de datos de preguntas y respuestas, así como datos en formato de chat moderado.

Vale la pena señalar que es un modelo de solo texto, lo que significa que solo acepta texto como entrada y salida. El modelo de IA viene con 14 mil millones de parámetros. Microsoft afirma que el modelo de IA se basa en una arquitectura de transformador denso solo decodificador.

En el momento del lanzamiento, Microsoft también compartió los resultados comparativos del modelo de IA. En consecuencia, la compañía afirmó que la última versión del Phi SLM supera al modelo Gemini 1.5 Pro en el punto de referencia de problemas de competición deportiva.

También se puede acceder al modelo Phi-4 AI a través de Azure AI Foundry de Microsoft. La plataforma también ofrece ayudar a los desarrolladores y organizaciones a gestionar los riesgos de la IA. También viene con funciones como protectores de velocidad, detección de puesta a tierra y filtros de contenido. Estas capacidades de seguridad también se pueden exportar a una aplicación utilizando la interfaz de programación de aplicaciones (API) de la empresa.

Recibe las últimas novedades de CES en Gadgets 360, nuestro sitio web Salón de electrónica de consumo 2025 centro.

[ad_2]

Source Article Link

Categories
News

El código de iOS 18.3 indica que Apple está desarrollando una nueva aplicación para compartir invitaciones

[ad_1]

manzana Actualización de iOS 18.3 Beta 2 lanzada para iPhone El miércoles, la empresa podría probar una nueva aplicación. Llamado Invitaciones, se dice que está diseñado para organizar reuniones y compartir invitaciones a eventos presenciales y en línea. Vale la pena señalar que Apple no anunció esta aplicación durante la Conferencia Mundial de Desarrolladores (WWDC) 2025, donde se presentó el sistema operativo iOS 18 y todas sus características, y aún se encuentra en desarrollo la última versión beta de iOS 18.3.

Este desarrollo se produce después de que se informara que el gigante tecnológico con sede en Cupertino estaba desarrollando una tienda de aplicaciones separada dedicada a los juegos con funciones tomadas de Game Center. Se decía que se probó en las estructuras internas de iOS 18pero aún no se ha lanzado a los probadores beta.

La aplicación Invitaciones de Apple puede ofrecer más funciones que las invitaciones de la aplicación Calendario

La nueva aplicación fue manchado Por 9to5Mac después de analizar el código de iOS 18.3 Beta 2. La publicación dice que Apple diferenciará la aplicación Invitaciones de la aplicación Calendario, que ofrece una funcionalidad similar para eventos, al ofrecer algunas características adicionales. Se dice que está integrado con iCloud y puede tener una versión web en iCloud.com.

Las invitaciones también se pueden integrar con GroupKit, un demonio en los sistemas operativos de Apple que permite la comunicación y el intercambio entre aplicaciones y usuarios aprovechando las colecciones de aplicaciones, los grupos y GroupActivityMetadata. Según se informa, se agregó con la primera actualización de iOS 18, pero la aplicación de Apple aún no lo ha utilizado.

Todavía no está claro si la aplicación Invites se ofrecerá como una aplicación independiente o como una pequeña aplicación dentro de otras aplicaciones como Mensajes. La publicación predice que Invites proporcionará a los usuarios una lista de personas invitadas a un evento en particular y les informará sobre aquellos que han confirmado su asistencia.

Las referencias a la aplicación Invites solo aparecen en el código iOS 18.3 Beta 2 y la funcionalidad está actualmente deshabilitada. El personal de Gadgets 360 puede confirmar que dicha aplicación no está en la superficie de actualización, pero eventualmente puede llegar a los usuarios a través de la próxima actualización de iOS.

Recibe las últimas novedades de CES en Gadgets 360, nuestro sitio web Salón de electrónica de consumo 2025 centro.

[ad_2]

Source Article Link

Categories
Featured

El código encontrado indica que Google Gemini llegará a Android Auto

[ad_1]


  • Google Gemini pronto podría integrarse con Android Auto
  • Gemini puede mejorar las herramientas existentes con habilidades conversacionales naturales
  • Gemini podría hacer que Android Auto sea más útil durante los viajes

Google acepta mellizo En camino con planes para integrarlo en Android Auto, según código inédito Encontró Por cuerpo de robot. Aunque Google no ha anunciado oficialmente esta actualización, el código ha revelado indicios de que la integración de Gemini está en camino, con varios cambios notables en la interfaz, incluido el ícono de Gemini Live y la opción de “Preguntar a Gemini” sobre cualquier cosa. Aunque Gemini aún no interactuará a través de la interfaz, está claro que se han sentado las bases.

Gemini puede hacer mucho por los conductores más allá de lo que ofrece actualmente el Asistente de Google, simplemente siendo más conversacional y empleando análisis de inteligencia artificial para resolver problemas. Imagine que llega tarde al trabajo y necesita encontrar la ruta más rápida a través del tráfico. Gemini no solo pudo calcular la mejor ruta, sino que también pudo analizar los patrones de tráfico para sugerir si desviarse para tomar un café era una decisión inteligente. Si estás aburrido de conducir solo, Gemini podría romper el silencio con trivias sobre puntos de referencia cercanos, como un navegante humano divertido.

[ad_2]

Source Article Link

Categories
News

Hugging Face ofrece la biblioteca Smolagents para crear agentes de IA utilizando LLM de código abierto

[ad_1]

abrazo de cara La semana pasada presentó una nueva biblioteca de códigos para permitir a los desarrolladores crear fácilmente agentes de inteligencia artificial (IA). La herramienta, llamada smolagents, define la lógica subyacente de agentes de IA simples y de propósito general que pueden realizar acciones implementándolas en código. Smolagent se puede vincular a cualquier modelo de lenguaje grande (LLM) de código abierto o a un número selecto de LLM basados ​​en la nube. Los desarrolladores también pueden crear herramientas para conectar la parte de salida externa del agente. Estas herramientas también se pueden compartir en la plataforma para permitir que otros desarrolladores accedan a ellas y las utilicen.

Hugging Face ofrece una biblioteca de Smolagents para agentes de IA

en un Publicación de blogLa plataforma de inteligencia artificial y aprendizaje automático (ML) anunció la nueva herramienta que tiene como objetivo facilitar a los desarrolladores el uso de las capacidades de los agentes. La biblioteca viene con aproximadamente 1000 líneas de código que definen la funcionalidad básica del agente de IA. Los desarrolladores pueden adjuntarlo al LLM y a cualquier herramienta externa de recopilación de datos o ejecución de acciones. Al centrarse únicamente en estos dos elementos, la plataforma afirma que a los desarrolladores les resultará más fácil crear nuevos agentes y utilizarlos en sus proyectos y aplicaciones.

Los Smolagents están diseñados teniendo en cuenta factores simples. Esto significa que pueden realizar cualquier tarea, pero probablemente no sean adecuados para trabajos de varios pasos o de múltiples agentes. Hugging Face declaró que puede escribir acciones en código (como ejecutar acciones) pero no puede usarse para escribir dicho código. La plataforma también permite a los desarrolladores implementar tengo un agente En ambientes aislados vía E2B para probar confiabilidad y modificar salidas.

La biblioteca del agente también admite el estándar ToolCallingAgent que escribe acciones en JSON o manchas de texto. Además, una vez que un desarrollador crea una herramienta de agente, también puede compartirla con la comunidad. Los usuarios pueden elegir cualquier modelo abierto alojado en la plataforma a través de la interfaz de programación de aplicaciones (API) de inferencia gratuita o elegir entre una lista de más de 100 modelos diferentes basados ​​en la nube.

Cuando navega a la herramienta, Hugging Face recomienda crear una función que contenga sugerencias para escribir en las entradas y salidas, así como descripciones de las entradas. Al resaltar el caso de uso, la plataforma mostró un código para un agente de inteligencia artificial que puede obtener tiempos de viaje de Google Maps y planificar rutas de viaje para los usuarios.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


La fecha de lanzamiento de la serie Oppo Reno 13 5G en India está fijada para el 9 de enero; Configuraciones de RAM y almacenamiento reveladas



KuCoin lanza una nueva función de pago que permite pagos similares a UPI mediante códigos QR



[ad_2]

Source Article Link

Categories
Computers

Stefano Vukov, ex entrenador de Elena Rybakina, ha sido suspendido por la WTA en virtud de una investigación sobre el código de conducta.

[ad_1]

En vísperas del Abierto de Australia, se está gestando una gran lucha en la cima del tenis femenino.

Elena RybakinaEl campeón de Wimbledon 2022 quiere fichar al exentrenador Stefano Vukoff Regresó a su equipo, pero Vukov fue suspendida provisionalmente por la WTA mientras se sometía a una investigación secreta y privada por una violación del código de conducta del tour.

Vukov tiene prohibido recibir acreditación WTA y Tennis Australia no le otorgará acreditación para el primer Grand Slam de la temporada 2025.

Vukoff ha negado haber violado la regla de la WTA, y Rybakina, número seis del mundo, ha declarado repetidamente que el comportamiento de Vukoff hacia ella no fue en absoluto abusivo. Ella hizo saber esos sentimientos al WTA Tour, según un representante familiarizado con la investigación en curso. La WTA inició la investigación el año pasado después de que se presentaran quejas sobre su comportamiento, que otros dentro del deporte describieron como duro y a veces duro.

Mientras que otros entrenadores y comentaristas, incluida la entrenadora de Donna Vekic y analista de ESPN Pam Shriver, criticaron públicamente a Vukov, Rybakina lo defendió y no fue uno de los quejosos que criticaron al WTA Tour.

“Ciertamente nunca ofendí a nadie”, escribió Vukov en un mensaje de texto durante su vuelo a Australia el jueves desde Dubai.

“La WTA puede confirmar que Stefano Vukov está actualmente sujeto a una suspensión provisional en espera de una investigación independiente sobre una posible violación del Código de Conducta de la WTA”, dijo un portavoz de la WTA en un comunicado.

“Como parte de la suspensión provisional, el Sr. Vukov no es elegible para la acreditación de la WTA en este momento. Si bien la WTA normalmente no comenta sobre las investigaciones en curso, creemos que es necesario aclarar este asunto debido a declaraciones públicas recientes que tergiversan la situación. “No proporcionaremos más detalles en este momento”.

Tennis Australia no respondió de inmediato a una solicitud de comentarios.

Según dos fuentes familiarizadas con la investigación, el WTA Tour se encuentra en las etapas finales de la investigación sobre Vukov, que ha sido llevada a cabo por una organización independiente y que podría revelarse en los próximos días.

Esas fuentes dicen que el WTA Tour no entrevistó a Vukov sobre las quejas. Hablaron de forma anónima para no afectar las relaciones actuales con las personas dentro del deporte.

Dado que a Vukov se le ha prohibido efectivamente entrenar, no podrá ingresar a las canchas de práctica ni al área de Rybakina para el Abierto de Australia ni a ningún otro evento. Pero en una historia de Instagram publicada el 1 de enero desde Perth, donde Rybakina competía en la Copa United para Kazajstán junto al actual entrenador Goran Ivanisevic, confirmó el regreso de Vukov a su equipo.

“Hola a todos, estoy feliz de anunciar que Stefano se unirá al equipo para la temporada 2025. Gracias a todos por el apoyo. Que tengáis un gran 2025”, escribió Rybakina.

La decisión de Rybakina de traer de vuelta a Vukov abre la posibilidad de un enfrentamiento con los altos mandos del deporte apenas unos días antes del inicio del primer Grand Slam del año, tradicionalmente uno de los momentos más importantes del año en el deporte.

Las personas en contacto directo con Rybakina, finalista de 2023 en Melbourne, dijeron que no estaba claro qué haría si a Vukov no se le permitiera entrenarla. Las posibilidades incluyen de todo, desde conseguir entradas para poder ver los partidos en la cancha hasta boicotear el torneo y los eventos del WTA Tour.


Rybakina, que nació y creció en Rusia pero ha representado a Kazajstán a cambio de su apoyo profesional desde que tenía 18 años, se separó de Vukov en agosto después de una exitosa asociación de cinco años. Rybakina estaba fuera del Top 100 cuando ella y Vukov empezaron a trabajar juntos. Ganó el Campeonato de Wimbledon en 2022 al derrotar a Ons Jabeur en tres sets.

Wimbledon prohibió a los jugadores que representan a Rusia y Bielorrusia debido a la invasión rusa de Ucrania, pero a Rybakina se le permitió jugar porque ahora reclama a Kazajstán como su patria.


La victoria de Elena Rybakina en Wimbledon fue su único título de Grand Slam hasta la fecha. (Julian Feeney/Getty Images)

Rybakina perdió la final del Abierto de Australia en tres sets ante Aryna Sabalenka seis meses después. Alcanzó el tercer puesto en la clasificación y fue una de las pocas jugadoras que constantemente causó problemas a Iga Swiatek, la jugadora dominante en este deporte durante los últimos tres años.

Sin embargo, ha luchado contra lesiones y enfermedades durante el último año y medio. Durante ese período, se retiró repetidamente de torneos, incluido el Campeonato de Indian Wells, el Abierto de Italia y el Juegos Olímpicos.

Según fuentes familiarizadas con la investigación, Rybakina ha estado en contacto con la WTA durante meses, intentando refutar las acusaciones y hacer que Vukoff sea elegible para entrenarla. Su decisión de anunciar su interés en trabajar con Vukov junto a Ivanisevic, cuyo nombramiento anunció hace apenas dos meses, ha puesto el tema en el centro de atención.

Si bien Vukov no puede entrenarla, la publicación de Rybakina en las redes sociales no mencionó qué papel desempeñaría. Fuentes cercanas a los recientes acontecimientos de Rybakina y familiarizadas con la investigación en curso dijeron que Rybakina y Vukov hablan regularmente sobre y antes de sus partidos.

Junto con su Código de Conducta, el lunes 26 de diciembre, la WTA emitió nuevas salvaguardas en un documento de 50 páginas. el atleta Ha sido revisado.

Algunas de las regulaciones, incluidos los poderes que permiten al WTA Tour prohibir temporalmente a un entrenador sin explicación o notificación de una investigación en curso, parecen ajustarse a los detalles de la situación que involucra a Rybakina y Vukoff, pero no son directamente parte de las reglas de conducta que se están implementando. investigado por violaciones.

Queda por ver dónde deja eso a Ivanisevic, quien recientemente ha estado entrenando a Novak Djokovic. Ivanisevic (53 años) ayudó a Djokovic a ganar nueve títulos de Grand Slam entre 2019 y 2024.

profundizar

ir más profundo

Elena Rybakina nombra nuevo entrenador a Goran Ivanisevic

El nombramiento de Ivanisevich se consideró un gran golpe para Rybakina. Sin embargo, su asociación se volvió tensa después de que ella anunció que Vukov regresaría apenas unas semanas después de que Ivanisevic comenzara a trabajar con ella. Ivanisevic, que tiene un contrato a corto plazo (lo cual es inusual en el tenis), se sorprendió por el anuncio de Rybakina, según fuentes de los acontecimientos recientes de Rybakina y ha sido informado sobre la investigación en curso sobre Vukov. A principios de esta semana, Rybakina dijo a los periodistas en la cancha que el mundo del tenis, con el tiempo, “verá el trabajo” que ambos están haciendo.

No está claro si Ivanisevic se quedará si Vukov logra volver a convertirse en el entrenador de facto de Rybakina en el futuro.

Vukov viajó a Australia a petición de Rybakina, pero no puede estar en el campo con ella, que es donde debería estar el entrenador. Rybakina dice que lo quiere allí. Pero la WTA no está de acuerdo y Tennis Australia está actualmente a favor de una suspensión temporal de la gira.

(Imagen superior: Robert Prange/Getty Images)

[ad_2]

Source Article Link

Categories
News

Aitomatic y AI Alliance presentan el modelo de IA de código abierto centrado en semiconductores SemiKong

[ad_1]

Aitomatic y otros colaboradores del grupo de trabajo Foundation Models de AI Alliance han presentado un nuevo modelo centrado en semiconductores. inteligencia artificial (AI) a principios de este mes. El modelo de lenguaje grande (LLM), llamado SemiKong, se basa en una arquitectura de agentes expertos en dominios (DXA) y se entrena con datos de la industria de alta calidad. Se espera que el modelo ayude a los profesionales humanos a lo largo de todo el proceso de desarrollo y proceso de dispositivos semiconductores. El modelo base de SemiKong es Llama 3.1 70B de Meta, que se optimizó utilizando documentos de la industria de semiconductores, artículos de investigación y datos anonimizados de diseño y fabricación.

SemiKong puede reducir el tiempo de diseño del chipset hasta en un 30 por ciento

El nuevo modelo de IA se detalla en un archivo Publicación de blog En muerto. Desarrollado por la empresa de inteligencia artificial Aitomatic, con sede en Palo Alto, y varios otros colaboradores de AI Alliance, SemiKong es un modelo centrado en semiconductores. Esto significa que SemiKong solo contiene datos sobre la industria específica, incluido el diseño, la fabricación, la fabricación y el desarrollo de dispositivos y procesos semiconductores.

Es un modelo de código abierto para inteligencia artificial. disponible En GitHub y Hugging Face utilizando la licencia Apache-2.0 para casos de uso individuales y comerciales. Es un modelo de lenguaje bilingüe entrenado en tres billones de códigos multilingües y está disponible en cuatro variantes: SemiKong-8B, SemiKong-70B, SemiKong-8B Instruct y SemiKong-70B Instruct.

Christopher Nguyen, director ejecutivo de Aitomatic, dijo que el modelo de IA tiene como objetivo abordar una brecha de conocimiento en la industria de los semiconductores que ha visto a muchos veteranos retirarse en los últimos años sin reemplazar adecuadamente el conocimiento. Además, Nguyen afirmó que SemiKong puede fomentar la innovación y la colaboración “en toda la industria para adoptar la IA para acelerar muchos procedimientos operativos y de fabricación de misión crítica”.

SemiKong se basa en una arquitectura de IA neuronal simbólica se llama Agentes neuronales conscientes de dominio (DANA). Se necesita un enfoque triple en el que se organiza el conocimiento especializado, la experiencia humana se aumenta con conocimiento sintético para entrenar DXA y los DXA capacitados se vinculan a los sistemas de ejecución de fabricación de las empresas de semiconductores para automatizar análisis y decisiones técnicas.

Según las pruebas internas realizadas por Aitomatic, SemiKong puede ofrecer una reducción del 20 al 30 por ciento en el tiempo de comercialización de nuevos diseños de chips. También se dice que ofrece una mejora de hasta el 25 por ciento en las tasas de “primera ejecución” en la fabricación de chips. Además, también se afirma que ayuda a los jóvenes profesionales a acelerar el proceso de incorporación entre un 40 y un 50 por ciento.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


Snapdragon 8 Elite 2 puede venir con un rendimiento de GPU “significativamente mejorado”; Fugas del calendario de lanzamiento



Tether respalda el fondo Web3 de Arcanum Capital con una inversión de 2 millones de dólares



[ad_2]

Source Article Link

Categories
News

El equipo Qwen de Alibaba lanza el modelo de IA de código abierto QVQ-72B en vista previa

[ad_1]

Alibaba El equipo de investigación de Qwen ha lanzado en versión preliminar otro modelo de inteligencia artificial (IA) de código abierto. Llamado QVQ-72B, es un modelo de razonamiento basado en la visión que puede analizar información visual a partir de imágenes y comprender el contexto detrás de ella. El gigante tecnológico también compartió los resultados comparativos del modelo de IA y destacó que en una prueba específica, pudo superar al modelo o1 de OpenAI. Vale la pena señalar que Alibaba tiene Liberado Recientemente se han abierto varios modelos de IA, incluidos los modelos de lenguaje grande (LLM) centrados en el razonamiento QwQ-32B y Marco-o1.

Lanzamiento del modelo de inteligencia artificial basado en visión QVQ-72B de Alibaba

en la cara abrazando existenteel equipo Qwen de Alibaba ha detallado un nuevo modelo de IA de código abierto. Al describirlo como un modelo de investigación experimental, los investigadores enfatizaron que el QVQ-72B viene con capacidades mejoradas de razonamiento visual. Curiosamente, se trata de dos ramas distintas del rendimiento y los investigadores las combinaron en este modelo.

Abundan los modelos de IA basados ​​en la visión. Esto incluye software de codificación de imágenes y puede analizar información visual y el contexto detrás de ella. Asimismo, los modelos centrados en la inferencia, como el o1 y el QwQ-32B, vienen con capacidades de escalamiento de cálculo en el momento de la prueba que les permiten aumentar el tiempo de procesamiento del modelo. Esto permite que el modelo analice y resuelva el problema paso a paso y evalúe y corrija el resultado frente al validador.

Con el modelo preliminar QVQ-72B, Alibaba ha combinado estas dos funciones. Ahora puede analizar información de imágenes y responder consultas complejas utilizando estructuras centradas en el razonamiento. El equipo destaca que ha mejorado significativamente el rendimiento del modelo.

Al compartir calificaciones de pruebas internas, los investigadores afirmaron que el QVQ-72B pudo obtener una puntuación del 71,4 por ciento en el punto de referencia MathVista (mini), superando al modelo o1 (71,0). También se dice que obtuvo una puntuación del 70,3 por ciento en el punto de referencia de comprensión multitarea multimedia (MMMU).

Aunque se mejora el rendimiento, existen varias limitaciones, como ocurre con la mayoría de los modelos experimentales. El modelo de IA a veces mezcla diferentes idiomas o cambia entre ellos inesperadamente, informó el equipo de Quinn. La cuestión del cambio de código también es destacada en el modelo. Además, el modelo es propenso a caer en bucles de pensamiento recursivos, lo que afecta el resultado final.

[ad_2]

Source Article Link

Categories
News

DeepSeek-V3 es un modelo de IA de código abierto lanzado con una arquitectura de mezcla experta

[ad_1]

Sec profundo, chino inteligencia artificial (AI), un modelo de IA DeepSeek-V3 el jueves. El nuevo modelo de lenguaje grande (LLM) de código abierto presenta la friolera de 671 mil millones de parámetros, superando los 405 mil millones de parámetros de Meta Llama 3.1. A pesar de su tamaño, los investigadores afirmaron que el LLM se centra en la eficiencia a través de su estructura mixta de expertos (MoE). Como resultado, el modelo de IA solo puede activar parámetros específicos relevantes para la tarea en cuestión y garantizar eficiencia y precisión. Vale la pena señalar que es un modelo basado en texto y no tiene capacidades multimedia.

Lanzamiento del modelo de IA DeepSeek-V3

El modelo de IA de código abierto DeepSeek-V3 está actualmente en marcha Alojado Abrazo en la cara. Según el listado, el LLM está orientado a una heurística eficiente y una formación rentable. Por esta razón, los investigadores adoptaron diseños de Atención latente de cabezas múltiples (MLA) y DeepSeekMoE.

Básicamente, el modelo de IA solo activa parámetros relevantes para el tema del reclamo, lo que garantiza un procesamiento más rápido y una mayor precisión en comparación con los modelos típicos de este tamaño. DeepSeek-V3, previamente entrenado con 14,8 billones de códigos, utiliza técnicas como el ajuste fino supervisado y el aprendizaje por refuerzo para generar respuestas de alta calidad.

La compañía china afirmó que, a pesar de su tamaño, el modelo de IA se entrenó completamente en 2.788 millones de horas utilizando una GPU Nvidia H800. La arquitectura DeepSeek-V3 también incluye tecnología de equilibrio de carga para reducir la degradación del rendimiento. Esta tecnología se utilizó por primera vez en su predecesor.

En términos de rendimiento, los investigadores compartieron evaluaciones de pruebas internas del modelo y afirmaron que supera a los modelos Meta Llama 3.1 y Qwen 2.5 en Big High Performance (BBH), comprensión lingüística multitarea (MMLU), HumanEval, MATH y varios otros puntos de referencia. Sin embargo, hasta el momento no ha sido verificado por investigadores externos.

Una de las características más importantes de DeepSeek-V3 es su enorme tamaño de 671 mil millones de parámetros. Si bien existen modelos más grandes, p. mellizo La versión 1.5 Pro tiene un billón de parámetros, un volumen que es poco común en el espacio del código abierto. Antes de eso, era el modelo de IA de código abierto más grande. muerto Llama 3.1 con 405 mil millones de parámetros.

En la actualidad, se puede acceder al código DeepSeek-V3 a través del menú Hugging Face bajo la licencia MIT para uso personal y comercial. Además, el modelo de IA también se puede probar a través de la plataforma de chatbot en línea de la empresa. Aquellos que quieran construir con el modelo AI también pueden acceder a la API.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


Precio de las criptomonedas hoy: Bitcoin está experimentando una caída de precios, uniéndose a la mayoría de las criptomonedas en una corrección en todo el mercado



Los mejores teléfonos inteligentes de gama media de 2024: Redmi Note 14 Pro+, OnePlus Nord 4, Realme 13 Pro+ y más



[ad_2]

Source Article Link