El servicio de creación y edición de videos con IA de Runway ha agregado la función de renovación de videos prometida Modelo Alpha, tercera generación. Este conversor de video a video le permite enviar un videoclip y texto para editarlo. Los cambios pueden modificar la configuración, los artistas u otros elementos del video para que coincidan con el texto deseado o cualquiera de algunas sugerencias de estilos preestablecidos.
La función de video a video es la última incorporación importante a las opciones de creación de videos de Runway. Runway en realidad permite a los usuarios comenzar con texto o imágenes para determinar el aspecto y la animación del video. Ahora, al comenzar con videos del mundo real, los usuarios pueden definir el movimiento de antemano y luego usar IA para cambiar el diseño y la estética. Runway entrenó la función en una gran colección de videos y fotografías detallados para enseñar al modelo de IA cómo comprender las películas cargadas y las indicaciones para cambiarlas. Es como ver un vídeo nuevo de otro mundo. Puedes descubrir cómo funciona a continuación.
“Video to Video representa un nuevo mecanismo de control de micromovimientos, expresión e intención entre generaciones”, explicó Runway en las redes sociales. “Para usar Video to Video, simplemente cargue su video de entrada, luego apúntelo en la dirección estética que desee o elija entre una variedad de estilos predefinidos”.
película multiverso
Cuando se combina con la capacidad actual de la Tercera Generación Alfa para manejar transformaciones complejas y rostros y emociones humanas expresivas, los resultados pueden ser bastante sorprendentes. Runway se apresuró a mejorar la tercera generación alfa con nuevas opciones. Recientemente, la empresa presentó Alfa Turbo de tercera generación Una versión de su modelo, que sacrifica algunas funcionalidades por la velocidad. Además de la opción de vídeo a vídeo, la herramienta también funciona con Motion Brush, controles avanzados de cámara, modo director y otras funciones de edición de vídeo más detalladas.
La Alpha de tercera generación parece ser más versátil y fácil de usar que la segunda generación. Sin embargo, adolece de algunas limitaciones a pesar de su sorprendente rendimiento. Actualmente, puede crear vídeos de hasta 10 segundos de duración, lo que apenas es una película larga. La velocidad y la calidad pueden compensar esto para que pueda funcionar por más tiempo. Sin embargo, Runway tiene que superar una competencia cada vez mayor.
En un esfuerzo por reducir los residuos electrónicos, microsoft Se están utilizando robots impulsados por IA para simplificar el proceso de eliminación de discos duros viejos en los centros de datos.
La iniciativa es parte del proyecto Safe and Sustainable Hard Disk Disposal, que se originó durante el Microsoft Hackathon 2022. El proyecto, encabezado por el científico jefe de datos Ranganathan Srikanth, amplía el esquema de centros circulares de Microsoft que está diseñado para reutilizar y reciclar servidores y la nube relacionada. hardware.
Los centros circulares forman una parte fundamental de Los objetivos medioambientales más amplios de MicrosoftEn 2020, el presidente de Microsoft, Brad Smith, prometió que la empresa sería neutra en carbono para 2050 y cero residuos para 2030.
#Sin_corte
Los centros de datos, que albergan sistemas informáticos y componentes centrales como comunicaciones y almacenamiento, contribuyen significativamente a la demanda mundial de electricidad. En 2022, este porcentaje era de alrededor del 1-1,3%, pero gracias a la inteligencia artificial, el uso de energía está aumentando drásticamente y se espera que al menos se duplique para 2026. Como resultado, la presión sobre las redes eléctricas locales está aumentando y el fin de -Los centros de datos de vida corren el riesgo de bloquear los vertederos con residuos electrónicos.
Srikanth se dio cuenta de que estos crecientes problemas podrían abordarse mediante un proyecto Hackathon. “Si fuera solo un disco duro, esto no tendría ninguna posibilidad. Sin embargo, sólo en 2022, se destruyeron dos millones de discos duros, y eso llenaría la carga útil de nueve aviones 747”, señaló Srikanth.
Históricamente, los discos duros al final de su vida útil se trituraban para proteger datos confidenciales, pero el proceso también destruye materiales valiosos como el neodimio. Cada año se destruyen hasta 70 millones de discos duros, lo que provoca un importante desperdicio de tierras raras.
El equipo del Hackathon propuso una solución llamada #NoShred, que prioriza el desmontaje de discos duros mediante robots. “El proceso utiliza visión por computadora y robótica para desmontar y clasificar el disco duro y destruir los medios que contienen los datos. Luego, los materiales se reciclan”, explicó un comentarista de Microsoft en un nuevo vídeo que puedes ver a continuación. Al desmontar las unidades, los robots garantizan la seguridad de los datos y al mismo tiempo conservan y reciclan los componentes.
Suscríbase al boletín TechRadar Pro para recibir todas las noticias, opiniones, funciones y orientación que su empresa necesita para tener éxito.
Salvando el planeta, un disco duro a la vez: usando robots – YouTube
Los Microsoft Circular Centers utilizan el aprendizaje automático para desmantelar servidores en el sitio, clasificar piezas reutilizables y mejorar la sostenibilidad de los equipos para el futuro. Microsoft dice que la prueba exitosa en Ámsterdam demostró una reducción del tiempo de inactividad, una mayor disponibilidad de piezas y una reducción de las emisiones de carbono.
El proyecto Eliminación segura y sostenible de discos duros tiene como objetivo lograr una tasa de reutilización y reciclaje del 90% de todos los discos duros para 2025.
Fue llamado por al menos dos nombres diferentes: Conexión de Oculus Y luego Conéctate a Facebook – Pero sea cual sea el nombre, el evento Meta de otoño sigue siendo un gran escaparate de los últimos y mayores logros de la compañía en realidad virtual y realidad mixta. Y al igual que el año pasado, probablemente podamos esperar que las novedades más importantes surjan de Meta Connect 2024 en solo dos acrónimos: AI y AR.
Como cualquier otra gran empresa de tecnología este año, Meta estará dispuesta a mostrar cómo planea seguir siendo relevante en un futuro impulsado por la inteligencia artificial. Ahora que han pasado siete meses desde el lanzamiento de Apple Vision Pro, que llegó junto con un breve aumento en el interés en la realidad aumentada (RA), el CEO de Meta, Mark Zuckerberg, probablemente esté interesado en mostrar sus propios planes para hacer realidad la RA.
Si bien Zuckerberg no está tan entusiasmado con el metaverso como cuando cambió el nombre de su empresa, la unión de la inteligencia artificial y la realidad aumentada es una forma de hacer realidad el sueño de los mundos virtuales permanentes. Puede que suene menos Listo, jugador uno.Pero si las gafas AR realmente tienen éxito, podrían permitir que Meta se apodere de otra parte de nuestro mundo digital. Para ayudar a lograrlo, no estaría de más ofrecer unos auriculares VR actualizados y económicos.
Con todo eso en mente, estas son algunas de las cosas que esperamos ver en Meta Connect 2024, que se lanza virtualmente el 25 de septiembre y dura dos días.
Gafas Orión AR
Después de que supuestamente lo mataran Un costoso visor de realidad mixta de próxima generaciónque estaba destinado a competir con Apple Vision Pro, Meta se centra en cambio en un par de gafas de realidad aumentada, con nombre en código Orion, como su próxima innovación. Como se muestra en el fondo Una foto de Mark Zuckerberg (arriba), y algo más tarde Fue confirmado por elEl Orion parece un par de monturas gruesas de estilo hipster.
A diferencia del Quest 3, que consume completamente tu visión y usa cámaras para mostrar una vista del mundo de baja calidad, el Orion puede permitirte ver el mundo real como un par de anteojos normales. Pero, al igual que Magic Leap y HoloLens de Microsoft antes que ellos, las gafas Meta pueden superponer hologramas sobre su realidad. La principal diferencia, por supuesto, es que parece mucho menos voluminoso que esos dispositivos.
“Creo que las gafas van a ser un gran evento”, dijo Zuckerberg en una entrevista. Entrevista en el podcast Blueprint (a través de Camino a VR“Estamos casi listos para empezar a mostrar el prototipo completo de las gafas 3D. No las venderemos a gran escala; nos centraremos en construir la versión completa para el consumidor en lugar de vender el prototipo”.
En la conferencia Meta Connect 2022, Zuckerberg anticipó cómo la compañía estaba pensando en gafas de realidad aumentada, junto con un interesante controlador de muñeca:
“Este es probablemente el prototipo más interesante que tenemos hasta ahora”, dijo Andrew Bosworth, CTO de Meta. el dijo Borde“El año pasado, podría haberme metido en problemas por decir esto: creo que esta puede ser la pieza de tecnología más avanzada del planeta en su campo. Y en electrónica de consumo, esta puede ser la cosa más avanzada que jamás hayamos producido como una especie.”
de acuerdo a Meta hoja de ruta filtradaLa compañía planea lanzar un nuevo par de gafas inteligentes Ray-Ban el próximo año que agregará una pequeña pantalla incorporada junto con la cámara, el altavoz y el micrófono existentes. A esto le seguirá el primer par de gafas AR de consumo de Meta en 2027. Es lógico que veamos algún tipo de dispositivo conceptual este año. Así como el dispositivo Vision Pro de Apple era en realidad la versión de la compañía de un concept car AR/VR para presentar a los desarrolladores su concepto de “computación espacial”, Meta necesitará brindarles a los desarrolladores una forma de usar su plataforma para que puedan construir su propia realidad aumentada. experiencias.
Meta vía Gary_the_mememachine/Reddit
Una versión más barata de Quest 3
En lugar de los auriculares actualizados, todo indica que Meta lanzará una versión simplificada de Quest 3 llamada Quest 3S. Informes Bloomberg Mark Gorman. Fotos recientes filtradas La aplicación Quest Link de Meta ha confirmado la presencia de los auriculares. Según Gurman, la compañía pretende hacerlo mucho más barato que la versión actual, teniendo en cuenta los precios de 300 o 400 dólares, y al mismo tiempo ofrecer una experiencia cercana al Quest 3. Probablemente reemplazará al Quest 2, que permanece en el mercado. línea de producción a $ 299 durante mucho tiempo. Lanzado en 2020.
Entonces, ¿por qué Meta hace esto? Existe una enorme brecha de rendimiento entre Quest 3 y Quest 2, lo que dificulta la vida a los desarrolladores. Con una máquina más barata similar a la Quest 3, y quizás usando el mismo procesador, será más fácil crear juegos que puedan escalar en dos niveles de precios. De acuerdo a Bloomberg Según Gorman, Meta también ha considerado lanzar algunos modelos nuevos de auriculares sin controladores incluidos, lo que haría bajar aún más el precio.
Más IA, por supuesto
Esperamos que Meta muestre más formas en que aprovecha la IA a través de los auriculares Quest y las gafas inteligentes Ray-Ban. La compañía implementó capacidades de búsqueda multimedia de IA en esas gafas en enero, lo que le permite preguntarle a Meta AI sobre los objetos o puntos de referencia que estaba buscando, o una traducción rápida. Basado en nuestras pruebasSin embargo, estas características eran sorprendentemente incompletas.
El Meta probablemente discutirá formas en las que mejora estas características existentes implementándolas. El gran modelo de lenguaje Llama 3.1 (LLM), lo que lo posiciona como un competidor de código abierto de los programas LLM de Google y OpenAI. En particular, la compañía señala que Llama 3.1 proporciona capacidades de traducción, matemáticas y conocimientos generales significativamente mejoradas. Ciertamente hay espacio para que Meta introduzca nuevas capacidades de IA impulsadas por Llama 3.1 en las gafas inteligentes de Ray-Ban, pero dada la potencia de procesamiento y la duración de la batería limitadas, probablemente tendremos que esperar a un modelo actualizado antes de ver algo realmente innovador.
Adobe Express, la plataforma de creación de contenidos, se amplió el viernes a ocho idiomas indios. La compañía dijo que esta medida permitirá que más hablantes nativos participen en el proceso de creación de contenido. La plataforma también ofrece inteligencia artificial (Inteligencia artificial) Funciones de las que los usuarios pueden beneficiarse. Vale la pena señalar que la expansión del idioma está disponible a través del escritorio. AndroideAplicaciones iOS y un cliente web. Con esta actualización, los usuarios podrán acceder a la plataforma Adobe Express en hindi y en otros idiomas regionales.
Adobe Express ahora está disponible en ocho idiomas indios
En un comunicado de prensa, el gigante del software confirmó que la plataforma Adobe Express ahora estará disponible en hindi, bengalí, gujarati, kannada, malayalam, punjabi, tamil y telugu. Esto ayudará a usuarios, desde estudiantes hasta creadores de contenido en la India, a beneficiarse de las herramientas de Adobe Firefly, dijo la compañía.
Con Adobe Firefly, los usuarios pueden acceder a herramientas de inteligencia artificial, plantillas, herramientas de productividad y funciones relacionadas con los idiomas regionales de la India para crear fotos y videos fácilmente. Además, la compañía también está lanzando varias funciones impulsadas por IA en el país.
Una de estas herramientas es la traducción automática, que es una característica distintiva que permite a los usuarios traducir plantillas en idiomas indios. También pueden personalizarlo después de la traducción. También se está agregando una nueva interfaz de usuario local en hindi, tamil y bengalí. Los usuarios también tendrán acceso a funciones como traducción de elementos de texto y traducción de varias páginas. Todas estas herramientas tienen como objetivo reducir la fricción entre los hablantes de idiomas regionales al utilizar la herramienta únicamente en inglés.
Adobe Express también ofrece otras herramientas de IA como Relleno generativo, Eliminar fondo, Eliminar objetos, Generar imagen, Generar plantilla, Animar a partir de audio, Subtítulos de vídeo y más. La plataforma también brinda a los usuarios acceso a miles de plantillas, imágenes de Adobe Stock, videos, música y más.
Adobe Adobe afirma que las herramientas impulsadas por Firefly siguen las pautas de Content Source and Authenticity Alliance (C2PA), una tecnología de código abierto para clasificar contenido generado por IA. Vale la pena señalar que cuando se lanzó Adobe Express como plataforma móvil, estuvo disponible de forma gratuita por un tiempo limitado. Sin embargo, el precio de suscripción premium de la plataforma es ahora de 480 INR. La membresía brinda acceso a todas las funciones impulsadas por IA de Firefly, así como a todas las herramientas mencionadas anteriormente. Además, los usuarios también obtendrán 100 GB de almacenamiento en la nube para almacenar sus creaciones.
Samsunguno de los Los mayores fabricantes de chips semiconductores del mundo.Según se informa, a Ambarella se le ha adjudicado un contrato para fabricar chips de 2 nm. Es un fabricante estadounidense de chips que fabrica chips para cámaras y funciones de seguridad avanzadas (como ADAS) para automóviles.
Samsung fabricará chips de 2 nm para Ambarella a partir de 2026
esta corriendo Reportado por TheElec Ambarella ha adjudicado un contrato a Samsung Foundry para fabricar chips de 2 nm. Se dice que la empresa ha conseguido recientemente este contrato y planea comercializarlo. 2nm Ambarella tiene la intención de fabricar chips el próximo año y comenzar la producción en masa de estos chips en algún momento de 2026 o 2027.
Hace unos meses, Samsung Foundry mostró un nuevo producto. El proceso de tecnología de 2 nm se llama SF2ASF2A está diseñado específicamente para chips semiconductores de automóviles. La compañía dijo que planea tener el SF2A completamente listo en 2027. Sin embargo, dado que Ambarella dijo que su nuevo chip estará listo en 2026, es posible que Samsung retrase el proceso de fabricación de su chip semiconductor.
Ambarella ya es cliente de Samsung Foundry, donde la empresa surcoreana fabrica chips de 5 nm para el producto Sistema avanzado de asistencia al conductor (ADAS) de la empresa estadounidense. Se adjudicó este contrato en febrero de este año.
Samsung planeaba desbancar a TSMC para 2030 como mayor fabricante de chips, pero parece que este plan no está saliendo bien. A pesar de las enormes inversiones, la empresa está aún más por detrás de su competidor taiwanés. Según datos de TrendForce, la cuota de mercado de TSMC alcanzó el 62,3% en el segundo trimestre de este año, mientras que la cuota de mercado de Samsung Foundry fue sólo del 11,5%.
Si bien la compañía intenta conseguir clientes importantes como Apple, AMD, MediaTek y Nvidia, estas empresas actualmente siguen con TSMC para sus productos más avanzados. Qualcomm obtiene algunos de sus chips fabricados por Samsung Foundry y ha estado probando los procesos de 3 nm y 4 nm de Samsung, pero aún no le ha otorgado a Samsung ningún nuevo contrato.
Nevada se convertirá en el primer estado en realizar un juicio Inteligencia artificial generativa Se está comercializando un sistema diseñado para tomar decisiones sobre solicitudes de desempleo como una forma de acelerar las apelaciones y abordar la enorme acumulación de casos atrasados en el país. Es un experimento arriesgado integrar por primera vez la inteligencia artificial en la toma de decisiones a un nivel superior.
Google está detrás de la tecnología de software, que ejecuta transcripciones de audiencias de apelación por desempleo a través de los servidores de inteligencia artificial de Google, analizando los datos para entregar decisiones de reclamos y recomendaciones de beneficios a “árbitros humanos”. Gizmodo Según se informa, la Junta Examinadora del Estado de Nevada aprobó el contrato en nombre del Departamento de Empleo, Capacitación y Rehabilitación en julio, a pesar de Mayor resistencia legal y política Contra la integración de la inteligencia artificial en la burocracia.
Christopher Sowell, director del DETR, dijo: Gizmodo “Los seres humanos seguirán estando muy involucrados en la toma de decisiones sobre el desempleo. No existe inteligencia artificial”. [written decisions] “Es un proceso que se realiza sin interacción humana ni revisión humana. Podemos emitir decisiones más rápido que realmente ayuden al solicitante”, dijo Sowell.
Velocidad de la luz medible
Pero grupos legales y científicos de Nevada han argumentado que el tiempo ahorrado por la IA generacional quedará anulado por el tiempo que lleve realizar una revisión humana integral de una decisión de reclamo. Varios también mencionaron preocupaciones de que información personal privada (incluyendo información fiscal y números de Seguro Social) pudiera filtrarse a través de Vertex AI Studio de Google, incluso con medidas de seguridad implementadas. Algunos dudan sobre el tipo de IA en sí, conocida como generación de recuperación aumentada (RAG), que se ha descubierto que produce respuestas incompletas o engañosas a las indicaciones.
En todo el país, se han implementado o probado silenciosamente herramientas basadas en IA en varias agencias de servicios sociales, y la IA está cada vez más integrada en el ecosistema administrativo. En febrero, los Centros de Servicios de Medicare y Medicaid (CMS) federales anunciaron el lanzamiento de una nueva aplicación inteligente. Sentencia contra el uso de inteligencia artificial (incluida la inteligencia artificial generativa o algoritmos) como tomador de decisiones para determinar la atención o la cobertura del paciente. Esto se produjo tras una demanda de dos pacientes que afirmaron que su proveedor de seguros utilizó un modelo de IA “fraudulento” y “dañino” (conocido como nH Predict) que anuló las recomendaciones de los médicos.
Axon, un fabricante de tecnología policial y armamentista, presentó su primer Draft One, un modelo generativo de lenguaje grande (LLM, por sus siglas en inglés) que ayuda a las fuerzas del orden a escribir informes “más rápidos y de mayor calidad”, a principios de este año. La tecnología aún se encuentra en un período beta y ya ha sido probada. Sonaron las sirenas de alarmaEsto ha generado preocupación sobre la capacidad de la inteligencia artificial para analizar los matices de las interacciones tensas entre la policía, lo que podría exacerbar la falta de transparencia en la actuación policial.
No puedes escapar de los anuncios online… ni siquiera inteligencia artificial Los chatbots han comenzado a enviarte anuncios.
En la actualización que proporcionó a sus anunciantes, Comercio electrónico gigante Amazonas Anunció que comenzará a publicar anuncios a través de un chatbot asistente de compras impulsado por inteligencia artificial llamado Rufus.
“Para ayudar a los clientes a descubrir más productos en el asistente de compras generado por IA de Amazon, conocido como Rufus, sus anuncios pueden aparecer en ubicaciones asociadas con Rufus”, decía la actualización de septiembre de Amazon a su plataforma de publicidad Amazon. “Rufus puede crear un texto adjunto basado en el contexto de la conversación”.
Velocidad de la luz medible
La actualización de Amazon fue notada por primera vez por Adwick.
Según Amazon, Rufus publicará anuncios basados en la información proporcionada por los usuarios. Los anuncios se personalizarán según lo que el usuario busca en función de sus términos de búsqueda y la conversación con el chatbot.
Rufo fue el primero fue lanzado A principios de este año, se lanzó a través de Amazon para todos los usuarios en julio. Un chatbot de IA ayuda a proporcionar más información sobre productos, recomendaciones y comparaciones en un formato conversacional. Rufus utiliza la información disponible en las páginas de productos de Amazon para su base de conocimientos.
como TechCrunch El informe señala que esta no es la primera vez que se utiliza un chatbot de inteligencia artificial para publicar anuncios. El año pasado, Microsoft comenzó a probar anuncios en su chatbot de IA Copilot.
Anthropic ha anunciado el lanzamiento de un plan centrado en los negocios para Claude, una familia de grandes modelos lingüísticos, que espera brinde un impulso significativo a las grandes empresas. productividad Y cooperación.
El nuevo plan Enterprise proporcionará una ventana de contexto de 500 KB, mayor capacidad e integración con GitHub para respaldar el código base que trabaja con Claude.
Claude for Enterprise también aborda muchos de los desafíos y preocupaciones que enfrentan las organizaciones con respecto a la seguridad, la privacidad y el cumplimiento.
Anthropic lanza plan Cloud Enterprise
Claude Enterprise resulta atractivo para las grandes empresas, ya que admite el inicio de sesión único (SSO) y el registro de dominio para una mejor gestión de usuarios centralizada, junto con acceso basado en roles y ajuste de permisos. La compañía también confirmó que está trabajando en registros de auditoría y SCIM, que deberían llegar “en las próximas semanas”.
Claude Enterprise también permite a las empresas procesar poderosamente cantidades masivas de datos Inteligencia artificial generativa – Anthropic dice que una ventana de contexto de 500 KB equivale a cientos de textos de ventas.
Además, la integración con microsoftGitHub, propiedad de Claude, permite a ingenieros y desarrolladores sincronizar repositorios con Claude. Está previsto que la funcionalidad llegue más ampliamente a finales de este año, pero los primeros usuarios del plan Enterprise obtendrán acceso beta anticipado.
Combinado con los proyectos y artefactos, Anthropic espera que Claude se convierta en “la solución integral definitiva de asistencia”. [teams] “Tome cualquier iniciativa, desde la idea hasta el resultado de un trabajo de alta calidad”.
Suscríbase al boletín TechRadar Pro para recibir todas las noticias, opiniones, funciones y orientación que su empresa necesita para tener éxito.
El precio de Claude Enterprise no se ha revelado, probablemente porque los costos variarán según los casos de uso y el tamaño de la empresa.
Sin embargo, con el lanzamiento de su nuevo plan centrado en los negocios, Anthropic claramente espera enfrentarse al arraigado gigante de la IA generativa. charla gbtque también tiene una suscripción Enterprise. ChatGPT ahora tiene 1 millón de usuarios pagos en sus registros. A principios de abril, se creía que la empresa tenía aproximadamente 600.000 usuarios empresariales.
YouTube Facebook está creando herramientas para detectar imágenes de artistas, como actores y músicos, generadas por IA, escribió en un comunicado el vicepresidente de productos para creadores de la compañía, Amjad Hanif. Blog Hanif también ha expresado repetidamente que YouTube está “comprometido” con el desarrollo responsable de herramientas de inteligencia artificial.
La primera de las nuevas herramientas es identificar “voces sintéticas” en Content ID, un sistema para identificar música con derechos de autor que se lanzó en 2007. Mashable informó en 2016 que YouTube ha pagado miles de millones de dólares a los titulares de derechos A través de Content ID, Hanif lo confirmó en esta publicación.
Parece que la nueva tecnología podrá detectar sonidos generados por inteligencia artificial para parecerse a los músicos. Está previsto que el próximo año comience un programa piloto.
YouTube también está desarrollando tecnología para detectar contenido generado por inteligencia artificial que muestra los rostros de actores, creadores, atletas y similares.
Además de este anuncio, Haneef criticó a YouTube y Google (propietario de YouTube) por utilizar el contenido subido para “mejorar la experiencia del contenido” a través del aprendizaje automático y el desarrollo de herramientas de inteligencia artificial. La empresa se compromete a “hacer esto de forma responsable”, aunque no proporcionó detalles específicos. La publicación del blog también afirma que el sitio ha implementado salvaguardas para el uso de las herramientas de inteligencia artificial generativa de YouTube, como Pantalla de ensueñocomo bloquear ciertos reclamos que violan sus políticas (aunque no define explícitamente los reclamos).
YouTube también se compromete (nuevamente) a garantizar que las aplicaciones de terceros respeten los Términos de servicio de YouTube, que prohíben ciertos usos del contenido del creador, como el scraping.
“Estamos comprometidos a trabajar con nuestros socios para garantizar que los desarrollos futuros refuercen sus voces, y continuaremos desarrollando barreras para abordar las preocupaciones y lograr nuestros objetivos compartidos”, escribió Hanif.