El Banco de Inglaterra (BoE) está tratando de comprender cómo las empresas locales ofrecen y manejan las criptomonedas en el Reino Unido. En un acontecimiento notable, la Autoridad de Regulación Prudencial (PRA) ha emitido una directiva a las empresas locales para que revelen sus tenencias de criptomonedas, si las hubiera. La PRA se describe como un organismo regulador financiero dependiente del Banco de Inglaterra en el Reino Unido. Este desarrollo se produce cuando el Reino Unido evalúa el impacto que los activos digitales virtuales podrían tener en su economía y sistemas financieros, como parte de los esfuerzos que comenzaron bajo el ex primer ministro del Reino Unido, Rishi Sunak.
Al igual que India, Rusia y los Emiratos Árabes Unidos, el Reino Unido también ha tomado medidas activas para formular políticas claras en torno a las criptomonedas. Las orientaciones emitidas por la PRA están en consonancia con este objetivo.
De acuerdo a Trabajo oficial Desde el Banco de Inglaterra, las empresas locales que operan en el espacio de las criptomonedas debían proporcionar esta información antes del 24 de marzo de 2025.
“Esto informará el trabajo en todo el perfil de riesgo y el análisis del Banco de Inglaterra sobre los criptoactivos, ayudándonos a calibrar nuestro tratamiento prudencial de la exposición a los criptoactivos y analizar los costos y beneficios relativos de diferentes opciones de políticas”, dijo el Banco de Inglaterra. En términos más generales, el banco dijo que utilizaría esta información para monitorear los efectos de los criptoactivos en la estabilidad financiera en el Reino Unido y para formular políticas.
Al dar este paso, el Banco de Inglaterra se adhiere a las instrucciones de 2022 emitidas por el Comité de Basilea, que establece estándares para que los bancos evalúen el “tratamiento prudencial de la exposición a los criptoactivos”.
“Los supervisores deben ejercer su autoridad para exigir a los bancos que aborden cualquier deficiencia en el proceso de identificación o evaluación de los riesgos de los criptoactivos. Además, los supervisores pueden recomendar que los bancos realicen pruebas de estrés o análisis de escenarios para evaluar los riesgos resultantes de la exposición a los criptoactivos. Estos análisis podrían ayudar a evaluar la idoneidad del capital del banco. el dijo En ese tiempo.
El Reino Unido está trabajando para finalizar su legislación sobre criptomonedas para 2026. En noviembre de este año, la Autoridad de Conducta Financiera del Reino Unido (FCA) emitió el dijo Las regulaciones propuestas se centrarán en garantizar un mercado justo y transparente para los criptoactivos, libre de manipulación y explotación.
Para garantizar que sus decisiones con respecto a las criptomonedas no expongan a las personas a riesgos financieros, las autoridades del Reino Unido examinan de cerca a las empresas de criptomonedas. En septiembre, la Autoridad de Conducta Financiera (FCA) reveló que el 90 por ciento de las recientes solicitudes de registro de empresas de criptomonedas habían sido rechazadas porque las empresas Web3 carecían de medidas de prevención contra el fraude y el lavado de dinero.
Un descubrimiento inesperado relacionado con la regulación genética le ha valido a Victor Ambros, de la Facultad de Medicina de la Universidad de Massachusetts, y a Gary Ruvkun, de la Facultad de Medicina de Harvard, el Premio Nobel de Fisiología o Medicina 2024. La investigación del dúo determinó que era pequeño. ARN Se trata de segmentos conocidos como microARN, que desempeñan un papel importante en la regulación de la producción de proteínas en el organismo. Este descubrimiento, que surgió de su trabajo con un pequeño gusano, ha proporcionado importantes conocimientos sobre los procesos biológicos asociados con la salud y la enfermedad.
Papel del microARN en la regulación genética.
Los microARN son pequeñas moléculas de ARN que ayudan a regular la expresión genética al influir en la producción de proteínas. En este proceso, las moléculas de microARN se unen al ARN mensajero (ARNm) que transporta instrucciones del ADN para fabricar proteínas. Al adherirse al ARNm, las moléculas de microARN impiden la traducción de esas instrucciones, lo que reduce la cantidad de proteína producida. En lugar de actuar como un interruptor de encendido/apagado, estas moléculas actúan como atenuadores, reduciendo sutilmente la producción de proteínas.
Primeros descubrimientos en gusanos.
Ambros y Rovcon investigación Comenzó en Caenorhabditis elegans, un gusano pequeño y transparente. Se centraron en dos genes, lin-4 y lin-14, que desempeñaban un papel clave en el desarrollo del gusano. Ambros descubrió por primera vez un pequeño trozo de ARN vinculado al gen lin-4. Resultó ser el primer microARN identificado. Rovkun demostró más tarde que el microARN lin-4 se une al ARNm del gen lin-14, reduciendo la producción de su proteína correspondiente.
Impacto en la salud humana
Inicialmente se pensó que los microARN eran específicos de los gusanos, pero investigaciones posteriores revelaron que están presentes en todo el reino animal, incluidos los humanos. Este descubrimiento ha abierto nuevas vías de investigación sobre cómo estos pequeños ARN afectan la salud humana, con posibles aplicaciones en el tratamiento de enfermedades como el cáncer, las enfermedades cardíacas y las afecciones neurodegenerativas.
La tecnología deepfake se está convirtiendo rápidamente en la última “caja de Pandora” de inteligencia artificial. Ya no solo se produce contenido satírico para políticos (¿quién olvidará alguna vez al Papa Moncler, un deportista?), ahora estamos viendo cómo la IA generativa se utiliza activamente como arma, desde falsificaciones políticas engañosas, anuncios de celebridades e incluso escolares que falsifican fotografías explícitas de sus compañeros de clase.
Como capacidades Herramientas de inteligencia artificial En la carrera por delante de la organización, muchos están cada vez más preocupados por la amenaza real que representa. Se ha introducido nueva legislación, pero la mayor parte de ella es demasiado limitada o demasiado vaga para proteger a las personas de manera integral. Por otro lado, estas nuevas reglas tienen implicaciones que podrían detectar fácilmente a los profesionales que intentan utilizar la IA generativa de manera legítima.
Entonces, ¿qué protecciones legales existen actualmente en el Reino Unido en relación con los deepfakes y qué comportamientos están prohibidos?
Graeme Murray y Michael Shaw
Graeme Murray es asociado senior de Marks & Clerks y Michael Shaw es socio de Marks & Clerk.
Variedades faciales
Primero, es importante definir qué es lo que realmente hace que un deepfake sea un deepfake. Después de todo, las similitudes existen en la naturaleza (hay un viejo dicho que dice que siete personas en el mundo se parecen a usted), pero ¿cuán similares están protegidos por las regulaciones y dónde pueden tropezar en su negocio? Un ejemplo útil de esto es la sentencia de 2019 contra la empresa de cigarrillos electrónicos Diamond Mist. La publicidad de la empresa incluía un anuncio con la frase “Mo está loco por el mentol” acompañado de fotografías de un modelo masculino calvo y cejas pobladas.
Mo Farah recurrió a Twitter para quejarse de la posible confusión y la gente preocupada creyó que respaldaba el producto. En última instancia, la Agencia de Normas de Publicidad (ASA) dictaminó que el anuncio efectivamente daba una “impresión engañosa”: si bien “Mo” es un apodo común, la cabeza y las cejas del modelo “recordaban” lo suficiente al atleta como para que los espectadores pudieran asociarlo con él. . Mo Farah es una de las personalidades más famosas del Reino Unido con este nombre.
Y aquí está el quid de la cuestión: aunque la foto no era deepfake, era lo suficientemente similar como para confundir a los espectadores, y lo mismo ocurre con las fotos deepfake. Si es lo suficientemente engañoso como para confundir a otra persona, tiene motivos para considerar presentar una demanda.
Por el contrario, como empresa, debe considerar todas las interpretaciones posibles de las imágenes para asegurarse de poder utilizar la IA generativa sin tener complicaciones legales. El hecho de que la imagen genérica de la IA que utilizas para escribir un artículo de LinkedIn parezca genérica no significa que lo sea. La voz, los gestos y el contexto son factores que se tienen en cuenta. Pero la pregunta al final es: ¿Confundió a los espectadores?
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Legislación actual sobre deepfakes
Hasta la fecha, no existe ninguna ley en el Reino Unido que proporcione una protección integral contra los deepfakes. En cambio, los individuos están protegidos bajo una variedad de regulaciones dependiendo de la naturaleza del deepfake.
ley de seguridad en internet
La Ley de Seguridad en Internet tiene una disposición importante contra los deepfakes. Si bien ha sido ilegal compartir imágenes íntimas o explícitas de alguien sin su consentimiento desde 2015, la Ley de Seguridad en Línea ha empeorado esta disposición para hacer ilegal compartir imágenes íntimas de alguien generadas por IA sin su consentimiento. Es importante destacar que, a diferencia de la sentencia para contenido íntimo genuino, no es necesario demostrar que el creador tenía la intención de causar angustia en el caso de imágenes falsas, aunque este es otro delito grave si se puede probar la intención sexual. Es importante señalar que esta disposición no penaliza la creación de contenido deepfake, solo su intercambio. La Ley de Seguridad en Internet también se centra principalmente en eliminar contenido ofensivo; A muchos les preocupa que las disposiciones resulten ineficaces mientras la creación de deepfakes íntimos siga sin estar regulada y los perpetradores queden impunes.
Agencia de normas de publicidad
La ASA interviene cuando los anuncios contienen contenido engañoso. En el caso de los deepfakes, esto suele ocurrir en el caso de publicidad fraudulenta o clickbait; Es poco probable que esto afecte a la gente corriente, y quienes dirigen empresas deberían saber que no deben utilizar celebridades, que normalmente marcan su apariencia, gestos y voces, por ejemplo.
Sin embargo, lo más interesante es el área gris de similitud que los deepfakes exacerbarán. Una cosa que el caso Mo Farah destacó particularmente es que el parecido no necesita ser idéntico, sólo necesita confundir al espectador lo suficiente como para crear dudas razonables. Con la IA generativa extraída de material protegido por derechos de autor, ahora existe el riesgo de que las empresas violen accidentalmente las regulaciones de la ASA al utilizar resultados de IA genéricos que, sin darse cuenta, se parecen lo suficiente a celebridades de la vida real como para causar confusión. La intención en este caso es irrelevante: lo único que importa es si los espectadores fueron engañados, y eso podría llevar a las empresas a tener problemas con la ASA.
derecho civil
El último recurso para los ciudadanos del Reino Unido es el derecho civil. Aunque no existe una legislación específica que aborde los deepfakes, las personas pueden solicitar asilo en los siguientes casos:
Privacidad: los deepfakes pueden considerarse una violación del derecho de un individuo privacidadespecialmente si pueden demostrar que el creador del contenido utilizó datos personales para crearlo, lo cual está protegido por el RGPD del Reino Unido y la Ley de Protección de Datos de 2018.
Acoso: Múltiples deepfakes con la intención de causar ansiedad o angustia pueden formar la base de un reclamo de acoso.
Difamación: si un deepfake tiene un impacto negativo en la reputación de una persona al retratarla de manera falsa o dañina, existe la posibilidad de que se presente un caso por difamación.
En tales casos, sería mejor que la persona buscara orientación legal sobre cómo proceder.
El futuro de la legislación deepfake
Entonces, ¿hacia dónde irá la legislación a partir de aquí? Con suerte, en el futuro. El gobierno del Reino Unido ha dado un gran paso atrás en este tema en el período previo a las elecciones, pero con la ley de IA de la UE a la cabeza, es probable que pronto veamos nuevas regulaciones.
Pero el problema más importante es la implementación. De los tres organismos que analizamos anteriormente, la Ley de Seguridad en Línea, la Agencia de Normas de Publicidad y el Código Civil del Reino Unido, se centran en regular la producción caso por caso. Actualmente, el Reino Unido no cuenta con ninguna regulación ni propuestas para introducir mayores medidas de seguridad en torno a los propios programas. De hecho, muchos están celebrando la falta de regulación en el Reino Unido tras la ley de IA de la UE, con la esperanza de que suponga una bendición para las industrias de la IA.
Sin embargo, las estrategias actuales siguen siendo ineficaces. Las víctimas necesitan apoyo legal para lograr avances en los casos, y los creadores siguen escapando de las repercusiones. Del mismo modo, controlar la tecnología a gran escala se considera poco práctico; basta con mirar el Reglamento General de Protección de Datos (GDPR) para entenderlo. Los esfuerzos para lograrlo, como la ley de IA de la UE, aún no logran abordar el problema, ya que las tecnologías generativas de código abierto siguen sin estar completamente reguladas.
Parece que se necesitará un árbitro independiente (el panel de IA de Ofcom), pero aún está por ver qué tan independiente o efectivo será. Esperemos que el nuevo gobierno pueda lograr algún tipo de equilibrio entre la industria y la protección personal. un trabajo innovación.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde mostramos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro
Una nueva investigación ha puesto de relieve el impacto significativo de la regulación de la IA en las empresas del Reino Unido.
El estudio de Freshworks de más de 7.000 altos directivos y responsables de la toma de decisiones en 12 países revela un panorama complejo en el que el potencial de la IA se está reconociendo seriamente, pero se ve frenado por la incertidumbre regulatoria.
Un estudio encontró que dos de cada tres (65%) de los líderes empresariales del Reino Unido confían en la capacidad de la IA para agregar valor a sus operaciones; sin embargo, uno de cada tres (35%) cita regulaciones poco claras como la principal barrera para la adopción de la inteligencia artificial. mas ampliamente.
Las empresas buscan regulaciones más claras para la inteligencia artificial
Freshworks descubrió que los líderes empresariales promedio del Reino Unido afirman ahorrar un promedio de más de tres horas a la semana cuando utilizan herramientas de inteligencia artificial, y uno de cada 10 (11%) afirma ahorrar más de nueve horas, o más, de una jornada laboral típica.
A pesar de los claros beneficios de ahorro de tiempo, más de un tercio (37%) de los líderes del Reino Unido no tienen planes de integrar la IA en su lugar de trabajo, en gran parte debido a la incertidumbre regulatoria. Se encontró que los encuestados británicos estaban más preocupados por el tema que sus homólogos de otros países encuestados.
Además, quienes exploran la tecnología prevén un período de uno o dos años antes de esperar un impacto significativo en el negocio, lo que pone de relieve el enfoque extremadamente cauteloso.
El informe también aborda las preocupaciones actuales de que la IA pueda reemplazar a los trabajadores humanos, y casi la mitad de los encuestados (46%) teme que la IA reemplace los empleos en su sector. Sin embargo, más de dos tercios (70%) de los encuestados dijeron que confiarían más en la IA si la revisión humana de los resultados fuera obligatoria, destacando su papel de apoyo.
Suscríbase al boletín TechRadar Pro para recibir todas las noticias, opiniones, funciones y orientación que su empresa necesita para tener éxito.
Cuando se trata de casos de uso, la creación de contenido (43%), el análisis de datos (39%) y la lluvia de ideas (35%) resultaron ser los más comunes.
Hablando sobre el potencial de la IA para ofrecer “enormes ganancias de productividad”, Prakash Ramamurthy, director de producto de Freshworks, comentó: “La era de la IA está cumpliendo su promesa de liberar a los empleados para trabajar en un nivel superior y ofrecer retornos convincentes de la IA”.
anterior AbiertoAI Los miembros de la junta están pidiendo una mayor regulación gubernamental de la empresa, mientras el liderazgo del director ejecutivo Sam Altman está siendo criticado.
Helen Toner y Tasha McAuley, dos de los muchos ex empleados que formaron la de los personajes Cual Derrocó a Altman en noviembre. – Dicen que su decisión de despedir al líder y “rescatar” la estructura organizacional de OpenAI fue impulsada por “patrones de comportamiento de larga data demostrados por el Sr. Altman”, que “socavaron la supervisión de la junta de decisiones clave y protocolos de seguridad internos”.
Escribiendo en una editorial que publicaste El economista El 26 de mayo, Toner y McCauley afirmaron que el patrón de comportamiento de Altman, combinado con su dependencia de la autonomía, es una receta para el desastre de AGI.
Si bien los dos dicen que se unieron a la compañía con un “optimismo cauteloso” sobre el futuro de OpenAI, impulsados exclusivamente por los motivos aparentemente altruistas de la compañía sin fines de lucro en ese momento, desde entonces los dos han cuestionado las acciones de Altman y la compañía. “Varios altos líderes han expresado en privado serias preocupaciones a la Junta, diciendo que creen que el señor Altman cultivó una 'cultura tóxica de mentira' y adoptó un 'comportamiento'”, escribieron. [that] “Se puede describir como abuso psicológico”.
“Los acontecimientos desde su regreso a la empresa, incluido su regreso a la junta directiva y la salida de talentos senior centrados en la seguridad, no auguran nada bueno para el experimento de autonomía de OpenAI”. “Incluso con las mejores intenciones y sin supervisión externa, este tipo de autorregulación terminará siendo inviable, especialmente bajo la presión de incentivos masivos para obtener ganancias. Los gobiernos deben desempeñar un papel activo”.
En retrospectiva, Toner y McCauley escriben: “Si alguna empresa pudiera gobernarse a sí misma con éxito mientras desarrollaba sistemas avanzados de IA de forma segura y ética, podría haber sido así”. AbiertoAI“.
Los ex miembros de la junta se oponen a la tendencia actual de autoinformación y a una regulación externa bastante mínima de las empresas de IA a medida que las leyes federales fallan. En el extranjero, los equipos de IA ya han encontrado inconvenientes al depender de gigantes tecnológicos para liderar los esfuerzos de seguridad. La semana pasada, la UE Advertencia multimillonaria a Microsoft Después de que no revelaran los riesgos potenciales del software CoPilot e Image Creator impulsado por IA. Un informe reciente del Instituto de Seguridad de IA del Reino Unido encontró que las garantías de muchos de los modelos de lenguaje general (LLM) más importantes pueden verse fácilmente violadas por afirmaciones maliciosas.
En las últimas semanas, OpenAI ha estado en el centro de la conversación sobre la regulación de la IA luego de una serie de renuncias de alto perfil por parte de empleados de alto rango que indicaron puntos de vista diferentes sobre su futuro. Después de que el cofundador y líder del equipo de Superalignment, Ilya Sutskever, y el copresidente, Jan Lyke, abandonaran la empresa, OpenAI disolvió su equipo de seguridad interno.
Lake dijo que estaba preocupado por el futuro de OpenAI, ya que su “cultura y procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”.
Altman fue criticado por una empresa entonces revelada Política de salida Esto obliga a los empleados salientes a firmar acuerdos de confidencialidad que les impiden decir algo negativo sobre OpenAI o correr el riesgo de perder el capital que tengan en el negocio.
Poco después, Altman y el presidente y cofundador Greg Brockman Respuesta a la controversiaescribe sobre El camino hacia la inteligencia general artificial.”
A los ojos de muchos ex empleados de OpenAI, la histórica filosofía de “toque ligero” de la regulación de Internet no funcionará.