Categories
News

La Autoridad de Regulación Prudencial del Banco de Inglaterra ordena a las empresas del Reino Unido que revelen su exposición a las criptomonedas

[ad_1]

El Banco de Inglaterra (BoE) está tratando de comprender cómo las empresas locales ofrecen y manejan las criptomonedas en el Reino Unido. En un acontecimiento notable, la Autoridad de Regulación Prudencial (PRA) ha emitido una directiva a las empresas locales para que revelen sus tenencias de criptomonedas, si las hubiera. La PRA se describe como un organismo regulador financiero dependiente del Banco de Inglaterra en el Reino Unido. Este desarrollo se produce cuando el Reino Unido evalúa el impacto que los activos digitales virtuales podrían tener en su economía y sistemas financieros, como parte de los esfuerzos que comenzaron bajo el ex primer ministro del Reino Unido, Rishi Sunak.

Al igual que India, Rusia y los Emiratos Árabes Unidos, el Reino Unido también ha tomado medidas activas para formular políticas claras en torno a las criptomonedas. Las orientaciones emitidas por la PRA están en consonancia con este objetivo.

De acuerdo a Trabajo oficial Desde el Banco de Inglaterra, las empresas locales que operan en el espacio de las criptomonedas debían proporcionar esta información antes del 24 de marzo de 2025.

“Esto informará el trabajo en todo el perfil de riesgo y el análisis del Banco de Inglaterra sobre los criptoactivos, ayudándonos a calibrar nuestro tratamiento prudencial de la exposición a los criptoactivos y analizar los costos y beneficios relativos de diferentes opciones de políticas”, dijo el Banco de Inglaterra. En términos más generales, el banco dijo que utilizaría esta información para monitorear los efectos de los criptoactivos en la estabilidad financiera en el Reino Unido y para formular políticas.

Al dar este paso, el Banco de Inglaterra se adhiere a las instrucciones de 2022 emitidas por el Comité de Basilea, que establece estándares para que los bancos evalúen el “tratamiento prudencial de la exposición a los criptoactivos”.

“Los supervisores deben ejercer su autoridad para exigir a los bancos que aborden cualquier deficiencia en el proceso de identificación o evaluación de los riesgos de los criptoactivos. Además, los supervisores pueden recomendar que los bancos realicen pruebas de estrés o análisis de escenarios para evaluar los riesgos resultantes de la exposición a los criptoactivos. Estos análisis podrían ayudar a evaluar la idoneidad del capital del banco. el dijo En ese tiempo.

El Reino Unido está trabajando para finalizar su legislación sobre criptomonedas para 2026. En noviembre de este año, la Autoridad de Conducta Financiera del Reino Unido (FCA) emitió el dijo Las regulaciones propuestas se centrarán en garantizar un mercado justo y transparente para los criptoactivos, libre de manipulación y explotación.

Para garantizar que sus decisiones con respecto a las criptomonedas no expongan a las personas a riesgos financieros, las autoridades del Reino Unido examinan de cerca a las empresas de criptomonedas. En septiembre, la Autoridad de Conducta Financiera (FCA) reveló que el 90 por ciento de las recientes solicitudes de registro de empresas de criptomonedas habían sido rechazadas porque las empresas Web3 carecían de medidas de prevención contra el fraude y el lavado de dinero.

[ad_2]

Source Article Link

Categories
News

El descubrimiento de microARN gana el Premio Nobel de Fisiología 2024 por su innovadora regulación genética

[ad_1]

Un descubrimiento inesperado relacionado con la regulación genética le ha valido a Victor Ambros, de la Facultad de Medicina de la Universidad de Massachusetts, y a Gary Ruvkun, de la Facultad de Medicina de Harvard, el Premio Nobel de Fisiología o Medicina 2024. La investigación del dúo determinó que era pequeño. ARN Se trata de segmentos conocidos como microARN, que desempeñan un papel importante en la regulación de la producción de proteínas en el organismo. Este descubrimiento, que surgió de su trabajo con un pequeño gusano, ha proporcionado importantes conocimientos sobre los procesos biológicos asociados con la salud y la enfermedad.

Papel del microARN en la regulación genética.

Los microARN son pequeñas moléculas de ARN que ayudan a regular la expresión genética al influir en la producción de proteínas. En este proceso, las moléculas de microARN se unen al ARN mensajero (ARNm) que transporta instrucciones del ADN para fabricar proteínas. Al adherirse al ARNm, las moléculas de microARN impiden la traducción de esas instrucciones, lo que reduce la cantidad de proteína producida. En lugar de actuar como un interruptor de encendido/apagado, estas moléculas actúan como atenuadores, reduciendo sutilmente la producción de proteínas.

Primeros descubrimientos en gusanos.

Ambros y Rovcon investigación Comenzó en Caenorhabditis elegans, un gusano pequeño y transparente. Se centraron en dos genes, lin-4 y lin-14, que desempeñaban un papel clave en el desarrollo del gusano. Ambros descubrió por primera vez un pequeño trozo de ARN vinculado al gen lin-4. Resultó ser el primer microARN identificado. Rovkun demostró más tarde que el microARN lin-4 se une al ARNm del gen lin-14, reduciendo la producción de su proteína correspondiente.

Impacto en la salud humana

Inicialmente se pensó que los microARN eran específicos de los gusanos, pero investigaciones posteriores revelaron que están presentes en todo el reino animal, incluidos los humanos. Este descubrimiento ha abierto nuevas vías de investigación sobre cómo estos pequeños ARN afectan la salud humana, con posibles aplicaciones en el tratamiento de enfermedades como el cáncer, las enfermedades cardíacas y las afecciones neurodegenerativas.

[ad_2]

Source Article Link

Categories
Featured

Regulación deepfake: ¿un arma de doble filo?

[ad_1]

La tecnología deepfake se está convirtiendo rápidamente en la última “caja de Pandora” de inteligencia artificial. Ya no solo se produce contenido satírico para políticos (¿quién olvidará alguna vez al Papa Moncler, un deportista?), ahora estamos viendo cómo la IA generativa se utiliza activamente como arma, desde falsificaciones políticas engañosas, anuncios de celebridades e incluso escolares que falsifican fotografías explícitas de sus compañeros de clase.

Como capacidades Herramientas de inteligencia artificial En la carrera por delante de la organización, muchos están cada vez más preocupados por la amenaza real que representa. Se ha introducido nueva legislación, pero la mayor parte de ella es demasiado limitada o demasiado vaga para proteger a las personas de manera integral. Por otro lado, estas nuevas reglas tienen implicaciones que podrían detectar fácilmente a los profesionales que intentan utilizar la IA generativa de manera legítima.

[ad_2]

Source Article Link

Categories
Featured

La falta de claridad sobre la regulación de la IA puede estar frenando a las empresas

[ad_1]

Una nueva investigación ha puesto de relieve el impacto significativo de la regulación de la IA en las empresas del Reino Unido.

El estudio de Freshworks de más de 7.000 altos directivos y responsables de la toma de decisiones en 12 países revela un panorama complejo en el que el potencial de la IA se está reconociendo seriamente, pero se ve frenado por la incertidumbre regulatoria.

[ad_2]

Source Article Link

Categories
Life Style

Ex ejecutivos de OpenAI piden una regulación más intensa y señalan un liderazgo tóxico

[ad_1]

anterior AbiertoAI Los miembros de la junta están pidiendo una mayor regulación gubernamental de la empresa, mientras el liderazgo del director ejecutivo Sam Altman está siendo criticado.

Helen Toner y Tasha McAuley, dos de los muchos ex empleados que formaron la de los personajes Cual Derrocó a Altman en noviembre. – Dicen que su decisión de despedir al líder y “rescatar” la estructura organizacional de OpenAI fue impulsada por “patrones de comportamiento de larga data demostrados por el Sr. Altman”, que “socavaron la supervisión de la junta de decisiones clave y protocolos de seguridad internos”.

Escribiendo en una editorial que publicaste El economista El 26 de mayo, Toner y McCauley afirmaron que el patrón de comportamiento de Altman, combinado con su dependencia de la autonomía, es una receta para el desastre de AGI.

Si bien los dos dicen que se unieron a la compañía con un “optimismo cauteloso” sobre el futuro de OpenAI, impulsados ​​​​exclusivamente por los motivos aparentemente altruistas de la compañía sin fines de lucro en ese momento, desde entonces los dos han cuestionado las acciones de Altman y la compañía. “Varios altos líderes han expresado en privado serias preocupaciones a la Junta, diciendo que creen que el señor Altman cultivó una 'cultura tóxica de mentira' y adoptó un 'comportamiento'”, escribieron. [that] “Se puede describir como abuso psicológico”.

“Los acontecimientos desde su regreso a la empresa, incluido su regreso a la junta directiva y la salida de talentos senior centrados en la seguridad, no auguran nada bueno para el experimento de autonomía de OpenAI”. “Incluso con las mejores intenciones y sin supervisión externa, este tipo de autorregulación terminará siendo inviable, especialmente bajo la presión de incentivos masivos para obtener ganancias. Los gobiernos deben desempeñar un papel activo”.

En retrospectiva, Toner y McCauley escriben: “Si alguna empresa pudiera gobernarse a sí misma con éxito mientras desarrollaba sistemas avanzados de IA de forma segura y ética, podría haber sido así”. AbiertoAI“.

Velocidad de la luz triturable

Los ex miembros de la junta se oponen a la tendencia actual de autoinformación y a una regulación externa bastante mínima de las empresas de IA a medida que las leyes federales fallan. En el extranjero, los equipos de IA ya han encontrado inconvenientes al depender de gigantes tecnológicos para liderar los esfuerzos de seguridad. La semana pasada, la UE Advertencia multimillonaria a Microsoft Después de que no revelaran los riesgos potenciales del software CoPilot e Image Creator impulsado por IA. Un informe reciente del Instituto de Seguridad de IA del Reino Unido encontró que las garantías de muchos de los modelos de lenguaje general (LLM) más importantes pueden verse fácilmente violadas por afirmaciones maliciosas.

En las últimas semanas, OpenAI ha estado en el centro de la conversación sobre la regulación de la IA luego de una serie de renuncias de alto perfil por parte de empleados de alto rango que indicaron puntos de vista diferentes sobre su futuro. Después de que el cofundador y líder del equipo de Superalignment, Ilya Sutskever, y el copresidente, Jan Lyke, abandonaran la empresa, OpenAI disolvió su equipo de seguridad interno.

Lake dijo que estaba preocupado por el futuro de OpenAI, ya que su “cultura y procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”.

Altman fue criticado por una empresa entonces revelada Política de salida Esto obliga a los empleados salientes a firmar acuerdos de confidencialidad que les impiden decir algo negativo sobre OpenAI o correr el riesgo de perder el capital que tengan en el negocio.

Poco después, Altman y el presidente y cofundador Greg Brockman Respuesta a la controversiaescribe sobre El camino hacia la inteligencia general artificial.”

A los ojos de muchos ex empleados de OpenAI, la histórica filosofía de “toque ligero” de la regulación de Internet no funcionará.



[ad_2]

Source Article Link