Categories
News

Explicación: “Directrices de comercio justo y ciberseguridad de la BWA” para VASP en la India

[ad_1]

La Asociación Bharat Web3 (BWA), un organismo criptográfico no gubernamental de partes interesadas de la industria, ha emitido directrices detalladas para promover prácticas comerciales seguras para los proveedores de servicios Web3 en la India. Presidida por el ex secretario general de la Confederación de Cámaras de Comercio e Industria de la India, Dilip Chinoy, la BWA dio a conocer esta semana dos conjuntos integrales de directrices, centrados en garantizar ofertas de servicios seguras y justas. Estas directrices están dirigidas principalmente a proveedores de servicios de activos virtuales (VASP).

El 7 de enero, la BWA dio a conocer sus “Pautas de ciberseguridad y comercio justo”, que enfatizan la importancia de operaciones éticas, transparentes y conformes para los proveedores de servicios de activos virtuales (VASP). Estas directrices tienen como objetivo incorporar soluciones sólidas de gestión de riesgos y mejorar las salvaguardias financieras para la comunidad de inversores en la India.

Los VASP en India tienen hasta junio de 2025 para alinear sus operaciones con estas pautas.

Aspectos destacados de las Directrices de Comercio Justo de la BWA

BWA insiste en que los proveedores de servicios de activos virtuales deben estar atentos a las prácticas comerciales poco éticas y las tácticas de manipulación del mercado para garantizar la seguridad financiera de los comerciantes. el Web3 El organismo afirmó que Instrucciones Ha sido formateado para cumplir con las regulaciones indias y las mejores prácticas internacionales.

BWA ha ordenado a sus miembros que proporcionen a sus clientes información transparente sobre listas de activos, precios de mercado y reglas comerciales. También se ha ordenado a los VASP que implementen medidas para detectar actividades como el tráfico de lavado, el uso de información privilegiada y los esquemas de bombeo y descarga. Además, la Asociación del Agua de Bahrein fomenta iniciativas para educar a los inversores sobre prácticas comerciales seguras.

Las directrices también establecen que se debe impedir que los empleados no autorizados de las empresas Web3 accedan a información confidencial o no pública relacionada con las solicitudes o transacciones de los usuarios. Queda expresamente prohibida la práctica del “front running”. La ejecución hacia adelante ocurre cuando una entidad aprovecha el conocimiento interno de una próxima transacción para ejecutar operaciones antes de ella, explotando los movimientos esperados del mercado.

Puntos clave de las directrices de ciberseguridad

BWA informó que normas Se reunió para ayudar a los VASP a proteger su integridad, seguridad y confidencialidad en medio del creciente número de ataques y estafas.

Estas pautas alentaron a los VASP a educar a los usuarios sobre prácticas seguras y al mismo tiempo garantizar la seguridad y el cumplimiento generales para sus negocios y operaciones.

Los documentos detallan las prácticas de prueba de seguridad aprobadas por la BWA para servicios de custodia de activos y plataformas de intercambio. Profundizan en prácticas seguras para proteger los datos de los clientes, lo que incluye educar a la comunidad de inversores sobre lo que se debe y no se debe hacer en el mercado.

La posición de la India sobre las leyes de cifrado

El gobierno no ha fijado un cronograma específico para finalizar las leyes que supervisen el sector Web3, según el informe. Información Fue compartido en diciembre de 2024 por el Ministro de Estado (MoS) de Finanzas, Pankaj Chaudhary.

En India, las ganancias en criptomonedas están actualmente gravadas con un impuesto del 30 por ciento. Las empresas de criptomonedas que pretendan operar en el país deben registrarse en la Unidad de Inteligencia Financiera (UIF) y cumplir con las normas contra el lavado de dinero. Además, todos los intercambios deben recopilar detalles de Conozca a su cliente (KYC) de sus usuarios.

En medio de discusiones en curso sobre las regulaciones oficiales de criptomonedas, la BWA ha implementado de manera proactiva medidas de autorregulación para sus empresas miembros.

En diciembre del año pasado, BWA anunció una nueva “ABCD” La iniciativa se centró en la seguridad Web3. Mientras tanto, en abril de 2024, la BWA estableció la autorregulación normas En las listas de tokens de los intercambios.

La criptomoneda es una moneda digital no regulada, no es una moneda de curso legal y está sujeta a riesgos de mercado. La información contenida en el artículo no pretende ser ni constituye asesoramiento financiero, asesoramiento comercial ni ningún otro consejo o recomendación de ningún tipo brindado o respaldado por NDTV. NDTV no será responsable de ninguna pérdida que surja de cualquier inversión basada en cualquier recomendación, pronóstico o cualquier otra información contenida en el artículo.

Recibe las últimas novedades de CES en Gadgets 360, nuestro sitio web Salón de electrónica de consumo 2025 centro.

[ad_2]

Source Article Link

Categories
News

Europa emite directrices sobre “reglas de viaje” para las empresas de criptomonedas en medio de esfuerzos por frenar el lavado de dinero y los delitos financieros

[ad_1]

La Unión Europea está agregando más capas a sus regulaciones sobre criptomonedas para garantizar que los delincuentes no utilicen indebidamente los activos digitales virtuales para realizar o financiar actividades ilícitas. La Autoridad Bancaria Europea ha impuesto una “regla de viaje” a las empresas de criptomonedas que les exigirá almacenar los detalles de las transacciones en sus plataformas, con el objetivo de reducir los casos de lavado de dinero y financiación del terrorismo utilizando criptoactivos; estas transacciones a menudo no dejan rastro que conduzca a los perpetradores. del crimen.

La Autoridad Bancaria Europea ha ordenado que todas las empresas de cifrado revelen detalles de cada transacción en sus respectivas plataformas, según declaración El organismo regulador lo emitió a principios de este mes.

Guía sobre normas de viaje de la Autoridad Bancaria Europea

bajo el nuevo PautasSe ha ordenado a las empresas de cifrado de la Unión Europea que recopilen y mantengan registros de los pagadores y beneficiarios de todas las transacciones. La regla de viaje se aplica a todas las empresas que operan dentro de la región de la UE, que estarán obligadas a confirmar su cumplimiento. Las empresas que solicitan una exención deben proporcionar los motivos a las autoridades para ser evaluadas.

Las empresas de cifrado que no cumplan con esta ley sin notificar a las autoridades serán clasificadas como empresas “incumplidoras” y pueden enfrentar acciones legales. Se ha ordenado a las empresas asociadas con las criptomonedas que modifiquen sus políticas de una manera que sea consistente con la regla de viaje de la EBA, que ya cubre el sector bancario tradicional.

Estas pautas son completas y están programadas para entrar en vigencia el 30 de diciembre.

Normas de cifrado de la UE

La Autoridad Bancaria Europea también está trabajando con los responsables políticos de la UE para vincular el volátil y financieramente riesgoso sector criptográfico a un marco legal sólido en una medida que se espera que haga que la exploración del sector criptográfico sea más segura para los inversores, sin poner en peligro la estabilidad financiera de la UE mientras se encuentra en el Al mismo tiempo, tomar medidas enérgicas contra… los explotadores de criptomonedas.

A principios de junio, la Autoridad Bancaria Europea publicó el borrador final de las normas técnicas que regirán las reglas para los mercados de criptoactivos (MiCA). dirigido En el borrador final de las normas técnicas se incluyen una serie de cuestiones, incluidas las relacionadas con los requisitos de liquidez, el programa de pruebas de tensión, las reservas de activos y los planes de recuperación.

La Unión Europea aprobó la legislación MiCA en octubre de 2022, con el objetivo de garantizar la protección del consumidor, prevenir la manipulación del mercado y reducir los delitos financieros vinculados a los activos digitales en la UE.


Los enlaces de afiliados pueden generarse automáticamente; consulte Declaración de ética Para detalles.

[ad_2]

Source Article Link

Categories
Life Style

Las directrices para académicos apuntan a reducir los riesgos éticos en el uso de la IA generativa

[ad_1]

Una computadora mostraba una ilustración de un cubo digital con la etiqueta AI encerrado en una jaula.

Las nuevas directrices tienen como objetivo proteger a los investigadores y participantes en los estudios de los riesgos de la inteligencia artificial.Crédito: G Studios/Getty

Nuevo kit de herramientas para ayudar Académicos utilizarán inteligencia artificial generativa (genAI) está siendo desarrollado de forma más ética por investigadores del Reino Unido.

“La IA generativa es tan nueva que no tenemos ninguna orientación”, afirma Wendy Moncur, investigadora de ciberseguridad de la Universidad de Strathclyde en Glasgow, Reino Unido, que dirige el proyecto. Los académicos ya están pensando en los posibles peligros del uso de herramientas de IA genética, añade, “pero ¿no sería útil si tuvieran una pequeña lista de verificación para decir: 'Estas son las cosas en las que debes pensar; “Estas son las cosas en las que hay que pensar. Estas son las fortalezas. Estas son las amenazas”.

El proyecto se centra en los problemas que pueden surgir al utilizar herramientas de IA genética, como ChatGPT, creado por OpenAI en San Francisco, California, y Gemini de Google, que Compatible con grandes modelos de lenguaje. (LLM): se utilizan para analizar y procesar información personal de los voluntarios del estudio.

Él era Inspirado por el estudio en cursodirigido por Moncur, analiza cómo las personas que atraviesan transiciones importantes en su vida, como el diagnóstico de cáncer o un cambio de sexo, gestionan su privacidad en línea.

En este trabajo, Moncur y su equipo utilizan herramientas genAI para crear materiales educativos, basados ​​en las historias de los participantes, cuyo objetivo es guiar a otros a través de cambios de vida similares.

Los participantes compartieron detalles sobre sus experiencias, como cómo se vieron afectados su trabajo y sus relaciones, al tiempo que enfatizaron que la información solo se compartiría con otros de forma anónima. Pero antes de que el equipo comenzara a ingresar esta información en el software genAI, Moncur repentinamente temió que si la herramienta combinaba información disponible públicamente con los datos anonimizados que había recibido, los participantes podrían ser reidentificados accidentalmente.

Al equipo también le preocupaba la tendencia de los MBA a “alucinar” –es decir, generar información sin sentido o incorrecta–, lo que podría dar lugar a la difamación de los participantes identificados. Los titulares de un LLM pueden cambiar el significado de la información que se les proporciona, porque están influenciados por prejuicios sociales y de otro tipo. Inherente a su diseño. Por ejemplo, Moncur dice que el software que utilizó su equipo distorsionaría lo que decían los participantes, haciendo que sus historias fueran más positivas de lo que pretendían. “ChatGPT tiene algo de 'Pollyanna', donde no le gustan los finales infelices”, dice Moncur. “Por lo tanto, se necesita un poco de estímulo para producir una historia creíble”.

Esquema de los problemas

Las preocupaciones de Moncur la llevaron a asociarse con los científicos informáticos Ali Farooq y Ryan Gibson de la Universidad de Strathclyde y Burkard Schiffer, investigador jurídico de la Universidad de Edimburgo en el Reino Unido, para colaborar en soluciones. Con financiación del Centro Nacional de Investigación sobre Privacidad, Reducción de Daños e Influencia Hostil en Línea del Reino Unido, lanzaron un proyecto de diez meses para desarrollar directrices para investigadores y comités de ética universitarios. Su finalización está prevista para agosto.

En marzo se celebró el Foro del Espacio Europeo de Investigación de la Comisión Europea Ha emitido directrices sobre el uso responsable de la inteligencia artificialque contribuirá al trabajo realizado por Moncur y su equipo.

Moncur dice que el proyecto tiene tres objetivos principales: abordar la falta de experiencia en la identificación de riesgos de privacidad derivados del uso de IA genética en la investigación; Abordar los requisitos de gestión de datos en la investigación del Reino Unido, muchos de los cuales no tienen en cuenta el uso cada vez mayor de IA genética; y para abordar los riesgos legales para las organizaciones que utilizan genAI para analizar o procesar datos de los participantes.

El proyecto está diseñado para analizar el uso de la IA en la investigación de manera amplia, pero incluirá áreas de enfoque, como cómo proteger la privacidad al usar la IA. Procesamiento de datos médicosdice Farouk.

El equipo está revisando la literatura para describir cómo los investigadores utilizan la IA genética para manejar datos personales y planea realizar entrevistas con académicos que forman parte de comités de ética en universidades del Reino Unido.

A partir de los conocimientos adquiridos en estos proyectos, el equipo desarrollará un conjunto de herramientas basado en FODA, que los comités de ética y los investigadores podrán consultar al revisar o planificar proyectos que incluirán tecnologías de IA genética. El equipo planea hacer que esta herramienta esté disponible gratuitamente en línea.

Orientación muy necesaria

Robert Davison, científico de sistemas de información de la Universidad de la ciudad de Hong Kong, acoge con satisfacción estos esfuerzos para crear una supervisión ética más sólida sobre el uso de genes de IA. “Es muy posible que se vuelva normal [to use this technology]”, dice Davison. Pero recuerda un comentario planteado en un editorial publicado en enero.1, del que es coautor: “No queremos ver una situación en la que sucumbamos a la creencia de que el uso de genes de IA es 'natural' y que los investigadores no necesitan prestarle especial atención ni informar sus resultados. uso de la IA”. El ella.”

Davison está interesado en establecer estándares éticos en torno al uso de genes de IA, pero le preocupa adoptar un enfoque aislado para establecer estos estándares. Dice que lo ideal serían normas éticas más amplias, pero añade que no está claro quién estaría en la mejor posición para proporcionar dichas directrices y hacerlas cumplir.

Por ahora, Moncur y sus colegas se centrarán en los comités de ética de las universidades. “Los investigadores están bajo mucha presión para ser eficaces”, afirma Moncur. “Están sobrecargados”. “Si tienes una herramienta [such as AI] Esto hará que las cosas sean más eficientes, tiene sentido utilizar la herramienta. Pero necesitamos información que nos ayude a utilizar las herramientas de manera responsable, de una manera que nos permita hacer buena ciencia.

El contenido de noticias y los suplementos de Nature Index son editorialmente independientes de su editor, Springer Nature. Para obtener más información sobre el Índice de la Naturaleza, consulte Página principal.

[ad_2]

Source Article Link