Categories
Featured

NordVPN se encuentra ahora entre las mejores herramientas para evitar estafas en compras online

[ad_1]

TechRadar está probado y testado Mejor VPN El servicio no sólo es excelente para mejorar su privacidad en línea, sino que también es una de las mejores soluciones para combatir las estafas en tiendas falsas en línea.

Los auditores independientes reciben la calificación AV-Comparatives NordVPNEl rastreador de malware y bloqueador de anuncios de Google está clasificado como la tercera mejor herramienta para combatir el fraude en las compras en línea entre 35 programas similares.

[ad_2]

Source Article Link

Categories
Featured

Microsoft es la empresa citada con más frecuencia en estafas de phishing

[ad_1]

Check Point Research (CPR) ha publicado una nueva investigación que examina el mayor… Suplantación de identidad Fraudes en el segundo trimestre de 2024.

Conjuntos de calificación de RCP microsoft Como los más imitados, apareciendo en el 57% de los mensajes, con manzana Ascendió al segundo lugar con un 10%.

[ad_2]

Source Article Link

Categories
Life Style

El FBI advierte que las víctimas de estafas con criptomonedas están siendo defraudadas por bufetes de abogados falsos

[ad_1]

Los estafadores que se dirigen a estas personas consideran que las víctimas de estafas con criptomonedas son víctimas fáciles, después de que ya hayan sido estafadas.

de acuerdo a Nueva advertencia Según el FBI, existe una tendencia nueva y creciente de estafadores que se hacen pasar por bufetes de abogados y se dirigen a aquellos que ya han sido víctimas de estafas con criptomonedas. Estos bufetes de abogados inexistentes brindan servicios a víctimas de estafas, afirmando que pueden recuperar el dinero robado. De hecho, estas empresas falsas están volviendo a defraudar a estas víctimas.

El FBI emitió por primera vez una advertencia sobre esta estafa el año pasado. Sin embargo, según una actualización del FBI, apuntar a las víctimas de estafas con criptomonedas ha resultado muy rentable para los estafadores.

Entre febrero de 2023 y febrero de 2024, el FBI informó que bufetes de abogados falsos robaron 9,9 millones de dólares a víctimas de estafas con criptomonedas a través de este esquema.

Velocidad de la luz triturable

Las víctimas informan haber sido contactadas por estafadores, quienes afirman que pueden investigar casos de criptomonedas robadas y recuperar sus fondos. Otros comenzaron a llamarse a sí mismos después de haber sido estafados por sitios web falsos que ofrecían servicios de recuperación de criptomonedas.

Después de que una víctima de una estafa de criptomonedas decide trabajar con una firma de abogados falsa, el estafador extraerá dinero de las víctimas de varias maneras diferentes. Por ejemplo, el estafador puede pedirle a la víctima que pague tarifas de servicio falsas por adelantado o engañarla para que pague “impuestos atrasados” u otros honorarios legales necesarios para obtener un reembolso. Los estafadores también solicitan obtener información personal y bancaria de una víctima de estafa con criptomonedas.

Los estafadores citan habitualmente sus conexiones con la Oficina Federal de Investigaciones (FBI), la Oficina de Protección Financiera del Consumidor (CFPB) u otras agencias gubernamentales para ayudar a reforzar su legitimidad.

Se anima a aquellos que crean que han sido estafados a presentar un informe ante el FBI. Centro de denuncias de delitos en Internet.



[ad_2]

Source Article Link

Categories
Life Style

Siguen apareciendo en YouTube transmisiones en vivo falsas de Elon Musk promocionando estafas con criptomonedas

[ad_1]

¿Se vislumbra algún fin para las estafas en vivo de YouTube de Elon Musk?

durante el fin de semana, Engadget Se informó en una transmisión de YouTube en la que Elon Musk hablaba en lo que parece ser un evento tipo conferencia de Tesla. La transmisión en vivo tuvo más de 30.000 espectadores en un momento dado, según Engadget.

Un problema: no era real. El evento en vivo falso es parte de una estafa de criptomonedas en curso en YouTube.

Las transmisiones en vivo falsas de Elon Musk en YouTube continúan floreciendo

Los estafadores que participan en este plan en particular parecen centrarse únicamente en YouTube para cometer su actividad fraudulenta.

La idea detrás de esto es simple. Los estafadores transmitieron en vivo un video de Elon Musk hablando en un evento. Muchas veces, estos programas incluyen videos reales de Musk repetidos. El audio puede ser una falsificación generada por IA que suena como Musk o un audio real del discurso de Musk que es lo suficientemente genérico como para que pueda ser casi cualquier cosa.

Velocidad de la luz triturable

Sin embargo, los gráficos en pantalla representan el evento como una charla en vivo de Musk sobre las criptomonedas. Estos suelen incluir enlaces o códigos QR a la estafa de criptomonedas, lo que insta a los espectadores a aprovechar la oportunidad antes de que finalice la transmisión en vivo.

Hay otro elemento crucial en esta estafa. Estos vídeos en directo suelen transmitirse en canales de YouTube pirateados a los que la gente ya se ha suscrito. Estos canales secuestrados pueden tener cientos de miles de suscriptores, por lo que hay una audiencia incorporada a la que YouTube alertará porque el canal al que se están suscribiendo estos usuarios acaba de estar “en vivo”. El estafador suele cambiar el nombre del canal de YouTube para que parezca una cuenta oficial asociada a Musk o Tesla.

En este caso particular, durante el fin de semana, el canal pirateado tenía más de 10.000 suscriptores y también fue verificado por YouTube. El canal pasó a llamarse “Tesla” con el identificador de YouTube “@elon.teslastream”.

Si bien Engadget vio la transmisión en vivo con hasta 30,000 espectadores simultáneos en vivo en un momento dado, no está claro cuántos de ellos eran en realidad personas reales. YouTube a menudo promociona y recomienda transmisiones en vivo según la cantidad de usuarios que ven la transmisión actualmente. Es posible que una gran parte de esa audiencia sean robots para manipular el algoritmo de YouTube para insertar el video en los feeds de los usuarios.

Aunque Musk y Tesla se utilizan comúnmente para impulsar estafas con criptomonedas a través de transmisiones en vivo en YouTube, los estafadores han cambiado un poco la estrategia en ocasiones. Por ejemplo, en abril, Mashable mencionado La versión de SpaceX de esta estafa utilizó un eclipse solar como arma para perpetuar su esquema de criptomonedas en YouTube.

Hace casi cuatro años, el cofundador de Apple, Steve Wozniak, en realidad… Establecer todo contra Transmisión en vivo de YouTube a través de Bitcoin que usaba su imagen. Entonces, obviamente esto ha estado sucediendo desde hace mucho tiempo. Desafortunadamente, parece que los esquemas falsos de transmisión en vivo de YouTube llegaron para quedarse, al menos en el futuro previsible.



[ad_2]

Source Article Link

Categories
Entertainment

Los deepfakes de Elon Musk promueven estafas con criptomonedas en YouTube Live

[ad_1]

Una transmisión en vivo de YouTube de cinco horas de hoy utilizó un deepfake de Elon Musk para impulsar una estafa de criptomonedas, en la última de una serie de transmisiones falsas similares. El video, que desde entonces ha sido eliminado, mostraba un clip de Musk que se suponía que sonaría como una transmisión en vivo de un evento de Tesla, con una versión de su voz generada por IA instruyendo a los espectadores a visitar un sitio web y depositar su bitcoin, Ethereum. O Dogecoin para poder participar en el sorteo. El mensaje, que se reprodujo repetidamente, prometía que el sistema “enviaría automáticamente el doble de la cantidad de criptomonedas que depositaste”.

Más de 30.000 espectadores sintonizaron la transmisión en un momento (aunque no podemos descartar la posibilidad de que estos números hayan sido inflados por bots), lo que la llevó a la cima de las recomendaciones de YouTube Live Now. La cuenta que se hace pasar por Tesla, @elon.teslastream, tenía una insignia verificada en el canal oficial del artista, por lo que es posible que estemos viendo que la cuenta está siendo pirateada. Tanto el vídeo como el canal fueron eliminados después de que Engadget se pusiera en contacto con Google. Actualizaremos este artículo si escuchamos más información.

Una captura de pantalla que muestra una cuenta que se hace pasar por Tesla a través de una transmisión en vivo utilizando inteligencia artificial creada por Elon Musk para impulsar una estafa de criptomonedas.Una captura de pantalla que muestra una cuenta que se hace pasar por Tesla a través de una transmisión en vivo utilizando inteligencia artificial creada por Elon Musk para impulsar una estafa de criptomonedas.

Captura de pantalla de Cheyenne MacDonald/Engadget

Estas profundas estafas por parte de Elon Musk parecen haber ido en aumento en los últimos meses, en cada caso utilizando una cuenta que se hace pasar por una de las empresas de Musk. Este se tituló “Tesla”. [sic] Revela una obra maestra: el Tesla que cambiará la industria automotriz para siempre. A principios de junio, Cointelegraph 35 cuentas que se hacían pasar por SpaceX informaron estafas similares en el momento del lanzamiento de Starship. En abril, los estafadores intentaron entrar en la publicidad del eclipse utilizando la misma táctica, por ejemplo Mashable informó en su momento. Ha habido numerosos informes sobre Transmisión en vivo de almizcle falso. Publicado en Reddit recién.

Las estafas con criptomonedas dirigidas a los seguidores de Musk en las redes sociales han sido un problema durante años, al igual que las que involucran a celebridades en general. Sólo este viernes 50 Cent ha sido hackeado Que utilizó sus cálculos para implementar el esquema de bombeo y descarga.

[ad_2]

Source Article Link

Categories
News

Las estafas con criptomonedas aumentan en EE. UU., la FTC emite una advertencia: detalles

[ad_1]

La Comisión Federal de Comercio de EE. UU. (FTC) ha identificado un aumento en las estafas románticas dirigidas a la comunidad de criptomonedas en los Estados Unidos. Aparentemente, la FTC ha pedido a las personas que se mantengan alejadas de los intereses amorosos en línea con quienes puedan discutir ideas de inversión, especialmente en relación con las criptomonedas y otros activos digitales. El regulador comercial ha recordado a la gente que nadie puede garantizar ciertos beneficios de las inversiones en criptomonedas, dada la naturaleza volátil de estos activos.

Esta semana, la Comisión Federal de Comercio (FTC) publicó una alerta oficial que aborda el aumento de las estafas románticas con criptomonedas. En esta categoría de estafas, los estafadores contactan a víctimas potenciales a través de aplicaciones de citas con el pretexto de iniciar una relación romántica. Al ganarse la confianza de sus objetivos, estos estafadores dirigen a sus víctimas a invertir en activos sospechosos o falsos con la esperanza de lograr altos rendimientos. Una vez obtenidas las inversiones necesarias, estos estafadores tienden a desaparecer, dejando a sus víctimas en una situación difícil.

“Nadie cree que su interés amoroso en línea los estafará, pero los estafadores son buenos en lo que hacen. Crean una conexión emocional contigo, por lo que probablemente pensarás que son expertos en invertir en criptomonedas, por ejemplo. El interés es un estafador”. “La gente ha perdido decenas de miles, a veces millones, de dólares a manos de estafadores románticos”, dijo la Comisión Federal de Comercio. libros En la publicación de su blog oficial del 10 de junio.

Como parte de las crecientes estafas con criptomonedas, la Comisión Federal de Comercio ha advertido a los usuarios que les prometan inversiones sin riesgos y métodos no convencionales para transferir dinero en línea. El organismo de control financiero también señaló que la gente debería desconfiar estrictamente de los extraños que les enseñan formas de invertir en criptomonedas.

“Si cree que alguien que conoce en las redes sociales es una estafa, corte el contacto con esa persona. Dígaselo a la plataforma de redes sociales y luego informe a la FTC”, agrega el blog.

Sin embargo, esta no es la primera vez que las estafas románticas se incluyen en una categoría grave que resulta en enormes pérdidas financieras. En febrero de este año, una mujer india de 37 años que actualmente reside en Filadelfia, EE.UU., Decía Perdió 450.000 dólares (alrededor de 3,7 millones de rupias) en una estafa romántica con criptomonedas.

Ese mismo mes, el Centro Nacional de Fraude de Australia Decía Advirtió a los ciudadanos que estuvieran más atentos a las estafas románticas que provocaron pérdidas de más de 40 millones de dólares (alrededor de 335 millones de rupias) en 2023.

Según la FTC, “Todo comienza cuando alguien se comunica contigo, aparentemente de forma aleatoria, en las redes sociales, pero ha hecho su tarea, verificando tu perfil y otra información en la plataforma. Quiere ayudarte a invertir tu dinero en… . Mercados de criptomonedas, o dicen que pueden enseñarle cómo hacerlo. Podría pensar que tienen en mente su bienestar financiero, pero no es así.

En marzo de 2024, el FBI afirmó que las estafas de inversión en criptomonedas aumentaron un 53 por ciento el año pasado. Muchos países de todo el mundo están acelerando sus esfuerzos para publicar regulaciones para supervisar el sector de las criptomonedas e imponer sanciones a los delincuentes que hacen que el sector sea inseguro para inversores inocentes. el Los Emiratos Arabes Unidos Fue uno de los primeros países en redactar normas finales que describen sanciones para los estafadores de criptomonedas, que incluyen penas de prisión de hasta cinco años y una multa de 1 millón de AED (alrededor de 2 millones de rupias).


Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.

[ad_2]

Source Article Link

Categories
Entertainment

El fiscal general de California dice que las estafas con IA y “deepfakes” están muy extendidas. He aquí cómo evitarlo

[ad_1]

La inteligencia artificial y el contenido relacionado con “deepfakes” en forma de medios visuales o de audio falsos son cada vez más frecuentes a medida que avanza la tecnología. Los funcionarios de California esperan informar Residentes sobre cómo descubrirlos.

“Los estafadores a menudo están en nuestros bolsillos, solo con una llamada telefónica, un mensaje en las redes sociales o un mensaje de texto”, dijo el Fiscal General Rob Bonta en un comunicado. “La inteligencia artificial y otras tecnologías nuevas y en evolución pueden dificultar la detección de estafas. Saber qué buscar es una forma importante de mantener a los consumidores a salvo de estas tácticas. Insto a los californianos a tomar medidas prácticas para protegerse contra ser víctimas de estafadores. incluso hablar con amigos y familiares que tal vez no estén conscientes de estos riesgos.

Los escándalos relacionados con la IA ya han sacudido a Estados Unidos en los últimos meses.

ARCHIVO - El presidente Joe Biden firma un documento ejecutivo sobre inteligencia artificial en el Salón Este de la Casa Blanca, el 30 de octubre de 2023, en Washington.  La vicepresidenta Kamala Harris mira hacia la derecha.  La Casa Blanca dijo el miércoles 21 de febrero de 2024 que está buscando comentarios públicos sobre los riesgos y beneficios de poner a disposición del público componentes clave de un sistema de inteligencia artificial para su uso y modificación.  (Foto AP/Evan Vucci, archivo)
ARCHIVO – El presidente Joe Biden firma un documento ejecutivo sobre inteligencia artificial en el Salón Este de la Casa Blanca, el 30 de octubre de 2023, en Washington. La vicepresidenta Kamala Harris mira hacia la derecha. La Casa Blanca dijo el miércoles 21 de febrero de 2024 que está buscando comentarios públicos sobre los riesgos y beneficios de poner a disposición del público componentes clave de un sistema de inteligencia artificial para su uso y modificación. (Foto AP/Evan Vucci, archivo)

Desparramar Imágenes porno generadas por inteligencia artificial de jóvenes estudiantes de una escuela secundaria de Beverly Hills provocó la expulsión de cinco estudiantes en febrero. En abril, un profesor de secundaria en Maryland Crea una grabación de audio falsa Su jefe hizo comentarios racistas y antisemitas.

Según California AG, está circulando una estafa de IA dirigida a los padres, donde la voz clonada de sus hijos puede pedir dinero después de un accidente automovilístico o problemas con la ley. En enero, una estafa de IA en New Hampshire supuestamente les dio a los votantes una llamada falsa del presidente Joe Biden, lo que los disuadió de votar en las primarias del estado.

Han ocurrido incidentes similares a nivel macro, e incluso a nivel macro Taylor Swift fue una víctima La pornografía y la desinformación generada por la inteligencia artificial pueden extenderse como la pólvora en Internet. Especialmente en un año electoral.

Taylor Swift usa la chaqueta del ala cerrada de los Kansas City Chiefs, Travis Kelce, cuando llega antes de un partido de fútbol de playoffs de la NFL entre los Chiefs y los Miami Dolphins, el sábado 13 de enero de 2024, en Kansas City, Missouri. Los deepfakes creados por inteligencia artificial y sexualizando a personas sin su consentimiento han golpeado a su víctima más destacada, la cantante Taylor Swift, llamando la atención sobre un problema que las plataformas tecnológicas y los grupos anti-bullying están luchando por resolver. (Foto AP/Ed Zurga, Archivo)

La legislación para combatir estas “falsificaciones profundas” es En negocios en el pais Y a nivel nacional, pero mientras tanto, ¿cómo puede la gente corriente evitar ser víctima de ataques y desinformación?

Estos son los consejos de la oficina del fiscal general de California:

  • Desarrollar palabras con símbolos familiares.: Desarrollar formas sencillas de verificar si un miembro de la familia realmente está en problemas antes de contestar llamadas telefónicas para solicitar asistencia financiera o compartir información personal. Hable con la familia sobre asignar “palabras seguras” o hacer una pregunta cuya respuesta solo esa persona sepa. Al crear una pregunta, tenga en cuenta que los estafadores pueden acceder a información de las redes sociales y otras fuentes en línea.
  • Minimizar el contenido personal de audio/video en cuentas de redes sociales: Considere eliminar números de teléfono personales y clips de audio y video de sus perfiles de redes sociales y los de sus hijos. Los estafadores de IA pueden utilizar estos clips para crear voces y vídeos clonados de sus seres queridos.
  • Verifique la configuración de privacidad: Fortalezca la configuración de privacidad de sus redes sociales para que extraños no sepan datos sobre su vida y su paradero actual, incluso si usted o un ser querido se encuentra fuera de la ciudad.
  • No contestes el teléfono: Permita que las llamadas telefónicas entrantes de números desconocidos vayan al correo de voz. Suelen ser llamadas automáticas ilegales.
  • No confíes en el identificador de llamadas: Los números de teléfono pueden “falsificarse” para que parezcan un número familiar de amigos, familiares, distrito escolar o una agencia gubernamental. No asuma que el identificador de llamadas es exacto y tenga cuidado si algo parece diferente en la persona que llama o si le solicitan información financiera o personal.
  • Coger el teléfono: Si sospecha que se trata de una llamada fraudulenta, cuelgue inmediatamente. No confíe automáticamente en los mensajes automáticos: al presionar “1” para indicar que no desea recibir llamadas futuras, a menudo les indicará a los malos actores que deben continuar llamando a ese número de teléfono activo.
  • Benefíciese de la tecnología de bloqueo de llamadas: Muchos proveedores de telefonía móvil ofrecen tecnología mejorada de bloqueo de llamadas que puede ayudar a evitar que le lleguen llamadas automáticas.
  • No hagas clic en enlaces sospechosos: Los estafadores intentarán que usted haga clic en enlaces que le envíen en mensajes de texto, correos electrónicos o redes sociales. Los mensajes de texto son especialmente peligrosos porque puedes hacer clic rápidamente en un enlace y comenzar a ingresar tu contraseña, sin darte cuenta de que el enlace es falso y que tu contraseña está siendo registrada.
  • Ir directamente a sitios web: Vaya directamente al sitio web de la empresa que conoce en lugar de hacer clic en el enlace que le envían. Algunos enlaces fraudulentos se crean para parecerse mucho a la dirección real del sitio web. Nunca debe hacer clic en enlaces que le envíen por mensaje de texto (por ejemplo, en lo que parece un banco). Alternativamente, vaya al sitio web del banco en su navegador de Internet.
  • Utilice contraseñas seguras: Protéjase utilizando contraseñas diferentes y únicas para cada una de sus cuentas en línea. Asegúrese de que las contraseñas que utilice tengan al menos ocho caracteres, incluida una combinación de letras, números y símbolos. Considere utilizar un administrador de contraseñas para brindar sugerencias y almacenar contraseñas seguras.
  • Proteja su Número de Seguro Social (SSN) y otra información confidencial: Guarde su tarjeta de Seguro Social en casa en un lugar seguro en lugar de llevarla en su billetera. No proporcione su número de seguro social (SSN) a menos que sea absolutamente necesario, como en formularios de impuestos o registros laborales. Si una empresa le solicita su Número de Seguro Social (SSN), vea si hay otro número que pueda usarse en su lugar.
  • Tenga cuidado con la suplantación de identidad del gobierno y otras estafas comunes: Algunos estafadores son sofisticados. Es posible que se ofrezcan a proporcionar “documentos” o “pruebas” o utilicen el nombre de un funcionario o agencia gubernamental real para hacerle creer que sus llamadas son legítimas. Si una agencia gubernamental se comunica con usted y le solicita información financiera o personal, cuelgue, vaya al sitio web oficial de la agencia (que debería ser un sitio web .gov) y comuníquese con ellos directamente. Los funcionarios del gobierno no lo amenazarán con arrestarlo o emprender acciones legales a cambio de un pago inmediato. No prometerán aumentar sus beneficios, resolver un problema a cambio de una tarifa ni transferir dinero a una cuenta protegida. No requerirán pago en forma de tarjetas de regalo, tarjetas de débito prepagas, transferencias bancarias, moneda de Internet o efectivo por correo.

[ad_2]

Source Article Link

Categories
News

Truecaller AI Call Scanner se lanzó para prevenir estafas de voz basadas en IA: cómo funciona

[ad_1]

verdadera persona que llama Introduce una nueva función impulsada por inteligencia artificial (IA) que tiene como objetivo ayudar a los usuarios a detectar llamadas fraudulentas mediante inteligencia artificial. La plataforma de identificación de llamadas está implementando una función de escáner de llamadas AI que puede detectar si la voz de la persona que realiza la llamada pertenece a un humano o a una IA. La compañía destacó los crecientes casos de fraude de voz con IA, en los que los malos actores utilizan la IA para convocar voces familiares para engañar a las personas. Vale la pena señalar que esta función se introducirá por primera vez en Estados Unidos.

Lanzamiento de la función Truecaller AI Call Scanner

La función Truecaller AI Call Scanner recientemente anunciada puede analizar la voz de una persona que llama en tiempo real y compartir los resultados en unos pocos segundos, según la compañía. Para determinar si una persona que llama está usando IA para engañar a un usuario, la función AI Call Scanner registra la voz de la persona que llama durante unos segundos y luego la procesa utilizando un modelo interno de IA.

Función de escáner de llamadas Truecaller AI

Función de escáner de llamadas AI de Truecaller
Fuente de la imagen: Truecaller

Truecaller dice que su modelo de IA ha sido entrenado para identificar las características únicas del habla humana y diferenciarlo de los sonidos generados por IA. También añadió que, aunque todo el proceso lleva unos segundos, mantiene un alto nivel de precisión.

La función estará disponible para los usuarios de Truecaller Premium con la última versión de la aplicación (versión 14.6). Androide. Esta función se implementó por primera vez en los EE. UU. y la compañía dijo que se introducirá en India y otros mercados clave para la compañía en los próximos meses.

La compañía destacó que muchos malos actores están utilizando inteligencia artificial que imita voces humanas para intentar extorsionar a las víctimas. Al tomar muestras de las voces de las personas de los vídeos de las redes sociales para entrenar la IA, el audio se utiliza luego para contactar a las víctimas relacionadas con aquellas cuyas voces fueron clonadas.

Los estafadores utilizan una voz familiar cuando llaman a sus víctimas, quienes caen en la estafa porque está diseñada para sonar similar a la voz de sus familiares. Truecaller señala que estas estafas se detectaron inicialmente en 2019 y aumentaron significativamente en los años siguientes.

Cómo utilizar el escáner de llamadas AI de Truecaller

  1. Configure Truecaller como su aplicación de llamadas predeterminada.
  2. toque en Empieza a detectar inteligencia artificial Cuando recibes una llamada sospechosa.
  3. La llamada quedará en espera brevemente mientras la IA graba el audio.
  4. Espere el mensaje “Análisis…” que indica que el modelo de IA está verificando la voz de la persona que llama.
  5. Consulta la notificación en pantalla para ver si es la voz de la IA o no.

Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.

Para lo último Noticias de tecnología Y ReseñasSiga Gadgets 360 en X, Facebook, WhatsApp, Hilos Y noticias de Google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. Canal de Youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram Y YouTube.


WhatsApp puede obtener un nuevo acceso directo al chat 'Imagine' para crear imágenes rápidamente a través de Meta AI: Informe



Fundación Algorand anuncia un curso de formación para desarrolladores Blockchain en la plataforma FutureSkills de Nasscom



[ad_2]

Source Article Link

Categories
News

Truecaller AI Call Scanner se lanzó para prevenir estafas de voz basadas en IA: cómo funciona

[ad_1]

verdadera persona que llama Introduce una nueva función impulsada por inteligencia artificial (IA) que tiene como objetivo ayudar a los usuarios a detectar llamadas fraudulentas mediante inteligencia artificial. La plataforma de identificación de llamadas está implementando una función de escáner de llamadas AI que puede detectar si la voz de la persona que realiza la llamada pertenece a un humano o a una IA. La compañía destacó los crecientes casos de fraude de voz con IA, en los que los malos actores utilizan la IA para convocar voces familiares para engañar a las personas. Vale la pena señalar que esta función se introducirá por primera vez en Estados Unidos.

Lanzamiento de la función Truecaller AI Call Scanner

La función Truecaller AI Call Scanner recientemente anunciada puede analizar la voz de una persona que llama en tiempo real y compartir los resultados en unos pocos segundos, según la compañía. Para determinar si una persona que llama está usando IA para engañar a un usuario, la función AI Call Scanner registra la voz de la persona que llama durante unos segundos y luego la procesa utilizando un modelo interno de IA.

Función de escáner de llamadas Truecaller AI

Función de escáner de llamadas AI de Truecaller
Fuente de la imagen: Truecaller

Truecaller dice que su modelo de IA ha sido entrenado para identificar las características únicas del habla humana y diferenciarlo de los sonidos generados por IA. También añadió que, aunque todo el proceso lleva unos segundos, mantiene un alto nivel de precisión.

La función estará disponible para los usuarios de Truecaller Premium con la última versión de la aplicación (versión 14.6). Androide. Esta función se implementó por primera vez en los EE. UU. y la compañía dijo que se introducirá en India y otros mercados clave para la compañía en los próximos meses.

La compañía destacó que muchos malos actores están utilizando inteligencia artificial que imita voces humanas para intentar extorsionar a las víctimas. Al tomar muestras de las voces de las personas de los vídeos de las redes sociales para entrenar la IA, el audio se utiliza luego para contactar a las víctimas relacionadas con aquellas cuyas voces fueron clonadas.

Los estafadores utilizan una voz familiar cuando llaman a sus víctimas, quienes caen en la estafa porque está diseñada para sonar similar a la voz de sus familiares. Truecaller señala que estas estafas se detectaron inicialmente en 2019 y aumentaron significativamente en los años siguientes.

Cómo utilizar el escáner de llamadas AI de Truecaller

  1. Configure Truecaller como su aplicación de llamadas predeterminada.
  2. toque en Empieza a detectar inteligencia artificial Cuando recibes una llamada sospechosa.
  3. La llamada quedará en espera brevemente mientras la IA graba el audio.
  4. Espere el mensaje “Análisis…” que indica que el modelo de IA está verificando la voz de la persona que llama.
  5. Consulta la notificación en pantalla para ver si es la voz de la IA o no.

Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.

Para lo último Noticias de tecnología Y ReseñasSiga Gadgets 360 en X, Facebook, WhatsApp, Hilos Y noticias de Google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. Canal de Youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram Y YouTube.


WhatsApp puede obtener un nuevo acceso directo al chat 'Imagine' para crear imágenes rápidamente a través de Meta AI: Informe



Fundación Algorand anuncia un curso de formación para desarrolladores Blockchain en la plataforma FutureSkills de Nasscom



[ad_2]

Source Article Link

Categories
Featured

Best Buy y Geek Squad fueron dos de las empresas suplantadas con mayor frecuencia en estafas tecnológicas el año pasado.

[ad_1]

La Comisión Federal de Comercio (FTC) ha abierto Nuestros hallazgos sobre las empresas más suplantadas en 2023 en un esfuerzo por ayudar a los clientes potenciales y a las víctimas a prepararse mejor contra este tipo de ataques.

El informe encontró que la empresa más vulnerable, con un total de 52.000 denuncias de estafas de suplantación de identidad, fue Best Buy y su filial Geek Squad, con pérdidas de 15 millones de dólares.

[ad_2]

Source Article Link