El fiscal general de California dice que las estafas con IA y “deepfakes” están muy extendidas. He aquí cómo evitarlo


La inteligencia artificial y el contenido relacionado con “deepfakes” en forma de medios visuales o de audio falsos son cada vez más frecuentes a medida que avanza la tecnología. Los funcionarios de California esperan informar Residentes sobre cómo descubrirlos.

“Los estafadores a menudo están en nuestros bolsillos, solo con una llamada telefónica, un mensaje en las redes sociales o un mensaje de texto”, dijo el Fiscal General Rob Bonta en un comunicado. “La inteligencia artificial y otras tecnologías nuevas y en evolución pueden dificultar la detección de estafas. Saber qué buscar es una forma importante de mantener a los consumidores a salvo de estas tácticas. Insto a los californianos a tomar medidas prácticas para protegerse contra ser víctimas de estafadores. incluso hablar con amigos y familiares que tal vez no estén conscientes de estos riesgos.

Los escándalos relacionados con la IA ya han sacudido a Estados Unidos en los últimos meses.

ARCHIVO – El presidente Joe Biden firma un documento ejecutivo sobre inteligencia artificial en el Salón Este de la Casa Blanca, el 30 de octubre de 2023, en Washington. La vicepresidenta Kamala Harris mira hacia la derecha. La Casa Blanca dijo el miércoles 21 de febrero de 2024 que está buscando comentarios públicos sobre los riesgos y beneficios de poner a disposición del público componentes clave de un sistema de inteligencia artificial para su uso y modificación. (Foto AP/Evan Vucci, archivo)

Desparramar Imágenes porno generadas por inteligencia artificial de jóvenes estudiantes de una escuela secundaria de Beverly Hills provocó la expulsión de cinco estudiantes en febrero. En abril, un profesor de secundaria en Maryland Crea una grabación de audio falsa Su jefe hizo comentarios racistas y antisemitas.

Según California AG, está circulando una estafa de IA dirigida a los padres, donde la voz clonada de sus hijos puede pedir dinero después de un accidente automovilístico o problemas con la ley. En enero, una estafa de IA en New Hampshire supuestamente les dio a los votantes una llamada falsa del presidente Joe Biden, lo que los disuadió de votar en las primarias del estado.

See also  Cómo ver España vs Italia: transmisión en vivo gratis de la Eurocopa 2024

Han ocurrido incidentes similares a nivel macro, e incluso a nivel macro Taylor Swift fue una víctima La pornografía y la desinformación generada por la inteligencia artificial pueden extenderse como la pólvora en Internet. Especialmente en un año electoral.

Taylor Swift usa la chaqueta del ala cerrada de los Kansas City Chiefs, Travis Kelce, cuando llega antes de un partido de fútbol de playoffs de la NFL entre los Chiefs y los Miami Dolphins, el sábado 13 de enero de 2024, en Kansas City, Missouri. Los deepfakes creados por inteligencia artificial y sexualizando a personas sin su consentimiento han golpeado a su víctima más destacada, la cantante Taylor Swift, llamando la atención sobre un problema que las plataformas tecnológicas y los grupos anti-bullying están luchando por resolver. (Foto AP/Ed Zurga, Archivo)

La legislación para combatir estas “falsificaciones profundas” es En negocios en el pais Y a nivel nacional, pero mientras tanto, ¿cómo puede la gente corriente evitar ser víctima de ataques y desinformación?

Estos son los consejos de la oficina del fiscal general de California:

  • Desarrollar palabras con símbolos familiares.: Desarrollar formas sencillas de verificar si un miembro de la familia realmente está en problemas antes de contestar llamadas telefónicas para solicitar asistencia financiera o compartir información personal. Hable con la familia sobre asignar “palabras seguras” o hacer una pregunta cuya respuesta solo esa persona sepa. Al crear una pregunta, tenga en cuenta que los estafadores pueden acceder a información de las redes sociales y otras fuentes en línea.
  • Minimizar el contenido personal de audio/video en cuentas de redes sociales: Considere eliminar números de teléfono personales y clips de audio y video de sus perfiles de redes sociales y los de sus hijos. Los estafadores de IA pueden utilizar estos clips para crear voces y vídeos clonados de sus seres queridos.
  • Verifique la configuración de privacidad: Fortalezca la configuración de privacidad de sus redes sociales para que extraños no sepan datos sobre su vida y su paradero actual, incluso si usted o un ser querido se encuentra fuera de la ciudad.
  • No contestes el teléfono: Permita que las llamadas telefónicas entrantes de números desconocidos vayan al correo de voz. Suelen ser llamadas automáticas ilegales.
  • No confíes en el identificador de llamadas: Los números de teléfono pueden “falsificarse” para que parezcan un número familiar de amigos, familiares, distrito escolar o una agencia gubernamental. No asuma que el identificador de llamadas es exacto y tenga cuidado si algo parece diferente en la persona que llama o si le solicitan información financiera o personal.
  • Coger el teléfono: Si sospecha que se trata de una llamada fraudulenta, cuelgue inmediatamente. No confíe automáticamente en los mensajes automáticos: al presionar “1” para indicar que no desea recibir llamadas futuras, a menudo les indicará a los malos actores que deben continuar llamando a ese número de teléfono activo.
  • Benefíciese de la tecnología de bloqueo de llamadas: Muchos proveedores de telefonía móvil ofrecen tecnología mejorada de bloqueo de llamadas que puede ayudar a evitar que le lleguen llamadas automáticas.
  • No hagas clic en enlaces sospechosos: Los estafadores intentarán que usted haga clic en enlaces que le envíen en mensajes de texto, correos electrónicos o redes sociales. Los mensajes de texto son especialmente peligrosos porque puedes hacer clic rápidamente en un enlace y comenzar a ingresar tu contraseña, sin darte cuenta de que el enlace es falso y que tu contraseña está siendo registrada.
  • Ir directamente a sitios web: Vaya directamente al sitio web de la empresa que conoce en lugar de hacer clic en el enlace que le envían. Algunos enlaces fraudulentos se crean para parecerse mucho a la dirección real del sitio web. Nunca debe hacer clic en enlaces que le envíen por mensaje de texto (por ejemplo, en lo que parece un banco). Alternativamente, vaya al sitio web del banco en su navegador de Internet.
  • Utilice contraseñas seguras: Protéjase utilizando contraseñas diferentes y únicas para cada una de sus cuentas en línea. Asegúrese de que las contraseñas que utilice tengan al menos ocho caracteres, incluida una combinación de letras, números y símbolos. Considere utilizar un administrador de contraseñas para brindar sugerencias y almacenar contraseñas seguras.
  • Proteja su Número de Seguro Social (SSN) y otra información confidencial: Guarde su tarjeta de Seguro Social en casa en un lugar seguro en lugar de llevarla en su billetera. No proporcione su número de seguro social (SSN) a menos que sea absolutamente necesario, como en formularios de impuestos o registros laborales. Si una empresa le solicita su Número de Seguro Social (SSN), vea si hay otro número que pueda usarse en su lugar.
  • Tenga cuidado con la suplantación de identidad del gobierno y otras estafas comunes: Algunos estafadores son sofisticados. Es posible que se ofrezcan a proporcionar “documentos” o “pruebas” o utilicen el nombre de un funcionario o agencia gubernamental real para hacerle creer que sus llamadas son legítimas. Si una agencia gubernamental se comunica con usted y le solicita información financiera o personal, cuelgue, vaya al sitio web oficial de la agencia (que debería ser un sitio web .gov) y comuníquese con ellos directamente. Los funcionarios del gobierno no lo amenazarán con arrestarlo o emprender acciones legales a cambio de un pago inmediato. No prometerán aumentar sus beneficios, resolver un problema a cambio de una tarifa ni transferir dinero a una cuenta protegida. No requerirán pago en forma de tarjetas de regalo, tarjetas de débito prepagas, transferencias bancarias, moneda de Internet o efectivo por correo.



Source Article Link

Leave a Comment