Categories
Featured

Se ha abusado de Microsoft Teams y AnyDesk para difundir malware peligroso, así que prepárese

[ad_1]


  • Los delincuentes contactan a las víctimas y se ofrecen a ayudar a resolver un “problema”.
  • Para solucionar el problema, requieren acceso a AnyDesk
  • Si lo consiguen, lanzan el malware DarkGate y roban datos confidenciales.

Los ciberdelincuentes recopilan microsoft Teams y AnyDesk para intentar instalar una parte peligrosa de malware En los dispositivos de sus objetivos, advierten los expertos.

Un informe de Trend Micro, que afirma haber observado recientemente uno de esos ataques en la naturaleza, señala cómo los atacantes primero envían miles de correos electrónicos no deseados a sus objetivos y luego se comunican a través de Microsoft Teams, haciéndose pasar por un empleado de un proveedor externo.

[ad_2]

Source Article Link

Categories
Featured

Páginas CAPTCHA falsas utilizadas para difundir malware para robar información

[ad_1]


  • Investigadores de seguridad han descubierto una campaña de distribución de malware Lumma Stealer
  • La página CAPTCHA falsa viene con JavaScript que copia el código malicioso al portapapeles
  • Para “resolver” el CAPTCHA falso, se pide a los usuarios que peguen el código en CMD y lo ejecuten

Se utilizan páginas CAPTCHA falsas para engañar a las víctimas para que descarguen y ejecuten Lumma infostealer malware.

Los investigadores de seguridad de Guardio Labs descubrieron recientemente una importante operación maliciosa dirigida a millones de personas, llamada “DeceptionAds”.

[ad_2]

Source Article Link

Categories
Featured

Los piratas informáticos norcoreanos apuntan a Corea del Sur con vulnerabilidades de Internet Explorer para difundir el malware RokRAT

[ad_1]


  • Los ciudadanos surcoreanos estuvieron expuestos a malware sin un clic del Norte
  • El malware utilizó anuncios emergentes para instalar las cargas útiles.
  • También se instalan registradores de teclas y otro software de monitoreo malicioso.

El hacker ScarCruft, vinculado al estado norcoreano, llevó a cabo recientemente una campaña masiva de ciberespionaje utilizando una vulnerabilidad de día cero en Internet Explorer para difundir RokRAT. malwareadvirtieron los expertos.

El grupo, también conocido como APT37 o RedEyes, es un grupo de piratería patrocinado por el estado de Corea del Norte conocido por sus actividades de ciberespionaje.

[ad_2]

Source Article Link

Categories
Featured

Los piratas informáticos están secuestrando paquetes de Python nuevamente para difundir malware peligroso

[ad_1]

Los piratas informáticos vuelven a apuntar a los desarrolladores de Python involucrados en la industria blockchain en un intento de distribución. malware Y robar códigos.

Un nuevo informe de investigadores de ciberseguridad de Checkmarx explica cómo observaron una cuenta en PyPI cargando múltiples paquetes en un período de tiempo muy corto.

[ad_2]

Source Article Link

Categories
Life Style

Los chatbots de IA más grandes tienden a difundir tonterías y la gente no siempre se da cuenta

[ad_1]

Estudia las últimas y mejores ediciones de tres disciplinas. Chatbots de Inteligencia Artificial (IA). Muestra que son más propensos a generar respuestas incorrectas que a admitir su ignorancia. La evaluación también encontró que las personas no son buenas para detectar la enfermedad. Malas respuestas.

Se ha prestado mucha atención al hecho de que los grandes modelos de lenguaje (LLM) utilizados para ejecutar chatbots a veces hacen las cosas mal o “Alucinaciones” Respuestas extrañas a las preguntas.. José Hernández Orallo, del Instituto de Investigación de Inteligencia Artificial de Valencia en España, y sus colegas analizaron esos errores para ver cómo cambian a medida que los modelos crecen en tamaño, aprovechando más datos de entrenamiento, lo que implica más parámetros o toma de decisiones y nodos de alimentación. Más potencia informática. También rastrearon si la probabilidad de errores coincidía con las percepciones humanas sobre la dificultad de las preguntas y qué tan bien las personas eran capaces de identificar respuestas incorrectas. el estudio1 Fue publicado en naturaleza El 25 de septiembre.

El equipo descubrió que las versiones más grandes y precisas de los LLM son, Como era de esperar, más preciso.en gran parte porque se moldearon utilizando métodos de ajuste, como el aprendizaje por refuerzo a partir de la retroalimentación humana. Esta es una buena noticia. Pero son menos confiables: de todas las respuestas inexactas, la fracción de respuestas incorrectas aumentó, informó el equipo, porque es menos probable que los modelos eviten responder una pregunta, por ejemplo, diciendo que no saben o cambiando de tema. .

“Hoy en día responden a casi todo. Esto significa más respuestas correctas, pero también incorrectas”, dice Hernández Orallo. En otras palabras, es más probable que los chatbots ofrezcan opiniones que van más allá de su conocimiento, dice Mike Hicks, un filósofo de la ciencia. y tecnología en la Universidad de Glasgow en el Reino Unido, que Sugiere el término mierda. Para describir el fenómeno.2. “Está mejorando en fingir que sabe”.

El resultado es que es probable que los usuarios comunes sobreestimen las capacidades de los chatbots, y eso es peligroso, dice Hernández Orallo.

Incorrecto y evitado

El equipo analizó tres familias de LLM: GPT abierto AIy LLaMA y BLOOM de Meta, un modelo de código abierto creado por el grupo académico BigScience. Para cada uno, observaron las primeras versiones prototipo de los modelos y perfeccionaron las versiones posteriores.

Probaron los modelos con miles de indicaciones que incluían preguntas sobre aritmética, anagramas, geografía y ciencia, así como estímulos que probaron la capacidad de los robots para transformar información, como hacer una lista en orden alfabético. También calificaron cuán difíciles eran percibidas las preguntas por los humanos; por ejemplo, una pregunta sobre Toronto, Canadá, fue calificada como más fácil que una pregunta sobre la ciudad más pequeña y menos conocida de Aquiles en México.

Como era de esperar, la precisión de las respuestas aumentó a medida que aumentaba el tamaño de los formularios revisados ​​y disminuyó a medida que aumentaba la dificultad de las preguntas. Aunque puede ser prudente que los modelos eviten responder preguntas muy difíciles, los investigadores no encontraron ninguna tendencia fuerte en esta dirección. Alternativamente, algunos modelos, como el GPT-4, respondieron a casi todo. La proporción de respuestas incorrectas entre las que eran incorrectas o se evitaban aumentó a medida que aumentaba el tamaño de los formularios, alcanzando más del 60% para muchos formularios duplicados.

El equipo también descubrió que todos los modelos podían ocasionalmente equivocarse incluso en preguntas fáciles, lo que significa que no había una “zona de operación segura” en la que un usuario pudiera tener una gran confianza en las respuestas.

Luego, el equipo pidió a las personas que clasificaran las respuestas como correctas, incorrectas o evitadas. Sorprendentemente, las personas calificaron incorrectamente las respuestas inexactas como precisas (aproximadamente entre el 10% y el 40% de las veces) en preguntas fáciles y difíciles. “Los humanos no son capaces de supervisar estos modelos”, dice Hernández-Orallo.

Espacio seguro

Hernández-Uralo cree que los desarrolladores deberían mejorar el rendimiento de la IA en preguntas fáciles y alentar a los chatbots a negarse a responder preguntas difíciles, para que las personas puedan evaluar mejor las situaciones en las que los sistemas de IA probablemente sean confiables. “Necesitamos que los humanos entiendan: 'Puedo usarlo en esta área, no debería usarlo en esa área'”, dice.

Haga que los chatbots tengan más probabilidades de responder preguntas difíciles Se ve impresionante y se desempeña bien en las tablas de clasificación. Ese es un buen desempeño, pero no siempre es útil, dice Hernández-Uralo. “Todavía estoy muy sorprendido de que en las versiones modernas de algunos de estos modelos, incluido o1 de OpenAI, puedes pedirles que multipliquen dos números muy largos y obtienes una respuesta incorrecta”, dice. Esto debería poder solucionarse, añade. “Se puede establecer un umbral y, cuando la pregunta es difícil, [get the chatbot to] Diga: No, no lo sé.

“Hay algunos modelos que dirán: 'No lo sé' o 'No tengo suficiente información para responder a tu pregunta'”, dice Vipula Raut, científica informática de la Universidad de Carolina del Sur en Columbia. Todas las empresas de inteligencia artificial están trabajando arduamente para reducir las alucinaciones y los chatbots desarrollados para fines específicos, como el uso médico, a veces se optimizan para evitar que superen su base de conocimientos. Pero para las empresas que intentan vender chatbots multipropósito, “esto no es algo que normalmente quieran ofrecer a sus clientes”, añade.

[ad_2]

Source Article Link

Categories
Life Style

Una red de cuentas de TikTok está utilizando inteligencia artificial para difundir desinformación política, según un informe

[ad_1]

Tik Tok El cebo visual ha recibido un impulso de la inteligencia artificial durante el año pasado, incluido contenido que difunde mentiras políticas antes de las elecciones, según Nuevos datos De NewsGuard, una organización que monitorea la información errónea.

En un nuevo informe que detalla el uso de herramientas de inteligencia artificial entre malos actores en TikTok, la organización descubrió al menos 41 cuentas de TikTok que publicaban contenido falso impulsado por inteligencia artificial en inglés y francés. Entre marzo de 2023 y junio de 2024, las cuentas publicaron 9.784 vídeos con un total de más de 380 millones de visitas, un promedio de uno a cuatro vídeos narrativos de IA cada día. Muchos de los videos utilizaron guiones idénticos, lo que indica un esfuerzo coordinado. Varias cuentas también han calificado para monetizar sus videos, bajo el Fondo de Creadores de TikTok.

NewsGuard explicó que una gran parte del contenido incluía videos en forma de artículos o datos divertidos que compartían narrativas falsas sobre la política estadounidense y europea y la guerra entre Rusia y Ucrania, como la afirmación incorrecta de que la OTAN desplegó fuerzas de combate en Ucrania y que Estados Unidos estuvo detrás del ataque terrorista en el Ayuntamiento de Crocus en Moscú el pasado mes de marzo.

La investigación se realizó en asociación con la herramienta de detección de IA TrueMedia.org.

El año pasado, NewsGuard documentó el surgimiento de una pequeña red de cuentas de TikTok utilizando… Herramientas de conversión de texto a voz impulsadas por IA Difundir teorías de conspiración sobre celebridades. Los videos cortos utilizaron inteligencia artificial para generar instantáneamente narraciones y voces adicionales en una amplia gama de videos que comparten información falsa. En total, las cuentas recibieron 336 millones de visitas y 14,5 millones de me gusta en tres meses.

Velocidad de la luz medible

El último informe muestra un aumento significativo en el contenido mejorado con IA en la aplicación, esta vez con motivaciones políticas. Esta tendencia apunta a la presencia de una granja de contenido de IA en crecimiento y cada vez más incentivada en la aplicación, que la organización define como “entidades que generan grandes cantidades de contenido de baja calidad, generalmente para generar vistas e ingresos por publicidad”.

La difusión de información errónea y la desinformación facilitada por la inteligencia artificial no ha pasado desapercibida para TikTok, ya que la plataforma promete volverse más efectiva. adjunto e incluso Filigrana Contenido utilizando inteligencia artificial generativa. Pero la desinformación política, impulsada por la eficiencia de las funciones de inteligencia artificial, ha llevado a… Se siguió multiplicando.

Mientras tanto, el Ministerio de Justicia anunció el 9 de julio que… Se ha identificado y desmantelado una granja rusa de robots con IA Opera al menos 1.000 cuentas pro-Kremlin en X (anteriormente Twitter) y cuenta con el apoyo del sucesor de la KGB del servicio de inteligencia ruso. Hace unos meses, OpenAI anunció que… Se han cerrado cuentas de terceros verificadas Intentar utilizar tecnología de inteligencia artificial para respaldar posibles ataques cibernéticos.

Los propios Estados Unidos han explotado la tecnología de inteligencia artificial y las granjas de robots para difundir sus contranarrativas e incluso campañas de desinformación abierta, incluyendo Iniciativa de 2020 para limitar la influencia extranjera Difundiendo información engañosa sobre el emergente coronavirus (Covid-19).

A medida que se acercan las elecciones (y aumentan las dudas sobre la participación de los votantes y la confianza de los candidatos), los observadores y defensores continúan monitoreando la desinformación dirigida y la desinformación impulsada por inteligencia artificial que se difunde en las plataformas de redes sociales.



[ad_2]

Source Article Link