Categories
Featured

Regulación deepfake: ¿un arma de doble filo?

[ad_1]

La tecnología deepfake se está convirtiendo rápidamente en la última “caja de Pandora” de inteligencia artificial. Ya no solo se produce contenido satírico para políticos (¿quién olvidará alguna vez al Papa Moncler, un deportista?), ahora estamos viendo cómo la IA generativa se utiliza activamente como arma, desde falsificaciones políticas engañosas, anuncios de celebridades e incluso escolares que falsifican fotografías explícitas de sus compañeros de clase.

Como capacidades Herramientas de inteligencia artificial En la carrera por delante de la organización, muchos están cada vez más preocupados por la amenaza real que representa. Se ha introducido nueva legislación, pero la mayor parte de ella es demasiado limitada o demasiado vaga para proteger a las personas de manera integral. Por otro lado, estas nuevas reglas tienen implicaciones que podrían detectar fácilmente a los profesionales que intentan utilizar la IA generativa de manera legítima.

[ad_2]

Source Article Link

Categories
Featured

El detector Deepfake de McAfee lo hace realidad para las computadoras con inteligencia artificial de Lenovo

[ad_1]

Los vídeos falsos son una prueba impresionante de cómo la inteligencia artificial puede imitar a personas reales, pero esta tecnología a menudo se aprovecha para engañar a las personas y convencerlas de que están viendo y escuchando a una persona real, especialmente a las celebridades. Es un problema de ciberseguridad, razón por la cual McAfee se asoció con… lenovo McAfee ha anunciado el lanzamiento del software Deepfake Detector exclusivamente para las PC con tecnología de inteligencia artificial de Lenovo. Como su nombre indica, Deepfake Detector de McAfee detecta vídeos falsos que estafan a la gente sin dinero, por valor de más de medio millón de dólares en algunos casos extremos.

Era McAfee Métodos de desarrollo Las estafas deepfake han estado destinadas a frenarse durante algunos años, pero Deepfake Detector lleva ese esfuerzo a un nuevo nivel. La herramienta se entrenó con alrededor de 200.000 muestras de vídeo para enseñarle cómo reconocer con precisión el audio generado o modificado mediante inteligencia artificial. Se ejecuta en segundo plano como la mayoría de los programas antivirus y escanea el contenido de vídeo reproducido en línea y localmente. Si detecta un deepfake, alerta al usuario y le permite decidir qué hacer al respecto.

[ad_2]

Source Article Link

Categories
News

Los videos deepfake de Elon Musk dirigidos a inversores en criptomonedas aparecieron en el Canal 7 luego del hack de YouTube.

[ad_1]

Elon Musk ha expresado públicamente anteriormente su apoyo a las criptomonedas, pero el multimillonario recientemente se hizo pasar por ciberdelincuentes que piratearon una estación de radio australiana en un intento de atacar a inversores crédulos. En los últimos años, Musk ha revolucionado el mercado de las criptomonedas con publicaciones en X (anteriormente Twitter). Ahora, los delincuentes están utilizando su popularidad para atacar a los inversores en criptomonedas, especialmente aquellos que se toman en serio los comentarios del multimillonario sobre el mercado. Se dice que los videos deepfake de Musk promocionando códigos fraudulentos, lanzamientos aéreos falsos y esquemas criptográficos falsos se están extendiendo por las aplicaciones web.

Los vídeos deepfake de Elon Musk se emiten en la emisora ​​australiana

Los ciberdelincuentes pudieron piratear el canal de YouTube The Seven Network (conocido como Canal 7) el jueves luego de despidos en la Australian Broadcasting Corporation, según News.com.au. un informe. Después de tomar el control de la cuenta de la emisora, los piratas informáticos le mostraron a Musk vídeos muy falsos en los que parecía decir que estaba donando criptomonedas.

En el vídeo falso, se puede escuchar al CEO de Tesla prometiendo a los inversores que devolverán el doble de lo que envíen a una dirección maliciosa. Según el informe, la transmisión en vivo de este video falso recibió vistas de más de 150.000 personas en el canal de YouTube pirateado de Channel Seven.

En las redes sociales han aparecido capturas de pantalla de una versión deepfake de Musk promocionando un esquema fraudulento de criptomonedas en su canal de YouTube, que los delincuentes cambiaron a “canal Tesla” durante el hack. Una de las capturas de pantalla también. Ofertas En la pantalla se mostró un código QR con el lema “Escanea o arrepiéntete”. YouTube aún tiene que reaccionar públicamente a este desarrollo.

A principios de este mes, cuando SpaceX lanzó su cohete Starship, se publicaron al menos 35 vídeos falsos de Musk. Decía Fue transmitido en YouTube. En estos videos, los estafadores mostraron un video falso de Musk promocionando un esquema criptográfico fraudulento pidiendo a las personas que enviaran fondos criptográficos a una dirección de billetera para recibir el doble a cambio.

Cómo reaccionó Musk a videos en profundidad anteriores

Ha pasado mucho tiempo desde que Musk respondió a estos videos falsos de él promocionando estafas con criptomonedas. En 2022, respondió después de ver uno de los videos falsos que explotaban su identidad. “Sí. No me refiero a mí”, bromeó el multimillonario en respuesta a una publicación ahora eliminada.

Musk no ha comentado directamente sobre deepfakes desde esa publicación, pero ha hablado con frecuencia sobre su intención de eliminar cuentas de bots que difunden información falsa sobre criptomonedas y política, entre otros temas, en X (anteriormente Twitter). Vale la pena señalar que el multimillonario aún no ha podido hacerlo.

A principios de este mes, el cofundador de Binance, Ye Hee, le preguntó a Musk al respecto. Mejora Las medidas de privacidad y seguridad de X después de que descubrió que su identidad estaba siendo utilizada indebidamente para promover un token criptográfico falso en X.


Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.



[ad_2]

Source Article Link

Categories
Computers

Florida Middle Schoolers Arrested for Allegedly Creating Deepfake Nudes of Classmates

[ad_1]

Two teenage boys from Miami, Florida, were arrested in December for allegedly creating and sharing AI-generated nude images of male and female classmates without consent, according to police reports obtained by WIRED via public record request.

The arrest reports say the boys, aged 13 and 14, created the images of the students who were “between the ages of 12 and 13.”

The Florida case appears to be the first arrests and criminal charges as a result of alleged sharing of AI-generated nude images to come to light. The boys were charged with third-degree felonies—the same level of crimes as grand theft auto or false imprisonment—under a state law passed in 2022 which makes it a felony to share “any altered sexual depiction” of a person without their consent.

The parent of one of the boys arrested did not respond to a request for comment in time for publication. The parent of the other boy said that he had “no comment.” The detective assigned to the case, and the state attorney handling the case, did not respond for comment in time for publication.

As AI image-making tools have become more widely available, there have been several high-profile incidents in which minors allegedly created AI-generated nude images of classmates and shared them without consent. No arrests have been disclosed in the publicly reported cases—at Issaquah High School in Washington, Westfield High School in New Jersey, and Beverly Vista Middle School in California—even though police reports were filed. At Issaquah High School, police opted not to press charges.

The first media reports of the Florida case appeared in December, saying that the two boys were suspended from Pinecrest Cove Academy in Miami for 10 days after school administrators learned of allegations that they created and shared fake nude images without consent. After parents of the victims learned about the incident, several began publicly urging the school to expel the boys.

Nadia Khan-Roberts, the mother of one of the victims, told NBC Miami in December that for all of the families whose children were victimized the incident was traumatizing. “Our daughters do not feel comfortable walking the same hallways with these boys,” she said. “It makes me feel violated, I feel taken advantage [of] and I feel used,” one victim, who asked to remain anonymous, told the TV station.

WIRED obtained arrest records this week that say the incident was reported to police on December 6, 2023, and that the two boys were arrested on December 22. The records accuse the pair of using “an artificial intelligence application” to make the fake explicit images. The name of the app was not specified, and the reports claim the boys shared the pictures between each other.

“The incident was reported to a school administrator,” the reports say, without specifying who reported it or how that person found out about the images. After the school administrator “obtained copies of the altered images,” the administrator interviewed the victims depicted in them, the reports say, who said that they did not consent to the images being created.

[ad_2]

Source Article Link