Categories
Featured

Se utilizan correos electrónicos falsos para piratear datos del libro mayor para engañar a las víctimas y obligarlas a renunciar a frases de recuperación

[ad_1]


  • Se ha detectado una nueva estafa por correo electrónico haciéndose pasar por Ledger
  • Los correos electrónicos afirman que la frase inicial de la billetera Ledger del usuario ha sido pirateada y solicitan confirmación.
  • Los usuarios que envían la frase inicial pierden todo su dinero.

Los delincuentes intentan robar criptomonedas haciéndose pasar por la empresa de billeteras de hardware Ledger y enviando correos electrónicos de phishing.

Las víctimas informaron haber recibido correos electrónicos que pretendían ser de Ledger, afirmando que su frase inicial (también conocida como frase de recuperación o semilla mnemotécnica) se había visto comprometida. Para proteger sus activos digitales, se anima a las víctimas a “verificar la seguridad” de la frase de recuperación a través de la “Herramienta de verificación segura”.

[ad_2]

Source Article Link

Categories
Featured

Meta recibió una multa de 263 millones de dólares por una violación de datos de Facebook en 2018

[ad_1]


  • Meta fue multada con 251 millones de euros
  • El castigo llega tras una violación de datos de Facebook en 2018
  • La Comisión Irlandesa de Protección de Datos aún no ha cobrado muchas multas

Meta ha recibido otra multa en virtud del Reglamento General de Protección de Datos (GDPR), junto con la empresa matriz de Facebook, Instagram y… WhatsApp Se enfrenta a una pérdida de 251 millones de euros (alrededor de 263 millones de dólares) después de una violación de datos en 2018 que expuso alrededor de 29 millones de cuentas de Facebook en todo el mundo, 3 millones de las cuales eran usuarios con sede en la Unión Europea.

Irlanda Comisión de Protección de Datos (DPC) Ha sido uno de los principales organismos reguladores de Europa en lo que respecta a responsabilizar a las empresas de tecnología, imponiendo enormes sanciones por violaciones del RGPD, incluida la multa más grande de la historia del RGPD. Cargo de 1.300 millones de dólares, también contra Metapara el procesamiento de datos.

[ad_2]

Source Article Link

Categories
Featured

Es posible que los piratas informáticos hayan robado los datos de casi 1 millón de usuarios de ConnectOnCall

[ad_1]


  • ConnectOnCall Healthcare ha sufrido una violación de datos
  • Se accedió a los datos de más de 900.000 pacientes durante un período de tres meses.
  • Esto deja a los pacientes en riesgo de robo de identidad.

La empresa de software Phreesia notificó a 914.138 personas cuya información personal y de salud quedó expuesta a través de una filtración de datos en mayo de 2023 después de utilizar su software ConnectOnCall, que proporciona comunicación fuera de horario entre pacientes y médicos.

Una investigación reveló que un tercero desconocido accedió a los datos de ConnectOnCall entre el 16 de febrero y el 12 de mayo de 20203, lo que significa que las comunicaciones confidenciales entre el proveedor y el paciente se vieron comprometidas, incluidos registros médicos, información de recetas, nombres completos y números de teléfono, con un “pequeño”. De los números de la Seguridad Social también se revelaron.

[ad_2]

Source Article Link

Categories
Featured

Otro importante hospital de EE. UU. fue pirateado y se filtraron datos sobre 1,4 millones de pacientes

[ad_1]


  • El Centro de Ciencias de la Salud de la Universidad Tecnológica de Texas y El Paso confirmó que había sido objeto de un ciberataque
  • En el ataque se filtraron datos sobre 1,4 millones de personas
  • Un actor de amenazas llamado Interlock se atribuyó la responsabilidad del ataque.

Otro hospital importante de EE. UU. sufrió recientemente un ciberataque y, como resultado, perdió datos confidenciales de más de un millón de pacientes.

En un anuncio publicado en su sitio web, el Centro de Ciencias de la Salud de la Universidad Tecnológica de Texas y los Centros de Ciencias de la Salud (HSC) de El Paso de la Universidad Tecnológica de Texas confirmaron que habían experimentado una “interrupción temporal en algunos sistemas y aplicaciones informáticas”.

[ad_2]

Source Article Link

Categories
Featured

Las defensas contra el ransomware se ven debilitadas por la tecnología de respaldo obsoleta, el cifrado limitado de los datos de respaldo y los respaldos de datos fallidos.

[ad_1]


  • Los expertos advierten que los ataques de ransomware a menudo apuntan directamente a los datos de respaldo
  • Los principios de Zero Trust son clave para la protección de datos
  • El 59% de las organizaciones sufrieron ataques de ransomware en 2023

ransomware Los ataques se están convirtiendo cada vez más en una preocupación importante para las empresas de todo el mundo y se dirigen a organizaciones de todos los tamaños e industrias.

Una investigación reciente de Object First ha puesto de relieve vulnerabilidades clave y la creciente importancia de las tecnologías de copia de seguridad modernas en la lucha contra las amenazas de ransomware.

[ad_2]

Source Article Link

Categories
Featured

NotLockBit ransomware se dirige a los usuarios de Apple con bloqueo avanzado de archivos y filtración de datos

[ad_1]

  • macOS se enfrenta a una amenaza emergente de ransomware, NotLockBit
  • El malware NotLockBit muestra capacidades de bloqueo de archivos
  • Las protecciones integradas de Apple están experimentando problemas debido a sofisticadas amenazas de ransomware

Durante años, ransomware Los ataques se dirigieron principalmente a los sistemas operativos Windows y Linux, pero los ciberdelincuentes han comenzado a centrar su atención en los usuarios de macOS, afirman los expertos.

El reciente descubrimiento de macOS.NotLockBit indica un cambio en el panorama, como se identificó recientemente malwareque lleva el nombre de la infame variante LockBit, podría marcar el comienzo de campañas de ransomware más serias contra usuarios de Mac.

[ad_2]

Source Article Link

Categories
Life Style

La revolución de la IA se está quedando sin datos. ¿Qué pueden hacer los investigadores?

[ad_1]

Internet es un vasto océano de conocimiento humano, pero no es ilimitado. Y los investigadores de IA casi lo han aguantado.

La última década de espectacular mejora en la IA ha sido impulsada en gran medida por: Haga las redes neuronales más grandes y entrénelas con más datos. Esta expansión ha demostrado ser sorprendentemente eficaz a la hora de hacer que los grandes modelos de lenguaje (LLM), como los que impulsan el chatbot ChatGPT, sean más capaces de replicar el lenguaje conversacional y desarrollar propiedades emergentes, como la inferencia. Pero algunos especialistas dicen que ahora nos estamos acercando a los límites de la expansión. Esto se debe en parte a Requisitos de energía inflados para la informática. Pero también se debe a que los desarrolladores de LLM se están quedando sin conjuntos de datos tradicionales utilizados para entrenar sus modelos.

Estudio sobresaliente1 Este año fue noticia al ponerle un número al problema: investigadores de Epoch AI, un instituto de investigación de virtualización, predicen que alrededor de 2028, el tamaño típico del conjunto de datos utilizado para entrenar un modelo de IA alcanzará el mismo tamaño total estimado. Inventario de textos públicos en línea. En otras palabras, es más probable que la IA lo haga. Nos quedamos sin datos de entrenamiento en unos cuatro años (Ver “Sin datos”). Al mismo tiempo, los propietarios de datos –como los editores de periódicos– han comenzado a tomar medidas enérgicas sobre cómo se utiliza su contenido, restringiendo aún más el acceso a los datos. Esto crea una crisis en el tamaño de los “datos comunes”, dice Shane Longbury, investigador de IA en el Instituto de Tecnología de Massachusetts en Cambridge, que dirige la Data Source Initiative, una organización de base que realiza auditorías de conjuntos de datos de IA.

El inminente cuello de botella en los datos de entrenamiento puede estar comenzando a disminuir. “Dudo mucho que esto esté sucediendo realmente”, dice Longbury.

Sin datos: un gráfico que muestra proyecciones de la cantidad de datos de texto utilizados para entrenar modelos de lenguaje grandes y la cantidad de texto disponible en línea, lo que sugiere que para 2028, los desarrolladores utilizarán conjuntos de datos que coincidan con la cantidad total de texto disponible.

Fuente: Referencia. 1

Aunque los especialistas dicen que existe la posibilidad de que estas limitaciones ralenticen la rápida mejora de los sistemas de IA, los desarrolladores están encontrando soluciones. “No creo que nadie esté entrando en pánico por las grandes empresas de IA”, dice Pablo Villalobos, investigador de Epoch AI con sede en Madrid y autor principal del estudio que predice un colapso de los datos en 2028. “O al menos no me envían correos electrónicos si lo hacen”.

Por ejemplo, destacadas empresas de inteligencia artificial como OpenAI y Anthropic, ambas con sede en San Francisco, California, han reconocido públicamente este problema y han sugerido que tienen planes para superarlo, incluida la generación de nuevos datos y la búsqueda de fuentes de datos no tradicionales. Un portavoz de OpenAI dijo naturaleza: “Utilizamos muchas fuentes, incluidos datos disponibles públicamente, asociaciones para datos no públicos, generación de datos sintéticos y datos de entrenadores de IA”.

Sin embargo, la crisis de datos puede revolucionar los tipos de modelos de IA generativa que la gente construye, quizás cambiando el panorama de grandes MBA multipropósito a modelos más pequeños y más especializados.

Billones de palabras

El desarrollo de LLM durante la última década ha demostrado su insaciable apetito por los datos. Aunque algunos desarrolladores no publican especificaciones para sus últimos modelos, Villalobos estima que la cantidad de “tokens” o partes de palabras utilizadas para capacitar a los LLM se ha multiplicado por 100 desde 2020, de cientos de miles de millones a decenas de billones.

Esto podría ser una porción significativa de lo que hay en Internet, aunque el total general es demasiado grande para cuantificarlo: Villalobos estima que el stock total de datos textuales de Internet hoy es de aproximadamente 3.100 billones de tokens. Varios servicios utilizan rastreadores web para extraer este contenido, luego eliminan duplicados y filtran contenido no deseado (como pornografía) para producir conjuntos de datos más nítidos: un servicio popular llamado RedPajama contiene decenas de billones de palabras. Algunas empresas o académicos rastrean y limpian ellos mismos para crear conjuntos de datos personalizados para la formación de MBA. Un pequeño porcentaje de Internet es de alta calidad, como textos socialmente aceptables y editados por humanos que se pueden encontrar en libros o en la prensa.

La tasa de aumento del contenido utilizable de Internet es sorprendentemente lenta: la investigación de Villalobos estima que está creciendo a menos del 10% por año, mientras que el tamaño de los conjuntos de datos de entrenamiento de IA se duplica anualmente. La proyección de estas tendencias muestra asíntotas alrededor de 2028.

Al mismo tiempo, los proveedores de contenido incluyen cada vez más códigos de programación o mejoran sus condiciones de uso para evitar que los rastreadores web o las empresas de inteligencia artificial extraigan sus datos para capacitación. Longpre y sus colegas publicaron una preimpresión en julio de este año que muestra un fuerte aumento en la cantidad de proveedores de datos que bloquean el acceso de ciertos rastreadores a sus sitios web.2. En el contenido web de alta calidad y más utilizado en los tres principales conjuntos de datos limpiados, la cantidad de tokens bloqueados por los rastreadores aumentó de menos del 3% en 2023 al 20-33% en 2024.

Actualmente se están presentando varias demandas para tratar de obtener daños y perjuicios para los proveedores de datos utilizados en la formación de IA. En diciembre de 2023, New York Times Presentó una demanda contra OpenAI y su socio Microsoft por infracción de derechos de autor; En abril de este año, ocho periódicos propiedad de Alden Global Capital en la ciudad de Nueva York presentaron una demanda similar. El contraargumento es que a la IA se le debería permitir leer y aprender del contenido en línea de la misma manera que lo haría una persona, y que esto constituye un uso justo del material. OpenAI ha dicho públicamente el cree New York Times La demanda es “infundada”.

Si los tribunales confirman la idea de que los proveedores de contenidos merecen una compensación financiera, será más difícil para los desarrolladores e investigadores de IA obtener lo que necesitan, incluidos los académicos, que no cuentan con recursos financieros significativos. “Los académicos serán los más afectados por estos acuerdos”, dice Longbury. “Hay muchos beneficios sociales y muy democráticos que se obtienen al tener una red abierta”, añade.

encontrar datos

La escasez de datos plantea un problema potencialmente importante para la estrategia tradicional de escalar la IA. Aunque es posible aumentar la potencia de cálculo de un modelo o la cantidad de parámetros sin ampliar los datos de entrenamiento, hacerlo da como resultado una IA lenta y costosa, dice Longbury, lo cual generalmente no es deseable.

Si el objetivo es encontrar más datos, una opción podría ser recopilar datos no públicos, como mensajes de WhatsApp o transcripciones de vídeos de YouTube. Aunque aún no se ha probado la legalidad de extraer contenido de terceros de esta manera, las empresas tienen la capacidad de acceder a sus propios datos y muchas empresas de redes sociales dicen que utilizan su propio material para entrenar sus propios modelos de IA. Por ejemplo, Meta, con sede en Menlo Park, California, dice que el audio y las imágenes recopiladas por sus auriculares de realidad virtual Meta Quest se utilizan para entrenar su IA. Sin embargo, las políticas varían. Los términos de servicio de la plataforma de videoconferencia Zoom establecen que la compañía no utilizará el contenido del cliente para entrenar sistemas de inteligencia artificial, mientras que OtterAI, un servicio de transcripción, dice que utiliza audio y texto cifrados y anónimos para la capacitación.

Sin embargo, por el momento, este contenido propietario probablemente contenga otros mil billones de caracteres de texto en total, estima Villalobos. Dado que gran parte de este contenido es de baja calidad o está duplicado, dice que eso es suficiente para retrasar la limitación de datos en un año y medio, incluso suponiendo que una sola IA pueda acceder a todo sin causar infracción de derechos de autor o problemas de privacidad. . “Incluso multiplicar por diez el inventario de datos sólo es suficiente para tres años de expansión”, afirma.

Otra opción podría ser centrarse en conjuntos de datos especializados, como datos astronómicos o genómicos, que están creciendo rápidamente. Fei-Fei Li, un destacado investigador de IA de la Universidad de Stanford en California, ha respaldado públicamente esta estrategia. Las preocupaciones sobre quedarse sin datos adoptan una visión demasiado estrecha de lo que constituyen datos, dada la información no explotada disponible en áreas como la atención sanitaria, el medio ambiente y la educación, dijo en una Cumbre de Tecnología de Bloomberg en mayo pasado.

Pero no está claro, dice Villalobos, qué tan disponibles o útiles son estos conjuntos de datos para capacitar a los titulares de un LLM. “Parece haber cierto grado de transferencia de aprendizaje entre muchos tipos de datos”, afirma Villalobos. “Sin embargo, no soy muy optimista acerca de este enfoque.”

Las posibilidades son más amplias si la IA generativa se entrena con otros tipos de datos, no solo con texto. Algunos modelos ya son capaces de entrenar hasta cierto punto con vídeos o imágenes sin etiquetar. Ampliar y mejorar estas capacidades puede abrir la puerta a datos más ricos.

Yann LeCun, científico senior de IA en Meta e informático de la Universidad de Nueva York, considerado uno de los fundadores de la IA moderna, destacó estas posibilidades en una presentación de febrero en la AI Meeting en Vancouver, Canadá. 1013 Los símbolos utilizados para formar a un MBA moderno parecen muchos: a una persona le llevaría 170.000 años leer tanto, estima LeCun. Pero dice que un niño de 4 años absorbió 50 veces más datos simplemente mirando objetos durante sus horas de vigilia. LeCun presentó los datos en la reunión anual de la Asociación para el Avance de la Inteligencia Artificial.

[ad_2]

Source Article Link

Categories
Featured

“Es una enorme cantidad de datos, procesados ​​unas 50 veces por segundo” – Beyond Sports de Sony sobre cómo surgió Funday Football de Los Simpson

[ad_1]

Si eres fanático Los Simpson O fútbol, ​​es seguro decir que el Monday Night Football de esta semana fue un juego para los libros, y no, no me refiero a la transmisión tradicional. En cambio, fue sonyBeyond Sports, NFL, ESPN y Disney Plus se unen para crear un equipo alternativo épico que fue divertido para toda la familia.

Ah, y se necesitan muchos conocimientos tecnológicos, y probablemente algo de pastel, para cruzar la línea. Para ilustrar cómo y para qué se eliminó la transmisión alternativa en tiempo real del juego entre los Cincinnati Bengals y los Dallas Cowboys. Los SimpsonTechRadar habló con Sander Schouten, director general y cofundador de Beyond Sports.

[ad_2]

Source Article Link

Categories
Featured

Estados Unidos quiere que los requisitos de seguridad sean el estándar para evitar que datos sensibles caigan en manos enemigas

[ad_1]


  • CISA exige a las organizaciones de sectores críticos actualizar su seguridad
  • Se aplicará MFA, gestión de vulnerabilidades y cifrado de datos.
  • Estos cambios ayudarán a mitigar el potencial de robo de datos por parte del gobierno y actores patrocinados por el estado.

La Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA) ha revelado un conjunto de Requisitos de seguridad propuestos Su objetivo es reducir los riesgos que plantea el acceso no autorizado a datos estadounidenses.

La medida se debe a preocupaciones sobre las vulnerabilidades expuestas por recientes ciberataques, campañas de piratería patrocinadas por estados y el uso indebido de datos personales por parte de naciones hostiles.

[ad_2]

Source Article Link

Categories
Featured

Microsoft Recall ofrece un 'filtro de información confidencial' para evitar guardar los datos de su tarjeta de crédito, pero vaya, no funciona

[ad_1]


  • La función Summon de Microsoft para Windows se ha visto envuelta en una controversia por cuestiones de privacidad
  • La herramienta utiliza inteligencia artificial para tomar capturas de pantalla constantemente y crear una línea de tiempo con capacidad de búsqueda de su actividad.
  • Se implementó un nuevo filtro de “información confidencial” para realizar pruebas, pero no parece estar funcionando bien

Así es chicos, es ese momento de la semana nuevamente: microsoft lo recuerdo una vez más Fracasó desde el principio, esta vez acusado de almacenar datos personales de los usuarios, como detalles de tarjetas de crédito y números de Seguro Social, incluso con el supuesto filtro de “información confidencial” activado.

Una característica muy controvertida anunciada originalmente para los dispositivos de PC Copilot+ en junio, Recall utiliza IA para tomar capturas de pantalla estáticas de todo lo que haces en tu PC y organizar esas capturas de pantalla en una línea de tiempo, lo que te permite “recordar” una vez. Volver a un punto anterior pidiendo a Copilot que busque nuevamente en el registro de su sistema.

[ad_2]

Source Article Link