Categories
Featured

Le pedimos a los chatbots de IA Gemini y ChatGPT que diseñaran nuestros ejercicios y luego los probamos.

[ad_1]

La inteligencia artificial es en todos lados Hoy en día, los chatbots están surgiendo Desbloquear la Inteligencia Artificial, Google Géminis y manzana Reparar inteligencia para aplicaciones más triviales e irreverentes, como refrigeradores inteligentes impulsados ​​por IA y un mesías impulsado por IA que puede recibir confesiones en las iglesias.

En muchos sentidos, la IA promete mejorar las cosas al acelerar los procesos, manejar el trabajo pesado e incluso programar aplicaciones desde cero. Pero para algunos, la naturaleza impersonal de la inteligencia artificial amenaza con disolver la creatividad y robarnos la personalidad que subyace al arte y al entretenimiento.

[ad_2]

Source Article Link

Categories
Featured

Character.AI ya no permitirá que sus chatbots interactúen románticamente con adolescentes

[ad_1]

Character.AI tiene un nuevo conjunto de funciones destinadas a hacer que las interacciones con los personajes virtuales que alberga sean más seguras, especialmente para los adolescentes. La compañía acaba de lanzar una nueva versión de su modelo de inteligencia artificial diseñada específicamente para usuarios más jóvenes, así como un conjunto de controles parentales para administrar su tiempo en el sitio. Las actualizaciones siguen antes Cambios de seguridad a la plataforma a raíz de las acusaciones de que los chatbots impulsados ​​por inteligencia artificial están impactando negativamente la salud mental de los niños.

Estos cambios de seguridad han ido acompañados de otros esfuerzos para endurecer las restricciones sobre el contenido de Character.AI. La compañía comenzó recientemente una purga, aunque incompleta, de cualquier imitación de IA. Personajes y marcas registradas con derechos de autor.

[ad_2]

Source Article Link

Categories
Life Style

El informe revela que Character.AI aloja chatbots a favor de la anorexia dirigidos a adolescentes

[ad_1]

A medida que el contenido en línea que fomenta conductas alimentarias desordenadas asoma su fea cabeza una vez más, la IA generativa está echando más leña al fuego.

Según A. Futurismo Investigation, una famosa startup de inteligencia artificial Personalidad.AI Presenta varios programas de entrevistas a favor de la anorexia que fomentan la pérdida de peso y hábitos alimentarios peligrosos. Muchos de ellos se anuncian como “entrenadores de pérdida de peso” o incluso expertos en la recuperación de trastornos alimentarios. Muchos incluyen referencias veladas a los trastornos alimentarios, mientras que otros están diseñados para romantizar hábitos peligrosos y a menudo perturbadores mientras imitan a sus personajes favoritos. El sitio, muy popular entre los usuarios más jóvenes, aún no ha hecho ningún esfuerzo para eliminar los chatbots de este tipo. FuturismoPublicación, a pesar de violar sus términos de servicio.

Este no es el primer escándalo que surge Personalidad.AIChatbots personalizables creados por el usuario. En octubre, un niño de 14 años presuntamente se suicidó Formar apego emocional Para simular un robot de inteligencia artificial Game of Thrones Personaje de Daenerys Targaryen. A principios de ese mes, la empresa fue criticada por alojar un chatbot. Imitó a una adolescente que fue asesinada En 2006, el robot fue descubierto por su padre y posteriormente retirado. Informes anteriores han encontrado que el sitio también alberga chatbots con temas suicidas, así como aquellos que promueven la pedofilia.

Velocidad de la luz triturable

A informe 2023 El Centro para Contrarrestar el Odio Digital descubrió que los populares chatbots basados ​​en inteligencia artificial, incluidos ChatGPT y MyAI de Snapchat, generaban respuestas peligrosas a preguntas sobre peso e imagen corporal. “Se han desatado en el mundo modelos de IA generativa no probados e inseguros y el resultado inevitable es que causan daño. Hemos descubierto que los sitios de IA generativa más populares fomentan y exacerban los trastornos alimentarios entre los usuarios jóvenes, algunos de los cuales pueden ser muy vulnerables. ”, escribió Imran Ahmed, director ejecutivo del Centro para la lucha contra el odio digital, en ese momento.


Ofertas del Black Friday que puedes comprar ahora

Los productos disponibles para comprar aquí a través de enlaces de afiliados son seleccionados por nuestro equipo de comercialización. Si compra algo a través de los enlaces de nuestro sitio, Mashable puede ganar una comisión de afiliado.


Los adolescentes (y los adultos) son Cambiando cada vez más a espacios digitales y tecnologías, incluidos chatbots impulsados ​​por inteligencia artificial, para brindar compañía. Si bien algunos de estos son establecidos y monitoreados por organizaciones confiables, incluso esas organizaciones corren el riesgo de sufrir comportamientos no deseados. Para los chatbots y foros en línea que no están regulados por órganos de supervisión, los riesgos son múltiples, incluyendo Depredación y abuso.



[ad_2]

Source Article Link

Categories
News

Un tribunal indio pide a Star Health que comparta los detalles de la filtración para que Telegram pueda eliminar los Chatbots

[ad_1]

Un tribunal indio en el estado sureño de Tamil Nadu pidió a la compañía de seguros Star Health que ayude a Telegram a identificar los datos filtrados a través de su aplicación de mensajería para poder eliminar los chatbots.

La compañía de seguros más grande del país, con un valor de mercado de unos 4.000 millones de dólares (alrededor de 33.628 millones de rupias) se dirigió al Tribunal Superior de Madrás en el estado sureño de Tamil Nadu después de que Reuters informara el 20 de septiembre que un pirata informático había filtrado datos confidenciales de clientes, incluidos documentos de reclamaciones médicas y Detalles médicos. Impuestos. durante cable Bots de chat.

El juez del Tribunal Superior de Madrás, K Kumaresh Babu, ordenó a la compañía de seguros que compartiera la información después de que Star Health pidiera al tribunal que ordenara a Telegram que tomara medidas inmediatas y eliminara los bots vinculados a la filtración de datos.

Telegram dijo que no podía investigar las filtraciones por su cuenta, pero acordó eliminar los datos si ayudaba a la compañía de seguros.

El viernes, el abogado de Telegram, Thriyambak Kannan, dijo al tribunal que la aplicación de mensajería necesitaba que Star Health identificara y compartiera detalles de los chatbots que filtraban datos.

La aplicación de mensajería con sede en Dubai dijo anteriormente que había eliminado robots de chat Cuando Reuters los etiquetó en la plataforma.

Star Health se enfrenta a una demanda de rescate de 68.000 dólares (alrededor de 57 rupias lakh) y también está investigando acusaciones de que su director de seguridad estuvo involucrado en la filtración de datos, pero dijo a principios de este mes que hasta ahora no había encontrado evidencia de irregularidades. El oficial anteriormente se negó a hacer comentarios.

El abogado de Star Health dijo al tribunal que la filtración contenía información personal altamente confidencial.

El caso se reanudará después de dos semanas.

© Thomson Reuters 2024

(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).

[ad_2]

Source Article Link

Categories
News

Telegram dice que no puede monitorear todos los chatbots en la filtración de datos de Star Health India

[ad_1]

Plataforma de mensajería cable A un tribunal indio se le dijo el viernes que no puede monitorear todas las cuentas que alberga en busca de datos de clientes filtrados desde la India. Salud de las estrellasSólo se bloqueará el contenido problemático que haya sido reportado.

La aseguradora de salud más grande de la India se ha enfrentado a una crisis comercial y de reputación desde que Reuters informó el 20 de septiembre que un pirata informático utilizó chatbots de Telegram y un sitio web para filtrar datos confidenciales de los clientes, incluidas tarjetas de identificación biométricas y documentos de reclamaciones médicas.

El mes pasado, Star Health se acercó al Tribunal Superior de Madrás en busca de intervención para ordenar a Telegram que eliminara todos los bots vinculados a la filtración de datos.

Pero un abogado que representa a Telegram dijo durante la audiencia del viernes que sería una violación de las leyes indias si monitoreara todos los chatbots de la plataforma para identificar datos filtrados.

Sin embargo, Telegram acordó eliminar los datos si recibía ayuda de la compañía de seguros, que recibió una demanda de rescate de 68.000 dólares de un pirata informático para detener las filtraciones.

Las acciones de Star Health han perdido casi un 11% desde que se publicó la historia y cayeron poco más del 1% el viernes.

Telegram ha sido objeto de un escrutinio cada vez mayor en todo el mundo desde su fundación. Pavel Durov Fue puesto bajo investigación oficial en Francia el 28 de agosto en relación con el presunto uso de la aplicación para actividades ilegales.

Durov y Telegram negaron haber actuado mal y dijeron que estaban abordando las críticas.

El juez del Tribunal Superior de Madrás, Kumaresh Babu, pidió el viernes a la compañía de seguros que compartiera información sobre los chatbots problemáticos con Telegram y ordenó a la aplicación de redes sociales que los bloqueara con efecto inmediato.

Telegram y Star Health no respondieron a las solicitudes de comentarios sobre la audiencia.

Star Health también está investigando las acusaciones de que su director de seguridad estuvo involucrado en la filtración de datos y ha dicho que está cooperando en la investigación, que hasta ahora no ha mostrado evidencia de irregularidades.

El ejecutivo no se pronunció sobre estas acusaciones.

El caso se reanudará dentro de dos semanas.

© Thomson Reuters 2024

(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).

[ad_2]

Source Article Link

Categories
Life Style

Los chatbots de IA más grandes tienden a difundir tonterías y la gente no siempre se da cuenta

[ad_1]

Estudia las últimas y mejores ediciones de tres disciplinas. Chatbots de Inteligencia Artificial (IA). Muestra que son más propensos a generar respuestas incorrectas que a admitir su ignorancia. La evaluación también encontró que las personas no son buenas para detectar la enfermedad. Malas respuestas.

Se ha prestado mucha atención al hecho de que los grandes modelos de lenguaje (LLM) utilizados para ejecutar chatbots a veces hacen las cosas mal o “Alucinaciones” Respuestas extrañas a las preguntas.. José Hernández Orallo, del Instituto de Investigación de Inteligencia Artificial de Valencia en España, y sus colegas analizaron esos errores para ver cómo cambian a medida que los modelos crecen en tamaño, aprovechando más datos de entrenamiento, lo que implica más parámetros o toma de decisiones y nodos de alimentación. Más potencia informática. También rastrearon si la probabilidad de errores coincidía con las percepciones humanas sobre la dificultad de las preguntas y qué tan bien las personas eran capaces de identificar respuestas incorrectas. el estudio1 Fue publicado en naturaleza El 25 de septiembre.

El equipo descubrió que las versiones más grandes y precisas de los LLM son, Como era de esperar, más preciso.en gran parte porque se moldearon utilizando métodos de ajuste, como el aprendizaje por refuerzo a partir de la retroalimentación humana. Esta es una buena noticia. Pero son menos confiables: de todas las respuestas inexactas, la fracción de respuestas incorrectas aumentó, informó el equipo, porque es menos probable que los modelos eviten responder una pregunta, por ejemplo, diciendo que no saben o cambiando de tema. .

“Hoy en día responden a casi todo. Esto significa más respuestas correctas, pero también incorrectas”, dice Hernández Orallo. En otras palabras, es más probable que los chatbots ofrezcan opiniones que van más allá de su conocimiento, dice Mike Hicks, un filósofo de la ciencia. y tecnología en la Universidad de Glasgow en el Reino Unido, que Sugiere el término mierda. Para describir el fenómeno.2. “Está mejorando en fingir que sabe”.

El resultado es que es probable que los usuarios comunes sobreestimen las capacidades de los chatbots, y eso es peligroso, dice Hernández Orallo.

Incorrecto y evitado

El equipo analizó tres familias de LLM: GPT abierto AIy LLaMA y BLOOM de Meta, un modelo de código abierto creado por el grupo académico BigScience. Para cada uno, observaron las primeras versiones prototipo de los modelos y perfeccionaron las versiones posteriores.

Probaron los modelos con miles de indicaciones que incluían preguntas sobre aritmética, anagramas, geografía y ciencia, así como estímulos que probaron la capacidad de los robots para transformar información, como hacer una lista en orden alfabético. También calificaron cuán difíciles eran percibidas las preguntas por los humanos; por ejemplo, una pregunta sobre Toronto, Canadá, fue calificada como más fácil que una pregunta sobre la ciudad más pequeña y menos conocida de Aquiles en México.

Como era de esperar, la precisión de las respuestas aumentó a medida que aumentaba el tamaño de los formularios revisados ​​y disminuyó a medida que aumentaba la dificultad de las preguntas. Aunque puede ser prudente que los modelos eviten responder preguntas muy difíciles, los investigadores no encontraron ninguna tendencia fuerte en esta dirección. Alternativamente, algunos modelos, como el GPT-4, respondieron a casi todo. La proporción de respuestas incorrectas entre las que eran incorrectas o se evitaban aumentó a medida que aumentaba el tamaño de los formularios, alcanzando más del 60% para muchos formularios duplicados.

El equipo también descubrió que todos los modelos podían ocasionalmente equivocarse incluso en preguntas fáciles, lo que significa que no había una “zona de operación segura” en la que un usuario pudiera tener una gran confianza en las respuestas.

Luego, el equipo pidió a las personas que clasificaran las respuestas como correctas, incorrectas o evitadas. Sorprendentemente, las personas calificaron incorrectamente las respuestas inexactas como precisas (aproximadamente entre el 10% y el 40% de las veces) en preguntas fáciles y difíciles. “Los humanos no son capaces de supervisar estos modelos”, dice Hernández-Orallo.

Espacio seguro

Hernández-Uralo cree que los desarrolladores deberían mejorar el rendimiento de la IA en preguntas fáciles y alentar a los chatbots a negarse a responder preguntas difíciles, para que las personas puedan evaluar mejor las situaciones en las que los sistemas de IA probablemente sean confiables. “Necesitamos que los humanos entiendan: 'Puedo usarlo en esta área, no debería usarlo en esa área'”, dice.

Haga que los chatbots tengan más probabilidades de responder preguntas difíciles Se ve impresionante y se desempeña bien en las tablas de clasificación. Ese es un buen desempeño, pero no siempre es útil, dice Hernández-Uralo. “Todavía estoy muy sorprendido de que en las versiones modernas de algunos de estos modelos, incluido o1 de OpenAI, puedes pedirles que multipliquen dos números muy largos y obtienes una respuesta incorrecta”, dice. Esto debería poder solucionarse, añade. “Se puede establecer un umbral y, cuando la pregunta es difícil, [get the chatbot to] Diga: No, no lo sé.

“Hay algunos modelos que dirán: 'No lo sé' o 'No tengo suficiente información para responder a tu pregunta'”, dice Vipula Raut, científica informática de la Universidad de Carolina del Sur en Columbia. Todas las empresas de inteligencia artificial están trabajando arduamente para reducir las alucinaciones y los chatbots desarrollados para fines específicos, como el uso médico, a veces se optimizan para evitar que superen su base de conocimientos. Pero para las empresas que intentan vender chatbots multipropósito, “esto no es algo que normalmente quieran ofrecer a sus clientes”, añade.

[ad_2]

Source Article Link

Categories
News

La empresa india Star Health presenta una demanda contra Telegram después de que un hacker accediera a Chatbots para filtrar datos

[ad_1]

La importante compañía de seguros india Star Health presentó una demanda contra Telegram y un pirata informático después de que Reuters informara que el pirata informático estaba utilizando chatbots en la aplicación de mensajería para filtrar datos personales e informes médicos de los asegurados.

La demanda se produce en medio de un escrutinio cada vez mayor. cable Globalmente y su fundador fue arrestado Pavel Durov En Francia el mes pasado, la moderación del contenido y las funciones de la aplicación se utilizaron indebidamente para actividades ilegales. Durov y Telegram han negado haber actuado mal y están abordando las críticas.

Star recibió una orden judicial temporal de un tribunal de su estado natal de Tamil Nadu que ordenaba a Telegram y al hacker bloquear cualquier chatbot o sitio web en India que proporcionara datos en línea, según una copia de la orden.

Star también demandó a la empresa de software Cloudflare Inc, que cotiza en Estados Unidos, alegando que los datos filtrados en sitios web se alojaron utilizando sus servicios.

La orden del Tribunal Superior de Madrás del 24 de septiembre citó a Sattar diciendo: “Los datos personales y confidenciales de… los clientes y las actividades comerciales del demandante en general han sido pirateados y filtrados utilizando la plataforma (Telegram)”.

Star, una entidad que cotiza en bolsa con una capitalización de mercado de más de 4.000 millones de dólares (alrededor de 33.473 millones de rupias), hizo públicos los detalles de la demanda por primera vez en un anuncio en el periódico The Hindu el jueves.

El tribunal ha emitido avisos a Telegram y a Cloudflare sobre el asunto y la próxima audiencia del caso será el 25 de octubre.

La compañía ha solicitado una orden judicial que prohíba a Telegram y Cloudflare utilizar el nombre comercial “Star Health” o hacer que sus datos estén disponibles en línea, según el anuncio de Star.

Star Health, Telegram y Cloudflare no respondieron a la solicitud de comentarios de Reuters.

A la capacidad de los usuarios de crear chatbots se le atribuye ampliamente el mérito de haber ayudado a Telegram, con sede en Dubai, a convertirse en una de las aplicaciones de mensajería más grandes del mundo, con 900 millones de usuarios activos mensuales.

Reuters informó la semana pasada que alguien apodado xenZen había hecho públicos en Telegram datos robados, incluidos informes médicos de clientes de Star, pocas semanas después de que el fundador de Telegram fuera acusado de permitir que la aplicación facilitara el crimen.

Starr había dicho anteriormente que su evaluación inicial mostraba que “no se ha revelado ningún acuerdo a gran escala” y que “los datos confidenciales de los clientes permanecen seguros”.

Dos chatbots distribuyeron datos de Star Health. Uno de ellos mostraba los documentos de reclamación en formato PDF. El otro permite a los usuarios solicitar hasta 20 muestras de 31,2 millones de conjuntos de datos con un solo clic, brindando detalles que incluyen el número de póliza, el nombre e incluso el IMC.

Al probar los bots, Reuters descargó más de 1.500 archivos con algunos documentos que datan de julio de 2024, que incluían documentos de pólizas y reclamos que contenían nombres, números de teléfono, direcciones, tarjetas de impuestos, copias de tarjetas de identificación, resultados de pruebas, diagnósticos médicos y de sangre. Informes.

Reuters compartió detalles de los chatbots con Telegram el 16 de septiembre, y 24 horas después su portavoz Remy Vaughn dijo que habían sido “eliminados”. Más tarde aparecieron más chatbots.

Star también demandó al presunto hacker, xenZen, en la demanda. Los piratas informáticos dijeron en un correo electrónico a Reuters el jueves que se unirían a las audiencias en línea si se les permitiera hacerlo.

Los chatbots de Star Health son parte de una tendencia más amplia de piratas informáticos que utilizan estos métodos para vender datos robados. De los cinco millones de personas cuyos datos se vendieron a través de chatbots, India representó el mayor número de víctimas con un 12 por ciento, según mostró la última encuesta sobre pandemia realizada por NordVPN a finales de 2022.

© Thomson Reuters 2024

(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).

[ad_2]

Source Article Link

Categories
Life Style

Los chatbots más grandes dicen más mentiras

[ad_1]

Bienvenido naturaleza Lectores, ¿les gustaría recibir este informe en su bandeja de entrada de forma gratuita todos los días? Regístrate aquí.

Micrografía óptica de neuronas del hipocampo sobre fondo negro.

Las neuronas del hipocampo ayudan a detectar patrones en la avalancha de información que fluye por el cerebro.Crédito: Arthur Sheen/Biblioteca de imágenes científicas

Nuestros cerebros aprenden constantemente sobre los patrones cotidianos, incluso sin que seamos conscientes de ello. Los investigadores han identificado neuronas en regiones clave del cerebro que recopilan información sobre qué, cuándo y dónde. Permite al cerebro detectar patrones en los eventos a medida que suceden.. Los resultados sugieren que el cerebro puede aprender a predecir eventos futuros basándose en los patrones que aprende. “Esto es algo que no está claro”, afirma el neurocientífico Isaac Fried. “El cerebro lo capta, básicamente, muy rápidamente, y podemos ver esos cambios en células individuales”.

Naturaleza | lectura de 5 minutos

referencia: naturaleza papel

Reconocimiento de patrones. El dibujo muestra el modelo de estudio de los investigadores.

Fuente: Referencia. 1

Un estudio de las últimas y mejores versiones de tres importantes chatbots de inteligencia artificial (IA) muestra que es Es más probable generar respuestas incorrectas que admitir ignorancia En comparación con modelos anteriores. El estudio también encontró que las personas no son muy buenas para detectar malas respuestas, lo que significa que es probable que los usuarios sobreestimen las capacidades de los chatbots como GPT de OpenAI, LLaMA de Meta y BLOOM. “Esto me suena a lo que llamaríamos una tontería”, dice el filósofo de la ciencia Mike Hicks sobre el comportamiento cuestionable de la IA. “Está mejorando en fingir que sabe”.

Naturaleza | lectura de 5 minutos

referencia: naturaleza papel

El estatus superior de China como fuente de investigaciones altamente citadas parece estar influenciado por los investigadores que citan a sus compatriotas. uno El análisis encontró que el 62% de las citas en el 10% de los artículos más citados de un autor radicado en China procedían del país.. La segunda tasa más alta de sesgo hogareño fue del 24% en Estados Unidos. Los dos países obtuvieron clasificaciones similares en un estudio separado. No es sorprendente, dicen los autores, que cuenten con un número tan grande de investigadores. Sabiendo que “el aparente aumento de China en las clasificaciones de citas es exagerado” podría, en última instancia, beneficiar la cooperación sanitaria internacional, argumentan, al “mitigar el problema”. [West’s] Miedo existencial a perder el enfrentamiento científico.

Ciencia | 6 minutos de lectura

referencia: Informe del Instituto Nacional Japonés de Ciencia y Tecnología (en japonés) y Documento de trabajo de la Oficina Nacional de Investigación Económica (No revisado por pares)

Los arrecifes de coral (grandes masas de mariscos fusionados con rocas y entre sí) se utilizan para proteger las costas de todo el mundo, pero la mayoría se han perdido debido a la sobreexplotación y otras actividades humanas. Los conservacionistas del Proyecto Billion Oyster están trabajando en Reintroducir arrecifes de coral en las aguas que rodean la ciudad de Nueva York como un 'rompeolas viviente' Para protegerse de los efectos del cambio climático. Pero aún se desconoce si los arrecifes de coral restaurados pueden crecer lo suficiente como para amortiguar las costas, y los defensores de la restauración de las ostras reconocen que se necesitarán muchos años y sembrarán ostras antes de que los arrecifes de coral puedan proporcionar un baluarte contra el aumento del nivel del mar.

Naturaleza | 6 minutos de lectura

Filas de

En la ciudad de Nueva York se almacenan estructuras abovedadas llamadas bolas de arrecife. Serán bajados a aguas cercanas para proporcionar refugio a las ostras jóvenes.Fotografía: Alex Suleiman/naturaleza

Las ostras necesitan asentarse en superficies duras y estables para crecer. Para proporcionarles un hogar, el personal del proyecto y los voluntarios mezclan conchas de ostras trituradas, donadas por restaurantes, con hormigón reciclado, y utilizan mortero para hacer estructuras huecas con forma de cúpula llamadas “bolas de arrecife” con agujeros de aproximadamente un metro de diámetro. . Se sumergen en el agua, lo que permite que las larvas de ostras que nadan libremente se adhieran a ellas y maduren.

Características y opinión

“La mayor parte del tiempo, cuando uso ChatGPT, intento que diga algo ofensivo”, dice Eddie Unglis, un investigador del procesamiento del lenguaje natural. Es uno de los científicos que estudia los sistemas de seguridad que implementan las empresas de inteligencia artificial para proteger a los usuarios de contenido no deseado, a veces con resultados indeseables. Un resultado es que Las garantías pasan por alto los detalles más finos de cómo se utilizan ciertos términoscomo “queer”, se utilizan en diferentes contextos, borrando por completo el contenido LGBTQ+ de los datos de entrenamiento y dejando a los modelos con una versión incompleta de la realidad.

Ciencias Naturales Computacionales | lectura de 12 minutos

La combinación de políticas gubernamentales en aspectos como las tasas de matrícula, la inmigración y el impacto de la inflación significa que Se espera que el 40% de las universidades del Reino Unido pierdan dinero este año. La quiebra de una sola universidad es un problema regional grave, pero muchos advierten que si una o dos quiebran, podría desencadenar una crisis mayor. “Me preocupa un efecto dominó”, dice Nick Hillman, director del Instituto de Políticas de Educación Superior.

Naturaleza | lectura de 12 minutos

Infografía de la semana

Un diagrama que muestra cómo las bacterias pueden revertir secuencias dentro de un gen.

Las bacterias tienen la capacidad de invertir sus secuencias genéticas de atrás hacia adelante, lo que puede generar dos proteínas diferentes a partir de un gen. Por ejemplo, Bacteroides thetaiotaomicron tiene el gen, elc-Se puede revertir. De alguna manera, codifica la enzima necesaria para producir la vitamina tiamina. El otro método codifica la proteína truncada. Esta capacidad parece dar a las bacterias una ventaja en la supervivencia en diferentes condiciones. Los investigadores diseñaron bacterias que estaban “bloqueadas” para expresar la versión directa o invertida de… elc Examinaron la supervivencia de los dos grupos de bacterias cuando se cultivaron con diferentes concentraciones de tiamina. En condiciones de niveles bajos de tiamina, las bacterias que expresan la versión directa de… elc dominar Cuando la tiamina era alta, las bacterias que expresaban la versión invertida de… elc Tenía una ventaja.

(Noticias y opiniones de naturaleza | 7 minutos de lectura, naturaleza cortafuegos)

cita del dia

El chef Marcus Samuelsson dice que cultivos como el mijo, el teff y el fonio podrían convertirse en “la próxima quinua” si la industria alimentaria les da el mismo impulso que al grano de moda, y al mismo tiempo proporciona un salvavidas a las familias de agricultores cuyos cultivos están amenazados por el cambio climático. (New York Times | lectura de 5 minutos)

Hoy me emociona saber que seis de los martines pescadores de Guam (Todramphos canela)también llamado Sihak, Fueron liberados en la naturaleza. En un atolón aislado en el Océano Pacífico. Con reflejos de azul cerúleo y canela. [Guam’s] “Aguas azules del océano y puestas de sol de color rojo anaranjado”, dijo Yolonda Topasna del Departamento de Agricultura de Guam. Las magníficas aves son un símbolo de la isla, aunque se espera que con el tiempo estén extintas en estado salvaje debido a la introducción de depredadores. serán reintroducidas en Guam (una vez que se resuelva el problema de las serpientes).

Háganos saber si hay algo que debamos incluir en este boletín en informació[email protected]

Gracias por leer,

Jacob Smith, editor asociado, Nature Briving

Con contribuciones de Flora Graham

¿Quieres más? Suscríbase a nuestros otros boletines gratuitos de Resumen de la Naturaleza:

Informe sobre la naturaleza: empleos – Información, consejos y periodismo galardonado para ayudarle a mejorar su vida laboral

Informe sobre la naturaleza: microbiología – Los organismos más abundantes en nuestro planeta -los microorganismos- y el papel que desempeñan en la salud, el medio ambiente y los sistemas alimentarios.

Informe sobre la naturaleza: el antropoceno — Cambio climático, biodiversidad, sostenibilidad y geoingeniería

Nature Briefing: Inteligencia artificial y robótica – 100% escrito por humanos, por supuesto.

Resumen de la naturaleza: cáncer – Un boletín semanal escrito pensando en los investigadores del cáncer.

Naturaleza del resumen: investigación traslacional – Cubre biotecnología, descubrimiento de fármacos y productos farmacéuticos.

[ad_2]

Source Article Link

Categories
News

Un hacker utiliza chatbots en la aplicación Telegram para filtrar datos de Star Health Insurance

[ad_1]

Los datos de clientes robados, incluidos informes médicos de la aseguradora de salud más grande de la India, Star Health, están disponibles públicamente a través de chatbots en cableApenas unas semanas después de que el fundador de Telegram fuera acusado de permitir que la aplicación de mensajería facilitara el crimen.

El supuesto creador de robots de chat Un investigador de seguridad que alertó a Reuters sobre el problema dijo que los datos privados de millones de personas estaban a la venta y que se podían ver muestras pidiendo a los chatbots que los revelaran.

Star Health & Allied Insurance, que tiene una capitalización de mercado de más de 4.000 millones de dólares, dijo en un comunicado a Reuters que había informado a las autoridades locales sobre el acceso no autorizado a sus datos. Añadió que la evaluación inicial mostró que “no hubo una violación a gran escala” y que “los datos confidenciales de los clientes permanecen seguros”.

Utilizando chatbots, Reuters pudo descargar documentos de pólizas y reclamaciones que contenían nombres, números de teléfono, direcciones, detalles fiscales, copias de tarjetas de identificación, resultados de pruebas y diagnósticos médicos.

Es la capacidad de los usuarios de crear chatbots lo que ha contribuido ampliamente a que Telegram de Dubai se convierta en una de las aplicaciones de mensajería más grandes del mundo, con 900 millones de usuarios activos mensuales.

Sin embargo, el fundador de origen ruso fue arrestado. Pavel Durov En Francia, el mes pasado aumentó el escrutinio del contenido y las funciones de Telegram que podrían utilizarse indebidamente con fines delictivos. Durov y Telegram han negado haber actuado mal y están abordando las críticas.

El uso de chatbots de Telegram para vender datos robados demuestra la dificultad que enfrenta la aplicación para evitar que clientes infames aprovechen su tecnología y resalta los desafíos que enfrentan las empresas indias para mantener seguros sus datos.

Jason Parker, un investigador de seguridad con sede en el Reino Unido, dijo que los chatbots de Star Health presentan un mensaje de bienvenida que dice que están “hechos por xenZen” y han estado funcionando desde al menos el 6 de agosto.

Parker dijo que se hizo pasar por un comprador potencial en un foro de piratas informáticos en línea donde un usuario bajo el alias xenZen dijo que habían creado chatbots y poseían 7,24 terabytes de datos relacionados con más de 31 millones de clientes de Star Health. Los datos son gratuitos a través del chatbot de forma aleatoria y segmentada, pero se venden al por mayor.

Reuters no pudo verificar de forma independiente las afirmaciones de xenZen ni confirmar cómo el creador del chatbot obtuvo los datos. En un correo electrónico a Reuters, xenZen dijo que estaba en conversaciones con compradores sin revelar sus identidades ni los motivos de su interés.

Remoto

En una prueba de los robots, Reuters descargó más de 1.500 archivos, algunos de los cuales datan de julio de 2024.

“Si este bot se discontinua, presten atención, habrá otro bot disponible en unas horas”, decía el mensaje de bienvenida.

Los chatbots fueron posteriormente descritos como “fraudulentos” con una advertencia de que los usuarios los denunciaban como sospechosos. Reuters compartió detalles de los chatbots con Telegram el 16 de septiembre y, en 24 horas, el portavoz de la compañía, Remy Vaughn, dijo que habían sido “eliminados” y pidió que se le notificara si aparecían más.

“Compartir información privada en Telegram está expresamente prohibido y se elimina cuando se detecta. Los moderadores utilizan una combinación de monitoreo proactivo, herramientas de inteligencia artificial e informes de usuarios para eliminar millones de contenidos dañinos todos los días”.

Desde entonces, han surgido nuevos chatbots que proporcionan datos de Star Health.

Star Health dijo que una persona no identificada se comunicó con ella el 13 de agosto afirmando tener acceso a algunos de sus datos. La compañía de seguros informó del asunto al departamento de delitos cibernéticos de Tamil Nadu, su estado natal, y a la agencia federal de ciberseguridad. Certificado de entrada.

La compañía dijo en su declaración: “La adquisición y difusión no autorizada de datos de clientes es ilegal y estamos trabajando activamente con las autoridades para abordar esta actividad criminal. Star Health asegura a sus clientes y socios que su privacidad es de suma importancia para nosotros. .”

En una presentación a la bolsa de valores el 14 de agosto, Star Health, la mayor compañía de la India entre los proveedores independientes de seguros médicos, dijo que estaba investigando una supuesta violación de datos de “un pequeño número de reclamaciones”.

Los representantes de CERT-In y el Departamento de Delitos Cibernéticos de Tamil Nadu no respondieron a las solicitudes de comentarios enviadas por correo electrónico.

inconsciente

Telegram permite a personas u organizaciones almacenar y compartir grandes cantidades de datos detrás de cuentas anónimas. También les permite crear chatbots personalizables que entregan automáticamente contenido y funciones según las solicitudes de los usuarios.

Dos chatbots distribuyen datos de Star Health. Uno proporciona los documentos de reclamación en formato PDF. El otro permite a los usuarios solicitar hasta 20 muestras de 31,2 millones de conjuntos de datos con un solo clic, proporcionando detalles que incluyen el número de documento, el nombre e incluso el índice de masa corporal.

Entre los documentos revelados a Reuters se encontraban registros relacionados con el tratamiento de la hija de un año del asegurado Sandeep T.S. en un hospital del estado sureño de Kerala. Los registros incluían el diagnóstico, los resultados de los análisis de sangre, el historial médico y una factura que ascendía a unas 15.000 rupias (179 dólares).

Al confirmar la autenticidad de los documentos, Sandeep dijo: “Parece preocupante. ¿Sabes cómo esto podría afectarme?”. Agregó que Star Health no le informó sobre ninguna filtración de datos.

El año pasado, el chatbot también filtró un reclamo del asegurado Pankaj Subhash Malhotra que incluía resultados de pruebas de ultrasonido, detalles de enfermedades, copias de cuentas de impuestos federales y tarjetas de identificación nacionales. También confirmó que los documentos eran auténticos y dijo que no le habían notificado ninguna violación de seguridad.

Los chatbots de Star Health forman parte de una tendencia más amplia de piratas informáticos que utilizan este tipo de tácticas para vender datos robados. De los cinco millones de personas cuyos datos se vendieron a través de chatbots, India representó el mayor número de víctimas con un 12%, según la última encuesta de NordVPN sobre la pandemia de finales de 2022.

“La disponibilidad de datos confidenciales a través de Telegram es normal, porque Telegram es una interfaz fácil de usar”, dijo Adrianus Warmenhoven, experto en ciberseguridad de NordVPN. “Telegram se ha convertido en una forma más fácil de usar para que los delincuentes interactúen”.

© Thomson Reuters 2024

(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).

[ad_2]

Source Article Link

Categories
News

Por qué HP ofrece chatbots inteligentes en dispositivos GPT-4, explica Vineet Jehani

[ad_1]

HP ha lanzado la primera generación de computadoras con tecnología de inteligencia artificial en India. HP EliteBook Ultra Y HP OmniBookAmbos dispositivos funcionan con Snapdragon de Qualcomm El OmniBook Además de las funciones de IA basadas en el sistema operativo de Microsoft, HP también ha innovado los dispositivos con algunas funciones de IA propias.

HP incorpora funciones de IA a sus PC habilitadas para IA

Entre las funciones de IA que ofrece HP, la más interesante es el chatbot de IA en el dispositivo. caballos de fuerza AI Companion, impulsado por GPT-4 de OpenAI. Está empaquetado como una aplicación y proporciona capacidades genéricas de chatbot de IA donde los usuarios pueden hacer consultas y obtener respuestas. También tiene una función de análisis donde los usuarios pueden cargar documentos, archivos PDF y archivos de texto, y la inteligencia artificial los procesará y responderá preguntas relacionadas con ellos. La compañía dice que el chatbot de IA funciona completamente fuera de línea, por lo que los datos nunca salen del dispositivo.

Además, HP está integrando nuevas funciones de inteligencia artificial en la cámara web impulsada por Poly, una empresa que adquirió en noviembre de 2022. Los usuarios obtienen funciones como Spotlight que mejora la iluminación de la persona en el encuadre, el desenfoque del fondo y filtros con inteligencia artificial y automáticos. enmarcado. Aparte de eso, Poly Studio también mejora la calidad del sonido y reduce el ruido.

Además, los dispositivos empresariales también están equipados con HP Wolf Pro Security NGAV, un software antivirus que utiliza el aprendizaje automático para aprender y actualizarse ante nuevos ataques de virus y malware.

Comprender las ofertas de IA de HP

Las ofertas de IA de HP son interesantes, ya que es el único fabricante de portátiles que ha introducido sus propias funciones de IA. Sin embargo, también plantea algunas preguntas. Si bien HP AI Companion es una herramienta útil, competirá con las capacidades del chatbot Copilot de Microsoft. La elección de la forma cerrada. GPT-4 En lugar de un modelo de código abierto como Mixtral o Llama, también es interesante.

Gadgets 360 habló con Vineet Jehani, director sénior de la categoría de sistemas personales de HP India, para decodificar estas preguntas y simplificar el cada vez más competitivo segmento de PC con IA. Durante esta interacción, cubrimos los temas anteriores y tratamos de comprender la importancia de las computadoras personales con IA en la actualidad.

HP AI Companion: una forma segura de utilizar chatbots con tecnología de IA

El software HP AI Companion, que ejecuta GPT-4, se encuentra completamente dentro del dispositivo. Hay una opción disponible para conectarlo al servidor para tareas más complejas, pero el usuario tiene la opción de activarlo o no. A primera vista, esto puede parecer una opción más segura en comparación con la IA basada en servidor. robots de chat.

Compañero de IA de HP Compañero de IA de HP

Compañero de IA de HP

“Todos quieren hacer más, pero quieren hacerlo por sí mismos y no necesariamente desde una perspectiva de participación pública. Ahí es donde entra en juego AI Companion, propiedad de HP. Ahí es donde entran todas las características de seguridad”. Desde una perspectiva integral de seguridad de los datos, Gehani añadió: “Apoyamos el uso ético de las capacidades de IA. Tenemos el firewall adecuado y las protecciones adecuadas contra eso”.

Pero, ¿la IA local causará fricciones con Microsoft? Esta pregunta es importante porque Microsoft busca agresivamente dominar el mercado. computadora personal El dispositivo tiene un espacio dedicado con el botón Copilot y su sistema operativo Windows viene con muchas funciones impulsadas por Copilot. Sin embargo, mientras Copilot está instalado en el dispositivo, las consultas se procesan y las respuestas se generan en la nube, lo que puede hacer que algunos usuarios se preocupen por la seguridad y privacidad de los datos.

Sin embargo, Gehani no cree que haya lugar a fricciones. “Consideramos esto como complementario. Microsoft está enriqueciendo la plataforma de IA con funciones Copilot como Cocreate y Live Captions. HP está proporcionando una capa adicional. No veo esto como una competencia sino como un servicio complementario”.

Necesidad de una llave auxiliar especial

Al anunciar la terminología de las computadoras personales impulsadas por IA, Microsoft instó a los fabricantes de equipos originales (OEM) a agregar una clave Copilot para calificar sus dispositivos como computadoras personales impulsadas por IA o computadoras personales impulsadas por IA. Sin embargo, ¿la clave tiene algún significado para el consumidor final?

“Te ofrece IA al alcance de tu mano y hace que su uso sea mucho más fácil. Puedes simplemente tocar un botón para iniciar la aplicación sin tener que navegar mediante múltiples clics. Proporciona una mejor experiencia y la hace más fácil de usar”, Jehani explicado.

La importancia de los ordenadores con inteligencia artificial

Aunque las computadoras impulsadas por IA han llegado al mercado, el consumidor promedio no les encuentra muchos usos. Si bien hacerle un montón de preguntas a un chatbot puede ser divertido por un tiempo, la novedad desaparece rápidamente. Microsoft ha introducido muchas características interesantes, pero las aplicaciones y experiencias aún son limitadas debido a la falta de aplicaciones de terceros que se integren con la inteligencia artificial. La pregunta que surge es si el consumidor final debería invertir en dispositivos que tengan una potente unidad de procesamiento neuronal (NPU) pero que no tengan suficientes casos de uso para ella.

“Vemos esto desde dos lentes. Para los usuarios empresariales, se trata de que los científicos de datos puedan hacer más. Se trata de que los usuarios empresariales obtengan más inferencias en tiempo real de su flujo de trabajo. También hay casos de uso para realizar el trabajo más rápido y con mayor colaboración. “, y multitarea”, dijo Jehani, destacando que estas funciones ya están disponibles con la generación actual de computadoras con tecnología de inteligencia artificial.

El director senior de HP en India explicó que para los consumidores minoristas, se trata de un viaje evolutivo. Si bien la IA podría proporcionar nuevas experiencias y funciones en el futuro, actualmente se centra en gran medida en mejorar las funciones existentes. Al dar algunos ejemplos, Gehani dijo que la IA generativa también está ayudando a mejorar las experiencias de trabajo híbridas, haciendo que las conferencias de audio y video sean más fáciles de usar y proporcionando una mejor duración de la batería en un dispositivo móvil. Se afirma que las computadoras portátiles HP ya han logrado avances significativos al brindar estas experiencias. En cuanto a las nuevas experiencias, Gehani sigue confiando en que también llegarán pronto.

[ad_2]

Source Article Link