en
ua
ru
de
pt
pl
fr
tr
fi
da
no
sv
es
EGW-NewsOthersMicrosoft delata a los piratas informáticos que están detrás de los ataques a la inteligencia artificial
Microsoft delata a los piratas informáticos que están detrás de los ataques a la inteligencia artificial
2921
0
0

Microsoft delata a los piratas informáticos que están detrás de los ataques a la inteligencia artificial

Microsoft Corp. dijo que ha identificado piratas informáticos criminales con sede en Estados Unidos y en el extranjero que eludieron las restricciones de las herramientas de inteligencia artificial generativa, incluidos los servicios Azure OpenAI de la compañía, para generar contenido dañino, incluidas imágenes íntimas no consensuadas de celebridades y otro contenido sexualmente explícito.

Chicken.gg
Free gems, plus daily, weekly, & monthly boosts!
Chicken.gg
CS:GO
Claim bonus
Rain.gg
3 FREE Cases & 5% Deposit Bonus
Rain.gg
CS:GO
Claim bonus
CSGOLuck
Free Case and 100% Welcome Bonus
CSGOLuck
CS:GO
Claim bonus

Los piratas informáticos extrajeron datos de inicio de sesión de clientes de fuentes públicas y los utilizaron para acceder a servicios de inteligencia artificial generativa, incluido Azure OpenAI, el producto en la nube de Microsoft que permite a los clientes utilizar los modelos de OpenAI, según la empresa. Luego, los piratas informáticos cambiaron las capacidades de los productos de inteligencia artificial y vendieron el acceso a otros grupos maliciosos, proporcionándoles instrucciones sobre cómo crear contenido dañino.

Microsoft delata a los piratas informáticos responsables de los ataques a la inteligencia artificial 1

Los piratas informáticos identificados por Microsoft tienen su base en Irán, el Reino Unido, Hong Kong y Vietnam. Supuestamente forman parte de una red mundial de delitos informáticos a la que Microsoft llama Storm-2139. Otros dos miembros están ubicados en Florida e Illinois, pero Microsoft dijo que no los nombrará para evitar descarrilar las investigaciones criminales. El fabricante de software dijo que está preparando remisiones de casos criminales a las fuerzas de seguridad estadounidenses y extranjeras.

La medida se produce en un momento en que la creciente popularidad de las herramientas de inteligencia artificial generativa genera inquietudes sobre su uso indebido para generar imágenes ilícitas falsas de figuras públicas y personas comunes, así como para crear material de abuso sexual infantil. Empresas como Microsoft y OpenAI prohíben este tipo de comportamiento y toman medidas tecnológicas para bloquearlo, pero los grupos maliciosos aún pueden intentar obtener acceso no autorizado.

“Nos tomamos muy en serio el uso indebido de la IA y reconocemos los efectos graves y duraderos que tienen las imágenes abusivas para las víctimas”.

Steven Masada, asesor general adjunto de la Unidad de Delitos Digitales de Microsoft, dijo el jueves en una publicación de blog.

“Microsoft mantiene su compromiso de proteger a los usuarios incorporando sólidas medidas de seguridad basadas en inteligencia artificial en nuestras plataformas y salvaguardando nuestros servicios de contenido ilegal y dañino”.

El anuncio de Microsoft sigue a una demanda que la compañía presentó en diciembre en el Distrito Este de Virginia contra 10 “John Doe” en un intento de reunir más información sobre el grupo de piratas informáticos e interrumpir sus actividades, dijo Masada en el blog.

El tribunal ha emitido sentencias que permiten a Microsoft confiscar un sitio web clave que utilizaban los piratas informáticos. Eso, y la revelación de documentos legales el mes pasado, generó pánico entre el grupo de piratas informáticos y provocó que algunos miembros se acusaran entre sí, algo que Microsoft pudo observar para identificar a algunos de ellos, según afirmó la empresa.

Microsoft se negó a identificar a las celebridades afectadas.

Comentar
¿Le gusta el artículo?
0
0

Comentarios

ARRIBA
FREE SUBSCRIPTION ON EXCLUSIVE CONTENT
Receive a selection of the most important and up-to-date news in the industry.
*
*Only important news, no spam.
SUBSCRIBE
LATER
Las cookies de este sitio web se usan para personalizar el contenido y los anuncios, ofrecer funciones de redes sociales y analizar el tráfico.
Personalizar
OK