Conceptos

Conceptos

156 bookmarks
Newest
We've All Been Wrong: Phishing Training Doesn't Work
We've All Been Wrong: Phishing Training Doesn't Work
The overwhelming majority of cyberattacks do occur due to some form of human error: an unwisely clicked link, a weak password, etc.
a team of 10 researchers from the University of Chicago, the University of California San Diego (UCSD), and UCSD Health performed a study of unprecedented scale in the cybersecurity industry. Over an eight month period in 2023, they studied the effects of phishing training on 19,789 personnel at UCSD Health, a large healthcare organization.
The intuitive sense behind the idea makes it extra compelling and may explain why it persists despite rigorous recent evidence to the contrary.
'We just need to make users aware.
the tips did not improve employees' ability to suss out real-life phishing emails. In fact, it actually had an unexpectedly regressive side effect: for having been exposed to the training, employees reported feeling safer online, seeing that their company was investing in cyber protections. Ironically, they ended up more likely to fall for bad emails.
Besides annual phishing courses, they examined four kinds of embedded training:
Static Web pages, developed by Proofpoint, with general tips on how to avoid phishing attacks
Interactive pages, with generalized Q&A exercises also sourced from Proofpoint's library
Static pages customized to the particular phishing email the employee had just fallen for
companies that deploy the most effective training courses available can expect a quarter of their employees to improve around 20%.
Static training demonstrated no benefit whatsoever, in no small part because employees simply weren't engaged.
Ironically, employees who completed multiple static training sessions became 18.5% more likely to fall for a phishing email.
The discouraging data piles on from there. Annual training is presumed to refresh employees' ability to fight bad emails, but the study found no such relationship — employees were approximately as likely to click a bad link one month after their course as they were after more than a year.
convincing phishing emails tricked even the most highly trained, best-performing employees more than 15% of the time, meaning that one well-crafted email can totally negate any benefits of any training at any company with more than a handful of employees.
What Now for Anti-Phishing Efforts?
With training we're saying: 'Hey, you are responsible, you need to learn.
Her study leaves open the possibility that certain, unexplored kinds of training could work, like more expensive, one-on-one in-person coaching.
"We're just saying the current methods aren't working."
·darkreading.com·
We've All Been Wrong: Phishing Training Doesn't Work
La discusión sobre la pornografía 'deepfake' pierde el rumbo
La discusión sobre la pornografía 'deepfake' pierde el rumbo
Las víctimas son acosadas con videos e imágenes explícitos realizados a su semejanza, una experiencia que algunos comparan con una agresión
estas conversaciones no van al grano. Dejan de lado el daño legítimo en favor de argumentos de mala fe. Al centrarse en lo ‘real’ frente a lo ‘falso’ se resta importancia al impacto duradero que estas imágenes tienen en los streamers y en sus carreras. "Nos duele", expresa Blaire. “A todas y cada una de las mujeres implicadas en esto nos lastima.”
Las fotos eran perturbadoras como tal, pero también desencadenaron la dismorfia corporal con la que ha luchado durante años. Vomitó el almuerzo por primera vez en mucho tiempo. “Ver estas fotos difundidas y notar que la gente te sexualiza contra tu voluntad, sin tu consentimiento, te hace sentir muy mal. Te sientes utilizada.”
Sobre todo, fueron los hombres en línea y fuera de ella y quienes no habían sufrido deepfaking, los que parecían decididos a decidir cuál era la forma adecuada de reaccionar
Hablar de lo que se siente al ser objeto de un deepfake tuvo el desafortunado efecto secundario de echar más leña al fuego
Mi trabajo no tendría que implicar que me acosen, que difundan fotos mías 'desnuda'... No debería. Y el hecho de que tenga que hacerlo es agotador."
Un usuario tuiteó una fotografía de una tablet donde aparecía Blaire; el dispositivo la mostraba en su streaming llorando llena de dolor, pero con la pantalla cubierta de semen
Las consecuencias para las víctimas de deepfakes
se siente al respecto", explica O'Connor. Con la pornografía, se convierte a una persona en objeto sexual contra su voluntad, en situaciones que algunos consideran degradantes o vergonzosas
En lugar del daño causado, su disculpa, y sobre todo su arrepentimiento y la forma en que lo había manejado, dominaron los comentarios y la conversación
Estos deepfakes no solo perjudican a las mujeres afectadas. La gente ha llegado incluso a acosar directamente a algunos miembros de su familia con esas fotos. El primo pequeño de Blaire entra de vez en cuando en sus transmisiones; después de encontrar su cuenta de Twitch, la gente le envió la imágenes por mensaje a él. "Eso es injusto", declara Blaire. "Tiene 17 años.
·es.wired.com·
La discusión sobre la pornografía 'deepfake' pierde el rumbo
Cómo procurar el autocuidado
Cómo procurar el autocuidado
El autocuidado es, según la definición de colectivas como Luchadoras: el conjunto de “acciones que podemos tomar de manera consciente para crear condiciones que nos permitan vivir con gozo y libertad.
·onlineharassmentfieldmanual.pen.org·
Cómo procurar el autocuidado
Las imágenes realistas pero falsas de abuso sexual infantil hechas por IA
Las imágenes realistas pero falsas de abuso sexual infantil hechas por IA
Los expertos en seguridad infantil se sienten cada vez más impotentes para impedir que, con inteligencia artificial, se creen fácilmente miles de imágenes de menores de edad en actividades sexuales y después se compartan en foros de pedófilos de la dark web, según informa The Washington Post.
Los contenidos nocivos hechos con inteligencia artificial también contribuyen a revictimizar a cualquier persona cuyas imágenes de abusos anteriores se utilicen para entrenar modelos de IA que generen fotos falsas.
podría contribuir a normalizar la explotación sexual infantil, atraer a más niños a situaciones de riesgo y dificultar la labor de las fuerzas de seguridad para encontrar a menores de edad que son víctimas reales de estos delitos
“Aproximadamente el 80% de los encuestados” en un sondeo publicado en un foro de la dark web con 3,000 miembros, afirmaron que “habían utilizado o tenían intención de usar herramientas de IA para crear imágenes de abusos sexuales a menores”
funcionarios del Departamento de Justicia de Estados Unidos manifestaron al Post que las imágenes de IA que sexualizan a menores de edad siguen violando las leyes federales de protección de la infancia.
Stability AI, creadora de Stable Diffusion, no registra todas las imágenes de su servicio, como hacen otras herramientas de inteligencia artificial como Midjourney y DALL-E.
Stability AI declaró al Post que prohíbe la creación de contenidos obscenos, coopera con las fuerzas de seguridad para localizar a los infractores de sus políticas y “ha eliminado el material explícito de sus datos de entrenamiento”
“cualquiera puede descargar” Stable Diffusion “a su computadora y ejecutarlo como quiera”
los filtros de imágenes explícitas, pueden eludirse fácilmente con solo añadir unas pocas líneas de código, algo que, al parecer, los usuarios aprenden para este fin leyendo una guía de la dark web sobre el uso de herramientas de IA.
El FBI instó a los padres a ser conscientes de los peligros, limitar lo que comparten los menores y supervisar quién puede ver sus contenidos en internet
Una ley “prohíbe a cualquier persona producir, distribuir, recibir o poseer conscientemente con intención de transferir o difundir, representaciones visuales, como dibujos, caricaturas o pinturas, que aparenten representar a menores de edad en conductas sexualmente explícitas y se consideren obscenas”.
otra ley “define la pornografía infantil como cualquier representación visual de una conducta sexualmente explícita en la que participe un menor de edad”
comercio ilegal de contenido de abuso sexual infantil (CSAM, por sus siglas en inglés).
innovar soluciones, como imprimir un código en las imágenes de IA para que los creadores estén siempre vinculados a sus contenidos. Esto podría disuadir a algunos de realizar material ofensivo.
demás, existe una propuesta mucho más delicada que solo prosperaría con la aprobación del gobierno. Las compañías entrenarían modelos de inteligencia artificial con imágenes falsas de explotación sexual infantil para crear sistemas de detección más sofisticados. Sin embargo, sin las medidas de protección adecuadas, esta opción daría lugar a que las empresas desarrollaran modelos de IA mucho mejores para generar imágenes aún más realistas.
detectado “contenidos que migran de los foros de la dark web a la red común” y ha encontrado “numerosos ejemplos” en “las principales plataformas de redes sociales”.
·es.wired.com·
Las imágenes realistas pero falsas de abuso sexual infantil hechas por IA